ローカル LLM を自宅サーバーで動かして Chatbot を作る

今までローカル LLM を色々と試してきたわけだが、ついに集大成として Chatbot を作るに至った。

Poppins1

結局、結論としては、

  • モデル: elyza/ELYZA-japanese-Llama-2-13b-fast-instruct を使う
    • 正確には GGUF がほしいので こちらELYZA-japanese-Llama-2-13b-fast-instruct-q4_K_S.gguf を使うことにした
  • サーバー: llama-cpp-python を docker で動かす。
    • TinyLLM をめちゃくちゃ参考にした
    • vLLM は設定が悪いのか GPU メモリエラーになるのでひとまず諦めた
  • クライアント: nlux というのが React で動くチャットボットの UI をすぐに作れるので採用した

動かしてみる

Poppins2

そこそこまともに回答してくれる。

ソースコードサンプル

そのうち作る。


掲示板にコメントする
※どの記事のコメントかわかるように本文に記事タイトルなどを入れてください。
一覧に戻る