ローカルでもろもろ気兼ねなくLLMに要約や加工を任せたいと思いまして用意することにしました。
ollama
ローカルでLLMを動かしてくれるサーバー
言語モデル
まずはこちらを使ってみています
ollama serve ollama pull gemma2:9b ollama run gemma2:9b
その後、Llama 3 ELYZA JP 8Bも入れてみてます
Embeddingのbge-m3
gptme
LLMのCLIクライアント
設定を施してollamaに繋ぐ gptme.org
"# Uncomment to use with Ollama"部分を記載。モデル名は ollama list
でとれる。
使い方
パイプで繋いで渡せるのがいい zenn.dev
導通
--- ^^^ past messages ^^^ --- User: こんにちはー! Assistant: Hello! 👋 It's nice to meet you. What can I help you with today? 😊 User:
obsidian-copilot
設定を施してollamaに繋ぐ github.com
OLLAMA_ORIGINS="app://obsidian.md*" ollama serve
ollamaのGUIクライアント
Settingsでモデルを選んでやるといい。