Ollama使い方マスター:CLIコマンドとモデル管理のすべて
01. はじめに
前回はOllamaのインストールと実行方法について解説しました。しかし、Ollamaの真価は、その強力かつシンプルなCLI(Command Line Interface)ツールにあります。「モデルを追加したい」「古いモデルを削除したい」「プロンプトをパイプで渡して自動化したい」といった要望に応えるため、Ollamaには豊富なサブコマンドが用意されています。
本記事では、日常的に使用する基本コマンドから、開発効率を爆上げするパイプ処理などの応用テクニックまで、OllamaのCLI操作を完全にマスターするためのガイドを提供します。これであなたもターミナルから自由自在にAIを操れるようになります。
02. 基本コマンド一覧と操作
基本構文は ollama [command] [model] です。困ったときは ollama --help でいつでもヘルプを呼び出せます。
対話モードの起動 (Run)
最も頻繁に使うのが run コマンドです。モデル名を指定して実行すると、対話型のチャットセッションが開始されます。モデルがローカルにない場合は自動的にダウンロードされます。
# 基本的な実行
ollama run llama3
# 実行すると >>> プロンプトが表示され、すぐに対話可能
>>> Pythonの勉強方法を教えて?
Pythonを学ぶには...
03. モデルの管理(Pull/List/Rm)
ローカルに保存されているモデル(イメージ)の管理方法を学びましょう。Dockerコマンドに非常に似ているため、直感的に操作できます。
モデルの明示的なダウンロード (Pull)
実行はせずにダウンロードだけしておきたい場合に使用します。例えば、会議前に重いモデルを落としておく時などに便利です。
ollama pull mistral
# 特定のタグ(バージョン)を指定する場合
ollama pull llama3:70b
インストール済みモデルの確認 (List)
現在ローカルにあるモデル一覧と、それぞれのファイルサイズ、更新日時を確認します。
ollama list
# 出力例
# NAME ID SIZE MODIFIED
# llama3:latest 365c0bd38000 4.7 GB 2 days ago
# mistral:latest 61e88e884507 4.1 GB 5 days ago
不要なモデルの削除 (Rm)
LLMは非常に容量を食います(数GB〜数十GB)。ディスク容量を圧迫してきたら、使わないモデルは削除しましょう。
ollama rm mistral
04. 上級テクニック(プロンプト渡し)
Ollamaは標準入力(stdin)からのパイプ入力を受け付けます。これにより、対話モードに入ることなく、コマンドの結果をAIに渡して処理させることが可能になります。
パイプライン処理の例
例えば、「現在のディレクトリのファイル一覧」をAIに渡して、「README.mdを作ってもらう」という操作がワンライナーで可能です。
ls -la | ollama run llama3 "これらのファイル構成を基に、プロジェクトのREADME.mdを作成して"
他にも、「ログファイルのエラー箇所を探させる」「Gitの差分を見てコミットメッセージを考えさせる」など、シェルスクリプトとの親和性は抜群です。
マルチライン入力
対話モード中に複数行のコードなどをペーストしたい場合は、""" で囲むことでマルチラインモードとして認識されます(モデルによりますが、プロンプトとして安全に渡せます)。
05. よくある操作ミスと対策
モデル名を間違えてダウンロードしてしまう
現象: ollama run lams3
のようにタイプミスすると、Ollamaは「新しいモデル名」だと思ってリポジトリを探しに行き、エラーになります(または意図しないモデルを落とそうとする)。
対策: まず ollama list で手持ちのモデル名を確認するか、タブ補完が効く環境(zshのプラグイン導入など)を整備することをお勧めします。
バックグラウンド実行させたい
現象: ollama serve を手動で叩くとターミナルが占有される。
対策: macOSなら brew services start ollama を、Linuxなら systemctl
を使ってデーモン化するのが正解です。手動で実行する必要は基本的にありません。
06. まとめ
OllamaのCLI操作をマスターすることで、単なる「チャットボット」としてだけでなく、「開発支援ツール」や「自動化のバックエンド」としてAIを活用できるようになります。
定期的にログを監視し、エラーが出たらOllamaに解析させてSlackに通知するスクリプトを書いてみてはいかがでしょうか?CLIだけで実装可能です。
次回は、複数のモデルの性能を比較し、用途に応じた最適なモデルの選び方について深掘りしていきます。
コメント
コメントを投稿