スキップしてメイン コンテンツに移動

Ollama使い方マスター:CLIコマンドとモデル管理のすべて

Ollama使い方マスター:CLIコマンドとモデル管理のすべて

01. はじめに

前回はOllamaのインストールと実行方法について解説しました。しかし、Ollamaの真価は、その強力かつシンプルなCLI(Command Line Interface)ツールにあります。「モデルを追加したい」「古いモデルを削除したい」「プロンプトをパイプで渡して自動化したい」といった要望に応えるため、Ollamaには豊富なサブコマンドが用意されています。

本記事では、日常的に使用する基本コマンドから、開発効率を爆上げするパイプ処理などの応用テクニックまで、OllamaのCLI操作を完全にマスターするためのガイドを提供します。これであなたもターミナルから自由自在にAIを操れるようになります。

02. 基本コマンド一覧と操作

Basic Syntax

基本構文は ollama [command] [model] です。困ったときは ollama --help でいつでもヘルプを呼び出せます。

対話モードの起動 (Run)

最も頻繁に使うのが run コマンドです。モデル名を指定して実行すると、対話型のチャットセッションが開始されます。モデルがローカルにない場合は自動的にダウンロードされます。

# 基本的な実行
ollama run llama3

# 実行すると >>> プロンプトが表示され、すぐに対話可能
>>> Pythonの勉強方法を教えて?
Pythonを学ぶには...

03. モデルの管理(Pull/List/Rm)

ローカルに保存されているモデル(イメージ)の管理方法を学びましょう。Dockerコマンドに非常に似ているため、直感的に操作できます。

モデルの明示的なダウンロード (Pull)

実行はせずにダウンロードだけしておきたい場合に使用します。例えば、会議前に重いモデルを落としておく時などに便利です。

ollama pull mistral
# 特定のタグ(バージョン)を指定する場合
ollama pull llama3:70b

インストール済みモデルの確認 (List)

現在ローカルにあるモデル一覧と、それぞれのファイルサイズ、更新日時を確認します。

ollama list

# 出力例
# NAME            ID              SIZE    MODIFIED
# llama3:latest   365c0bd38000    4.7 GB  2 days ago
# mistral:latest  61e88e884507    4.1 GB  5 days ago

不要なモデルの削除 (Rm)

LLMは非常に容量を食います(数GB〜数十GB)。ディスク容量を圧迫してきたら、使わないモデルは削除しましょう。

ollama rm mistral

04. 上級テクニック(プロンプト渡し)

Ollamaは標準入力(stdin)からのパイプ入力を受け付けます。これにより、対話モードに入ることなく、コマンドの結果をAIに渡して処理させることが可能になります。

パイプライン処理の例

例えば、「現在のディレクトリのファイル一覧」をAIに渡して、「README.mdを作ってもらう」という操作がワンライナーで可能です。

ls -la | ollama run llama3 "これらのファイル構成を基に、プロジェクトのREADME.mdを作成して"

他にも、「ログファイルのエラー箇所を探させる」「Gitの差分を見てコミットメッセージを考えさせる」など、シェルスクリプトとの親和性は抜群です。

マルチライン入力

対話モード中に複数行のコードなどをペーストしたい場合は、""" で囲むことでマルチラインモードとして認識されます(モデルによりますが、プロンプトとして安全に渡せます)。

05. よくある操作ミスと対策

モデル名を間違えてダウンロードしてしまう

現象: ollama run lams3 のようにタイプミスすると、Ollamaは「新しいモデル名」だと思ってリポジトリを探しに行き、エラーになります(または意図しないモデルを落とそうとする)。

対策: まず ollama list で手持ちのモデル名を確認するか、タブ補完が効く環境(zshのプラグイン導入など)を整備することをお勧めします。

バックグラウンド実行させたい

現象: ollama serve を手動で叩くとターミナルが占有される。

対策: macOSなら brew services start ollama を、Linuxなら systemctl を使ってデーモン化するのが正解です。手動で実行する必要は基本的にありません。

06. まとめ

OllamaのCLI操作をマスターすることで、単なる「チャットボット」としてだけでなく、「開発支援ツール」や「自動化のバックエンド」としてAIを活用できるようになります。

Automation Idea

定期的にログを監視し、エラーが出たらOllamaに解析させてSlackに通知するスクリプトを書いてみてはいかがでしょうか?CLIだけで実装可能です。

次回は、複数のモデルの性能を比較し、用途に応じた最適なモデルの選び方について深掘りしていきます。

© 2026 Antigravity Blog Generator. All rights reserved.

コメント