Ollama 0.21 が Hermes Agent をサポート — ローカルLLMでエージェントが動く時代へ

益子 竜与志
益子 竜与志
XThreads
最終更新日:2026年04月18日公開日:2026年04月18日

Ollama v0.21.0 では新たに ollama launch hermes コマンドが追加され、NousResearch 製の自己改善型 AI エージェント「Hermes Agent」をワンコマンドでローカル環境に立ち上げられるようになりました。47 種類以上の組み込みツールと MCP(Model Context Protocol)のネイティブサポートを備えたエージェントが、プライバシーを守りながらオフラインで動作します。本記事では Hermes Agent の仕組み・Tool Calling の実装方法・MCP との連携を解説します。

Ollama 0.21 の新機能とは

2026年4月、Ollama の最新バージョン v0.21.0 がリリースされました。このリリースで最も注目すべき追加機能が、ollama launch hermes コマンドです。このコマンドひとつで、NousResearch が開発した自己改善型 AI エージェント「Hermes Agent」をローカル環境にすぐ立ち上げられるようになりました。

これまでローカル LLM でエージェントを動かすには、モデルのダウンロード・エンドポイントの設定・エージェントフレームワークの構築など、複数のステップを手動でこなす必要がありました。v0.21.0 ではこれらをワンコマンドで自動化します。

ollama launch hermes

コマンドを実行すると、Hermes Agent のインストール・モデルの選択・ローカルエンドポイント(http://127.0.0.1:11434/v1)の設定・プラットフォーム統合までが一括で処理されます。

v0.21.0 ではほかにも、Apple Silicon Mac 向けに Gemma 4 の MLX サポートGitHub Copilot CLI 統合が追加されました。Gemma 4 の MLX 対応により、M シリーズチップを搭載した Mac でより高速にモデルを実行できるようになっています。

Hermes Agent とはどんなエージェントか

Hermes Agent は NousResearch が開発したオープンソースの AI エージェントです。GitHub でスター数 95,600 以上を獲得しており(2026年4月時点)、そのキャッチコピーは「The agent that grows with you(あなたと共に成長するエージェント)」です。

最大の特徴は自己改善機能にあります。エージェントはタスクを実行するたびに、その経験をスキルファイル(~/.hermes/skills/)として保存します。同じカテゴリのタスクを次回以降に受けたとき、学習済みのスキルを自動的に再利用することで、精度と速度が向上していく仕組みになっています。

組み込みツールは 47 種類以上を備えており、以下のような操作をエージェントが自律的に実行できます。

  • Web 検索・情報収集
  • ターミナルコマンドの実行
  • ブラウザの自動化
  • ファイルの読み書き
  • コードの生成と実行

また、Slack・Telegram・Discord など 15 種類以上のメッセージングプラットフォームと統合できるため、普段使いのツールから直接エージェントを操作できます。

なお「Hermes」という名前は、Ollama と Hermes Agent の両方で使われているため混同しやすいですが、区別して理解することが重要です。NousResearch の「hermes3」は Ollama ライブラリで公開されている LLM モデルであり、Hermes Agent はそのモデルをベースに構築されたエージェントフレームワークです。

Hermes AgentのTool Calling仕組みを解説するインフォグラフィック
Hermes Agent のツール呼び出しフロー — ChatML + XML タグでユーザー・エージェント・ツールが連携する

Tool Calling の実装と OpenAI 互換 API との連携

Hermes モデルは ChatML 形式と XML タグを組み合わせた独自の Tool Calling 仕様を採用しています。システムプロンプト内に <tools> タグでツール定義を記述し、モデルが <tool_call> タグでツールを呼び出し、<tool_response> タグで結果を受け取る流れになっています。

Ollama は OpenAI 互換 API(http://localhost:11434/v1/chat/completions)を提供しているため、既存の OpenAI SDK や HTTP クライアントをそのまま流用できます。リクエストボディに tools 配列でツール定義を渡し、tool_choiceauto を指定することで、モデルがユーザーの意図を判断して適切なタイミングでツールを自律的に選択します。

レスポンスにはモデルが選択したツール名と引数が含まれます。アプリケーション側でそのツールを実行し、結果を tool ロールのメッセージとして返すと、モデルが最終回答を生成します。OpenAI SDK を使う場合も、base_urlhttp://localhost:11434/v1 に変更するだけで既存のコードをそのまま流用できます。外部 API を一切使わず、ローカルモデルだけでこの機能を実現できることが Ollama の大きな強みです。

MCP(Model Context Protocol)との連携

AI エージェント界隈で注目を集めている MCP(Model Context Protocol)との連携について解説します。Anthropic が提唱したこのプロトコルは、LLM と外部ツール・データソースを統一的なインターフェースで接続する仕組みです。

現時点では、Ollama 本体は MCP にネイティブ対応していません(GitHub Issue #7865 で対応が議論されています)。ただし、Hermes Agent は MCP をネイティブサポートしており、設定ファイル(~/.hermes/config.yaml)に接続情報を記述するだけで任意の MCP サーバーに接続できます。

設定例として、ローカルファイルシステム・GitHub・PostgreSQL の MCP サーバーを追加する場合、以下のような JSON 相当の設定を行います。

{
  "mcp": {
    "servers": [
      {
        "name": "filesystem",
        "command": "npx",
        "args": ["-y", "@modelcontextprotocol/server-filesystem", "/home/user/documents"]
      },
      {
        "name": "github",
        "command": "uvx",
        "args": ["mcp-server-github"],
        "env": {"GITHUB_TOKEN": "your-token-here"}
      }
    ]
  }
}

設定後、Hermes Agent は接続されたサーバーのツールを自動的に認識し、mcp_<サーバー名>_<ツール名> という命名規則でツールとして登録します。例えば、filesystem サーバーのファイル読み込みツールは mcp_filesystem_read_file として利用可能になります。

これにより、ローカルのファイルシステム・データベース・外部サービスを Hermes Agent が自律的に操作できるようになります。Ollama 本体の MCP 対応を待たずに、エージェントレベルで幅広いツールとの統合が実現している点は非常に実用的です。

Hermes AgentとMCPサーバーの連携を示すインフォグラフィック
Hermes Agent の MCP 連携 — config.yaml に記述するだけで複数の MCP サーバーに接続できる

ローカルエージェントを実用するための推奨構成

Hermes Agent を実際に活用するにあたって、モデル選択と環境構成が成否を分けます。長期的なタスクをこなせるエージェントを動かすには、64K コンテキスト以上のモデルが最低条件とされています。

主な推奨モデルの比較を以下に示します。

  • Qwen 3.5 27B — TAU2 Agentic Benchmark で 79% のスコアを達成。エージェント用途に最適化されており、バランスのよいモデルです。
  • Gemma 4 26B MoE — Apple Silicon 向けに MLX 経由での実行に対応。M シリーズ Mac で高速に動作し、リソース効率も優れています。
  • hermes3(NousResearch)— Ollama の公式ライブラリで提供。ChatML + XML のツール呼び出しに特化しており、Hermes Agent との相性が最も良いモデルです。

ローカルでエージェントを動かすことには、クラウド API では得られないメリットがあります。

  • プライバシー保護 — 入力データがローカルから外部に送信されないため、機密情報を含むタスクも安全に処理できます。
  • API コストの削減 — 一度モデルをダウンロードすれば、追加コストなしで無制限に利用できます。
  • オフライン動作 — インターネット接続がない環境でも、ツール呼び出しを含む高度なタスクを実行できます。
  • カスタマイズの自由度 — モデルパラメーターやプロンプトテンプレートを自由に調整できます。

初めて試す場合は、ollama pull hermes3 でモデルを取得し、ollama launch hermes でエージェントを起動するのが最も手軽です。Slack などすでに使用しているプラットフォームと連携すれば、日常業務の自動化をすぐに試せます。

まとめ

Ollama v0.21.0 で追加された Hermes Agent サポートは、ローカル LLM の活用領域を大きく広げるものです。ollama launch hermes というシンプルなコマンドで、47 種類以上のツールと MCP ネイティブ対応を備えたエージェントがすぐに手元で動きます。

これまでエージェント構築に必要だった複雑なセットアップが不要になり、エンジニアはエージェントの活用・改善に集中できるようになりました。スキルファイルによる自己改善の仕組みは、使い続けるほど精度と効率が向上する点でユニークです。

プライバシーを守りながら、コストをかけずにローカルでエージェントを動かせる時代が来ています。Ollama と Hermes Agent の組み合わせは、その入り口として最も手軽な選択肢の一つです。ぜひ手元の環境で試してみてください。

IT/DXプロジェクト推進するPMO・コンサル人材を提供しています

AI利活用×高生産性のリソースで、あらゆるIT/DXプロジェクトを一気通貫支援します

詳しく見る →
AI駆動型ITコンサルティング
Careerバナーconsultingバナー