はじめに — 今週もアップデートが止まらない
Ragateの益子です。毎週恒例の「週刊生成AI with AWS」、2026年3月16日週のアップデートをキャッチアップしていきます。
今週はですね、正直ちょっと量が多い。AgentCore Runtime周りの新機能が3つ同時に来て、新モデルも3つ追加、さらにNZリージョン対応にPartner CentralのGA……。「全部試すぞ」と意気込んで週末を潰した結果をお届けします。試せなかったものもあるので、そのあたりは正直に書いていきますね。
Amazon Bedrock AgentCore でネットワーク運用エージェントを構築してみた

まず最初に目に入ったのが、AWSブログで公開された「Amazon Bedrock AgentCoreによる高度なネットワーク運用エージェントの構築」という記事です。深夜のネットワーク障害を自動で診断・修復するエージェントを、AgentCoreのビルディングブロックを組み合わせて作るという内容で、これはもう読んだ瞬間に「試すしかない」と思いました。
ブログで紹介されているアーキテクチャは7つのビルディングブロックで構成されています。
ビルディングブロック | 役割 |
|---|---|
Interface & Integration | 外部システムとの接続ポイント。CloudWatch アラームやSlack通知などをトリガーにする |
Security & Operations | IAMロールやVPCの設定。エージェントが触れるリソースの範囲を制御する |
Intelligence | LLMによる推論エンジン。障害の原因分析と修復手順の生成を担当 |
Orchestration | ツール呼び出しの順序制御。複数のAWSサービスAPIを適切な順番で実行する |
Memory | 過去の障害対応履歴を保持。同様の障害に対してより迅速に対応できるようになる |
Deployment | エージェントのデプロイ管理。バージョニングやロールバックもサポート |
Evaluation | エージェントの応答品質を評価。修復アクションが適切だったかを検証する |
実際にこのアーキテクチャに沿って簡易的なネットワーク運用エージェントを組んでみたんですが、モジュラーなアプローチが非常にわかりやすい。特にMemoryの部分が面白くて、過去に対応したVPCのルーティング障害の情報をエージェントが覚えていてくれるので、似たような障害が起きたときの初動がめちゃくちゃ速くなるんですよね。
ぶっちゃけ、これまでネットワーク障害の初期対応って「まずCloudWatch見て、VPC Flow Logs見て、Security Group確認して……」みたいな定型作業の連続だったので、エージェントに任せられる部分が大きい。もちろん本番環境でいきなり自動修復させるのは怖いので、まずは「診断して修復案を提示する」ところまでを自動化するのが現実的かなと思います。
新モデル3種を Bedrock で触ってみた

今週はBedrock に新しいモデルが一気に3つ追加されました。しかも全部エージェント向けという、かなり攻めたラインナップです。それぞれ実際にBedrockのコンソールから触ってみたので、感触をまとめます。
Minimax M2.5 — エージェントネイティブの実力派
Minimax M2.5は「エージェントネイティブ」を謳っているモデルで、効率的な推論とタスク分解に特化しています。実際に使ってみて感じたのは、複雑なタスクを投げたときの分解の仕方がとにかく上手いということ。
たとえば「S3バケットのコスト最適化レポートを作って」という指示を出すと、まず現在のバケット一覧の取得、次にストレージクラスの分析、アクセスパターンの確認、最適化提案の生成……という具合に、きれいにステップを分解してくれます。他のモデルだと「まとめてやろうとして途中で混乱する」パターンがたまにあるんですが、M2.5はそこがブレない。
あと地味にいいなと思ったのが、実行速度。「実世界の時間・コスト制約下で複雑なワークフローを完了する」という設計思想が公式の説明にもありましたが、確かにレスポンスが速い。エージェントのツール呼び出しでモデルの推論待ちが長いとユーザー体験がかなり悪化するので、この速度感は嬉しいですね。
GLM 5 — システムエンジニアリングの深い理解
GLM 5は「複雑なシステムエンジニアリングや長期的なエージェンティックタスク」向けということで、かなり骨太なモデルです。
試しにCloudFormationテンプレートのレビューと改善提案を依頼してみたんですが、これがなかなか鋭い。単にシンタックスエラーを見つけるだけじゃなくて、「このリソース構成だとAZ障害時に影響範囲が広すぎる」みたいなアーキテクチャレベルの指摘も出してきます。
「長期的なエージェンティックタスク」という特徴については、実際に長いコンテキストを渡して検証してみました。複数のマイクロサービスのアーキテクチャドキュメントを一括で渡して「サービス間の依存関係を分析して、単一障害点を特定して」と頼んだところ、かなり正確にボトルネックを洗い出してくれました。長いコンテキストでも精度が落ちにくい印象です。
ただ、M2.5と比べるとレスポンスはやや遅め。その分、回答の深さは上という感じなので、用途によって使い分けるのがよさそうです。
NVIDIA Nemotron 3 Super — MoEの真価
個人的に一番注目していたのがNemotron 3 Super。Mixture-of-Experts(MoE)アーキテクチャを採用したオープンモデルで、マルチエージェント向けに設計されています。
MoEの何が嬉しいかというと、パラメータ数の割に推論コストが低い。全パラメータを毎回使うのではなく、入力に応じて適切な「専門家」だけを活性化するので、高い性能と低コストを両立できます。
マルチエージェントのシナリオで試してみました。3つのエージェント(情報収集、分析、レポート作成)を連携させて、AWSのコスト分析レポートを自動生成するワークフローです。Nemotron 3 Superを各エージェントのバックエンドに使ったところ、エージェント間のコンテキスト引き継ぎがスムーズで、マルチステップでも回答の品質が安定していました。
そしてオープンモデルなので、重み、データセット、レシピが全部公開されています。カスタマイズしたい人にはたまらないですよね。Bedrockのマネージド環境で手軽に使えるのに、必要になったら自分でファインチューニングもできるという柔軟さは大きな差別化ポイントだと思います。
3モデルの比較を表にまとめておきます。
モデル | 得意領域 | 推論速度 | 特徴 |
|---|---|---|---|
Minimax M2.5 | タスク分解・ワークフロー実行 | 高速 | エージェントネイティブ設計、コスト効率が高い |
GLM 5 | システムエンジニアリング・長期タスク | やや遅め | 深い推論能力、長コンテキストに強い |
NVIDIA Nemotron 3 Super | マルチエージェント連携 | 高速 | MoEアーキテクチャ、完全オープン |
AgentCore Runtime の新機能を片っ端から試した

今週のアップデートの中で一番ボリュームがあったのが、AgentCore Runtimeの新機能3連発です。AG-UIプロトコル、シェルコマンド実行、WebRTCストリーミング。全部東京リージョンで使えるので、片っ端から試しました。
AG-UI プロトコル — エージェントとUIの架け橋
AG-UI(Agent-User Interaction)プロトコルは、AIエージェントとユーザーインターフェースの間の通信を標準化するオープンなイベントベースのプロトコルです。
これまでエージェントの応答をUIに反映するには、自前でストリーミング処理やUI更新のロジックを書く必要がありました。AG-UIを使うと、テキストチャンクのリアルタイムストリーミング、ツール実行結果の即座反映、UIコンポーネントの状態同期といったことが標準化された形で実現できます。
実際にシンプルなチャットUIを作ってAG-UIプロトコルで接続してみたんですが、エージェントがツールを呼び出している最中にも「今〇〇を実行中です」みたいなステータスがリアルタイムで表示されるのが良い。ユーザーからすると「何やってるかわからないまま待たされる」のが一番ストレスなので、この透明性は大きいです。
既存のMCP(ツール連携)やA2A(エージェント間通信)と合わせると、エージェントの通信レイヤーがかなり整理されてきた感があります。MCPでツールと繋がり、A2Aでエージェント同士が連携し、AG-UIでユーザーに見せる。この3層構造はエージェント開発のスタンダードになりそうです。
シェルコマンド実行(InvokeAgentRuntimeCommand API)
これ、待ってました。InvokeAgentRuntimeCommand APIを使うと、AgentCore Runtimeのセッション内でシェルコマンドを直接実行できるようになります。
何が嬉しいかというと、LLMの推論とシステムコマンドの実行をシームレスに組み合わせられる点です。たとえばコーディングエージェントを作るとき、これまでは「LLMがコードを生成 → 外部でテスト実行 → 結果をLLMに戻す」みたいな面倒なパイプラインを自前で組む必要がありました。InvokeAgentRuntimeCommand APIがあれば、エージェントのセッション内で直接テストを実行して結果を確認できます。
試しに簡単なコーディングエージェントを組んでみました。Pythonのコードを生成して、そのまま同じセッション内でpytestを実行、テスト結果を見てコードを修正……という一連のフローがエージェント単体で完結します。これは開発体験として相当スムーズです。
他にもgitコマンドの実行、依存関係のインストール、ログの確認など、「ちょっとシェルで確認したい」場面は無数にあるので、ユースケースはかなり広いと思います。個人的にはCI/CDパイプラインとの統合が一番実用的かなと。デプロイエージェントがデプロイコマンドを直接叩けるようになるわけですからね。
WebRTC 双方向リアルタイムストリーミング
AgentCore RuntimeにWebRTCサポートが追加されました。これまでWebSocketベースのストリーミングはありましたが、WebRTCが加わることで音声・映像の双方向リアルタイム通信が可能になります。
WebRTCはUDPベースのピアツーピア通信なので、WebSocketと比べてレイテンシーが低い。特に音声エージェントを作るときに威力を発揮します。実際に音声入力 → エージェント処理 → 音声出力というフローを組んでみましたが、応答のラグがWebSocket版と比べて体感でかなり改善されています。
構成としては、Amazon Kinesis Video StreamsのマネージドTURNサーバーを使う方法と、サードパーティのTURNサーバーを使う方法が選べます。マネージドTURNを使えばインフラの面倒を見なくて済むので、プロトタイピングにはこちらがおすすめです。
ブラウザやモバイルアプリから直接音声でエージェントとやり取りできるのは、カスタマーサポートのユースケースなんかで需要が大きいはず。WebRTCは枯れた技術なので、既存のWeb会議システムとの統合もやりやすいのがポイントです。
Amazon Bedrock がNZリージョンに対応
Amazon Bedrockがアジアパシフィック(ニュージーランド)リージョンで利用可能になりました。対応モデルは以下の通りです。
プロバイダ | 利用可能モデル | 備考 |
|---|---|---|
Anthropic | Sonnet 4.5 / 4.6、Opus 4.5 / 4.6、Haiku 4.5 | クロスリージョン推論で利用可能 |
Amazon | Nova 2 Lite | クロスリージョン推論で利用可能 |
ニュージーランドにエンドユーザーがいる場合は物理的に近いリージョンを使えるので、レイテンシーの改善が期待できます。日本から直接使うメリットは薄いですが、アジアパシフィック全体でBedrockの利用可能リージョンが広がっていくのは良い傾向ですね。
クロスリージョン推論に対応しているので、東京リージョンのアプリケーションからNZリージョンのモデルを呼び出すことも技術的には可能です。ただしレイテンシー的には東京リージョンをそのまま使うほうが有利なので、あくまでニュージーランド近辺のワークロード向けと考えるのが良いでしょう。
AWS Partner Central の AI エージェント機能が GA
AWS Partner Centralで、AgentCore上に構築されたAIエージェント機能が一般提供開始になりました。
これはAWSパートナーの営業チーム向けの機能で、パイプラインインサイト、営業プレイのカスタマイズ、次のステップの推奨などをAIエージェントが提供してくれます。会議のトランスクリプトやメモを共有すると、エージェントが自動的にフィールドを埋めて案件を進めてくれるというもの。
RagateはAWSパートナーなので、この機能は実際に使える立場にあります。まだ本格運用はこれからですが、軽く触った限りでは、案件の進捗管理やネクストアクションの提案がなかなか的確。特に会議メモからの自動入力は、営業事務の工数削減にかなり効きそうです。
MCPを通じたプログラマティックなアクセスにも対応しているので、既存のCRMシステムとの連携も可能。SalesforceやHubSpotとBedrock AgentCoreを繋いで、営業プロセス全体をAIで最適化するような使い方が見えてきます。
「AgentCoreで構築された」というのがポイントで、AWSが自社のサービスでAgentCoreの実力を示しているとも言えます。Partner CentralがAgentCoreのショーケースになっている感じですね。
今後試してみたいアップデート
ここからは、今回の期間内に十分に検証できなかったアップデートをまとめます。どれも面白そうなので、時間を見つけて試していきたいと思っています。
SageMaker HyperPod アイドルリソース共有
HyperPodのタスクガバナンスに動的リソース共有機能が追加されました。チームが保証されたクォータを超えて、未使用のコンピュートキャパシティをベストエフォートで借用できるようになるというもの。
高価なGPUインスタンスがアイドル状態で放置されるのは本当にもったいないので、この機能のニーズは高いはず。管理者がアクセラレータ・vCPU・メモリごとに借用上限を設定できるので、「気づいたら別チームにリソース全部持っていかれてた」みたいなことも防げます。東京リージョンで使えるので、大規模なML学習環境を運用しているチームにはぜひ試してほしい機能です。今後検証環境を整えて実際に試してみたいと思っています。
SageMaker Training Plans 延長機能
Training Plansのキャパシティコミットメントを延長できるようになりました。学習ジョブが予想より長引いたときに、プランを延長して中断なく実行を継続できるのは地味にありがたい。1日単位で最大14日、または7日単位で最大182日の延長が可能です。これまでは「プランが切れたら再購入して再設定」だったので、運用の手間がかなり減りそうです。こちらも実際のトレーニングジョブで試してみたいですね。
NIXL と EFA の統合
NVIDIAのNIXL(Inference Xfer Library)とEFA(Elastic Fabric Adapter)の統合がサポートされました。分離型LLM推論におけるKVキャッシュのスループット向上、トークン間レイテンシーの削減が期待できます。NVIDIA Dynamo、SGLang、vLLMなどのフレームワークとネイティブ統合されているので、これらを使って大規模な推論環境を運用している場合は効果が大きそう。EFA対応のEC2インスタンスで追加コストなしで使えるのも嬉しいポイントです。推論基盤のチューニングをする機会があれば、ぜひ試してみたいと思っています。
AWS Neuron EKS DRA サポート
AWS NeuronのDynamic Resource Allocation(DRA)ドライバーがEKSで利用可能になりました。Kubernetesネイティブなハードウェア対応スケジューリングをTrainiumベースのインスタンスに提供するもので、インフラチームがResourceClaimTemplateを定義して、MLエンジニアはハードウェアの詳細を気にせずデプロイできるようになります。分散トレーニングや分離型推論のスケーリングが容易になるので、EKS上でMLワークロードを動かしている環境では効果が大きいはず。Kubernetes周りの環境を整えて試してみたいところです。
AWS Security Agent ペネトレーションテストレポート
AWS Security Agentにペネトレーションテストレポートのダウンロード機能が追加されました。リスクレベル、信頼度、ステータスなどのフィルターでカスタマイズしたレポートをPDFで出力できます。ペネトレーションテストを「数週間から数時間」に短縮するというSecurity Agentの価値がさらに高まっていますね。セキュリティ監査のタイミングで実際に使ってみたいと思っています。
まとめ
2026年3月16日週のアップデート、振り返ってみるとAgentCore周りの進化が圧倒的でした。AG-UI、シェルコマンド実行、WebRTCという3つの新機能が同時に来たことで、AgentCoreでできることの幅が一気に広がっています。
新モデルも3つ追加されて、エージェント開発の選択肢がさらに増えました。タスク分解ならM2.5、深い推論ならGLM 5、マルチエージェントならNemotron 3 Superと、用途に応じて使い分けられるのはありがたいですね。
個人的に一番インパクトがあったのはInvokeAgentRuntimeCommand API(シェルコマンド実行)です。コーディングエージェントやデプロイエージェントの開発が劇的に楽になるので、これを活用したプロダクトが今後たくさん出てくると思います。
来週も何が来るか楽しみですね。気になるアップデートがあれば、また片っ端から試していきます。















