<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>AIエージェント on Marketechlabo</title><link>https://www.marketechlabo.com/tags/ai-agent/</link><description>Recent content in AIエージェント on Marketechlabo</description><generator>Hugo -- gohugo.io</generator><language>ja-jp</language><lastBuildDate>Thu, 26 Mar 2026 00:00:00 +0900</lastBuildDate><atom:link href="https://www.marketechlabo.com/tags/ai-agent/index.xml" rel="self" type="application/rss+xml"/><item><title>AIエージェント入門 ── AIに「仕事」をさせるとはどういうことか</title><link>https://www.marketechlabo.com/ai/ai-agent-for-beginners/</link><pubDate>Thu, 26 Mar 2026 00:00:00 +0900</pubDate><guid>https://www.marketechlabo.com/ai/ai-agent-for-beginners/</guid><description>
&lt;h1 id="aiエージェント入門--aiに仕事をさせるとはどういうことか"&gt;AIエージェント入門 ── AIに「仕事」をさせるとはどういうことか&lt;/h1&gt;
&lt;p&gt;「AIエージェント」という言葉をよく目にするが、これが何を指しているのか明確に答えられる人は多くない。AIチャットとは別のものを指しているわけだが、本記事ではAIエージェントとは何か、従来のAIチャットと何が違うのか、そしてその仕組みはどうなっているのかを、専門知識がなくても理解できるようにわかりやすく解説する。&lt;/p&gt;
&lt;h2 id="aiエージェントとは何か"&gt;AIエージェントとは何か&lt;/h2&gt;
&lt;h3 id="答えるから働くへ"&gt;「答える」から「働く」へ&lt;/h3&gt;
&lt;p&gt;AIチャットは、人間が質問を投げかけると、それに対して回答を返してくれるものである。たとえば「日本の首都はどこか」と聞けば「東京だ」と答えてくれるし、「この文章を英語に翻訳して」と頼めば翻訳してくれる。これらはすべて人間とAIのやりとりだ。やりとりは1回で完結するものもあれば、壁打ちのように何度もやり取りをするものもある。いずれにせよ、AIは人間と言葉をやり取りするだけである。&lt;/p&gt;
&lt;p&gt;AIエージェントは、これとは根本的に異なる。AIエージェントとは、&lt;strong&gt;AIに「仕事」をさせる仕組み&lt;/strong&gt;のことである。ここでいう「仕事」とは、単に質問に答えることではなく、複数のステップにまたがる具体的なタスクを、AIが自分で考えながら遂行することを意味する。&lt;/p&gt;
&lt;h3 id="身近な例で理解する"&gt;身近な例で理解する&lt;/h3&gt;
&lt;p&gt;たとえば、次のような場面を想像してほしい。&lt;/p&gt;
&lt;p&gt;あなたが「今日の天気を調べて、その天気と季節感に合ったSNS投稿の文面を作って」とAIに頼んだとする。この場合、AIはまず天気予報を取得し、次にその情報をもとに投稿文を考え、さらに適切なハッシュタグを付けるところまで自分で判断して行う。あるいは「東京で3月20日から2泊、予算は1泊1万5千円以内、駅から徒歩5分以内のホテルを探して予約して」と指示すれば、AIが条件に合うホテルを検索し、比較し、最適なものを選んで予約手続きまで進めてくれる。&lt;/p&gt;
&lt;p&gt;これらに共通するのは、AIが&lt;strong&gt;自律的に&lt;/strong&gt;――つまり自分で考え、判断し、行動する――という点だ。人間はゴール（最終的にやってほしいこと）を伝えるだけでよく、途中の細かい手順をすべて指定する必要はない。&lt;/p&gt;
&lt;h3 id="もっと高度なタスクの例"&gt;もっと高度なタスクの例&lt;/h3&gt;
&lt;p&gt;ビジネスの現場では、さらに複雑なタスクをAIエージェントに任せる動きが広がっている。いくつかの例を見てみよう。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;データ分析の場合&lt;/strong&gt;、AIエージェントは次のように動く。まず、指定されたKPIに異常がないかを検知する。異常が見つかれば、その原因の仮説を立て、仮説を検証するために追加のデータを取得する。取得したデータに対して統計的な検定を行い、結果をグラフなどに可視化したレポートを作成し、最後にその要約をSlackに投稿するところまで自動で行う。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;プログラミングの場合&lt;/strong&gt;は、仕様書からソフトウェアの設計を行い、実際のコードを生成し、そのコードが正しく動くかテストを実行し、問題がなければ本番環境に近い検証環境に反映するところまでを一連の流れとして遂行する。&lt;/p&gt;
&lt;p&gt;こうした複雑なタスクにおいて特に重要なのは、途中で想定外の事態が起きたときにもAIが自分で考えて対処できるという点だ。たとえばデータ分析中にデータの形式が想定と違っていた場合、AIエージェントはその場で適切な変換方法を考え出して処理を続行できる。&lt;/p&gt;
&lt;h2 id="aiチャットとaiエージェントは何が違うのか"&gt;AIチャットとAIエージェントは何が違うのか&lt;/h2&gt;
&lt;h3 id="2つの軸で整理する"&gt;2つの軸で整理する&lt;/h3&gt;
&lt;p&gt;AIチャットとAIエージェントの違いを明確にするために、2つの軸で考えてみよう。1つ目の軸は「やり取りだけか、作業もするか」、2つ目の軸は「決められた通りに動くか、自律的に判断して動くか」である。&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th style="text-align: center"&gt;&lt;/th&gt;
&lt;th style="text-align: center"&gt;確定的（決められた通りに動く）&lt;/th&gt;
&lt;th style="text-align: center"&gt;非確定的（自律的に判断して動く）&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;やり取りだけ（質問→回答）&lt;/td&gt;
&lt;td style="text-align: center"&gt;チャットボット&lt;br&gt;事前に用意されたシナリオやルールに基づいて応答する。想定外の質問には対応できない。&lt;/td&gt;
&lt;td style="text-align: center"&gt;AIチャット（ChatGPT、Claudeなど）&lt;br&gt;LLMが文脈を理解し、テキストのやり取りや成果物の生成（クリエイティブ、ソースコード）を柔軟に行う。ただし「作業」はせず、あくまで受け答えの範囲に留まる。&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: center"&gt;作業をする（タスクを実行）&lt;/td&gt;
&lt;td style="text-align: center"&gt;RPA&lt;br&gt;事前に組まれたロジック通りに作業を自動実行する。決められたルール外の状況には対応できない。&lt;/td&gt;
&lt;td style="text-align: center"&gt;AIエージェント&lt;br&gt;その場の状況を判断し「気を利かせて」自律的に作業を遂行する。柔軟に対応できる反面、結果が非確定的になる。&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;やり取りだけ&lt;/strong&gt;かつ&lt;strong&gt;決められた通りに動く&lt;/strong&gt;のが、従来型のチャットボットだ。企業のWebサイトでよく見かける「よくある質問」に自動応答するタイプのもので、事前に用意されたシナリオやルールに基づいて応答する。「営業時間は何時か」という質問には答えられるが、想定外の質問には対応できない。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;やり取りだけ&lt;/strong&gt;かつ&lt;strong&gt;自律的に判断して動く&lt;/strong&gt;のが、ChatGPTやClaudeといったAIチャットだ。大規模言語モデル（LLM）が文脈を理解し、柔軟にテキストのやり取りを行う。ただし、あくまで「受け答え」の範囲にとどまり、外部のシステムを操作するといった「作業」は基本的に行わない。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;作業をする&lt;/strong&gt;かつ&lt;strong&gt;決められた通りに動く&lt;/strong&gt;のが、RPA（ロボティック・プロセス・オートメーション）だ。事前に組まれたロジック通りに作業を自動実行する。「このExcelのA列のデータを、毎朝9時にこのシステムに入力する」といった処理は得意だが、ルール外の状況が発生すると止まってしまう。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;作業をする&lt;/strong&gt;かつ&lt;strong&gt;自律的に判断して動く&lt;/strong&gt;のが、AIエージェントだ。その場の状況を判断し、「気を利かせて」自律的に作業を遂行する。&lt;/p&gt;
&lt;p&gt;つまりAIエージェントの特徴は、&lt;strong&gt;自律的に判断できる&lt;/strong&gt;ことと&lt;strong&gt;実際に作業を遂行する&lt;/strong&gt;ことの両方を兼ね備えている点にある。&lt;/p&gt;
&lt;h2 id="確定的と非確定的--安定性と柔軟性のトレードオフ"&gt;確定的と非確定的 ── 安定性と柔軟性のトレードオフ&lt;/h2&gt;
&lt;h3 id="確定的アプローチとは"&gt;確定的アプローチとは&lt;/h3&gt;
&lt;p&gt;「確定的」とは、同じ入力に対して常に同じ出力が返ってくる性質のことだ。RPAや従来型のチャットボットがこれにあたる。&lt;/p&gt;
&lt;p&gt;確定的アプローチの強みは、アウトプットの品質が安定していることである。細かい手順がロジックとして事前に組まれているため、毎回同じ品質の結果が得られる。また、同じ入力に対して常に同じ出力が保証されるため、検証や監査がしやすく、何が出力されるかを事前に把握できるので後続の工程を設計しやすいという利点もある。&lt;/p&gt;
&lt;p&gt;一方で、弱みもある。事前に組まれたロジックの範囲外のケースが発生すると、処理が止まるか誤った結果を返してしまう。また、あらゆるケースを事前に洗い出して手順として定義する必要があるため、最初の構築にも、その後の保守にも大きなコストがかかる。業務の変化や例外的なパターンへの対応にはそのたびにロジックの改修が必要だ。&lt;/p&gt;
&lt;h3 id="非確定的自律的アプローチとは"&gt;非確定的（自律的）アプローチとは&lt;/h3&gt;
&lt;p&gt;「非確定的」とは、同じ入力に対しても毎回異なる出力が返ってくる可能性がある性質のことだ。AIエージェントがこれにあたる。&lt;/p&gt;
&lt;p&gt;非確定的アプローチの強みは、想定外の状況にも柔軟に対応できることである。その都度考えて判断するため、確定的ロジックでは想定できなかったケースにも対処できる。文脈や状況を踏まえて、人間が明示的に指示していない部分まで自律的に判断・補完する「気を利かせた」対応が可能であり、場合によっては人間が事前に設計した手順よりも優れたアウトプットが得られることもある。&lt;/p&gt;
&lt;p&gt;弱みとしては、アウトプットの品質が不安定になりうることが挙げられる。AIが勝手に内容を省略したり、意図と異なる判断をしたりして、期待より低い品質になるリスクがある。同じ入力でも毎回異なる出力が返る可能性があるため結果の保証が難しく、またAIがなぜその判断をしたのかが外からはわかりにくい「ブラックボックス」状態になりやすいという課題もある。&lt;/p&gt;
&lt;h3 id="実際の運用ではハイブリッドが有効"&gt;実際の運用ではハイブリッドが有効&lt;/h3&gt;
&lt;p&gt;ここまで読むと、確定的と非確定的のどちらが優れているかという話に見えるかもしれないが、実はそうではない。両者は&lt;strong&gt;品質の安定性と柔軟性のトレードオフ&lt;/strong&gt;の関係にある。確定的アプローチは「決まったことを確実にやる」のに強く、非確定的アプローチは「決まっていないことにも対応する」のに強いのだ。&lt;/p&gt;
&lt;p&gt;実際の運用においては、品質を安定させたい定型的な部分は確定的ロジックでしっかり固め、判断や例外対応が求められる部分にAIエージェントを活用するという、&lt;strong&gt;ハイブリッド（組み合わせ）の設計&lt;/strong&gt;が最も効果的である。&lt;/p&gt;
&lt;p&gt;品質の安定性と柔軟性はトレードオフ&lt;/p&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" style="color:#f8f8f2;background-color:#272822;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-plaintext" data-lang="plaintext"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;品質の安定性　　高 ◄──────────────────► 低
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;柔軟性　　　　　低 ◄──────────────────► 高
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;　　　　　　　　　　確定的　　　　　　非確定的（自律的）
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;h2 id="aiエージェントの仕組み--llmとツールの役割分担"&gt;AIエージェントの仕組み ── LLMとツールの役割分担&lt;/h2&gt;
&lt;h3 id="モデルが考えツールが実行する"&gt;モデルが考え、ツールが実行する&lt;/h3&gt;
&lt;p&gt;AIエージェントが実際にどうやって作業を遂行しているのか、その仕組みを見てみよう。基本的な枠組みは非常にシンプルで、&lt;strong&gt;LLM（大規模言語モデル）＋ツール&lt;/strong&gt;という構成だ。&lt;/p&gt;
&lt;p&gt;LLMは「頭脳」の役割を果たす。何をすべきかを考え、判断し、指示を出す。一方、ツールは「手足」の役割を果たす。LLMからの指示を受けて、ファイルの操作、Webの検索、データベースへの問い合わせといった具体的な作業を実行する。&lt;/p&gt;
&lt;p&gt;たとえば「明日の東京の天気に合わせたSNS投稿を作って」というタスクであれば、次のような流れで処理が進む。まずLLMが「天気情報が必要だ」と判断し、天気予報を取得するツールを選んで「東京、明日」という条件で実行を指示する。ツールは天気予報APIにアクセスして「晴れ、最高気温22度」といった結果を返す。LLMはその結果を受け取り、「春の陽気で晴天だから、お出かけを促す明るいトーンの投稿が適切だ」と考えて文面を作成する。&lt;/p&gt;
&lt;p&gt;このように、&lt;strong&gt;LLMが処理内容を考える → 適したツールを選ぶ → ツールに指示を送る → ツールが実行する → 結果をLLMに返す → LLMが次の処理を考える → ……&lt;/strong&gt; というループが繰り返されることで、複雑なタスクが段階的に遂行されていく。&lt;/p&gt;</description></item><item><title>AIコーディングエージェント 8ツール 詳細比較表</title><link>https://www.marketechlabo.com/ai/agent-comparison-detailed/</link><pubDate>Fri, 06 Mar 2026 00:00:00 +0900</pubDate><guid>https://www.marketechlabo.com/ai/agent-comparison-detailed/</guid><description>
&lt;h1 id="aiコーディングエージェント-8ツール-詳細比較表"&gt;AIコーディングエージェント 8ツール 詳細比較表&lt;/h1&gt;
&lt;p&gt;本ドキュメントは comparison-detailed.md の全内容を含み、各セクションに日本語の解説を付加したガイド版である。
8つのAIコーディングエージェント (Claude Code, Cline, Codebuff, Codex CLI, Kilocode, OpenClaw, OpenCode, Roo Code) の内部アーキテクチャを、ソースコードレベルで比較している。
各ツールのシステムプロンプト構成、ツール定義、Agentic機能、長期記憶の実装を網羅的に調査した結果をまとめたものである。&lt;/p&gt;
&lt;p&gt;調査対象バージョン（2026-02時点）:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Claude Code 2.1.59 / Cline 3.67.1 / Codebuff 0.10.6 / Codex CLI 0.106.0&lt;/li&gt;
&lt;li&gt;Kilocode 5.7.0 / OpenClaw 2026.2.26 / OpenCode 1.1.36 / Roo Code 3.50.4&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="1-基本情報アーキテクチャ"&gt;1. 基本情報・アーキテクチャ&lt;/h2&gt;
&lt;p&gt;この章では各ツールの実装言語、ライセンス、実行環境、LLMプロバイダといった基本属性と、
システムプロンプトがどのように組み立てられるか(エントリーポイント関数、パイプライン構造)を比較する。
「エントリーポイント」とは、システムプロンプト生成の起点となる関数のことである。
「パイプライン」とは、各セクションを順次組み立てて最終的なプロンプト文字列を生成する処理の流れを指す。&lt;/p&gt;
&lt;h3 id="1-1-プロジェクト概要"&gt;1-1. プロジェクト概要&lt;/h3&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;項目&lt;/th&gt;
&lt;th&gt;Claude Code&lt;/th&gt;
&lt;th&gt;Cline&lt;/th&gt;
&lt;th&gt;Codebuff&lt;/th&gt;
&lt;th&gt;Codex CLI&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;バージョン&lt;/td&gt;
&lt;td&gt;2.1.59&lt;/td&gt;
&lt;td&gt;3.67.1&lt;/td&gt;
&lt;td&gt;SDK 0.10.6&lt;/td&gt;
&lt;td&gt;0.106.0 (rust-v0.106.0)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;実装言語&lt;/td&gt;
&lt;td&gt;TypeScript (npmパッケージ)&lt;/td&gt;
&lt;td&gt;TypeScript&lt;/td&gt;
&lt;td&gt;TypeScript (モノレポ)&lt;/td&gt;
&lt;td&gt;Rust (codex-rs) + TypeScript (レガシー)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ライセンス&lt;/td&gt;
&lt;td&gt;クローズドソース&lt;/td&gt;
&lt;td&gt;OSS&lt;/td&gt;
&lt;td&gt;Apache-2.0&lt;/td&gt;
&lt;td&gt;OSS&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;実行環境&lt;/td&gt;
&lt;td&gt;CLI + VSCode拡張&lt;/td&gt;
&lt;td&gt;VSCode拡張&lt;/td&gt;
&lt;td&gt;CLI + Web (Next.js)&lt;/td&gt;
&lt;td&gt;CLI (TUI)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;LLMプロバイダ&lt;/td&gt;
&lt;td&gt;Anthropic固定&lt;/td&gt;
&lt;td&gt;マルチ (16+ Variant)&lt;/td&gt;
&lt;td&gt;マルチ&lt;/td&gt;
&lt;td&gt;OpenAI固定&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ツールコール方式&lt;/td&gt;
&lt;td&gt;Claude API native tool use&lt;/td&gt;
&lt;td&gt;Variant別 (XML / native)&lt;/td&gt;
&lt;td&gt;JSON (&lt;code&gt;&amp;lt;codebuff_tool_call&amp;gt;&lt;/code&gt;)&lt;/td&gt;
&lt;td&gt;OpenAI Responses API&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;項目&lt;/th&gt;
&lt;th&gt;Kilocode&lt;/th&gt;
&lt;th&gt;OpenClaw&lt;/th&gt;
&lt;th&gt;OpenCode&lt;/th&gt;
&lt;th&gt;Roo Code&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;バージョン&lt;/td&gt;
&lt;td&gt;5.7.0&lt;/td&gt;
&lt;td&gt;2026.2.26&lt;/td&gt;
&lt;td&gt;1.1.36&lt;/td&gt;
&lt;td&gt;3.50.4 (e25b1f276)&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;実装言語&lt;/td&gt;
&lt;td&gt;TypeScript&lt;/td&gt;
&lt;td&gt;TypeScript&lt;/td&gt;
&lt;td&gt;TypeScript&lt;/td&gt;
&lt;td&gt;TypeScript&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ライセンス&lt;/td&gt;
&lt;td&gt;OSS&lt;/td&gt;
&lt;td&gt;OSS&lt;/td&gt;
&lt;td&gt;OSS&lt;/td&gt;
&lt;td&gt;OSS&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;実行環境&lt;/td&gt;
&lt;td&gt;VSCode拡張&lt;/td&gt;
&lt;td&gt;CLI (自律デーモン)&lt;/td&gt;
&lt;td&gt;CLI + TUI + Desktop&lt;/td&gt;
&lt;td&gt;VSCode拡張&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;LLMプロバイダ&lt;/td&gt;
&lt;td&gt;マルチ&lt;/td&gt;
&lt;td&gt;マルチ&lt;/td&gt;
&lt;td&gt;マルチ&lt;/td&gt;
&lt;td&gt;マルチ&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;ツールコール方式&lt;/td&gt;
&lt;td&gt;XML or Native (JSON Schema)&lt;/td&gt;
&lt;td&gt;プロバイダ native&lt;/td&gt;
&lt;td&gt;AI SDK (Vercel)&lt;/td&gt;
&lt;td&gt;Native (JSON Schema)&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;実装言語は大半がTypeScriptだが、Codex CLIはRustで書かれている点が特徴的である。
LLMプロバイダが「固定」のツール (Claude Code=Anthropic、Codex CLI=OpenAI) と「マルチ」対応のツールに大別される。
ツールコール方式もXML形式、JSON形式、プロバイダnative形式など多様である。&lt;/p&gt;</description></item></channel></rss>