MCPとは何か ― USBのようにAIと外部ツールをつなぐ規格
MCP(Model Context Protocol)は、Anthropicが2024年11月に策定したオープン標準プロトコルです。AIモデルと外部ツール・データソース・システムを接続する方法を統一することを目的としています。
よく使われる比喩が「AI版USB-C」です。USBがどのメーカーのPCでも同じケーブルでデバイスを接続できるように、MCPはどのAIモデルでも同じ手順で外部ツールを呼び出せる仕組みを提供します。
MCPが登場する前、AIと外部システムを連携させるには、各AIプロバイダーの独自仕様に合わせて実装を作り直す必要がありました。ClaudeとGPT-4で同じデータベースを参照させたいだけでも、それぞれ別の統合コードが必要だったのです。MCPはこの非効率を解消します。「一度実装すれば、MCP対応のどのAIでも動く」という世界を実現するのがMCPの本質です。
急速な業界採用
MCPは2025年4月にOpenAIが採用して以降、急速に業界標準化が進みました。
| 時期 | 主なできごと |
|---|---|
| 2024年11月 | AnthropicがMCPを発表・OSS公開 |
| 2025年4月 | OpenAIがMCPを正式採用 |
| 2025年7月 | MicrosoftがCopilot StudioにMCPを統合 |
| 2025年11月 | AWS BedrockがMCPをサポート |
| 2025年12月 | AnthropicがMCPをLinux Foundation傘下の「AAIF」に寄贈 |
| 2026年3月 | SDK月間インストール数9,700万件突破、コミュニティ製サーバー5,800以上 |
2026年4月現在、主要AIプロバイダーはすべてMCPをサポートしており、事実上の業界標準となっています。
MCPのアーキテクチャ ― 3つの登場人物と2つの層
MCPはシンプルなクライアント・サーバー型アーキテクチャで設計されています。登場人物は3つです。
Host・Client・Serverの役割
┌──────────────────────────────────────────────┐
│ MCP Host(AIアプリケーション) │
│ 例: Claude Desktop, Claude Code, VS Code │
│ │
│ ┌─────────────┐ ┌─────────────┐ │
│ │ MCP Client 1│ │ MCP Client 2│ ... │
│ └──────┬──────┘ └──────┬──────┘ │
└─────────┼─────────────────┼──────────────────┘
│専用接続 │専用接続
┌─────▼──────┐ ┌──────▼──────┐
│ MCP Server │ │ MCP Server │
│(ローカル) │ │(リモート) │
│例:ファイルシ│ │例: Sentry, │
│ステム,DB │ │ GitHub API │
└─────────────┘ └─────────────┘
MCP HostはClaude DesktopやVS Codeなど、AIを搭載したアプリケーションです。接続するMCPサーバーの数だけMCP Clientを生成し、それぞれが1対1の専用接続を維持します。MCP Serverは外部ツールやデータソースへのアクセスを提供するプログラムで、ローカル・リモートどちらにも存在できます。
データ層とトランスポート層
MCPは2つの層で構成されています。
データ層はJSON-RPC 2.0をベースにしたメッセージプロトコルを定義します。ここで定義されるのが、MCPの中核概念である「プリミティブ」です。
| プリミティブ | 役割 | 例 |
|---|---|---|
| Tools(ツール) | AIが実行できる関数 | ファイル操作、API呼び出し、DB検索 |
| Resources(リソース) | コンテキストとして参照するデータ | ファイル内容、DBスキーマ、ログ |
| Prompts(プロンプト) | 再利用可能なテンプレート | システムプロンプト、few-shotの例 |
トランスポート層は通信チャネルを管理します。MCPは2種類のトランスポートをサポートします。
- Stdio(標準入出力): 同一マシン上のローカルプロセス間通信。ネットワークオーバーヘッドがなく高速
- Streamable HTTP: HTTPとServer-Sent Eventsを組み合わせたリモート通信。OAuth/APIキー等の認証をサポート
接続の流れ
AIがMCPサーバーを使うまでのフローは次のとおりです。
- 初期化: ClientがServerに
initializeリクエストを送り、プロトコルバージョンと対応機能を相互に確認(ケイパビリティネゴシエーション) - ツール探索: Clientが
tools/listでServerが提供するツール一覧を取得 - ツール実行: AIがツールの使用を決定すると、Clientが
tools/callでServerにリクエストを送信 - 通知: Server側のツールに変更があれば、
notifications/tools/list_changedでClientにリアルタイム通知
この設計により、AIは動的にサーバーの能力を発見し、新しいツールが追加されてもコードの再デプロイなしに利用できます。
Function Callingとの違い ― どちらを使うべきか
MCPと混同されやすい概念が「Function Calling(関数呼び出し)」です。両者の関係を整理します。
Function Callingとは
Function CallingはLLM自体の機能です。モデルがユーザーの要求を解析し、あらかじめ定義された関数を呼び出すべきかどうかを判断して、構造化されたJSON出力を返します。実行はアプリケーション側で行います。
特徴:
- ツール定義をLLMリクエストのたびに送信する
- 特定のAIプロバイダーに依存した実装
- シンプルなユースケースには導入が速い
MCPとFunction Callingの比較
| 観点 | Function Calling | MCP |
|---|---|---|
| スコープ | 単一モデルの機能 | プロバイダー横断の標準 |
| ツール定義 | リクエストごとに送信 | サーバーが動的に提供 |
| 移植性 | プロバイダー依存 | 一度実装すれば流用可能 |
| アーキテクチャ | LLM内部に統合 | 独立したサーバープロセス |
| 向いているケース | 小規模・単一モデル | 大規模・マルチモデル |
選び方の指針
Function Callingが向いている場面: 単一のAIプロバイダーで完結する小規模プロジェクト。すでにAPIが整備されており、ツールの種類も少ない。早期プロトタイプ開発。
MCPが向いている場面: 複数のAIモデルを使い分けるシステム。ツール数が多く独立して更新したい。将来的にAIプロバイダーを変更する可能性がある。エンタープライズ規模のAIエージェント基盤を構築したい。
MCPはFunction Callingの上位互換ではなく、スケールと移植性を重視する場面での選択肢です。内部ではFunction Calling相当の仕組みも利用しながら、プロバイダー非依存のレイヤーとして機能します。
実際のMCPサーバー活用例
2026年4月時点で、公式・コミュニティ製合わせて5,800以上のMCPサーバーが公開されています。代表的な活用例を紹介します。
開発ツール連携
GitHub MCP Serverを使えば、AIがリポジトリの作成・コードレビュー・Issue管理・PR作成を直接実行できます。Claude CodeやGitHub Copilotに接続することで、開発ワークフロー全体をAIが横断的に扱えます。
Sentry MCP Serverではエラートラッキングシステムと連携。「直近24時間で最も多く発生したエラーを修正して」という自然言語の指示だけで、AIがSentryでエラーを検索し、該当コードを特定して修正案を提示します。
ビジネスツール連携
Google Drive / Docs MCP Serverを使えば、AIが社内ドキュメントを検索・参照しながら回答を生成できます。RAGを自前で構築しなくても、既存のGoogleドライブをAIの知識ソースとして活用できます。
Slack MCP Serverではチャンネルの会話履歴を参照したり、AIがメッセージを送信したりと、AIをSlackのアクターとして機能させることが可能です。
データベース・分析連携
PostgreSQL / MySQL MCP ServerではAIが直接SQLを実行してデータを取得・分析できます。「先月の売上が前月比で落ちた原因を調べて」という指示に対し、AIがクエリを組み立ててレポートを生成するユースケースが実現します。
AWS公式が公開しているAWS MCP Server群では、S3・Lambda・CloudWatchなどのAWSサービスをAIが操作できます。インフラ管理のコマンド操作をAIに委譲できるようになります。
AIエージェント基盤としてのMCP
MCPが単なる「ツール呼び出しの標準化」以上の意味を持つのは、AIエージェントの基盤インフラとして設計されているからです。
エージェントがMCPを必要とする理由
AIエージェントは、単発の質問に答えるだけでなく、複数のステップにわたるタスクを自律的に実行します。そのためには「どんな道具が使えるか」を動的に把握し、状況に応じて適切な道具を選択する必要があります。
MCPの「ツール探索(tools/list)」と「リアルタイム通知」の仕組みは、まさにこのニーズに応えるために設計されています。エージェントは実行中に新しいMCPサーバーを接続するだけで、ダウンタイムなしに能力を拡張できます。
AIエージェント時代のローコード不要論でも触れましたが、AIが直接コードやシステムを操作できる時代において、ノーコードツールの抽象化レイヤーは「制約」になり得ます。MCPはその対極にある考え方です。AIに対して「明示的なインターフェース(MCP Server)を通じてシステムへのアクセス権を与える」という、制御可能な形でのオープン化を実現します。
マルチエージェントの文脈
複数のAIエージェントが協調して動くマルチエージェントシステムでは、エージェント間の情報共有や役割分担が課題になります。MCPはエージェント同士が共有できる標準的なツールセットを提供するため、マルチエージェント構成の設計を大幅にシンプルにします。
Claude Code を使ったプロジェクト管理自動化の実践例でも、複数のツールとAIを接続する際の設計コストが課題になっていましたが、MCPが標準化されたことでこの問題が体系的に解消されつつあります。
MCPの現在地と今後
2026年のエンタープライズ対応
2025年12月、AnthropicはMCPをLinux Foundation傘下の「Agentic AI Foundation(AAIF)」に寄贈しました。AnthropicとOpenAI、Blockが共同設立した中立的な組織が仕様を管理することで、特定ベンダーへの依存リスクが低減されています。
エンタープライズ向けの強化も進んでいます。2026年Q2のロードマップにはOAuth 2.1対応と、OktaやAzure ADなどのエンタープライズIDプロバイダーとの統合が含まれています。認証・認可の標準化が進むことで、企業が社内システムにMCP経由でAIを接続する際のセキュリティ要件を満たしやすくなります。
開発者が今すぐ始めるには
MCP対応のAIアプリケーション(Claude Desktop、VS Code + GitHub Copilot など)があれば、公開されているMCPサーバーをすぐに試せます。
自社ツールをMCP対応させるには、Anthropicが公開しているSDK(Python・TypeScript・Java・C#など)を使ってMCPサーバーを実装します。既存のAPIやデータソースに「MCPラッパー」を被せるだけで、あらゆるMCP対応AIから利用可能になります。
独自のMCPサーバーを作る場合の基本ステップ:
- SDKをインストール(例:
pip install mcp) - ツール・リソース・プロンプトを定義
- トランスポートを選択(ローカルならStdio、リモートならHTTP)
- テストには公式のMCP Inspectorを使用
まとめ
MCPは「AIがどんな外部ツールも統一された方法で扱える」ための業界標準です。2024年11月の発表から1年半で97百万インストールを突破し、OpenAI・Google・Microsoft・AWSすべてが採用したことで、もはや選択肢のひとつではなくAIシステム設計の前提になりつつあります。
MCPを理解・活用する開発者とそうでない開発者では、AIエージェント設計の速度と品質に大きな差が生まれます。
- 統一インターフェース: 一度実装したMCPサーバーはどのAIでも使える
- 動的なツール発見: エージェントが実行時に利用可能なツールを自律的に把握
- プロバイダー非依存: 特定AIベンダーへのロックインを回避
- エコシステム: 5,800以上の公開サーバーを即座に活用可能
AIをビジネスに本格導入するにあたって、MCPは「外部ツールとの接続設計」を根本から変えるレイヤーです。自社システムをMCP対応させることが、AI時代のシステム設計の第一歩になるでしょう。
AIと外部ツールの連携設計、MCPを活用したAIエージェント基盤の構築についてお気軽にご相談ください。