MCP対応メディアとは:AIエージェントが「読む」ためのオウンドメディア設計
2026年5月時点、オウンドメディアの読者は「人間だけ」ではなくなりました。ChatGPT・Claude・Perplexity・Geminiといった大規模言語モデル(LLM)を搭載したAIエージェントが、情報収集・要約・推薦のために自律的にメディアへアクセスし、そのコンテンツを引用しています。
この新しいアクセス主体に対応するための設計思想が「MCP対応メディア」です。MCP(Model Context Protocol)はAnthropicが2024年11月に公開した、AIエージェントと外部システムを接続するためのオープンプロトコルです。MCP対応メディアとは、このプロトコルを活用してAIエージェントがメディアのコンテンツ・データ・機能に直接アクセスできるよう設計されたオウンドメディアを指します。
従来のHTMLサイトとの根本的な違い
| 比較軸 | 従来のHTMLサイト | MCP対応メディア |
|---|---|---|
| 主要アクセス主体 | 人間ユーザー | 人間 + AIエージェント |
| 情報取得の手段 | ブラウザ描画(HTML解析) | HTML + MCPサーバーAPI + llms.txt |
| コンテンツ形式 | 人間が読みやすいHTML/CSS | HTML + 機械可読JSON-LD + 構造化テキスト |
| インタラクション | ページ閲覧・フォーム送信 | ページ閲覧 + ツール実行・リソース取得 |
| SEO最適化対象 | Googlebot等の検索クローラー | 検索クローラー + AIクローラー + MCPクライアント |
| 引用・推薦の仕組み | 検索順位による流入 | 検索順位 + LLM引用率 + MCPツール呼び出し |
なぜ今MCP対応が求められるか
ChatGPTのユーザー数は2026年時点で全世界3億人以上、Perplexityの月間検索数は10億クエリを超えたとされています。これらのAIが「調べ物をする際に参照するメディア」として自社サイトに選ばれるかどうかが、これからのオウンドメディアの競争軸になります。詳しくはAIエージェント時代のSEOも参照してください。
AIエージェントがメディアにアクセスする3つの経路
AIエージェントがオウンドメディアに到達する経路は大きく3つに分類できます。それぞれの経路に応じた最適化戦略が異なるため、設計段階で整理しておくことが重要です。
経路1:検索エンジン経由(Retrieval Augmented Generation)
PerplexityやChatGPTのWebブラウジング機能は、ユーザーの質問に答えるために検索エンジン(BingまたはGoogle)を経由してウェブページをクロールします。このRAG(検索拡張生成)型アクセスでは、検索上位に表示されているページがAIに引用される確率が高くなります。
対策:SEOで上位表示を維持しつつ、ページ内のコンテンツをAIが引用しやすい構造(短い明確な段落・FAQ形式・数値による裏付け)にする。GPTBot・ClaudeBot・PerplexityBotをrobots.txtで明示的に許可する。
経路2:MCPサーバー経由(直接API接続)
MCPクライアント(Claude Code・ChatGPT等)に自社メディアのMCPサーバーを登録すると、AIエージェントはブラウザを介さず直接「ツール呼び出し」でメディアのデータにアクセスできます。たとえば「最新の補助金記事を3本要約して」と指示すると、MCPサーバーのget_articlesツールが呼ばれ、構造化データが返されます。
対策:メディアにMCPサーバーを実装し、ユーザー・エージェントが接続できる環境を整備する。MCPサーバーの存在はMCPとは何かの基本理解があると設計が進めやすくなります。
経路3:ブックマーク・プリセット経由(常設接続)
Claude DesktopやChatGPT Plusでは、頻繁に参照するサイトやMCPサーバーを「プリセット」として登録できます。法人ユーザーが「社内ナレッジ用のオウンドメディア」や「業界専門メディア」を登録するケースが増えています。この経路では検索を経由せず、AIが直接自社メディアを参照する状態が常設されます。
対策:MCP登録を促す導線(開発者向けページ・MCPサーバーのエンドポイント公開)をメディア内に設ける。
MCPサーバーをオウンドメディアに組み込む基本設計
MCPサーバーはオウンドメディアのバックエンドに追加実装するAPIレイヤーです。技術的にはNode.js・Python・PHPのいずれでも実装でき、HTTP(SSE)またはStdio経由でMCPクライアントと通信します。
MCPサーバーの基本アーキテクチャ
オウンドメディア(aikoukoku.jp等)
├── public/ ← 通常のHTMLコンテンツ(人間向け)
├── api/ ← REST API(既存)
└── mcp/
├── server.php ← MCPサーバー本体(SSEエンドポイント)
├── resources/ ← メディアコンテンツのResource定義
├── tools/ ← 記事検索・フィルタ等のTool定義
└── prompts/ ← AIへのコンテキスト提供Prompt定義
MCPサーバーのエンドポイント(例:https://aikoukoku.jp/mcp/sse)をMCPクライアントに登録すると、AIエージェントはこのエンドポイントへ接続してメディアの機能を利用できます。
実装に必要な技術要件
- SSEまたはStdio対応:MCPプロトコルはリアルタイム通信にSSE(Server-Sent Events)を使用します。PHPの場合は
header('Content-Type: text/event-stream')を設定します - JSON-RPCメッセージング:クライアントからのリクエストはJSON-RPC 2.0形式。
tools/call・resources/read等のメソッドを処理するルーターが必要です - 認証:公開MCPサーバーはAPIキー認証を推奨。
Authorization: Bearer {key}ヘッダーを検証します - レート制限:AIエージェントは短時間に大量リクエストを送る場合があるため、IP・APIキー単位のレート制限を実装します
MCP対応メディアの技術スタック:Resources・Tools・Promptsの役割
MCPプロトコルは「Resources」「Tools」「Prompts」の3種類のプリミティブを定義しています。オウンドメディアでの活用場面はそれぞれ異なります。
Resourcesの活用:コンテンツのダイレクト提供
Resourcesはファイルシステムのように「読み取れるコンテンツ」を提供します。メディアでは記事本文・著者プロフィール・サイトマップをResourceとして公開するのが定石です。
| Resource名 | URI形式 | 返すデータ | 活用シーン |
|---|---|---|---|
| article | article://{slug} |
記事本文・タイトル・著者・日付・JSON-LD | 記事の要約・引用・比較 |
| author | author://{id} |
著者名・肩書・専門領域・寄稿記事一覧 | E-E-A-T確認・著者紹介生成 |
| category | category://{slug} |
カテゴリ説明・記事一覧・関連カテゴリ | 分野全体の記事収集 |
| sitemap | sitemap://full |
全記事のURL・タイトル・更新日リスト | AIによるサイト全体把握 |
Toolsの活用:AIエージェントへの機能提供
ToolsはAIが「実行できる操作」を定義します。単純な閲覧を超えて、メディアのデータベースを検索したり、特定条件の記事を取得したりする動的な操作をAIに提供できます。
- search_articles:キーワード・カテゴリ・日付範囲で記事を全文検索して返す
- get_latest_articles:最新n件の記事を返す(カテゴリフィルタ付き)
- get_related_articles:指定記事に関連する記事をレコメンドして返す
- check_topic_coverage:指定トピックに関する記事が存在するかを返す
- get_author_info:著者の専門性・実績情報を返す(E-E-A-T根拠提供)
Promptsの活用:AIへのコンテキスト注入
Promptsは「このメディアをどう使ってほしいか」をAIに伝える定型テンプレートです。「記事の引用スタイル」「推奨される使い方」「禁止事項」をPromptとして定義することで、AIエージェントがメディアを正しく活用する確率が上がります。
例:summarize_articleというPromptに「著作権表示必須・数値の誇張禁止・更新日の明記」等のルールを組み込んでおくと、AIエージェントが記事を要約する際にこのPromptを参照するよう設計できます。
コンテンツのスキーマ設計:機械可読性を最大化する
MCPサーバーが返すデータの品質は、バックエンドのデータベース設計とコンテンツのスキーマ設計に依存します。「機械に読まれること」を前提にしたスキーマ設計が必要です。
記事エンティティの推奨スキーマ
{
"id": "mcp-media-2026",
"slug": "mcp-media",
"title": "MCP対応のオウンドメディア|AIエージェントから直接アクセスされる時代の設計",
"description": "MCPサーバーをオウンドメディアに組み込む設計・実装方法を解説",
"category": "marketing",
"tags": ["MCP", "AIエージェント", "オウンドメディア", "LLMO"],
"author": {
"name": "Koukoku.ai編集部",
"expertise": ["AIマーケティング", "LLMO", "MCP実装"],
"sameAs": "https://koukoku.ai/"
},
"published_at": "2026-05-14",
"updated_at": "2026-05-14",
"word_count": 7200,
"reading_time_minutes": 18,
"body_text": "...プレーンテキスト版(HTML除去済み)...",
"json_ld": {...},
"related_slugs": ["ai-agent-seo", "mcp-towa", "llms-txt", "owned-media-ai"],
"citations": ["https://modelcontextprotocol.io/", "..."],
"license": "CC BY 4.0"
}
機械可読性を高める5つの設計原則
- HTMLとプレーンテキストを分離して保持する:MCPサーバーはHTMLではなくプレーンテキスト版の本文を返すべきです。AIがHTMLタグを解析する負荷を省き、引用品質が上がります
- セクション単位でデータを構造化する:記事本文をH2単位でオブジェクト配列として保持すると、AIが特定セクションのみを取得できます
- 数値・固有名詞には根拠URLを付与する:「ChatGPTユーザー3億人」等の数値にはsource_urlを紐付けることで、AIが引用根拠を確認できます
- 更新日・信頼度スコアを明示する:AIは情報の鮮度を重視します。
updated_atとともに「このデータは2026年5月時点」という鮮度情報を構造化して返します - エンティティの正規化:「ChatGPT」「GPT-4」「OpenAI」等のエンティティを統一した識別子で管理し、sameAs(WikidataまたはLinked Open Data)を紐付けます
JSON-LDのMCP活用
ページに埋め込まれたJSON-LD(構造化データ)はMCPサーバーのResourceレスポンスにもそのまま含めます。Articleスキーマのauthor・datePublished・aboutフィールドは、AIがE-E-A-T評価に使うため特に重要です。実装方法の詳細はllms.txtとAIクローラー対応で解説しています。
llms.txt・llms-full.txtの実装方法:AIクローラー向けガイダンス
MCPサーバーの実装と並行して、llms.txtとllms-full.txtを整備することで、MCPを持たないAIクローラーへの対応も同時に行えます。この2ファイルは補完的な関係にあります。
llms.txtの役割と配置
llms.txtはサイトルートに配置する概要ファイルで、AIに「このサイトが何者か」「どのページが重要か」「どう引用してほしいか」を伝えます。Anthropicの仕様ではhttps://ドメイン/llms.txtに配置することが推奨されています。
# Koukoku.ai Media (aikoukoku.jp)
> AI広告・ChatGPT広告・LLMO・生成AIマーケティングの専門メディア。株式会社ASI(Koukoku.ai)運営。
## About
- 運営者: 株式会社ASI / Koukoku.ai(東京都渋谷区)
- 専門領域: ChatGPT Sponsored Answer・LLMO・MCP対応メディア設計
- 公式サービス: https://koukoku.ai/
## MCP Server
- エンドポイント: https://aikoukoku.jp/mcp/sse
- ドキュメント: https://aikoukoku.jp/developers/mcp/
## Key Pages
- MCP対応メディアとは: https://aikoukoku.jp/marketing/mcp-media/
- MCPとは: https://aikoukoku.jp/basic/mcp-towa/
- LLMOとは: https://aikoukoku.jp/llmo/kiso/
## Citation Policy
- CC BY 4.0。引用時は出典「Koukoku.ai Media (aikoukoku.jp)」を明記推奨
## Sitemap
https://aikoukoku.jp/sitemap.xml
llms-full.txtの役割と構成
llms-full.txtはより詳細な版で、全記事のタイトル・URL・概要・更新日を一覧化したものです。AIがサイト全体の構造を把握するのに使われます。自動生成スクリプトを実装してサイトマップ更新のたびに再生成する運用が推奨です。
#!/usr/bin/env php
<?php
// llms-full.txt 自動生成スクリプト(概略)
$articles = $db->query("SELECT slug, title, description, updated_at, category FROM articles ORDER BY updated_at DESC");
$output = "# " . SITE_NAME . " - 全コンテンツ一覧\n";
$output .= "> 最終更新: " . date('Y-m-d') . "\n\n";
foreach ($articles as $a) {
$output .= "## [{$a['title']}]({$a['url']})\n";
$output .= "> {$a['description']}\n";
$output .= "- カテゴリ: {$a['category']}\n";
$output .= "- 更新: {$a['updated_at']}\n\n";
}
file_put_contents('/var/www/domain/public/llms-full.txt', $output);
?>
robots.txtとの連携
llms.txtはrobots.txtとは独立したファイルですが、robots.txtでAIクローラーを明示的に許可することが前提になります。GPTBot・ClaudeBot・PerplexityBotをAllowに設定し、Sitemap行にサイトマップURLを記載してください。
MCP対応メディアのKPIと効果測定:AIエージェント流入の追跡
MCP対応メディアを運営する際は、従来のPV・セッション数に加えてAIエージェント特有のKPIを設計します。測定できないものは改善できません。
AIエージェント接触のKPI体系
| カテゴリ | KPI | 定義 | 計測方法 |
|---|---|---|---|
| MCPアクセス | MCPリクエスト数/日 | MCPサーバーへの接続・ツール呼び出し件数 | MCPサーバーログ集計 |
| MCPアクセス | ユニークMCPクライアント数 | 接続してきたMCPクライアント(APIキー)の種類数 | APIキー別ログ |
| LLM引用 | 引用率(Citation Rate) | 主要KW×5モデルで自社が言及される割合 | 週次手動/ツール計測 |
| LLM引用 | 引用記事数 | AI回答に引用された記事の本数 | Perplexity/ChatGPT検索確認 |
| AI流入 | AI referrer流入セッション数 | chatgpt.com/perplexity.ai等経由のGA4セッション | GA4 カスタムセグメント |
| AI流入 | AI起点CV数 | AI流入経由のコンバージョン数 | GA4 セグメント×イベント |
| コンテンツ品質 | MCPツール呼び出し完了率 | エラーなく完了したツール呼び出しの割合 | MCPサーバーログ |
GA4でのAIエージェント流入計測設定
AIチャット経由の流入はGA4のカスタムチャネルグループで「AIチャット」として分類します。設定するreferrerリストはchatgpt.com・chat.openai.com・perplexity.ai・claude.ai・gemini.google.com・copilot.microsoft.comの6ドメインです。詳細なKPI設計はAI時代のKPI設計・計測方法を参照してください。
MCPアクセスログの活用
MCPサーバーのアクセスログから「どのToolが最も呼ばれているか」「どのResourceが最も参照されているか」を分析することで、AIエージェントが求めているコンテンツの傾向が分かります。呼ばれ頻度の高いToolに対応する記事を強化する施策が効果的です。
先行事例:MCPサーバーを持つ企業メディアの取り組み
2026年5月時点でMCPサーバーを公開している企業・メディアはまだ少数派ですが、技術系・マーケティング系メディアを中心に先行事例が出始めています。
補助金ナビ(digital-ai-hojokin.jp)
補助金ナビ5サイト(digital-ai-hojokin.jp等)はhojokin-navi-mcpをnpmで公開しており、補助金情報・専門家検索・ベンダー情報を提供する20ツールを持ちます。Claude Code・ChatGPT等のMCPクライアントから補助金情報を直接検索できる状態で稼働しています。AIエージェントが「省エネ補助金を探して」と指示されたとき、MCPツール経由で返す構造を実現しています。
Smart-Mart(smart-mart.jp)
ロボティクス商品ECサイトのSmart-Martはsmartmart-mcpを公開しています。商品検索・レンタル見積・買取査定の14ツールを提供し、AIエージェントが「配膳ロボットの月額レンタル費用は?」のようなクエリに直接回答できる実装を持っています。
Koukoku.ai Media(aikoukoku.jp)
本メディアが運営するKoukoku.ai(aikoukoku.jp)は、MCP対応メディアの設計・実装を自社実証しながら解説するメタ的な立ち位置をとっています。AIエージェントへの対応と従来SEOを並行して運用することで、検索流入・LLM引用率・MCPアクセスの3つを同時に計測し、改善サイクルを回すモデルケースとなっています。
海外先行事例(テック・メディア系)
- Stripe Docs:公式ドキュメントにMCPサーバーを提供し、開発者がClaudeやChatGPT経由でStripe APIを操作できる環境を構築
- Shopify:MCPサーバーを通じて商品・注文データへのAIアクセスを許可し、マーチャントのAIエージェント活用を支援
- HubSpot・Salesforce:CRMデータへのMCPアクセスをエンタープライズ向けに提供し、AIエージェントによるCRM操作を実現
これらの事例に共通するのは「既存のAPIをMCPプロトコルでラップすることでAIエージェントとの親和性を高める」アプローチです。ゼロからの開発よりも、既存APIのMCPアダプター実装が現実的な第一歩です。
実装ロードマップ:3ヶ月でMCP対応メディアを構築する
MCPサーバーの構築はフルスクラッチでも3ヶ月あれば基本実装を完了できます。以下は既存のオウンドメディアにMCP対応を追加するためのフェーズ別ロードマップです。
Month 1:基盤整備フェーズ(コスト:エンジニア工数20-40時間)
- llms.txt・llms-full.txtの配置とrobots.txtのAIクローラー許可設定
- 既存コンテンツのJSON-LD実装状況の監査と修正
- 記事データベースのスキーマ見直し(body_text分離・更新日管理強化)
- MCPサーバーの技術選定(Node.js SDK / Python SDK / PHP自実装)
- 開発環境でのMCPサーバーPoC(Claude Desktopへの接続テスト)
Month 2:MCP実装フェーズ(コスト:エンジニア工数40-80時間)
- Resourcesの実装:article・category・author・sitemapの4種
- Toolsの実装:search_articles・get_latest・get_related・check_topicの4本
- Promptsの実装:summarize_article・cite_article・find_expert・compare_topicsの4本
- APIキー認証・レート制限・エラーハンドリングの実装
- 本番デプロイとMCPエンドポイントのHTTPS公開
- 開発者向けページ(/developers/mcp/)の整備
Month 3:計測・最適化フェーズ(コスト:マーケ工数10-20時間/月)
- MCPアクセスログの集計・分析基盤の構築
- GA4でのAIチャット流入カスタムチャネルの設定
- 主要KW×5モデルの引用率ベースライン計測
- MCPツール呼び出し頻度トップ10の記事を強化
- llms-full.txtの自動生成Cronジョブの実装
- MCPサーバーのnpmまたはnpmjs公開(任意)
3ヶ月後の目標指標
| 指標 | 開始時 | 3ヶ月後の目標 |
|---|---|---|
| MCPサーバー稼働 | なし | 本番稼働・10ツール以上 |
| llms.txt配置 | なし | 配置済み・週次自動更新 |
| AI referrer流入セッション/月 | 0〜数十 | 月300セッション以上 |
| 主要KW引用率 | 計測不能 | ベースライン確立・週次モニタリング稼働 |
| MCPクライアント接続数 | 0 | ユニーク10クライアント以上 |
オウンドメディアをAIエージェント対応にする全体戦略についてはオウンドメディアのAI対応ロードマップも合わせて参照ください。
よくある質問(FAQ)
Q1. MCPサーバーを持たないと、AIエージェントはメディアにアクセスできないのですか?
いいえ。PerplexityやChatGPTのWeb検索機能は通常のHTTPクローリングでページを取得します。MCPサーバーがなくても検索経由でAIに引用される可能性はあります。ただしMCPサーバーがあれば「検索を経由しない直接接続」が実現し、AIエージェントへの情報提供の確実性と即時性が大幅に上がります。
Q2. MCPプロトコルはAnthropicが策定したものですが、ChatGPTやGeminiでも使えますか?
はい。MCPはオープンプロトコルとして公開されており、Anthropicだけでなく複数のAI企業が採用または採用検討をしています。2026年5月時点でClaude(Anthropic)が最も積極的にMCPをサポートしており、OpenAIはChatGPT Plusで段階的なMCP対応を進めています。Googleも自社エージェント基盤へのMCP採用を検討中と報告されています。
Q3. 小規模メディア(月10万PV以下)でもMCP対応は必要ですか?
必須ではありませんが、llms.txt・llms-full.txtの配置は小規模メディアでもほぼゼロコストで実施できます。MCPサーバーの実装は優先度を下げても、まずこの2ファイルと適切なJSON-LD実装から始めることを推奨します。規模が小さいうちに設計の基盤を作っておくことで、拡大期の移行コストが大幅に削減されます。
Q4. MCPサーバーを公開すると、コンテンツが無断で使われるリスクはありませんか?
リスクはゼロではありません。APIキー認証・レート制限・利用規約の整備で対処します。llms.txtのCitation Policyセクションで「引用時の出典表記ルール・商用転載の可否」を明示することも重要です。また、MCPサーバーのログを定期的に確認し、異常なアクセスパターン(大量スクレイピング等)を検知する仕組みを設けてください。
Q5. MCPサーバーの実装にはどのくらいの開発費用がかかりますか?
Anthropicが公開しているMCP SDK(TypeScript・Python)を使うと、基本実装で100-200万円、フル機能実装で200-500万円が目安です(外部委託・2026年時点)。PHPでのSSE実装は既存のPHPメディアに追加する場合、20-40万円程度でPoC版を作れます。自社でMCP実装経験を持つエンジニアが少ないため、初期は外部委託して設計ノウハウを習得する方法が現実的です。
Q6. AIエージェント対応のSEOとMCP対応はどちらを優先すべきですか?
2026年5月時点では「AIエージェントSEO(LLMOと構造化データ)」を先行して取り組むことを推奨します。MCPサーバーはAIからのアクセスを「プル型」で受け入れる仕組みですが、そもそもメディアのコンテンツがAIに正しく理解・評価されなければ、MCPサーバーがあっても参照されません。LLMOの基盤を固めてからMCPを実装する順序が効果的です。AIエージェント時代のSEO戦略で基盤の作り方を解説しています。
まとめ:MCP対応メディアは「AIネイティブな発信基盤」への投資
MCP対応のオウンドメディアとは、人間のユーザーだけでなくAIエージェントを読者・利用者として設計されたメディアです。2026年5月時点で本格的な実装事例はまだ少数ですが、先行者として設計・実装を進めることで、AIが主流になる数年後に圧倒的な優位を確立できます。
最初の一歩は大きくなくて構いません。llms.txt・llms-full.txtの配置とrobots.txtのAIクローラー許可設定は今日から実施できます。JSON-LDの実装改善とAI referrer流入の計測設定もコストが低く効果が高い施策です。MCPサーバーの実装は段階的に進め、3ヶ月のロードマップを軸に着実に前進することを推奨します。
MCPの技術仕様・基礎知識についてはMCPとは何か:基礎から理解するを参照してください。llms.txt・llms-full.txtの具体的な実装についてはllms.txtの書き方と活用法で詳しく解説しています。
自社のオウンドメディアをMCP対応にする方法・設計支援・MCPサーバー実装については、お問い合わせからご相談ください。初回30分の無料診断を提供しています。
よくある質問
- オウンドメディアにMCPサーバーを置く必要があるか?
- 2026年5月時点ではアーリーアダプター段階、業種上位プレイヤーは導入価値が高い段階です。
- MCP対応に必要な技術スキルは?
- JSON-RPC理解と簡易サーバー実装能力で、エンジニア1名で2-4週間で構築可能です。