AIO: 無料とは思えないほど充実した機能! あなたのWebサイトがAI検索や生成AIに対応しているかをチェックできる -Is Your Site Agent-Ready?
Post on:2026年4月21日
去年くらいからAIOというワードを目にするようになったと思います。AIOとはAI最適化(AI Optimization)のことで、簡単に説明すると、AI検索や生成AIに信頼されるコンテンツを設計することを意味します。
信頼されるコンテンツとして設計されているか、回答エンジン最適化(AEO)、生成エンジン最適化(GEO)、大規模言語モデル最適化(LLMO)など、WebサイトがAIエージェントに対応しているかどうかを多角的にチェックできる無料のオンラインツールを紹介します。
各項目についての解説や、NGになった項目の改善策なども提示され、無料とは思えないほど充実した機能を備えています。

Is Your Site Agent-Ready?は、WebサイトのURLを入力すると、そのWebサイトをスキャンして、AIエージェントへの対応状況を確認できます。
コンテンツがAIに最適化されているか、robots.txtやMarkdown for Agentsをはじめ、MCP、OAuth、エージェントスキル、エージェントコマースなど、AIに対応する最新標準規格をチェックします。

ということで、さっそく当ブログでチェックしてみました。
利用方法は簡単で、サイトのURLを入力するだけです。登録など面倒なことは一切不要です。

当ブログではAI用に施策は特にしていないので、スコアは低かったです。しかし、AIエージェントに対応するために何をすればよいかが分かります。
まずはDiscoverability、AIエージェントがサイトを発見する可能性。

Discoverability
robots.txtとsitemap.xmlは、問題ないようでした。NGだったのがLink headers(RFC 8288)で、AIエージェントが有用なリソースを参照できるように、Linkレスポンスヘッダーを追加することです。参考リソースについてのリンクも掲載されています。
続いては、コンテンツ。WebサイトがAIエージェント向けMarkdownをサポートしていないと指摘されました。

Contents
これはAIエージェントが要求した場合に、HTMLレスポンスをMarkdown形式で返すこと。デフォルトはHTMLなので、Accept: text/markdownを含むリクエストに対してHTMLレスポンスのMarkdownバージョンを返すようにします。
ボットのアクセス制御。

Bot Access Control
robots.txtにおけるAIボットのルール(RFC 9309)は、クリアしていました。NGだったのは、robots.txt内にContent-Signalが見つからないこと。解決策は、robots.txtにContent-Signal: ai-train=no, search=yes, ai-input=noを設定することです。
最後の項目は、API, Auth, MCP。

API, Auth, MCP & Skill Discovery
この項目は、全滅でした。たとえば、API Catalog (RFC 9727)はAPIカタログが見つからないことが問題で、解決策は/.well-known/api-catalogを作成し、application/linkset+jsonファイルと「linkset」配列を返すようにします。
他にもたくさんの項目があるので、ご自身のサイトでご確認ください。
sponsors













