日本企業の生成AI導入率は56%、しかし「期待を上回る効果」はわずか13%。
この数字の裏側で、本当は何が起きているのか ―― 9つの章で順を追って整理します。
2022年11月30日、OpenAI は ChatGPT を一般公開しました。公開からわずか4日で世界のユーザー数は100万人。約2か月後の2023年1月末には1億2,300万人に達し、過去のどの SNS よりも速く普及した出来事として記録されています。
当時、私たちが思い描いた未来は「アイロボット」や「ブレードランナー」のような、SF映画の延長線上にありました。けれど現実に2年半が経った今、起きているのはディストピア的変化ではなく、もっと地味で、もっと厄介な事象です ―― 「導入は進んでいるはずなのに、現場が変わらない」という、構造的なジレンマ。
この LP は、そのジレンマの正体を、9つの章で順を追って明らかにしていきます。
まず、最新の調査が示す事実から。日本企業の生成AI導入率は、もはや低くありません。PwC の 2025年春調査では 56%。野村総合研究所の調査でも 57.7%。米国・中国・ドイツ・英国と並ぶ水準にまで到達しています。
しかし、効果実感は対照的に低い。同じ PwC 調査で「期待を上回る効果があった」と回答した日本企業は わずか13%、5カ国中の最下位。米英の約4分の1、独中の約2分の1の水準にとどまっています。
いずれの調査も、共通して同じ構造を示唆しています ―― 使う組織は増えた。しかし、使うだけでは価値にならない。
では、なぜプロジェクトはPoCで止まるのでしょうか。要因は技術的というより、組織的かつ構造的です。生成AI活用において繰り返される失敗パターンは、ほぼ次の悪循環に集約されます。
「精度が出る」と期待してPoCを始める。経営からはROIの説明を求められる。
実際に走らせると、自社文書では十分な回答精度が出てこない。
クラウド側の一部ブラックボックスに依存しており、システムの根本まで見に行けない。
仕様や設定の変更で試行錯誤を重ねる。担当者は手を動かし続けるしかない。
精度が出ないことが、改善が進まない言い訳に。検証期間にも給与は発生し続ける。
成果が出る前提のテストが、検証である。
成果がいつ出るか見通せない取り組みは、検証ではなく、賭けである。
組織にDX推進・業務改善のミッションを背負ったチームがあるとき、彼らがしばしばスタックするのは「データ収集」「精度チューニング」「LLM選定」といった、本来は手段に過ぎない部分です。本質的な問題は、こうしたチューニングを続けても期待した精度が出ない原因を、利用者側で特定できない点にあります。
ここで一度、技術的な前提を整理します。生成AI時代の本質的な変化は、組織データを「学習」させる必要がなくなったことです。LLMはすでに高い言語理解能力を持つため、「適切な情報をパスする」だけで適切な答えを返します。これがRAG(Retrieval-Augmented Generation/検索拡張生成)と呼ばれるアーキテクチャです。
事前準備のためのデータクレンジングに膨大な時間がかかり、いつ十分な精度に到達するかも不透明。「最初は精度が低くてもよい課題」を選ぶしかなかった。
学習ではなく検索拡張。データを LLM に届ける手前のパイプラインが、精度を決定づける ―― ただし、それを実運用に耐える品質で組み上げるには、専門的な作業が必要。
だが、技術が成熟したにもかかわらず、このプロセスはツールとして組織に定着しないまま。理由は、RAG には「動かすだけ」と「実運用に耐える」の間に、大きな距離があるからです ―― 社内規定や文書を読み込ませただけで十分な精度に到達することは、まずありません。
LLM にデータを追加情報として渡す技術自体は、特殊なものではありません。むしろ、想像しやすい内容ばかりです。逆に言えば、これらが当たり前にできていれば、精度は出ます。
精度が出ないとき、まず疑うべきは「当たり前ができていないこと」です。「当たり前が分からない」と事業者側が答えるのなら、ツールの仕組みそのものを疑うべきタイミングだと言えます。
AskDona の精度を支えているのは、最新の RAG 研究で有効性が示された手法を、検証用ではなく製品グレードで実装している事実です。中核となる仕組みは、二つです。
文書をチャンクに分割する際、「この断片が文書全体のどこに位置するか/何の話か」を説明する 50〜100トークンの文脈情報 を付与してから埋め込み・インデックス化します。タグ付けではなく、LLM が正答に辿り着くための contextual hint。
ユーザーの質問を AI エージェントが受け取り、複数のサブクエリに分解してから検索を実行します。「ベジタリアンレストランから徒歩圏で空港送迎付きのホテル」のような複合質問が、3つの独立した検索ニーズに分かれて並行処理される ―― それが Agentic RAG。
人間は対AI になると、対人関係で経験する不利を意識せずに済むため、質問が雑になりがちです。「人には丁寧、AI には雑」という非対称が生まれる。AskDona の Agentic RAG は、この雑な問いを丁寧に噛み砕き、ユーザーが質問した以上の情報量と回答精度を返します。
AskDona の精度と運用品質は、第三者の運用環境で検証されています。スーパーコンピュータ「富岳」のユーザーサポートで導入され、運用実績を踏まえて、その後はサポートサイトの一次受け対応を AskDona に全面移行しました。
AskDona を導入することは、業務効率化のツールを導入することではありません。組織の「問い」を初めて構造化データとして可視化するツールを導入することでもあります。
人間は対 AI になると、対人で経験する不利を意識せずに済むため、建前や忖度なしに本当に聞きたいことを問うようになります。表面的にいい人でも、AI に対しては頭で考えていることがそのまま出る。
機械学習型チャットボット時代は、ユーザーがシナリオ分岐に沿って単語を入れるだけでした。生成AI時代になって初めて、人々は頭の中にある思考や疑問を、自然文のまま出力するようになっています。
頻出する問いはナレッジ整備の優先順位そのもの。回答できなかった問いは、組織として情報資産が不足している領域。Google が検索キーワードで実証した「データを早く集めた組織が勝つ」法則を、組織内部のミクロな単位で実装できる構造が、いま整いつつあります。
AskDona は、Anthropic の Contextual Retrieval、業界標準の Agentic RAG、そして「データを直接見に行く」という運営チームの習慣を、個別チューニングなしの製品レベルで実装しています。検証フェーズを「研究」ではなく「成果が出る前提のテスト」として走らせる ―― それが、いま導入すべき最大の理由です。
PoC に疲れる前に、AskDona の "当たり前" を体験してください。
貴社の代表的なドキュメントで、その日のうちに精度を確かめられます。