「導入率57.7%なのに利用率1割」AI業務導入で現場が拒否する5つの正体|情シス・DX担当が打つべき手

「導入率57.7%なのに利用率1割」AI業務導入で現場が拒否する5つの正体|情シス・DX担当が打つべき手

杉井 慶成
杉井 慶成Web制作ディレクター、Web create service

「全社員にChatGPTのライセンスを配ったのに、ログを見たら利用しているのは10人に1人だけだった」 「現場に説明しに行くと『今のやり方で困っていない』と言われ、会議が止まる」

AI業務導入を任された情シス・DX推進担当者の方であれば、このような壁にぶつかった経験があるのではないでしょうか。本記事では、2025年〜2026年の調査データと、note・Yahoo!知恵袋・公式ドキュメントから集めた一次情報を基に、現場従業員がAIを拒否する5つの理由と、それを情シス側からどう崩していくかを具体的に解説します。導入率の高さと利用率の低さのギャップに悩んでいる方は、ぜひ最後までお読みください。

「導入率57.7%」と「利用率1割」のあいだで起きていること

最初に、議論の土台となる数字を整理します。

野村総合研究所が2025年に実施した「IT活用実態調査」では、生成AIを「導入済み」と答えた企業は57.7%に達しました。日本情報システム・ユーザー協会(JUAS)の「企業IT動向調査2025」でも、言語系生成AIの導入企業(準備中を含む)は41.2%で、前年度の26.9%から14.3ポイント増えています。経営層から見れば、AI業務導入は順調に進んでいるように見える数字です。

一方、現場の利用実態は別の絵を見せています。Qiitaに掲載された情シス担当者の報告では、社内に配布したChatGPTの実利用率はおよそ1割以下にとどまったと述べられています。PwCの「生成AIに関する実態調査2025春」でも、ビジネスパーソン全体の生成AI利用経験率は2025年10月時点で21.7%。導入率の半分以下です。

つまり、ライセンス配布という「導入」のゴールテープを切った瞬間に、別のスタート地点に立たされている、というのが2026年の実情です。

現場がAIを拒否する5つの理由

ここからが本題です。現場から上がってくる反応を5つに分けます。3つや7つではなく、5つにしているのは、それぞれが別の打ち手を必要とするからです。

理由①「自分の仕事のどこで使えばいいか分からない」

サモテクが公開している「失敗7パターン」記事では、現場の声として「数回触って終わってしまいます」「適当な質問をしたら、適当な答えが返ってきた」が紹介されていました。Qiita記事の表現を借りれば、これは「使いどころが分からない」のではなく「使えるところがあまりない」という事象です。

社内固有の規則・取引先・案件履歴を知らないChatGPTは、現場の業務にそのまま当てはめると確かに精度が出ません。情シス側が「便利だから使え」と説明しても、現場の実感としては「便利じゃない」が先に来る構造になっています。

理由②「AIに任せたら、自分の仕事が無くなるのではないか」

これは口に出されにくい理由ですが、現場では確実に存在します。Togetterにまとめられた武田紘樹氏の投稿への反応では、福祉現場や昇格試験で「AIがそう答えたので」と発言した若手に対して、上司側から「使われる側になってどうする」という強い反発が出ていました。

裏返すと、現場にとってAIは「効率化の道具」と「自分の存在価値を脅かすもの」のどちらにも見える状態です。経営層はもっぱら前者を語り、その温度差が拒否反応を生みます。

理由③「セキュリティが怖くて入力できない」

サモテクの記事では「セキュリティ萎縮」が失敗パターンの1つに挙げられています。情シスがガイドラインを配ると、現場は「何を入れたらアウトなのか分からない」ため、結果的に「全部入れない」を選ぶようになります。

特に、自治体・医療・士業など個人情報を扱う部署ほどこの傾向が強く、Yahoo!知恵袋に投稿された製造業勤務者の質問でも、同僚がChatGPTの回答をそのままメールに貼っていることへの不安が綴られていました。

理由④「説明責任が果たせなくなる」

Togetterで武田紘樹氏が指摘したのが、「ChatGPTがやったので説明できない」と言ってしまう若手社員の問題でした。福祉現場では、利用者・家族への説明責任が求められる場面で「AIがそう答えました」では通らない、という実務的なつまづきが報告されています。

特にBtoBの提案・保険・法務・人事査定など、根拠の説明が成果物の価値そのものになっている職種では、AIに途中過程を任せることが業務の根幹を揺るがします。情シスが見落としやすい論点です。

理由⑤「失敗したときの責任を自分が取らされる」

人事評価やインシデント対応のルールがAI導入に追随していない会社では、現場は「AI出力を信じて顧客に出したらクレームが来た」という事故の責任が自分個人に紐づくことを警戒します。サモテクの記事にも「正直どんな効果が出ているのかわからない」という声が紹介されていますが、効果が見えないものに自分の評価を賭けたい人はいません。

これは心理的抵抗ではなく、評価制度の未整備という構造的な原因です。情シス単独では解決できず、人事部との連携が必須になります。

【現場でのつまづき】「ChatGPTがやったので説明できません」問題

ここから先は、現場から上がってきた一次情報のうち、最も象徴的な「説明責任の崩壊」事例について深掘りします。

Togetterに収録された報告では、福祉現場で40代の主任クラスが、利用者家族への説明の場で「これはAIがそう答えたので、私には分かりません」と発言してしまった事例が挙げられていました。投稿には「使われる側になってどうする」「AIは使うものであって、使われるものではない」というコメントが共感と一緒に寄せられています。

似た現象は昇格試験でも起きていて、面接官が「あなたの考えを聞きたい」と言っているのに、受験者がChatGPTの回答をそのまま読み上げてしまう。Yahoo!知恵袋の質問でも、同僚が「GPTがこう言っているので問題ない」と判断根拠にしていることへの危うさが投稿されていました。

つまり、AIを禁止するわけにもいかず、放任すると説明責任が崩壊する。情シスの視点からは「使え」と「考えろ」を同時に要求しなければならない難しい局面です。Qiita記事が指摘していた「教育より技術的アプローチを優先せよ」という主張だけでは、この問題は解けません。

拒否反応を6週間でほぐす、4つのワークアラウンド

ここからは、note・Qiita・Yahoo!知恵袋の一次情報と、サモテクが提示した「失敗の9割は導入の仕方と運用設計のミス」という分析を組み合わせて、情シス側の現実的な手の打ち方を整理します。6週間で動かせる手順です。

① ライセンス配布より先に「使えない業務リスト」を社内公開する

通常の導入は「使ってみてください」から始まりますが、これを反転させます。「使ってはいけない業務」「使っても効果が薄い業務」を先に社内Wikiに掲載してしまうのです。

サモテクの記事にあった「セキュリティ萎縮」の正体は、判断基準の不在でした。アウトの線が見えれば、現場は逆にセーフの範囲で動けるようになります。Qiitaの情シス報告でも、利用率が伸びなかった企業の共通点として「社内情報の取り扱い基準が曖昧」が挙げられていました。

② 「説明できないアウトプットは納品禁止」を会社のルールにする

理由④の説明責任崩壊を防ぐ唯一の方法は、技術ではなくルールです。「AIが出した文章であっても、自分の言葉で1分間説明できないものは社外に出してはいけない」という1行を、業務マニュアルかコンプライアンス規定に追加します。

Togetterのコメント欄で複数の管理職が支持していた「AIは使うものであって使われるものではない」という原則を、ポエムではなく規程の文言に落とすイメージです。これだけで福祉現場や提案書作成の現場で起きていた「AIがそう言ったので」事故は大きく減らせます。

③ 「成功事例の社内展示会」より「失敗事例の共有会」を月1で開く

導入推進の定番は「使いこなしている人を表彰する」ですが、現場の心理的抵抗が強い時期にこれをやると、使えていない人の疎外感が増幅します。

代わりに、月1回30分でいいので「今月、AIで失敗した人」を持ち回りで共有する会を開きます。サモテクが提示した7パターンの失敗を、自社の言葉で蓄積していくイメージです。これは「失敗してもいい場所」を作る効果があり、理由⑤の評価リスクを軽減します。

④ 情シスではなく人事部とセットで現場説明会に行く

理由⑤の根本である「失敗したときの評価リスク」は、情シスがいくら「大丈夫」と言っても解消できません。人事部の担当者が同席して「AIを使った業務での失敗は、個人の評価に直結させない」と明言することが必要です。

これはNRIの「IT活用実態調査2025」が指摘していた「リテラシーやスキル不足を課題と回答した企業が70.3%」というデータの裏側にある問題でもあります。スキルを上げる前に、スキル習得の時間を取ったことを評価する制度がなければ、現場は学習に時間を割けません。

セキュリティと「シャドーAI」の逆現象

理由③のセキュリティ不安には、もう1つ厄介な副作用があります。会社が「業務PCでのChatGPT利用は禁止」と決めた瞬間、現場はスマホで個人アカウントを使い始めます。いわゆるシャドーAIです。

総務省の令和7年版情報通信白書では、企業におけるAI利用が急速に広がる一方、ガバナンスの整備が追いついていない状況に触れています。「禁止」の貼り紙だけで対応すると、入力されてはいけない顧客情報が個人のスマホ経由で外部サービスに渡る経路が生まれ、情シスの管理下から完全に外れます。

対策の方向は2つで、(A)法人契約の生成AIをポリシー込みで配布する、(B)入力可能な情報のホワイトリストを作る、この組み合わせです。「全面禁止」も「全面許可」も、現場の拒否反応とシャドーAIを同時に育ててしまうという点で、最悪の選択肢になります。

公的支援・補助金の現状(情シス目線で押さえる4制度)

AI業務導入の費用面で情シスが押さえておくべき公的制度を、2026年4月時点で確認できる範囲で整理します。

  • IT導入補助金(通常枠・インボイス枠):中小企業庁が所管、生成AIを含むSaaSが対象になり得る。詳細は公式サイトで最新の公募要領を確認のこと。
  • 人工知能基本計画:2026年2月、日本初のAI基本計画が閣議決定され、規制と投資の方向性が示されました。情シスの稟議書で「国策として後押しがある」と書ける材料になります。
  • DX推進指標:経済産業省が公開している自己診断ツール。現場拒否の数値化が難しいときに、共通言語として使えます。
  • 関西DX戦略Next(2026年4月公表):関西経済連合会が「AI活用などによるDXの好循環」を打ち出した方針。地域ごとの支援策の動きを追う材料になります。

補助金の細かい金額・採択率は年度ごとに変わるため、本記事では断言を避けます。社内稟議に使う際は必ず公式の最新公募要領を確認してください。

よくある質問

Q1. 利用率を「数値KPI」で管理してもよいのでしょうか?

サモテクの記事では「効果測定の欠如」が失敗7パターンの1つに挙げられていました。一方で、利用率のみを追うと現場が「使った形だけ作る」行動に走ります。利用率と並べて、理由④の説明責任が果たせているか(成果物に個人の判断が入っているか)を質的に評価する仕組みが必要です。

Q2. 「全社員研修」はやるべきでしょうか?

NRIの調査ではリテラシー不足を課題とする企業が70.3%でしたが、研修だけで解決した事例は多くありません。研修よりも、上で挙げた「失敗共有会」「説明禁止ルール」「人事との同席説明会」のほうが現場の動きを変えやすい、というのが一次情報から見える傾向です。

Q3. 経営層から「もっと早く成果を出せ」と言われています

サモテクが指摘した「導入企業の約7割が期待した成果を得られていない」という数字を共有するのが第一歩です。そのうえで、6週間ワークアラウンドの①〜④を順番に踏むスケジュールを提示し、「いきなり成果」ではなく「拒否反応を下げる」を中間ゴールに置き直すことを提案してください。

Q4. 情シスが現場に嫌われていて、説明会を開いても人が来ません

これは情シスではなく現場のキーパーソン(部門のベテラン)に最初の利用者になってもらう経路が有効です。Togetterのコメントで支持を集めていたのも、若手ではなく中堅・主任クラスからの発言でした。誰が話すかが、何を話すかと同じくらい重要になります。

まとめ:AI業務導入は配って終わりではなく「拒否反応の管理」から始まる

最後に、本記事の要点を5つに整理します。

  • 2025年時点で生成AI導入率は57.7%まで到達したが、社内利用率は1割前後にとどまる企業が多い(NRI/JUAS/Qiita)
  • 現場の拒否理由は1つではなく、「使い道が見えない」「仕事を奪われる不安」「セキュリティ」「説明責任」「評価リスク」の5つに分かれる
  • 特に説明責任の崩壊(AIがやったので分かりません問題)は、ルールで明示しないと現場で事故が起きる
  • 情シスがやるべきは、ライセンス配布より先に「使えない業務リスト」「失敗共有会」「人事部との合同説明会」などの運用設計
  • シャドーAI対策は「禁止」ではなく「ホワイトリスト+法人契約」の組み合わせで、シャドー化と拒否反応の同時発生を防ぐ

AI業務導入は、テクノロジーの問題に見えて、実態は人と評価制度の問題です。情シス・DX推進担当者の方が現場で最初に交わすべき会話は、「このツールはすごい」ではなく、「あなたの仕事のどの部分は、絶対にAIに渡したくないですか」かもしれません。そこから逆算して入れていく方が、その後の利用率が違ってきます。


参考

次のコンテンツ

あなたへのおすすめ