生成AIの導入を阻む、主な課題とは
調査結果からは、生成AIの導入と本格活用を阻むいくつかの主要な課題も浮き彫りになりました。

1. 回答の正確性と人事担当者の役割変化
2024年時点では、「生成AIの出力結果が信用できない」「確認作業が必要になる」という声が多く、「現時点では導入していない」と回答した法人は50.0%にのぼりました。これは、生成AIが事実と異なる内容(ハルシネーション)を生成してしまうことへの不安から、実務での利用に慎重にならざるを得なかったためです。
一方で、2025年現在では、モデル性能の向上や社内データを参照して根拠付きで回答できるRAG(Retrieval-Augmented Generation)技術の進化により、ハルシネーションの発生頻度は大幅に低減されています。また、出力に対して「どの社内文書・データを参照したのか」という根拠の明示ができる機能も一部で実装され、人間による確認作業も「一から正誤を判断する」のではなく、「提示された根拠が妥当かを判断する」形へと変化しています。
その結果、2024年に必要とされた「AIの嘘を見抜く力」に対し、2025年以降は「AIにどのナレッジ(社内データ)を与え、どう使わせるか」という、前提設計力(AIへの情報提供とプロンプト設計の質)が重視されるようになっています。
2. セキュリティ・情報漏洩への懸念
当時、生成AIを社内公開しない理由として多く挙げられていたのが「セキュリティの問題」(51.9%)であり、次いで「従業員の個人情報漏洩の懸念」(34.6%)が続いていました。そのため、「社内文書は読み込ませない」など、防御的なルールが主流で、情報漏洩リスクを回避する姿勢が目立っていました。
しかし2025年現在では、状況に大きな変化が見られます。たとえば、セキュアな生成AI環境の登場やエンタープライズ向けAI基盤の普及により、「社内データを安全にどう活用するか」という“攻めの姿勢”が一部の企業で顕在化しはじめています。
現在では「社内文書を読み込ませない」という一律の禁止ではなく、「どのデータを、どの範囲で、どのようにマスキング・制御するか」という具体的かつ戦略的なルール整備が主要な論点になっています。
3.活用目的の不明確さと情報不足
生成AIの導入が停滞する背景には、プロンプト設計の難しさや活用目的の不明確さがあります。実際、「関心はあるが検討に進めていない」とする法人は50%で、トライアル段階で足踏みするケースが目立ちました。当初はプロンプト設計の難しさや人事部門におけるスキルギャップが導入の大きな障壁となっていました。しかし、近年のAI性能の向上により、曖昧な指示でも一定の成果を得られるようになり、過度なプロンプトスキルは必ずしも求められなくなっています。
それでもなお、人事領域における具体的な活用事例が少なく、どのように生成AIを効果的に使うべきかの理解が進んでいないため、企業の間では活用イメージを持ちにくい状況が続いています。今後はこうした事例の共有や導入支援がいっそう重要となるでしょう。