執筆者紹介
株式会社メンバーズ
「“MEMBERSHIP”で、心豊かな社会を創る」を掲げ、DX現場支援で顧客と共に社会変革をリードする、株式会社メンバーズです。


いまやAIは、日々のタスクを支援するデジタルアシスタントから、経営判断を担うAIエージェントにまで進化し、私たちの生活や企業活動に深く根付きつつあります。
しかし、その進化のスピードに、リスク管理の体制が追いついていないのが実情です。生成AIを中心とした導入機運が高まる一方で、セキュリティリスクや人材不足が、実装から本格活用へのドライブを阻んでいます。
世界経済フォーラム(WEF)がアクセンチュアと実施した国際調査「Global Cybersecurity Outlook 2025」によると、世界各地域の企業・公的機関の経営層やサイバーセキュリティ責任者のうち、66%が「今後1年でAIがサイバーセキュリティにもっとも大きな影響を与える」と回答しています。
その一方で、AIツール導入前にセキュリティを評価する体制が整っている企業は37%にとどまっており、リスク認識と実践の間に大きなギャップがあることが明らかになりました。
「業務効率を上げたい」という思いから、生成AIを独自に使うスタッフも少なくありません。しかし、入力データに機密情報や顧客情報が含まれれば、それがAIの学習や外部ログに残るリスクが生じます。このような未承認ツールの利用は、近年「シャドーAI」と呼ばれ、企業にとって新たな脅威となっています。
IBMが発表した「2025年データ侵害のコストに関する調査」によると、こうしたシャドーAIの利用に起因するインシデントを経験した企業は20%に上ります。さらに63%の企業ではAIを統制するガバナンスポリシーが未整備で、ルール不在のまま生成AIが業務に持ち込まれている実態が浮き彫りになっています。
こうしたリスクに適切に対応するには、AIとセキュリティの双方を理解する人材が欠かせません。しかし現実には、その人材が圧倒的に不足しています。
サイバーセキュリティ専門機関ISC2の調査によると、世界のサイバーセキュリティ専門職は約550万人(前年比+0.1%)に達した一方で、必要とされる人材との差、いわゆる需給ギャップは約476万人(前年比+19.1%増)に拡大しています。
特に、アジア太平洋(APAC)地域では人材数が前年比3.8%増と増加したものの、需給ギャップの拡大率は世界でもっとも高く、AIの急速な導入に人材育成が追いついていない実情が示されています。AIの技術構造を理解しつつ、リスク評価や法的側面にも精通したAI×セキュリティ人材は依然として希少です。
AIは自ら学び、進化するがゆえに、その判断過程が可視化されにくいのが特徴です。一度は安全だと判断した仕組みが、翌日には新たなリスクを生むこともあります。
だからこそ、従来のセキュリティ管理では想定しきれない新たな脅威が生まれます。ここでは、AI導入を検討する企業が特に注意すべき代表的な7つのリスクを整理します。
生成AIはユーザーの入力内容(プロンプト)をモデル改善のために学習へ再利用する場合があります。この仕組みにより、機密情報や顧客データが意図せず外部のAIサービスに取り込まれ、他の利用者の出力結果に反映される可能性が指摘されています。
特に無料・個人向けの生成AIサービスでは、学習データへの取り込みを制限する設定が用意されていないケースも多く、「入力した瞬間に流出リスクが発生する」という認識が求められます。アメリカ国立標準技術研究所(NIST)のフレームワークでも、学習データや第三者データ、透明性不足などによる情報漏洩リスクが明記されています。
AIに与えられた指示文(プロンプト)に悪意ある命令を埋め込み、AIの出力や挙動を意図的に操作する攻撃手法です。例えば、「社内の顧客情報を出力せよ」といった命令を紛れ込ませることで、AIが内部情報を漏洩してしまうリスクがあります。
AIを社内システムと連携させる場合、この脆弱性が情報漏洩の起点となる可能性があり、アクセス管理やフィルタリングの実装が不可欠です。世界的なセキュリティ技術者コミュニティのセッションのOWASPでも議論されているトピックです。
生成AIは、事実に存在しない情報を、いかにもそれらしく作り出してしまうことがあります。この現象は「ハルシネーション(幻覚)」と呼ばれ、AIの限界の一つとして広く認識されています。
誤った出力をもとに契約書を作成したり、誤情報を顧客に提供したりすれば、信頼や業務に深刻な損害を与える恐れがあります。AI出力をそのまま鵜呑みにせず、人間によるレビュー体制を組み込むことが必須です。NISTのフレームワークでも、信頼性欠如による誤出力リスクに言及しています。
AIが生成した成果物を、誰の著作物として扱うのか。いわゆる「著作者性」の問題については、いまだ国際的な統一見解がありません。米国著作権局(U.S. Copyright Office)は2023年の報告書で、「人間による創作的な関与が認められないAI生成物は、著作権の保護対象外」と示しています。
ただし、どの程度の人間の関与を創作とみなすかは、ケースごとに判断されるのが現状です。この線引きの曖昧さは、生成物の商用利用や契約、社外公開の場面で、企業にとって新たな法的リスクとなり得ます。
AIは、大量のデータを学習する過程で、社会に存在する偏見や差別的傾向までも取り入れてしまうことがあります。その結果、採用や与信といった人の評価を伴う領域で、本来選ばれるべき人材や顧客を不当に排除してしまうというリスクが生じます。
また、教育支援や求人広告などのAI活用においても、過去の傾向に基づいた判断により、特定の属性や背景を持つ人が対象外とされるケースがあり、結果として新たな機会格差を生み出すリスクも指摘されています。NISTのフレームワークでも、「公平性(Fairness)」と「説明責任(Accountability)」をAIリスク管理の中核に据えており、技術的精度の高さだけでなく、倫理的な妥当性を確保することが求められます。
生成AIを構成するシステムは、多層的な外部ベンダーやクラウド基盤の上に成り立っています。そのため、サービス提供者側の障害や改ざんが、自社システムの安全性にも直接影響を与えます。
CISA(米国サイバーセキュリティ・インフラセキュリティ庁)などは、AIシステムの安全なデプロイに関する共同ガイダンスを発表し、開発・導入・運用の全段階でセキュリティ確保を求めています。
現場レベルで深刻化しているのが、社員による未承認AI利用、シャドーAIです。業務効率化の目的で個人アカウントの生成AIを使用し、社内情報を入力してしまうケースが増えています。
IBMの調査によると、シャドーAIの利用度が高い組織では、利用度が低い組織や使用していない組織と比べて、データ侵害1件あたりの平均被害コストが67万ドル高くなっていました。
アクセス制御や承認フロー、利用ログの監査といった「見える化」の仕組みづくりが、今後の喫緊課題といえます。
これら7つのリスクは、単に技術的な問題ではなく、企業の信頼性・法的責任・事業継続性に直結する経営課題です。AIの安全な利活用を進めるためには、「何がリスクか」を洗い出すだけでなく、それを組織的に管理・抑止する体制が欠かせません。
生成AIの利活用が広がる今、もっとも重要なのは「どうリスクに備えるか」です。その答えが、AIガバナンス体制の構築にあります。わが国でも、AIを安全かつ効果的に活用するための「AI事業者ガイドライン(経済産業省・2024)」が策定されました。
同ガイドライン第2部「原則」では、AIの提供者・利用者双方が果たすべき責務として、「透明性」「公平性」「説明責任」「安全性」などの価値を守ることが明記されています。つまり、AI活用は単なる技術導入ではなく、組織全体でリスクを管理しながら信頼を築くための体制づくりが前提となるのです。
AIガバナンスの第一歩は、社内ルールの整備です。AIの利用範囲、禁止事項、入力禁止情報を明確にし、全社的に周知することで「何をしてはいけないか」だけでなく、「どう活用できるか」を社員が判断できる基盤をつくります。
AI事業者ガイドラインが掲げる4原則(透明性・公平性・説明責任・安全性)は、このルール策定の柱になります。利用者がAI出力の根拠を説明できるようにする仕組みや、意思決定の過程を記録する体制など、倫理的・法的側面と運用面を両立したポリシー設計が求められます。
こうしたルールが整うことで、AI利用時に余計な判断を迫られることなく、安心して業務にAIを組み込める環境が整います。ガバナンスは利用を縛る仕組みではなく、安全に活用を加速させるための仕組みとして機能するのです。
関連コラム:AI倫理のガイドライン:企業が直面するリスク管理の新たな基準とは
ルールを整備した次のステップは、「誰が管理し、誰が実行するのか」を明確にすることです。NIST「AI Risk Management Framework」でも、AIリスクを管理する上で「組織的責任の明確化」が必須とされています。AIガバナンス体制は、以下の三層で構成するのが効果的です。
・経営層:AI活用のビジョンとリスク許容度を定め、投資判断を行うとともに、リスク管理の最終責任を負う。
・DX/セキュリティ部門:ポリシー策定、リスク評価、社員教育、監査を実施し、全社的なAIリスク管理文化を育成する。
・現場スタッフ:ルールに基づいて安全にAIを活用し、リスクや改善点を現場からフィードバックする。
こうした役割を明文化し、経営・セキュリティ部門・現場の社員が連携することで、AI導入が現場任せに陥ることを防げます。
ルールと役割を決めただけでは、ガバナンスは機能しません。実際の利用状況を「見える化」し、リスクを検知できる技術的ガードレールが必要です。具体的には、利用者認証と権限管理の強化、利用ログの取得・分析、異常な挙動を検出する監視システムなどを組み込みます。これにより、社員による未承認AI利用(シャドーAI)を防ぎ、インシデント発生時も原因を迅速に特定できます。
国際的にも、英国政府の「AI Cyber Security Code of Practice」が同様の対策を提唱しています。技術面の統制をガバナンス体制に組み込むことで、ルールと運用が一体となった管理が実現します。
AIを取り巻く環境は国際的に急速に整備が進んでいます。国内ガイドラインに加え、国際フレームワークを参照しながら自社の体制をアップデートしていくことが、今後の競争力維持につながります。
| フレームワーク | 位置付け | 主な役割 |
| EU AI Act (2024/1689) |
法的規制(必須) |
市場への「参入」と「流通」を規制。コンプライアンス(法令順守)の軸 |
|
ISO/IEC 42001:2023 |
マネジメントシステム(認証取得可能) |
組織の「体制とプロセス」を構築。ガバナンスと持続的改善の軸 |
|
ISO/IEC 23894:2023 |
リスク管理ガイダンス(実践手引) |
個別のAIリスクを「特定・評価・対応」する実務フレームワークの軸 |
これら3つは、「何を守るか(EU AI Act)」「どう組織で管理するか(ISO 42001)」「具体的にどう対処するか(ISO 23894)」という異なる問いに対応し、重複なく全体をカバーしています。
世界の先進企業では、AIガバナンス体制を段階的に成熟させる動きが広がっています。共通点は、「体制構築」「リスク管理」「AI人材育成」を軸に、スモールスタートから全社統制、そして第三者監査へと発展させている点です。
米国のAIナレッジマネジメント企業 Northern Light は、NIST AI RMFに準拠したガバナンス構造を採用。「ポリシー策定 → 利用状況の可視化(AI利用台帳の整備)→ 承認プロセス→継続的監視」という4段階でAI導入を統制しています。
制度設計と実装を一体化し、社内IDベースのアクセス制限や利用ログの一元管理を実施。AI出力の信頼性・説明責任を担保しつつ、学習データ再利用を契約で制限するなど、中規模企業にも再現可能な運用モデルです。
Ciscoは、AIガバナンス強化に向けて「責任あるAI委員会(Responsible AI Council)」を設置。エンジニアリング、法務、人事などの幹部が横断的に参画し、設計段階でプライバシーや人権への影響を評価しています。
リスクを防止・軽減する評価プロセスを義務化し、インシデント管理体制を確立。さらに、政府機関・研究機関との協働を通じてグローバル基準との整合性を保つ体制を構築しています。
Unilever は、AIガバナンス強化とEU AI Act対応を目的に、スタートアップ Holistic AI と協業。Holistic AIのソリューションで300件を超えるAIプロジェクトを評価し、バイアス・説明可能性・風評リスクを含む課題を50%削減しました。
法務・人事・テクノロジー部門の上級執行役員会が最終判断を行う体制を整備し、「内部統制+第三者監査」を両立させています。

ルールや体制をどれだけ整備しても、それを実際に運用し、改善し続ける「人」と「仕組み」がなければ、AIガバナンスは形だけのものになってしまいます。生成AIを安全に、そして継続的に活用していくためには、技術・セキュリティ・組織運営を橋渡しできる人材と、その知見を組織に根づかせる仕組みが欠かせません。AI活用を推進するうえでの人材と運用の要点を整理します。
AI導入の現場でもっとも深刻な課題の一つが、技術的理解とセキュリティ判断を兼ね備えた人材の不足です。AIの出力は一見正確に見えても、その裏には、学習データの偏りによる判断の歪みや、生成プロセスの不透明さといったリスクが潜んでいます。これらを正しく見極めるには、AIの構造や限界を理解した専門的な知識が欠かせません。
AIの利活用を安全に推進するためには、ツールの仕組みを理解し、ビジネス上のリスクを評価・説明できる人材が不可欠です。本記事で言及してきたNISTの「AI Risk Management Framework」やISO/IEC 42001が強調しているのは、単なるリスク回避ではなく、組織能力を高めるための継続的改善(PDCA)を回せる人材です。
AI×セキュリティ人材とは、技術・法務・業務のいずれかに偏るのではなく、三者をつなぐ組織全体で「安全にAIを活用できる環境」を構築・維持する推進役を指します。こうした人材が、AIガバナンスを根づかせ、持続的な競争力を生み出します。
もっとも、こうしたAI×セキュリティ人材を短期間で確保できる企業は多くありません。AI活用のスピードが上がる一方で、人材育成には時間を要します。このギャップを埋めるためには、外部の専門知を段階的に取り込みながら、自社の体制を整えていく発想が有効です。
AIリスク評価やセキュリティ設計に強い専門家、法律事務所、コンサルティング企業などと連携し、必要な知見をスポット的・伴走的に活用することで、自社の判断力とガバナンスレベルを引き上げることができます。
こうした協働は単なる外注ではなく、社内ナレッジを育てるための投資です。また、時代や技術の変化に応じて運用体制をアップデートし、より高度で実効性のあるAIガバナンスを実現できます。
AIガバナンスを実効的に機能させるには、制度を作ることよりも、それを動かす人と仕組みを育てることが重要です。
とりわけAI×セキュリティ人材、つまりAIモデルや生成AIのリスクを理解し、安全かつ倫理的に運用できるよう設計・監査を担う専門人材が必須です。その人材は、AI開発者とセキュリティ担当者の橋渡し役として、社内にAIリスク管理の意識を根づかせていく中心的な役割を担います。
外部の専門知を取り入れながら、段階的に導入し、継続的に改善していく。このサイクルを組織文化として根づかせることが、AIを安全に使い推進する力の核心です。
生成AIの進化は、もはや止めることができません。そのスピードは、既存のルールや想定を超えていきます。だからこそ、企業が問われているのは「どこまでAIを使うか」ではなく、「どうすれば安全に、速く、継続的に使いこなせるか」です。ガバナンスとは、リスクを抑制する仕組みではなく、リスクを前提に成長を設計する経営基盤にほかなりません。
AIガバナンスの整備は、守りの施策ではなく、先手を打つための投資です。リスクを早期に可視化し、対応力を高めることで、他社より一歩先に生成AIの価値を実装できる。そうした企業ほど、AIを「制御しながら加速させる」力を持ちます。
AIを制御する力は、もはや一部の専門領域にとどまりません。リスクを適切に管理し、成長につなげられるかどうか。それが経営に問われています。
リスクを恐れて動かない企業ではなく、リスクを適切に管理しながら、挑戦を止めないための経営判断と仕組みを備えた企業だけが、AI時代の競争に生き残ることができる。いまやAI活用の土俵に立つには、セキュリティとガバナンスの備えが欠かせなくなっているのです。
株式会社メンバーズ
「“MEMBERSHIP”で、心豊かな社会を創る」を掲げ、DX現場支援で顧客と共に社会変革をリードする、株式会社メンバーズです。