6.⑤セキュリティの確保
AIの信頼性を支える基礎は「セキュリティの確保」にあります。ガイドラインでは、AIシステムの全ライフサイクルにおいて、物理的・技術的・人的リスクへの対策を講じることを求めています。これは、AI固有の脆弱性(モデル盗用、データ汚染、プロンプトインジェクションなど)に加え、サイバー攻撃や内部不正も想定した「セキュリティ・バイ・デザイン」の実践を意味します。
企業ではNECが「AIと人権に関するポリシー」で、AIリスクマネジメント及びセキュリティ活動を取締役会へ定期報告する体制を明示し、また、楽天グループもAIリスクマネジメント計画を策定しています
このように、AIポリシーには「AI特有のセキュリティリスクを前提にしたガバナンス体制」が不可欠です。
7.⑥透明性
「透明性の原則」は、AIの判断過程を合理的な範囲で明示し、ステークホルダーに理解可能な形でできる限り開示することを求めています。判断過程がブラックボックスであることはAI特有の問題として避けられない課題ですが、開発・提供・利用の各段階で、入力データ、学習プロセス、出力根拠などの説明を可能にする体制を構築することで、AI利用に対する信頼性を確保することを求めています。
三菱電機は「AIの判断理由を説明できるよう努める」と明示し、日立も「判断結果の根拠を検証し説明責任を果たす」としています。また、楽天グループも「透明性によって信頼を築く」とし、開発・テスト・提供過程の開示を方針化しています。
8.⑦アカウンタビリティ(説明責任)
AIの判断が社会的影響を持つ以上、責任の所在を明確にし、その説明を行う義務が生じます。ガイドラインは、AIの利用に際して「責任の所在の明示」「トレーサビリティの確保」「履行状況の開示」を求めています。
NECは外部有識者による「デジタルトラスト諮問会議」を設置し、AIと人権に関する監督体制を構築することとし、日立製作所もAI倫理原則の中で「取締役会への定期報告」と「リスク改善の継続」を明文化しています。このように実際の策定例では、企業の内部統制に絡めた内容とされるケースが多いです。
9.⑧教育・リテラシー
AIリテラシーの向上は、組織のAI倫理を支える人的基盤です。AI技術は急速に成長している分野であり、実際に利用する従業員がAI特有の問題点への理解が不十分な例があります。AI事業者ガイドラインでは、AIの誤用や過信を防ぐため、「利用者・従業員への教育」「ステークホルダーへの啓発」「リスキリングの促進」を明示しています。
ソフトバンクは「AI人材・リテラシーの育成に積極的に取り組む」と規定し、カシオ計算機は「社員がAI技術を正しく理解し、倫理的に利用できるよう研修を実施する」と明示しています。
教育・啓発は、単なる知識普及にとどまらず、AIを扱う責任と倫理判断を組織文化として根付かせる役割を担います。
10.⑨公正競争の確保
AIの利用拡大に伴い、企業間競争における倫理的な均衡を保つことも求められます。本原則は「独占・排除的利用を避け、AI市場における公正な競争と協調を確保する」ことを目的としています。AI技術やデータを独占的に支配することは、社会全体のイノベーション阻害や格差拡大を招くおそれがあります。
電通グループは、AIの活用において「社会に存在する不公平な偏見を強化せず、透明な説明を行う」としており、公正競争と倫理を両立させる姿勢を示しています
企業においても、AI活用分野での独占的優位を追求するのではなく、オープンかつ持続的な競争環境の維持が重視されます。
11.⑩イノベーション
「イノベーションの促進」は、AI技術を社会課題の解決や経済成長につなげるための指針です。ガイドラインは「オープンイノベーションの推進」「相互運用性の確保」「情報共有による新しい価値創造」を求め、産学官民が連携して、AI技術を向上させることを目指しています。
例えば、カシオ計算機は「AIが社会に与える価値を鑑み、社会課題の解決とSDGsの発展に積極的に取り組む」と明示しています。
このような姿勢は、AI活用を単なる効率化にとどめず、社会との共創を通じて新たな価値を生み出す「責任ある革新」を実現するものです。
12.まとめ
以上のように、AI事業者ガイドラインの10原則は企業がAI技術を利用し、開発していく上で中心にすべき原則を定めています。
AI事業者ガイドラインには法的な拘束力自体はないものの、企業が対外的AIポリシーを策定する際には、単に遵守項目を並べるのではなく、これらの原則を自社の理念・実務運用に落とし込み、社会的信頼と競争力を両立させることが求められます。
他方で、AI事業者ガイドラインに基づき、対外的なAIポリシーを策定しただけでは、従業員はどのようにAIを利用すればよいのか、またリスク管理はどのようにすればよいのか分かりません。
そこで、次回以降の記事では、対内的に、どのような規定を策定すれば、従業員のAI利用を促進し、またリスクへの対策を行うことができるのか、特に生成AIを利用する場面において想定される利用方法を例に、検討していくことにします。
弁護士 坂井 悠
加藤&パートナーズ法律事務所(大阪市北区西天満)では、関西を中心に企業法務、企業の内部統制構築(AIガバナンス)、AIポリシー・AIガイドライン等のAIツール導入・利用に関する社内規程整備のご相談・ご依頼をお受けしております。



