人工知能(AI)は、私たちの生活や働き方を大きく変えています。救急医療における患者への優先順位付けから、雇用や住居の適格性の確認、さらにはソーシャルメディアで閲覧する情報の選択まで、AIはあらゆる場面で利用されています。しかし、性別や人種差別などの潜在的な偏見を根絶することは、依然として大きな課題となっています。
AIの本質は、人間の知能をコンピューターや機械でより正確かつ迅速に再現することです。そして、今後10年間で、銀行、運輸、ヘルスケア、教育、農業、小売など、多くの業界でAIテクノロジーが展開されるにつれて、AIの影響力は飛躍的に拡大する可能性があります。調査会社フォーチュン・ビジネス・インサイツは、世界のAI市場規模が2024年の6,210億ドルから2032年には2兆7,400億ドルに達し、341%増加すると予測しています。
しかし、AIが社会の中心的存在となるにつれ、その倫理的利用に関する懸念が注目を集めています。対策を講じない企業は、法的および評判に悪影響を及ぼす可能性があります。ここでは、責任あるAIの課題とその克服方法について考察します。
AIの役割拡大に伴う懸念
AI および機械学習 (ML) システムにおける明確な倫理ガイドラインの欠如は、個人や組織にとっていくつかの意図しない結果をもたらす可能性があります (図 1)。
図 1 AIの潜在的なリスク
次の 2 つの例が示すように、人や組織への潜在的な損害は甚大になる可能性があるため、企業のリーダーはこれらのリスクを無視することはできません。
- 2019年、Appleのクレジットカード処理方法が性差別だと非難されました。デンマークの起業家、デイヴィッド・ハイネマイヤー・ハンソン氏は、妻と共同で納税申告を行い、妻の信用履歴も良好であったにもかかわらず、妻の20倍ものクレジットを受け取っていました。[1]
- 同年、米国国立標準技術研究所(NIST)は、空港のセキュリティなどで使用されている顔認識ソフトウェアが特定の集団の識別に問題を抱えていることを発見しました。例えば、一部のアルゴリズムでは、白人の画像と比較して、アジア人やアフリカ系アメリカ人の顔画像に対する誤検出率が著しく高かったことが分かりました。[2]
これらは、AIの活用をめぐる世界的な議論を巻き起こし、立法府による厳格な規制の提案につながった、数ある事例の中のほんの一部に過ぎません。信頼の欠如により、AIの実践者は、AIの責任ある倫理的利用のための原則に基づくフレームワークとガイドラインを策定せざるを得なくなりました。
残念ながら、これらの推奨事項には多くの課題が伴います(図2)。例えば、一部の企業はガイドラインが不十分であったり、過度に厳格であったりするため、AI実践者が倫理を全体的に管理することが困難になっています。さらに悪いことに、責任あるAI原則を策定するための専門知識がないため、リスク管理が不十分な組織もあります。
図2 責任あるAI/ML開発における課題
新たなアプローチ:責任あるAIセンター・オブ・エクセレンス
公正で信頼性が高く、説明責任を果たすAIソリューションを開発するために、企業は倫理委員会として機能するAIセンター・オブ・エクセレンスを構築しています。AI開発を最初から最後まで監督できる多様なAI管理者グループを連携させることで、企業は将来的な問題を事前に予防することができます。簡単に言えば、異なる経験、視点、スキルセットを持つ人々で構成されたチームは、均質なグループに比べて、バイアスを事前に把握できるということです。
また、実用的なフレームワークが整備されている場合 (図 3)、AI 実践者はサービスとしての倫理を確立し、AI の実装と開発を通じて組織を支援およびガイドすることができます。
図3 責任あるAIの実践
責任あるAIフレームワークの4つの柱
包括的なフレームワークの開発は、責任ある AI の取り組みにおける最初かつ最も重要な段階であり、通常は次の 4 つの柱で構成されます。
1. ガバナンス機関
企業のリーダーは、AIの責任ある活用を継続的に監督するために、社内外の意思決定者で構成されるAI/MLガバナンス組織(図4)を設立する必要があります。さらに、経営幹部はAIガバナンスを最優先事項とすべきです。そうすることで、他のビジネスリーダーは、定期的な監査と並行してガバナンスポリシーの策定に責任を負うことになります。
図4 責任あるAIガバナンス機関
2. 指針となる原則
透明性と信頼はAIの中核原則となるべきです。私たちは、企業のリーダーが安全で信頼性が高く、差別のないAI/MLソリューションの強固な基盤を構築できるよう、以下の7つの特性を特定しました。
- ドメイン固有のビジネス指標評価
- 公平性と法令遵守
- 解釈可能性と説明可能性
- データパターンの変化の緩和
- 信頼性と安全性
- プライバシーとセキュリティ
- 自律性と説明責任
- トレーサビリティ
同様に、ガバナンス機関は AI 技術の開発全体にわたってこれらの原則の施行を支援できます (図 5)。
図5 AIガバナンス組織のマトリックス
3. 実現方法論
AIソリューションは必然的に組織の複数の領域に影響を及ぼすことになります。そのため、企業のリーダーは、データサイエンティストから顧客まで、あらゆるステークホルダーを考慮し、関与させる必要があります。このプロセスには、明確なリスク管理と責任あるAIのためのフレームワークの構築も不可欠です(図6)。
図6 ジェンパクトの責任あるAIフレームワークの実現方法論
4. 実装の概要
AIアルゴリズムの開発には固有の複雑さが伴うため、モデルの解釈は困難です。しかし、企業のリーダーは、プロセス全体を通して責任あるAIに関する考慮事項を組み込むことで、潜在的なバイアスを軽減し、ベストプラクティスを遵守することができます(図7)。
図7 ジェンパクトの責任あるAIフレームワークの実装
ケーススタディ
グローバル銀行が責任あるAI理論を実践
このグローバル銀行は、融資審査プロセスから潜在的なバイアスを排除しながら、融資承認プロセスを効率化したいと考えていました。まず、ジェンパクトは銀行のデータ管理システムと報告システムを改善しました。次に、堅牢なデータタクソノミーを構築し、責任あるAIフレームワークを適用しました。例えば、性別や学歴といった変数を排除することで、公正な意思決定の可能性を高めました。また、報告書の品質を向上させ、意思決定の根拠となるデータを示すことで、従業員の透明性向上を支援しました。さらに、潜在的な問題をAI倫理委員会に通知できる監視システムを開発しました。このプロジェクトの成功により、銀行は組織全体に同様のAI倫理モデルを展開するようになりました。
責任あるAIの機会を活用する
顧客、従業員、パートナー、そして投資家は、組織が安全で信頼性の高い製品を構築するためにAI倫理を優先することをますます期待しています。責任あるAIフレームワークを導入することで、組織はイノベーションを継続し、信頼を築き、コンプライアンスを強化することができます。これらのメリットは、組織の長期的な成長の維持、競争優位性の向上、そしてすべての人々にとっての価値創造に役立ちます。
AIは、企業が情報に基づいた責任ある意思決定を行うために有用です。データドリブンなサステナビリティが、財務、社会、環境の変化にどのように影響するかをご覧ください。