持続可能なイノベーションのためのフレームワークの開発
  • Point of view

責任あるAI: 持続可能なイノベーションのためのフレームワークの開発

すべての人のための倫理的な製品とサービスを構築

人工知能(AI)は、私たちの生活や働き方を大きく変えています。救急医療の患者への優先順位付けから、雇用や住居の適格性の確認、さらにはソーシャルメディアで閲覧する情報の選択まで、AIはあらゆる場面で利用されています。しかし、性別や人種差別などの潜在的な偏見を根絶することは、依然として大きな課題となっています。

AIの核心は、人間の知能をコンピューターや機械でより正確かつ迅速に再現することを目的としています。そして、今後10年間で、銀行、運輸、ヘルスケア、教育、農業、小売、その他多くの業界でAIテクノロジーが展開されるにつれて、AIの影響力は指数関数的に大きくなる可能性があります。調査会社IDCは、世界のAI市場が2024年までに5,000億ドル以上に達すると予測しており、これは2021年から50%以上増加しています。

しかし、AIが社会の中心に位置付けられるにつれて、その倫理的使用に関する懸念が高まっています。対応を講じなかった企業には、法的および風評被害が及ぶ可能性があります。ここでは、責任あるAIの課題とその克服方法を解説します。

AIの役割拡大の背景にある懸念

AIや機械学習(ML)システムにおける明確な倫理ガイドラインの欠如は、個人や組織に意図しない結果をもたらす可能性があります(図1)。

AIの潜在的なリスク

Related graphic 1 responsible ai developing a framework for sustainable innovation

以下の2つの例が示すように、人や組織への潜在的な損害が甚大であることが証明される可能性があるため、企業のリーダーはこれらのリスクを無視することはできません。

  • 2019年、Appleのクレジットカード処理手続きは、性差別で非難を浴びました。デンマークの起業家デビッド・ハイネマイヤー・ハンソンは、妻と共同で税金を申告した際、妻のクレジットヒストリーが優れていたにもかかわらず、妻の20倍のクレジットを受けました。[1]
  • 同年、米国国立標準技術研究所(NIST)は、空港のセキュリティなどの分野で使用されている顔認識ソフトウェアが特定のグループを識別するのに問題があることを発見しました。たとえば、一部のアルゴリズムでは、白人の画像と比較して、アジア系アメリカ人とアフリカ系アメリカ人の顔の誤検知率が著しく高くなりました。[2]

これらは、AIの使用をめぐる世界的な議論に貢献し、議員が厳しい規制を提案するきっかけとなった多くの例のほんの一部にすぎません。信頼の欠如により、AIの実践者は、AIの責任ある倫理的使用のための原則ベースのフレームワークとガイドラインで対応することを余儀なくされています。

残念ながら、これらの推奨事項には多くの課題があります(図2)。たとえば、一部の企業では、ガイドラインが不十分または厳格すぎるため、AIの実践者が倫理を全面的に管理することが困難になっています。さらに、他の組織では、責任ある AI の原則を作成するための専門知識がないため、リスク管理が不十分な場合もあります。

同時に、アルゴリズムは常に変化しており、倫理は地域、業界、文化によって異なります。これらの特性により、AIバイアスの根絶はさらに複雑になります。

責任あるAI/ML開発における課題

Related graphic 2 responsible ai developing a framework for sustainable innovation

新しいアプローチ: 責任あるAIセンター・オブ・エクセレンス

公正で信頼性が高く、説明責任のある AI ソリューションを開発するために、企業は倫理委員会として機能するAIセンター・オブ・エクセレンスを構築するべきです。人工知能の開発を最初から最後まで監督できる多様なAIカストディアングループをつなぐことで、将来の問題を未然に防ぐことができます。このグループは、異なる経験、視点、スキルセットを持つ人々のチームであり、均質なグループと比較して、バイアスを前もってキャッチすることに優れています。

また、実用的なフレームワークが整っていれば(図3)、AIの実践者は、AIの実装と開発を通じて組織を支援し、導くためのサービスとしての倫理を確立することができます。

サービスとしての責任あるAI

Related graphic 3 responsible ai developing a framework for sustainable innovation

責任あるAIフレームワークの 4 つの柱

包括的なフレームワークの開発は、責任あるAIジャーニーの最初で最も重要な段階であり、通常は次の 4 つの柱で構成されています。

1. ガバナンス機関

企業のリーダーは、AIの責任ある使用を継続的に監督するために、社内外の意思決定者から成るAI/MLガバナンス機関(図4)を設立する必要があります。さらに、経営幹部はAIガバナンスを優先する必要があり、他のビジネスリーダーには、定期的な監査と並行してガバナンスポリシーを策定する責任を負わせることができます。

責任あるAIガバナンス機関

Related graphic 4 responsible ai developing a framework for sustainable innovation

2. 基本理念

透明性と信頼性により、AIの中核となる原則を形成する必要があります。私たちは、企業のリーダーが安全で信頼性が高く、差別のないAI/MLソリューションの強固な基盤を形成するのに有効な7つの特徴を特定しました。

  1. 専門領域固有のビジネス指標の評価
  2. 公平性と法令遵守
  3. 解釈可能性と説明可能性
  4. データパターンの変化の軽減
  5. 信頼性と安全性
  6. プライバシーとセキュリティ
  7. 自律性と説明責任
  8. トレーサビリティ

同様に、ガバナンス機関は、AIテクノロジーの開発を通じてこれらの原則を実施するために役立ちます(図5)。

AIガバナンス機関のマトリックス

Related graphic 5 responsible ai developing a framework for sustainable innovation

3. 実現の方法論

AIソリューションは、必然的に組織の複数の領域に影響を及ぼすことになります。そのため、企業のリーダーは、データサイエンティストから顧客まで、すべての関係者に説明責任を負わせ、関与させる必要があります。このプロセスには、明確なリスク管理と責任あるAIのフレームワークも必要です (図 6)。

ジェンパクトの責任あるAIフレームワークの実現方法論

Related graphic 6 responsible ai developing a framework for sustainable innovation

4. 実装の概要

AIアルゴリズムの開発には固有の複雑さがあるため、モデルの解釈は困難です。しかし、企業のリーダーは、潜在的なバイアスを軽減し、ベストプラクティスに従うために、プロセス全体に責任あるAIの考慮事項を埋め込むことができます(図7)。

ジェンパクトの責任あるAIフレームワークの実装

Related graphic 7 responsible ai developing a framework for sustainable innovation

ケーススタディー

責任あるAI理論を実践するグローバル銀行

このグローバル銀行は、ローンの承認を合理化すると同時に、ローンのレビュープロセスから潜在的なバイアスを排除したいと考えていました。最初のステップとして、ジェンパクトは銀行のデータ管理および報告システムを改善しました。次に、堅牢なデータ分類法を導入し、責任あるAIフレームワークを適用しました。例えば、性別や教育などの変数を削除すると、公正な決定に達する可能性が高まります。また、レポートの品質も向上し、従業員が意思決定の根拠となるデータを示すことで透明性を高めることができました。最後に、潜在的な問題をAI倫理委員会に警告できる監視システムを開発しました。このプロジェクトの成功により、同行は同様のAI倫理モデルを組織全体に展開することができました。

責任あるAIの機会を活かす

顧客、従業員、パートナー、投資家は、安全で信頼性の高い製品を構築するためにAI倫理を優先することを組織にますます期待しています。責任あるAIフレームワークを導入することで、組織はイノベーションを継続し、信頼を築き、コンプライアンスを強化することができます。これらのメリットは、組織が長期的な成長を維持し、競争上の優位性を向上させ、すべての人に価値を創造するのに役立ちます。

AIは、企業が情報に基づいた責任ある意思決定を行うために有用です。データドリブンなサステナビリティが、財務、社会、環境の変化にどのように影響するかをご覧ください。

人工知能ソリューションのページをご覧ください

詳細情報 About

Share