責任ある信頼できるAIの構築
FICOのScottZoldi
AIの使用がさらに普及するにつれて、データサイエンティストや組織は、「最善を尽くす」だけでは不十分になります。 FICO のAIエキスパート、Scott Zoldi AI支持者の台頭により、責任あるAIが期待と標準になると説明しています。
近年、データとAIは、ヘルスケアや小売から銀行や保険に至るまで、戦略やサービスに情報を提供し、形作るために、多くの業界で広く使用されるようになりました。そしてごく最近、AIはコロナウイルスとの戦いで追跡することで前面に出てきました。
ただし、AIによって可能になる自動決定の必要性と相まって、デジタル生成データの量の増加は、AIの意思決定アルゴリズムの背後にある推論にますます焦点を当てることで、企業や政府にとって新たな課題を提起しています。
AIは、意思決定が影響を与える個人からさらに離れて意思決定を行うため、意思決定はより冷淡になり、おそらく不注意にさえなる可能性があります。組織が不人気な意思決定の正当性としてデータとアルゴリズムを引用することは珍しくありません。これは、尊敬されるリーダーが間違いを犯す場合に懸念の原因となる可能性があります。
例としては、2016年のマイクロソフトの人種差別的で攻撃的なオンラインチャットボット、2018年に女性の応募者を無視したAmazonのAI採用システム、2019年にトラックを吊り下げられた道路標識と間違えた後にオートパイロットでクラッシュしたテスラ車などがあります。
誤った意思決定の可能性に加えて、AIバイアスの問題もあります。その結果、消費者の権利を保護し、AIの開発を注意深く監視するための新しい規制が導入されました。
責任あるAIの柱
組織は今、堅牢なAIを実施する必要があります。これを行うには、責任あるAIの3つの柱である説明性、説明責任、倫理を強化し、基準を設定する必要があります。これらを導入することで、あらゆるタイプの組織が、健全なデジタル決定を行っていることを確信できます。

説明性 :AI意思決定システムに依存するビジネスは、ビジネスの意思決定に到達するために、意思決定変数間の関係をキャプチャするアルゴリズム構造を備えていることを確認する必要があります。このデータにアクセスすることで、企業はモデルが決定を下した理由を説明できます。たとえば、トランザクションに不正のリスクが高いとフラグを立てます。この説明は、人間のアナリストがその影響と正確性をさらに調査するために使用できます。決定。
説明責任 :機械学習モデルは、機械学習の制限と使用するアルゴリズムを慎重に検討することに重点を置いて、適切に構築する必要があります。テクノロジーは透過的で準拠している必要があります。モデルの開発における思慮深さは、決定が理にかなっていることを保証します。たとえば、スコアはリスクの増加に適切に適応します。
説明可能なAIを超えて、謙虚なAIの概念があります。つまり、モデルがトレーニングされたデータと同様のデータ例でのみ使用されるようにします。そうでない場合、モデルは信頼できない可能性があり、別のアルゴリズムにダウングレードする必要があります。
倫理 :説明可能性と説明責任に基づいて、倫理的モデルがテストされ、差別が排除されている必要があります。説明可能な機械学習アーキテクチャにより、ほとんどの機械学習モデルの内部動作を通常隠す非線形関係を抽出できます。これらの非線形関係は、モデルがトレーニングされたデータに基づいて学習され、このデータはしばしば暗黙のうちに社会的バイアスに満ちているため、テストする必要があります。倫理的モデルは、偏見と差別が明示的にテストされ、除去されることを保証します。
責任あるAIを強制する力
責任あるAIモデルの構築には時間と骨の折れる作業が必要であり、継続的な責任あるAIを実施するには、綿密な継続的な精査が不可欠です。この精査には、規制、監査、擁護が含まれている必要があります。
規制は、アルゴリズムの使用に関する行動基準と法の支配を設定するために重要です。ただし、最終規制が満たされているかどうかにかかわらず、規制との整合性を示すには監査が必要です。
規制への準拠を実証するには、監査可能なモデルとモデリングプロセスを作成するためのフレームワークが必要です。これらの監査資料には、モデル開発プロセス、使用されるアルゴリズム、バイアス検出テスト、および合理的な決定とスコアリングの使用のデモンストレーションが含まれます。現在、モデル開発プロセスの監査は無計画に行われています。
新しいブロックチェーンベースのモデル開発監査システムが導入され、不変のモデル開発標準、テスト方法、および結果を実施および記録しています。さらに、モデル開発サイクル全体を通じて、データサイエンティストと経営陣の承認の詳細な貢献を記録するために使用されています。

将来を見据えて、データとAIで「最善を尽くしている」組織は十分ではありません。 AI支持者の台頭と、AIシステムの誤った結果によってもたらされる実際の苦痛により、責任あるAIは間もなく、世界中および世界中で期待され、標準となるでしょう。
組織は今すぐ責任あるAIを実施し、AIの説明可能性、説明責任、倫理の基準を強化および設定して、デジタル決定を行う際に責任を持って行動するようにする必要があります。
著者はDr.ScottZoldiです。FICOの最高分析責任者です 。
作者について
スコットゾルディ博士はFICOの最高分析責任者です。 FICO在籍中、スコットは110件の特許を取得し、56件が付与され、54件が出願中です。スコットは、新しい分析製品とビッグデータ分析アプリケーションの開発に積極的に関わっています。これらのアプリケーションの多くは、適応分析、協調プロファイリング、自己校正分析などの新しいストリーミング分析の革新を活用しています。スコットは、ソフトウェアサンディエゴとサイバーセンターオブエクセレンスの2つの取締役会に所属しています。スコットは博士号を取得しました。デューク大学で理論物理学と計算物理学を専攻。
モノのインターネットテクノロジー