生成AIが生み出す画像や文章は人間のそれと見分けがつかないレベルに達している。プログラミングコードの記述や顧客との対話、財務分析など幅広い分野で活用が期待される。しかし、そこにはリスクもついてくる。虚偽情報の生成はデマの拡散に繋がるし、インプットした個人情報や秘密情報がAIによって他者に開示されるかもしれない。
こうした利便性とリスクを天秤にかけた時、あなたは社内でのAI利用を許可できるだろうか。AIの急速な発展に伴い、その判断は喫緊の経営課題となっている。ステークホルダーが受容可能な水準でAIのリスクを適切にマネジメントしつつ、AIのもたらす便益を最大化しようとする取組みを、本書では「AIガバナンス」と呼ぶ。
またここでの「AI」を、「機械学習の一種である深層学習(ディープラーニング)を用いて、人間の知能に類似した振る舞いを行うシステム」と定義する。ディープラーニングは2010年代以降の人工知能ブームをもたらし、現在のAIリスクの大きな原因ともされているからだ。
非常に精度の高いアルゴリズムを作り出せるディープラーニングは、それゆえにガバナンス上で大きく分ければ2つの難点を示す。1つは「AIの技術的な特徴に由来するリスク」、もう1つは「AIが社会に実装されることで生じるリスク」だ。
「技術的リスク」は、AIが与えられたデータに基づいて新たな結果を出力するシステムだからこそ発生する。もとのデータが不正確な場合や不適切なバイアスを含んでいる可能性があるし、そもそも「完璧なAI」は作りようがない。また、用いられる関数が極めて複雑であるために、AIの判断の予測や事後的な説明を、人間が行うのは困難である。だからこそ、AIガバナンスでは「透明性」「説明可能性」といった言葉がよく用いられるのだ。
「社会的リスク」は、AIの性能の高さゆえに起きてしまう問題である。ソーシャルメディアが「見たいものだけを見せる」アルゴリズムを採用することで、世論の分断を招き、民主主義そのものをリスクに晒してしまうケースがその一例だ。
AIのリスクはその対象が多岐にわたるだけでなく、サポートレベルなのか完全に人間の代替をしたいのかといった目的レベルでも状況は変わる。それに、たとえば「社会的リスク」であるプライバシーへの影響を回避するためにAIに学習させるデータを制限してしまうと、AIの精度が落ちて「技術的リスク」が増加するという、トレードオフの問題もある。
さらに、AIシステムのバリューチェーンには、学習データの提供者、AIアルゴリズムの開発者、そしてユーザー自身など多くのステークホルダーがリスクの創出に関わっており、誰が何について責任を負うべきかが見えにくい。しかもAIは、クラウド、OS、基盤モデル、アプリなど、異なる主体による独立したシステムがより大きなシステムを作る「システム・オブ・システムズ」になっているため、これがまた予測不可能性や責任所在の不明瞭さを高めている。
その他、「信頼できるAI」、「AI倫理」の問題などAIリスクの状況はその技術進歩に伴い常に更新されていく。生成AIのような「汎用モデル」の登場は、リスクシナリオを異次元に拡大している。
AIシステムのガバナンスはこのように一筋縄ではいかないものだが、自分事として捉え、「誰もが自らの意見を持ち寄って議論できる領域」にしていかなくてはならない。
AIガバナンスの目的は、「基本的人権・民主主義・経済成長・サステナビリティなど」の「基本的な価値」にある。まずはそれを具体的な状況に即して検討しなくてはならない。そして、AIはそれを達成するための手段、またはリスク要因にすぎない。「AI原則」は、こうした基本的価値を実現するために配慮すべき、プライバシーや公平性、透明性といった事柄を指す。
3,400冊以上の要約が楽しめる