将来が不安すぎて吐きそうな気持ちを嘔吐

人工知能 自殺 鬱病 仕事 奨学金 あなたの回りにも不安が一杯

人工知能のブラックボックスという不安

トルーパー501です。
今回は人工知能ブラックボックスについて。

ブラックボックスとは、中身の見えないことを表すことに使われる言葉です。飛行機のブラックボックスが有名です。万が一の事故の時のために、操縦席の会話を全て録音しており、いかなる事故でも壊れない頑丈な作りになっています。そのため、通常は中身の見えない箱なのです。

しかし、今回のブラックボックスは違います。中身は複雑で人間には理解できないものです。

以前、人工知能が理解できなくなる不安、という記事を書きました。そのなかで、人工知能の思考が理解できなくなると書きました。今回は、それをもう少し詳しく書きます。

まず、人工知能というのは、情報を与えられて(入力)、結果を示す(出力)までの間に、おびただしい処理を行っています。

それは、与えられたデータの関係と関係の強さを計算しているからです。その計算は、人間には理解できないほど多いです。

例えば、2,3個のデータなら、全ての組み合わせを計算しても大した数にはならないので、人間も後から計算を見れば理解できます。しかし、ビッグデータから得られるような大量のデータの場合、その計算は凄まじい回数行われます。すると、人間には到底追い付けず、理解もできないのです。

これが、どのように問題かというと、人工知能が何を根拠に結論を出したのかわからないでという点です。

もし、人工知能が将来あなたの会社に導入され、あなたの仕事である企画立案を助けたとしましょう。あなたは、人工知能が示したアイデアをそのまま会議に持っていきますか。その会議では当然、なぜその企画が会社に利益をもたらすのかを説明せねばなりません。そのときに、人工知能がこう示したから、としか言えないのです。上司の方々は納得してくれるでしょうか。しないでしょう。

このような、企画立案の話はまだ、万が一人工知能が間違っていたとしても会社に不利益をもたらすだけで終わります。しかし、病院の診察など、人の命に関わることであれば、大変なことになります。

人工知能の言う通りにしたら人が死んでしまった。そんなことが起こり得ます。

現に、インドの病院の診察では人工知能が用いられているところがあります。厳密には、人工知能ではないコグニティブコンピュータというコンピュータが用いられています。このコンピュータは、データとして存在する大量の医学に関する論文と、患者の症状を見比べ、最も可能性の高い病気を導きだします。そして、実際に成果も出しています。このコグニティブコンピュータは、医師と異なる判断をしました。そして、医師はそれに従い、自分の意見を覆し、患者を治療しました。すると、患者の病気は完治したのです。

結果だけを見れば、いい話ですね。しかし、医師が自分よりコンピュータを信頼したというと、かなり不安です。今回用いられたコグニティブコンピュータというのは、人工知能と違い、思考を追うことができます。結果だけでなく、そこに至るまでに参考にした論文も示してくれるからです。医師はそれを読むことで、コンピュータの判断が適切かどうかを判断できるので、人工知能よりも遥かに安心です。

しかし、もしこれが人工知能だったと考えるとどうでしょう。医師は何の根拠もなく、コンピュータの考えを優先したことになります。もし、その診断が間違いで、患者が亡くなった場合、誰が責任を取るのでしょうか。医師でしょうか、コンピュータを作った会社でしょうか。

また、逆に、コンピュータの判断を否定して、医師自身の判断を優先し、患者が亡くなった場合、なぜ人工知能の判断を否定したのかと説明を求められます。

この責任の問題は、以前書いた、自動運転の問題に似ています。アメリカで、自動運転の事故があった時、人工知能を作った会社は、
「自動運転はあくまでサポートであり、運転手は基本的にハンドルから手を離さないようにしておくように最初から忠告していた。だから事故の責任は運転手にある」
と述べました。これと同じようなことが医療の現場でも起こり得ます。人工知能はあくまでサポート。最終判断は医師に任せる。そのため、ミスがあれば医師の責任。明らかに医師の方が不利です。

このように、人工知能を命に関わる分野に導入すると、問題が起こるのです。原因は勿論ブラックボックスです。

私のような素人でもこの問題に気づけるのですから、専門家も当然気づいているはずです。しかし、世界では徐々に人工知能が導入されています。

裁判に人工知能が導入された事例もあります。これまでの再犯罪者のプロフィールから、再犯罪を犯しやすい人を特定し、それを判決に反映する仕組みです。その結果は、性別、国籍、年収によって再犯罪をすると見なされ、被告人は刑期を伸ばされました。当然、被告人は不適切だとして、人工知能製造元の企業に、人工知能の判断の根拠を示すように訴えました。しかし、企業は企業秘密であるとして、情報の開示を拒みました。今でも被告人と企業の裁判は続いています。

また、事故を起こしやすいバスドライバーを見つけることにも人工知能が使われています。その事例では、先程の裁判と同じように、性別、国籍などによって判断され、該当する人はドライバーとして働きづらくなりました。勿論、人種差別だとして訴えられています。

この二つの事例が気になったら、ネットで調べてみてください。

このように、人工知能には重大な問題がありますが、どんどん普及しています。もうすぐ日本にも普及するかもしれません。