人工知能が理解できなくなる不安
トルーパー501です。
今回は人工知能の思考回路について。
既に様々な分野で実用化されている人工知能。
便利な反面、恐ろしい一面もあります。
それは、思考した結果しか示してくれないという点です。
例えば、人工知能に新商品の開発を任せたとします。するとその発想は画期的で、誰にも思い付けないものでした。
そして、その新商品はたちまち大ヒットし、その企業に莫大な利益をもたらしました。
しかし、人工知能がなぜそんな商品を思い付いたのか、なぜ売れると判断したのかは、読み取れません。
これは、読み手が専門家であるかに関わらずです。
人工知能を作るのはプログラマなどの専門家ですが、実際に運用されたときに考えるのは人工知能自信です。
人工知能は膨大なデータから新たな発想を産み出します。それは人間には理解できないものです。
今まで人間が気づかなかった所にも注目して考えます。そして、それを基に、更に新たな発想をします。
人工知能が人間に作られたものであれ、その思考回路は複雑で深いものです。作った人でさえ、実際のデータを使った思考回路は理解できません。
実際に、医療の現場ではこういったことが起きているらしいです。
人工知能に患者のカルテを与えると、勝手に病歴をピタリと言い当てたり、症状から医師の予想を上回る病気を宣告し、当たっていたこともあります。
このような人工知能が社会に浸透すれば、社会の全てが人間には理解できないものになります。
そんな社会で生きるのは不安ではありませんか。誰も理解できない、説明もしてくれないものに支配された社会。そんな所に人間の居場所はあるのでしょうか。