今後、ますますAIが活用され、重要・重大な決断にもAIが利用されるケースも出てくると思います。

 

AIのそもそものスタートは人間が用意している事(指示・命令・アルゴリズム・情報など)とはいえ、

結局のところAIの頭の中はブラックボックス!

 

 

今後AIを活用するうえで、そのAIの思考回路を可視化するような仕組み、説明できるような仕組みがなければ、最終的な責任を本当に人類はとることができるのか?

 

AIの判断は全て正しいのか?

 

 

STOP「AI」のブラックボックス化!

 

20221102 AIのAI