研究者は、人間のパイロットが飛行機を飛ばすAIシステムのビデオを見るように求められる一連の実験を実施しました。その後、パイロットは、AIシステムが何をしていて、その理由を推測するように求められました。結果は、パイロットがAIシステムの意図を正しく推測できないことが多いことを示しました。
研究者は、これがAIシステムが人間とは非常に異なる方法で決定を下すためだと考えています。人間は自分の経験と知識に基づいて決定を下す傾向がありますが、AIシステムはデータとアルゴリズムに基づいて決定を下します。意思決定プロセスのこの違いにより、人間がAIシステムが何をしているかを理解することが困難になる可能性があります。
研究者は、彼らの発見は航空の将来に影響を与えると言います。 AIシステムがより高度になるにつれて、彼らは飛行機に大きな役割を果たす可能性があります。ただし、事故を避けるために、人間がAIシステムによって下された決定を理解できるようにすることが重要です。
この調査結果は、AIシステムを操作するパイロットには、新しいトレーニング方法が必要になる可能性があることを示唆しています。これらのトレーニング方法は、パイロットがAIシステムがどのように意思決定を行うか、およびAIシステムが提供する情報をどのように解釈するかを理解するのに役立つはずです。
さらに、研究者は、AIシステムが人間と通信するための新しい方法を開発することが重要であると述べています。これは、人間がAIシステムによって下された決定を理解し、それらと対話する方法について情報に基づいた決定を下すことができるようにするのに役立ちます。