>オブジェクトがどのように動くかを予測する人間の能力に合うことができる新しいコンピューターモデルが開発されました。このモデルは、自動運転車やその他の自律システムの安全性を改善し、ビデオゲームや映画のオブジェクトをシミュレートするために使用できます。
>人間は、常識だけでなく、視覚的および肉体的な知識を引き出すことにより、オブジェクトの動きを予測します。スタンフォード大学の研究者によって開発されたコンピューターモデルは、機械学習と物理ベースのシミュレーションを組み合わせて、ボールがテーブルからどのように跳ね返るか、液体がガラスに流れる方法を予測するなど、さまざまなタスクで人間のようなパフォーマンスを実現します。
>「私たちのモデルは、人間にとって直感的な方法で私たちの周りの世界をシミュレートできます」と、スタンフォード大学のコンピューターサイエンスの教授でありスタンフォード人工知能研究所のディレクターであるピーター・アベルは言いました。 「これにより、自動運転車やビデオゲームなど、正確なオブジェクト予測に依存する新しいアプリケーションの幅広い可能性が開かれます。」
>コンピューターモデルでは、空間情報を処理できる人工ニューラルネットワークである畳み込みニューラルネットワーク(CNNS)の組み合わせと、物理ベースのエンジンがオブジェクトの動きをシミュレートします。 CNNは、オブジェクトの形状やテクスチャなど、視覚入力から機能を抽出するために使用され、物理ベースのエンジンを使用して、それらの機能に基づいてオブジェクトの移動方法をシミュレートします。
>このモデルは、人間のモーションキャプチャデータの大規模なデータセットでトレーニングされたため、人間がオブジェクトの動きをどのように予測するかを学ぶことができました。研究者は、モデルがボールの経路、液体の軌跡、人間の手の動きを予測するなど、さまざまなタスクで人間のようなパフォーマンスを達成できることを発見しました。
>「私たちのモデルが、人間の直観と機械学習の間のギャップを埋めるのに役立つことを願っています」とAbbeel氏は言います。 「両方の世界の最高を組み合わせることで、より安全で効率的で、ユーザーフレンドリーな自律システムを作成できます。」