計算機科学:過去の状態に立ち返る手法で複雑な課題を解決するAI
Nature
2021年2月25日
アタリ社の「モンテスマの復讐(Montezuma’s Revenge)」や「ピットフォール(Pitfall)」などの古典的なビデオゲームで、人間のプレイヤーや最先端の人工知能システムよりも高いスコアを達成する強化学習アルゴリズムのファミリー「Go-Explore」について報告する論文が、今週、Nature に掲載される。このアルゴリズムは、複雑な環境をよりよく探索するための方法になっており、真にインテリジェントな学習エージェントの作成に向けた重要な一歩となる可能性がある。
強化学習は、人工知能システムが、複雑な環境を探索し理解した上で決定を下し、最適な報酬の獲得法を学習できるようにするためのトレーニングに使うことができる。この報酬には、ビデオゲームでロボットが特定の場所に到達することや1つのレベルを完了することなどがある。しかし、既存の強化学習アルゴリズムは、フィードバックがほとんど得られない複雑な環境では悪戦苦闘すると考えられている。
今回、Adrien Ecoffet、Joost Huizingaたちの研究チームは、効果的な探索を実現する上での主な2つの課題を突き止め、これらの課題に対処するアルゴリズムのファミリーであるGo-Exploreを発表した。Go-Exploreは、環境を徹底的に探索し、環境内の位置関係を記憶するために役立つアーカイブを構築して、有望な中間段階や良好な結果(報酬)に至る経路を忘れないようにする。今回の研究では、これまで突破できなかったAtari 2600のゲームを全て攻略するためにGo-Exploreを使って、その可能性を実証した。Go-Exploreは、Montezuma’s Revengeでの過去最高スコアの4倍をマークし、Pitfallでは人間のプレイヤーの平均パフォーマンスを上回った(ちなみに、従来のアルゴリズムはPitfallで1点も得点できなかった)。さらに、Go-Exploreは、ロボットアームで物体を拾い上げ、4つの棚のいずれかに置かなければならず、そのうちの2つの棚が掛け金の掛かったドアの奥に設置されているというロボットタスクのシミュレーションも突破した。
Ecoffetたちは、有望な探索領域を記憶しておいて、そこに立ち戻るという単純な原理は、強力で一般的な探索手法であることを指摘した上で、今回の論文で発表したアルゴリズムをロボット工学、言語理解、薬剤設計に応用できるという考えを示している。
doi:10.1038/s41586-020-03157-9
「Nature 関連誌注目のハイライト」は、ネイチャー広報部門が報道関係者向けに作成したリリースを翻訳したものです。より正確かつ詳細な情報が必要な場合には、必ず原著論文をご覧ください。
注目のハイライト
-
生物学:全ヒト細胞アトラスの作成Nature
-
天文学:近くの恒星を周回する若いトランジット惑星が発見されるNature
-
気候:20世紀の海水温を再考するNature
-
健康科学:イカに着想を得た針を使わない薬物送達システムNature
-
化学:光を使って永遠の化学物質を分解する新しい方法Nature
-
生態学:リュウキュウアオイが太陽光を共有するNature Communications