DeepMind

Googleの人工知能研究開発企業

DeepMind Technologies(ディープマインド・テクノロジーズ)は、イギリスにあるAlphabet人工知能子会社である。2010年にDeepMind Technologiesとして起業され、2014年にGoogleによって買収された[3]。ロンドンを拠点とし、カナダ[4]、フランス[5]、米国にも研究センターを持つ。2015年、Googleの親会社であるAlphabetの完全子会社となった。

DeepMind
企業形態子会社
本社
創業者
CEOデミス・ハサビス
業種人工知能
製品AlphaGo、AlphaStar、AlphaFoldAlphaZero
従業員数>1,000(2020年6月)[2]
親会社独立 (2010–2014)
Google Inc. (2014–2015)
Alphabet Inc. (2015–現在)
ウェブサイトdeepmind.google

DeepMindは、人間と似たようなやり方でどのようにビデオゲームをプレーするかを学ぶニューラルネットワークを作成している[6]。また、従来的なチューリング機械のように外部記憶装置にアクセスできるニューラルネットワークを作成しており、これによって人間の脳の短期記憶を模倣できるのではないかと期待されている[7]。DeepMindは、開発したプログラムAlphaGoが人間のプロ囲碁棋士を初めて破ったことで2016年に大ニュースとなった[8]

歴史

2010年、この新興企業デミス・ハサビスシェーン・レッグ英語版ムスタファ・シュリーマン英語版によって起業された[9][10]。ハサビスとレッグはユニヴァーシティ・カレッジ・ロンドンGatsby Computational Neuroscience Unitで初めて出会った[11]

その後大きなベンチャー投資会社維港投資中国語版ファウンダーズ・ファンド英語版がDeepMindに投資し[12]、企業家のスコット・バニスター英語版[13]イーロン・マスク[14] も投資した。ヤーン・タリン英語版も初期の投資家、アドバイザーであった[15]。2014年、DeepMindはケンブリッジ大学コンピュータ研究所英語版の「今年の企業」に選ばれた[16]

2014年1月26日、GoogleはDeepMind Technologiesの買収に合意したことを発表した[17]。この買収は報道によれば、2013年にFacebookとDeepMind Technologiesとの交渉が終わった後に行われた[18]。買収に続いて、社名がGoogle DeepMindに改称された[1]。この名称は約2年間用いられた。

買収金額は4億米ドル[19] から5億ポンド以上[20][21][22][23][24] と見積られている。

Googleに対するDeepMind側の条件の一つは、人工知能の倫理委員会を設立することであった[25]

AlphaGo

2015年10月、DeepMind社製のAlphaGoと呼ばれるコンピュータ囲碁プログラムがヨーロッパ囲碁王者樊麾(プロ二段)を5-0で破った[26]。人工知能 (AI) がプロ棋士を破ったのはこれが初めてであった[8]。これ以前は、コンピュータは「アマチュア」レベルでしか囲碁を打てないことが知られていた[26][27]。囲碁は、可能な局面の数がチェスのようなその他のゲームよりもかなり多いため、力まかせ探索といった伝統的なAI手法では極めて困難な課題であり、コンピュータにとって勝つことがより難しいと考えられる[26][27]。このニュースの発表は、使用されたアルゴリズムが記述されたNature誌の論文の発表と合わせるために、2016年1月27日まで遅れた[26]。2016年3月に、プロ棋士李世乭(九段)と韓国で対局し、4勝1敗で勝ち越している。

また、「AlphaFold」や「AlphaStar」なども開発している。

研究

DeepMind Technologiesの目標は「知性の謎を解く」ことであり[28]、「強力な汎用学習アルゴリズムを構築するために機械学習システム神経科学からの最良の手法」を組み合わせることによってこれを達成しようと試みている[28]。DeepMind社は、機械に知性を実装するためだけでなく、人間の脳について理解するために、知性を形式化しようと試みている[29]。デミス・ハサビスは

[...] 知性(の本質)をアルゴリズム構成モデルへと抜き出すという試みは、我々の心の永遠の謎のいくらかを理解するための最良の道となるだろう[30][31]

と説明している。

2016年現在、DeepMind社の焦点はゲームをプレーできるコンピュータシステムに関する研究を発表すること、これらのシステムを開発することにある。対象とするゲームは囲碁[32] といった戦略ゲームからアーケードゲームにまで及ぶ。シェーン・レッグによれば、人間レベルの機械知能は、「機械が知覚の流れの入力と出力から本当に幅広いゲームのプレーを学ぶことができるようになり、ゲーム間で理解を移転できるようになった時」[33] に達成することができる。7種類のアタリのビデオゲーム(ポンブレイクアウトスペースインベーダー、シークエスト、ビームライダー、エンデューロQバート)をプレーするAIを記述した研究が、 Googleによる買収につながった[6]

IBMディープ・ブルーワトソンといった予め定義された目的のために開発され、その範囲内でのみ機能するその他のAIとは対照的に、DeepMindは自身のシステムが事前にプログラムされていないと主張している。DeepMindのシステムは、データ入力として生のピクセルのみを使用し、経験から学ぶ。技術的には、畳み込みニューラルネットワーク上での深層学習(ディープラーニング)と新たな形式のQ学習(モデルフリー強化学習の一形式)を使用する[1][34]。DeepMindは、ビデオゲーム、特にスペースインベーダーブロックくずし(ブレイクアウト)といった初期のアーケードゲーム上でこのシステムを試験した[34][35]。コードを変更することなしに、このAIはゲームをどうやってプレーするかを理解し始め、ある程度プレーした後、いくつかのゲーム(中でも特にブレイクアウト)については、どの人間よりも効率的にプレーできるようになった[35]。しかし、ほとんどのゲーム(例えばスペースインベーダー、パックマン、Qバート)については、DeepMindは現在の世界記録を下回っている。DeepMindのAiのビデオゲームへの応用は、現在1970年代と1980年代に作られたゲームへのものであり、1990年代初頭に初めて登場したDOOMといったより複雑な3Dゲームへ作業も行われている[35]

脚注

関連項目

外部リンク