なぜDeepMindはTransformerを見落としたのか
Demis Hassabis編「認識のOSの諸刃」── 神経科学者のAGI観【第2回/全3回】

Sebastian Mallaby著『The Infinity Machine』(2026年3月刊)を読み解きながら、神経科学から始まったDemis Hassabisの旅路がAlphaGoという成功に至り、Transformerという見落としを生み、最終的に推論モデルへ立ち返るという過程を、「認識のOS」の考え方で読み直す全3回シリーズ。
全3回構成:
- 第1回:DeepMindはなぜ囲碁の世界を制したか ── 認識のOSが成功を生む構造
- 第2回:なぜDeepMindはTransformerを見落としたのか ── 同じOSが失敗を生む構造 ★ 本記事
- 第3回:DeepMindはなぜ推論モデルで報われたのか ── 同じOSが報われる構造
Table of Contents
はじめに:第1回の振り返り
前回(第1回:DeepMindはなぜ囲碁の世界を制したか)では、Demis Hassabisの認識のOS ──「脳の解読こそAGIへの王道」という信念 ── がいかに彼を博士研究からAlphaGoの歴史的成功へと導いたかを追った。Bennettの5つのブレイクスルーの枠組みで言えば、彼は第1〜3のブレイクスルー(Steering, Reinforcing, Simulating)を計算機に翻訳することに10年を費やし、それを完璧に実装してみせた。
しかし本書最大のドラマは、ここから始まる。同じ認識のOSが、彼にAI史最大の見落としをさせる。
第2回では、その見落としがどう起きたか、そして「これは個人の知性の欠如ではなく、脳の構造的特性による必然だった」ことを、認知科学と神経科学の視点から読み解いていく。
6. 認識のOSにはバグがある ── システム1の優位
AlphaGoという機械はSystem 1とSystem 2を完璧に統合できた。しかしそれを設計したHassabis自身の認識のOSは ── 他の全ての人間と同じく ── バグを抱えていた。
「認識のOSにバグがある」で私はこう書いた。
人間の脳は、エネルギーを節約するためにシステム1を優先して使う。
システム2は脳のエネルギー消費が大きく、意識的に起動しなければ働かない。一方、システム1は自動的に動き続けるため、私たちは「考えているつもり」でも、実際にはシステム1が出した答えをそのまま採用していることが多い。
そしてシステム1には、構造的な欠陥がある。
これはAIにも、そしてAIを設計する人間にも同じく当てはまる。Hassabisほどの研究者でも、自分のシステム1が出した「これは本物の知能ではない」という判断を、システム2でじっくり問い直すことなく採用してしまう瞬間がある。
これがTransformerの見落としの根にあるものだった。
7. Bennettの5つのブレイクスルー ── 第5を理解する地図
第1回で軽く触れたBennettの枠組みを、ここで詳しく見ておきたい。Hassabisの見落としの正体は、この地図の上で一番明確に見える。
マックス・ベネット『A Brief History of Intelligence』(詳細はB#198)は、人間の知性を5つの進化的ブレイクスルーとして整理する。
- 第1:Steering(方向づけ) ── 約6億年前、神経系の登場。AI対応は強化学習。
- 第2:Reinforcing(学習の強化) ── 約5億年前、脊椎動物。AI対応はTD学習。
- 第3:Simulating(未来の予測) ── 約1億年前、哺乳類の新皮質。AI対応はモデルベース強化学習・MCTS。
- 第4:Mentalizing(心の理論) ── 約3000万年前、霊長類。AI対応は逆強化学習・模倣学習。
- 第5:Speaking(言語と文化) ── 約20万年前、ホモ・サピエンス。AI対応はトランスフォーマー・LLM。
Bennettはさらに「第6のブレイクスルー」として、これら全てを統合するIntegrated AIを示唆している。
第1回で見たように、Hassabisは第1〜3を計算機に翻訳することに10年を費やした。AlphaGoはその到達点であり、彼の信念体系では、AGIに至る道は第1から第4までを生物学的に正しい順序で統合することだった。
つまりHassabisは暗黙のうちに、**「第5のブレイクスルー(言語)は、第1〜4の階層の上にしか乗らない」**と考えていた。これは生物進化の歴史を見れば自然な前提だ ── 人間は第1から第5までを6億年かけて積み上げてきた。第5は、その上に乗っている。
ところが2017年のTransformerは、その前提を覆す。第1〜4を完全に飛ばして、いきなり第5だけを実装する道があることを示してしまった。
8. The Big Miss ── 第5のブレイクスルーは独立した進化線だった
AlphaGoの成功(2016年)の翌年、2017年。Google傘下の別の研究組織、Google Brainから、AI史を変える論文が発表された。
『Attention Is All You Need』──「必要なのは注意機構だけ」。
これがTransformer論文である。書いたのはAshish Vaswani、Noam Shazeer、Niki Parmar、Jakob Uszkoreit ら8人のエンジニア。彼らはGoogle Brainで機械翻訳の研究をしていた。
そしてこのTransformerが、後にGPTシリーズ、ChatGPT、Claudeを含むあらゆる大規模言語モデル(LLM)の基盤となる。AI史最大の転換点だった。
しかしDeepMindは、これを見落とした。なぜか。
Transformerが体現したもの
B#198で私はトランスフォーマーについてこう書いた。
トランスフォーマー(Transformer)は、2017年にGoogle社が開発した自然言語処理の手法の一つである。最大の特徴は、文章中のすべての単語同士の関係を一斉に(並列に)処理できる点にある。
これにより、文章の冒頭と末尾など、離れた単語同士の関連性(長距離依存関係)を的確に捉えることができるようになった。
身体性なし。多モーダル性なし。海馬的なシミュレーション能力なし。心の理論なし。ただひたすら膨大なテキストを統計的に処理して、次のトークンを予測するだけ ── これがTransformerの全てだ。前章で見た通り、生物進化的にはあり得ない順序 ── 第1〜4を経ずに、いきなり第5だけを実装した構造である。
Transformer誕生の背景 ── 純粋に工学的な動機
2017年以前、言語処理AIの標準アーキテクチャはRNN(リカレントニューラルネット)だった。これには二つの致命的な問題があった。逐次処理の縛り(並列化できない)と、長距離依存の喪失だ。
Transformerチームの問題意識は、純粋にこの工学的ボトルネックだった。「翻訳をもっと速く、もっと精度よく」というのが彼らの動機。「知能とは何か」「脳はどう動くか」という問いとは無縁だった。
論文タイトル「Attention is all you need」を提案したのは、チームのJakob Uszkoreit だった。彼の主張は当時の常識に真っ向から反するものだった ──「RNNを完全に取り除き、Attentionだけにしたらどうなる?」 これは「翻訳には文法を理解する必要がない」と言うに等しい挑発だった。彼の父Hans Uszkoreit(高名な計算言語学者)でさえ、この発想に反対したという。
Self-attentionの数学的実体 ── そこに脳はない
Self-attentionの核は、各単語について**Query(質問)、Key(鍵)、Value(値)**という3種類のベクトルを計算することだ。ある単語のQueryと、他の全単語のKeyとの内積を取って類似度を計算し、その重みでValueを加重平均して、その単語の新しい表現とする。
「全ての単語が、文中の全ての単語と一斉に類似度計算をして、関連の深いものから情報を吸い上げる」操作だ。GPUは行列の掛け算が大得意な装置なので、Self-attentionはGPUの性能を完全に引き出せる。
そして重要なのは、この数学的操作は脳の注意機構とほぼ何の関係もないということ。生物学的な「注意」は、視床・前頭前野・頭頂葉のネットワークによる選択的増強で、神経細胞の発火パターンの調整として実装されている。Transformerの「attention」はソフトマックス関数で正規化された内積類似度であって、両者を結びつける生物学的根拠はほぼゼロ。同じ言葉を使っているだけである。
これは哲学的に重要だ。Transformerは「脳がどう動くか」ではなく「現代のシリコンが何を得意とするか」から逆算して設計されたわけである。Hassabisのアプローチが「脳という生物学的アーキテクチャを真似る」だったのに対し、Transformerチームのアプローチは「現代のハードウェアが好む計算を設計する」だった。
9. バレットの「予測の固着」として読み解く
「感情はコントロールできない」で扱ったバレットの理論は、Hassabisの見落としの理解にも光を当てる。バレットは脳を「予測機械」と捉えると同時に、認知バイアスを「予測の固着」と定義した。
「認識のOSにバグがある」で私はこう要約した:
バイアスとは単なる「思考の偏り」ではなく、過去の予測パターンが更新されないことで起きる「予測の固着」だ。
確証バイアスが解消されにくい理由がここにある。脳は「自分の予測を確認する情報」を優先的に処理する——それは意地悪な偏見ではなく、脳の予測システムが効率的に動いた結果だ。
Hassabisの「AGIには脳的な構造が必要だ」という予測モデルは、AlphaGoの成功で強化された。彼の脳は、その後に出会う全てのAI技術を、この予測モデルに合わせて解釈しようとした。Transformerは「脳的でない」という時点で、彼の予測モデルでは「本物の知能ではない」というラベルが先に貼られた。
これはHassabis個人の知性の欠如ではない。脳の予測機械としての性質そのものが、彼にそうさせた。誰でも、自分が深く信じている予測モデルに反する証拠は、見えにくくなる。確証バイアスは、Hassabisほどの天才でも逃れられない、人間の脳の構造的特性なのだ。
そしてDeepMindの組織文化もこれを強化した。社内の主要な流派は二つ ── トロント派(Hinton系の深層学習)とアルバータ派(Sutton/Silver系の強化学習)。Transformerの言語モデル路線は、このどちらにも属さない第3の流派で、Google Brain側で育っていた。個人の予測モデルと組織の予測モデルが共鳴して、見落としを増幅したわけだ。
GPT-2(2019)、GPT-3(2020)が出てきても、彼の判断は変わらなかった ──「ただの統計的パターンマッチングに過ぎない」と。事実そう言えなくもなかった。しかし**「これは大したことない」と切り捨てたことが、致命的な判断ミス**になった。
ここに認識のOSの怖さがある。自分を成功させた認識の枠組みが、次の局面で自分を盲目にする。彼の世界観があまりにも一貫していて、AlphaGoまでの全勝利を支えてきたからこそ、それを疑うことが構造的にできなかった。
10. ChatGPTの衝撃 ──「蓋が開く」瞬間
「認識のOSにバグがある」では、UCLA精神科医ダニエル・シーゲルの「フリッピングザリッド(蓋が開く)」という現象を紹介した。
ここで重要なのが「フリッピングザリッド(蓋が開く)」という現象だ。強いストレス、恐怖、怒りを感じた瞬間、4本指が跳ね上がる——つまり前頭前皮質が機能停止し、感情と本能だけで反応する状態になる。これがまさに、システム2が使えなくなる瞬間だ。
ChatGPT登場直後(2022年11月)のDeepMind内部の空気を想像してほしい。10年かけて積み上げてきた研究路線が、競合に一気に追い越された衝撃。これはHassabisにとって組織的な「蓋が開いた」瞬間だったと私は読んでいる。「敵が我々の正面の庭にタンクを乗り入れた」という彼の言葉は、その状態をよく表している。
組織もまた、蓋が開いた状態では合理的な判断ができない。Geminiの戦時開発、Google BrainとDeepMindの強引な合併 ── これらはまさに「耐性の窓」を超えた状態での意思決定だったように見える。
ここで認識のOSの諸刃の構造が極まる。普段は機能していたシステム2が、最も必要な局面で機能停止する。これは個人だけでなく、組織のレベルでも起こる。
11. 「苦い教訓」と認識論的衝突
2019年、強化学習の権威Richard Sutton(DeepMindにも在籍していた人物)が、『The Bitter Lesson(苦い教訓)』という有名なエッセイを発表した。
骨子はこうだ。AI研究70年の最大の教訓は、計算量を活用する汎用的な手法が、人間の知識を組み込んだ手法を最終的に常に打ち負かす、ということだ。
つまり、人間が「脳はこう動くはず」「知能とはこういうものだ」と思って組み込んだ精巧な仕組みは、結局、「ただ大量のデータと計算をぶつける単純な方法」に負けてきた、という観察である。チェスでも、囲碁でも、画像認識でも、毎回そうだった。
これは、Hassabisの哲学への直接の挑戦状だった。彼の流派は「脳の構造を真似た精巧な設計」、Suttonの主張は「シンプルなアーキテクチャ+スケール」。Transformerは後者の極致だったわけである。
OpenAIがTransformerを純粋にスケールアップしてChatGPTを出した2022年11月、Suttonの予言が現実になったように見えた。「精巧な脳的設計」が「シンプル+スケール」に敗北した、と。
DeepMindは10年かけて、脳科学の知見を一つずつ計算アーキテクチャに翻訳してきた ── 海馬の経験再生、強化学習、シーン構築、System 1/2の統合。Bennettの第1〜4のブレイクスルーを、丁寧に、生物学的に正しく実装してきた。精密な職人芸の積み重ね。
その横で、Google Brainの8人のエンジニアが「行列の掛け算を並列化する仕組み」を作り、それが脳とほぼ何の関係もないのに、第5のブレイクスルー(言語)を制圧してしまった。
これは技術的敗北以上に、哲学的敗北だった。DeepMindの存在意義そのものに対する疑問符だった。
Hassabisの反論 ──「LLMはまだStudyingに留まっている」
しかしHassabis自身は、この哲学的敗北を完全には受け入れていなかった。彼は本書で繰り返し、AI研究の根本的な構造についてこう語っている ──「Atariの段階ではStudying(価値学習)が重要だった。しかし飛躍をもたらしたのは、そこに Playing(自己対戦)を加えたときだった」と。
この発言の背後にある彼の哲学はこうだ ── LLMは本質的に巨大なStudying装置だ。インターネット上の全テキストから「次のトークン」を予測する ── 超高度なパターン認識だが、Studyingに留まっている。世界に介入しない。介入の結果から学ばない。
Hassabisから見れば、LLMはAtariのDQNと同じ段階に閉じ込められていた。本物の飛躍は、Playingを組み込んだときに来るはずだ ── これが彼の信念だった。Bitter Lesson はある側面では正しかったが、知性の全体像を捉えていない、と。
そして彼のこの読みは、数年後に意外な形で実証されることになる ── が、それは第3回で扱う。
ジャーナリストのParmy Olsonは『Supremacy: AI, ChatGPT and the Race That Will Change the World』(B#186で扱った)で、この対比を一行に凝縮している。
“DeepMind focused on solving intelligence as a science, while OpenAI turned it into a product.” (DeepMindは知能の科学的解明に注力したが、OpenAIはそれを製品化した)
これは単なる戦略の違いではない。世界の切り取り方そのものの違いだった。認識のOSが異なれば、同じ技術潮流を前にしても、見える景色がまったく違う。
そして実は、この二項対立はまだ全体像ではない。OpenAI設立から離脱して xAI を立ち上げた Elon Musk もまた、Hassabis とも Altman とも異なる第三の認識のOS ──「物理学と工学から見たAI観」── を体現している。この三角形については、別シリーズで掘り下げる予定だ。
第2回のまとめと、第3回への問い
認識のOSは成功と失敗を同じ仕組みで生み出す。これはHassabisの知性の欠如ではなく、脳の予測機械としての構造的特性だ。
- システム1の自動性(システム2は意識的に起動しないと働かない)
- 予測の固着(成功体験は予測モデルを強化し、反証を見えにくくする)
- 蓋が開く(衝撃的な状況下では前頭前皮質が機能停止する)
これらは誰の中にも組み込まれている。Hassabisも、私も、読者も、無関係ではいられない。
ではどうすればいいのか。外部からの強い衝撃(ChatGPTのような)を待つしかないのか。それとも、もっと能動的に、自分の認識のOSを揺さぶり続ける道があるのか。
次回・第3回では、Hassabis自身がOSのアップデートを強いられた過程と、私自身が博士課程から製薬会社、そしてロルフィングへと辿ってきた認識のOSの旅路を交差させながら、この問いに答えていきたい。
◀ 前回:DeepMindはなぜ囲碁の世界を制したか ── Demis Hassabis編「認識のOSの諸刃」第1回/全3回
▶ 次回:DeepMindはなぜ推論モデルで報われたのか ── Demis Hassabis編「認識のOSの諸刃」第3回/全3回
本シリーズの読み解きの骨組み
過去のMBL記事3本を縦糸に使う:
- 【B#198】神経科学 × 進化生物学 × 人工知能:知性の本質を探る5つの視点 ── マックス・ベネット『A Brief History of Intelligence』の5つのブレイクスルー枠組み
- 「感情はコントロールできない」は本当か──脳の予測メカニズムから感情を理解する ── リサ・フェルドマン・バレットの予測機械理論
- 認識のOSにバグがある──「直感」と「熟慮」という2つの回路 ── KahnemanのSystem 1/2、Siegelの「蓋が開く」、Barrettの「予測の固着」
これは単なる本の感想ではなく、自分の認識のOSを観察するための鏡として、この物語を使う試みである。
関連記事
| シリーズ・テーマ | 記事 | つながり |
|---|---|---|
| 書評 | 【B#186】生成AIの覇権をめぐる物語:DeepMindとOpenAI、2つの道 | Parmy Olson『Supremacy』に基づくOpenAI vs DeepMind の組織比較 |
関連サービス
- 脳と身体のメカニズムから、AIと認識の仕組みを体系的に学びたい方へ → 脳活講座(基礎編・統合編)
- 自分の認識のOSを対話で可視化し、判断の質を上げたい方へ → コーチング(個人・法人)
- 身体から認識のOSを書き換えたい方へ → ロルフィング・セッション
書籍情報:
- Sebastian Mallaby『The Infinity Machine: Demis Hassabis, DeepMind, and the Quest for Superintelligence』Penguin Press, 2026年3月31日刊行
- Max Bennett『A Brief History of Intelligence: Evolution, AI, and the Five Breakthroughs That Made Our Brains』Mariner Books, 2023年刊行
- Daniel Kahneman『Thinking, Fast and Slow』(『ファスト&スロー』) Farrar, Straus and Giroux, 2011年刊行
- Lisa Feldman Barrett『How Emotions Are Made: The Secret Life of the Brain』(『情動はこうしてつくられる』) Houghton Mifflin Harcourt, 2017年刊行
著者:大塚英文(Ph.D.)|渋谷を拠点に、ロルフィング・コーチング・脳活講座を提供。神経科学・哲学・身体知の交差点から、個人と組織の「認識の変容」を扱っている。


