Research Project / Cognitive AI

AmadeuSY LLM

胎児の耳から始める言語AI

離散トークンなし。Transformerなし。バックプロパゲーションなし。
連続信号 × 再帰ヘブネットワーク × 予測符号化。
人間の発達段階に沿って、胎児の耳から言語を獲得するAIアーキテクチャ。

問題提起: 現在のLLMは力ずくである

人間の赤ちゃん GPT-4
学習データ 数年の感覚体験 13兆トークン
パラメータ 860億ニューロン(段階的に成長) 1.8兆パラメータ(固定)
学習コスト 食事だけ $100M+
入力形式 連続信号(音・光) 離散トークン
学習則 局所的(ヘブ則) 大域的(バックプロパゲーション)

スケーリングの限界は見えている。データもコストも指数関数的に増えるが、「理解」は増えない。 人間の赤ちゃんは数年で言語を獲得する。なぜAIはそれを再現できないのか。

洞察: 3つの根本的な間違い

入力が違う

人間は離散トークンを読んでいない。胎児は羊水越しのくぐもった音から始まる。連続信号である。

学習則が違う

脳にバックプロパゲーションは存在しない。ニューロン同士が同時に発火すれば結合が強まる — ヘブ則。局所的で、生物学的に妥当な学習。

カリキュラムがない

人間は「簡単なもの」から学ぶ。胎児期は韻律だけ。新生児期に音素。乳児期に言葉と物の結合。幼児期に文法。この発達段階をAIは完全に無視している。

アプローチ: 人間の発達を再現する

従来のLLM AmadeuSY LLM
入力表現 離散トークン 連続信号(音響波形 → 蝸牛フィルタバンク)
モデル構造 Transformer 再帰ヘブネットワーク(成長する)
学習アルゴリズム バックプロパゲーション 予測誤差ヘブ則(局所学習)
脳は「次に来る入力を予測」し、予測誤差だけを学習する。予測が当たれば何もしない。外れた時だけシナプスを更新する。 これはKarl Fristonの自由エネルギー原理と一致し、Rao & Ballard (1999)の予測符号化理論に基づく。

段階0: 胎児期の聴覚モデル

胎児は妊娠20週頃から音が聞こえ始める。羊水・子宮壁・腹壁が高周波をカットし、残るのはピッチ・韻律・リズムだけ。

音声波形
  ↓
[羊水フィルター] カットオフ ~500Hz — 高周波を除去
  ↓
[蝸牛フィルタバンク] 16チャンネル, 20-500Hz — 周波数帯域ごとにエネルギー抽出
  ↓
[再帰ヘブネットワーク] 成長するニューロン群
  ↓
次フレームの予測 ←→ 実際の入力 → 予測誤差で局所学習

モデルが「成長」する

初期はニューロン8個で開始(胎児初期の未熟な脳)。予測誤差が収束すると新しいニューロンが追加される。 既存の学習済みニューロンは保持したまま、新ニューロンが統合される。生物の神経新生と同じ原理。

発達ロードマップ

STAGE 0

胎児期 — 羊水越しの音

入力: 低周波のみ(~500Hz)。モデル: 8→32ニューロン。
学習目標: 韻律・リズムパターンの予測。母体の心拍(~70BPM)が最初の「学習の成功体験」。

STAGE 1

新生児期 — クリアな音声

入力: 全周波数帯域(~8kHz)。モデル: 32→128ニューロン。
羊水フィルターを段階的に解除。蝸牛チャンネルを16→64に拡張。複数話者の音声を導入。

STAGE 2

乳児期 — 音声+視覚の結合

マルチモーダル入力。音と視覚の同時入力による結合学習(grounding)。
「この音のパターンが聞こえるとき、この視覚パターンがある」という対応関係を獲得。

STAGE 3

幼児期 — 文法獲得と発話

構文パターンの自己組織化。生成(出力)の仕組みを追加。
大規模音声データでの学習。言語構造の創発を検証。

革新性: なぜこれが新しいのか

既存の各要素は研究されている

要素 先行研究 状況
予測符号化 Rao & Ballard 1999, Friston 理論は確立
ヘブ学習 Hebb 1949, STDP研究群 神経科学では標準
蝸牛モデル ガンマトーンフィルタバンク 聴覚モデルとして定着
胎児聴覚学習 DeCasper & Fifer 1980 認知科学の古典
カリキュラム学習 Bengio et al. 2009 ML分野で実績あり
「連続信号 × BPなし × 予測符号化 × 発達的カリキュラム」を統合した言語獲得モデルの先行実装は、我々の知る限り存在しない。各要素は「点」として研究されてきた。AmadeuSYはこれらを「線」として繋ぎ、「面」として統合する。

技術的差別化

特性 Transformer AmadeuSY
入力 離散トークン(人間が定義) 連続信号(モデルが構造を発見)
学習 BPTT(全計算グラフ保持) ヘブ則(局所、リアルタイム)
メモリ O(n²) attention 再帰状態(固定メモリ)
成長 固定アーキテクチャ 動的ニューロン追加
解釈性 ブラックボックス 各ニューロンの役割を追跡可能

バックプロパゲーションなしの意味

全計算グラフの保持が不要。メモリ効率が桁違いに改善。

局所学習のため、エッジデバイスでのオンライン学習が可能。

認知科学への貢献。人間の脳がどう学習するかの計算論的理解。

市場機会

1. AI安全性・解釈可能性

人間的な認知プロセスを持つAIは「なぜその判断をしたか」が追跡可能。EU AI Act等の規制対応に優位。

説明可能AI (XAI) 市場: $20.4B by 2030 (CAGR 16.2%)

2. エッジAI・省電力デバイス

BPなしモデルはGPU依存が低い。IoT・モバイル・ウェアラブルでのオンライン学習に適用可能。

エッジAI市場: $107.5B by 2029 (CAGR 20.8%)

3. 教育・発達障害研究

言語獲得の計算モデルとして、発達障害の理解に貢献。個別最適化学習の基盤技術。

技術的リスクと誠実な評価

リスク 深刻度 対策
スケール時に言語構造が創発しない可能性 段階的検証。各段階で内部表現を可視化・評価
性能面でTransformerに勝てない 競合軸を変える。性能ではなく認知モデルとしての妥当性
マルチモーダル統合の複雑性 段階0-1を完全に動かしてから着手
「GPT-5を作るのではない。人間の脳を理解するのだ。」
性能競争はOpenAI/Googleに任せる。我々が目指すのは、人間の認知プロセスの計算論的理解と、そこから生まれる新しいAIアーキテクチャの発見。

ロードマップ

2026 Q1 — 段階0: 胎児期モデル

羊水フィルター + 蝸牛フィルタバンク + 再帰ヘブネットワークの実装・学習。内部表現の可視化で韻律パターンの自己組織化を確認。

2026 Q2 — 段階1: 新生児期モデル

全周波数帯域での音素パターン学習。技術論文のプレプリント公開。

2026 Q3-Q4 — 段階2: マルチモーダル

音声+視覚のgrounding実験。学会発表。

2027 — 段階3: 文法獲得・生成

文法パターンの獲得と発話(生成)。実応用プロトタイプの構築。

Contact

AmadeuSY LLMは、AI研究の新しいパラダイムを開拓するプロジェクトです。
人間的認知を再現するAI研究にご関心のある方は、ぜひご連絡ください。

@yuuma_tnk 連絡先

← 活動実績に戻る