保育士資格合格パーフェクトナビ

保育士資格合格パーフェクトナビ
2024.11.28

言葉の習得が早い赤ちゃんの能力をAI研究へ応用?

乳幼児は、ごく限られた情報からでも迅速に言語や概念を習得することが可能です。一方、最新の人工知能(AI)の中には、何兆ものデータを基に学習を行うものもありますが、赤ちゃんが耳にする語彙は年間でおよそ1,000万語程度とされています。それでも、2歳頃には約300語を理解していると言われています。赤ちゃんがこれほど効率よく学べるのはなぜでしょうか。その学習方法をAI技術に応用することはできないでしょうか。
(※2024年9月13日 朝日新聞の記事を参考に要約しています。)

赤ちゃんとAIにおける学習方法の違い

赤ちゃんは物を掴んだり、口に運んだり、投げたりするなど、積極的に環境と関わることで多くの感覚情報を得ています。また、親や周囲の人々の日常会話を聞く中で、少しずつ言語を身につけていきます。
一方で、AIに用いられる大規模言語モデル(LLM)は、主に文字データをインプットとしています。膨大なデータ量を基に学習し、パターンやルールを見つけ出すことで、自然な文章で質問に応答できるようになるのです。
スタンフォード大学のマイケル・フランク教授は、昨年の論文で最新のLLMが数兆のデータを学習していると説明しています。これは、人間が5歳までに得る学習量と比較すると、およそ5桁も異なる規模の差があるとされています。

赤ちゃんとAIが言語を学ぶプロセスの違い

この違いはどこから生じるのでしょうか。
まず、赤ちゃんの脳は世界を理解しやすいように進化してきたと考えられますが、LLMには人間の脳と同じ構造がありません。また、赤ちゃんはボールを掴んで投げるといった行動を通じて視覚や触覚の情報を得ながら、同時に聞こえる言葉から意味を学びます。しかし、LLMは現実の世界でこうした体験をしていないのです。
さらに、大人が乳幼児に話しかける際には、本能的に簡単な単語や文章を使い、声のトーンや抑揚を変えることが知られています。このような発話が、赤ちゃんの言語習得に役立っていると考えられます。
京都大学の谷口忠大教授(人工知能)は、10年以上にわたり、AIに言語を習得させる研究を行ってきました。過去の研究では、視覚・聴覚・触覚のセンサーを備えたAIが、コップやペットボトル、ぬいぐるみといったさまざまな物体を、見た目や硬さなどの情報から分類できることが確認されています。また、谷口教授らは、言葉をまったく知らないAIが「これは小さいボールです」といった音声データから「これ」や「ボール」などの単語を見つけ出し、物体の分類と組み合わせることで物の名前を学習できることを示しました。
「人間がどのようにして概念や言語を獲得するのか、AIで再現することで人間の知能に一歩近づくことができるのです」と谷口教授は語ります。

赤ちゃんの体験をAIで再現する実験

実際に赤ちゃんが見聞きする体験をAIに学習させた場合、どのような結果になるのでしょうか。アメリカ・ニューヨーク大学のワイ・キーン・ヴォン研究員らは、6カ月から2歳過ぎまでの約1年半の間、赤ちゃんの頭に週1回程度ウェブカメラを装着し、視覚や聴覚の情報を記録しました。このデータをAIの訓練用として使用し、総記録時間は約60時間、登場する単語数は延べ約25万語となりました。
その後、映像から切り出した画像と文字起こしされた音声を組み合わせてAIにインプットし、ボールや椅子、窓といった子どもが日常的に触れる22の単語が認識できるかテストを行ったところ、平均正答率は62%でした。また、11個の単語については、約4億のデータで学習したAIと同等の正答率を達成しました。
ヴォン研究員は「単純なアルゴリズムでも十分に学習が可能であると分かった」と述べており、AIもインプットの工夫次第で、赤ちゃんのように言語を習得できる可能性を示唆しています。

赤ちゃんの学習方法からAI学習の効率化を探る

赤ちゃんが言葉を覚えるプロセスには、例えば大人が葉を指さして「これは葉っぱだよ」と教えるような、直接的な方法と、大人同士の会話を聞きながら自然に学ぶ方法があります。これは、AIが学習する「教師あり学習」(問題と正解をセットで学ぶ)や「教師なし学習」(膨大なデータからAIが自ら特徴や定義を発見する)と似た方法です。
フランス国立科学研究センターの辻晶准教授(発達心理学)は、赤ちゃんにおける「教師あり学習」と「教師なし学習」の割合を調査しています。辻准教授は、「赤ちゃんの学習過程を調べることで、AIにおいても教師ありと教師なしの学習割合を最適化し、効率的に学習を進める手法を見出せる可能性がある」と話しています。

胎児モデルで探る脳の発達とAIへの応用

知能の発達の初期段階を理解するため、胎児に注目する研究者もいます。東京大学次世代知能科学研究センターの國吉康夫教授は、胎児の発達過程を再現した「胎児モデル」を開発しました。このモデルは、胎児が身体を動かし、手や足で子宮壁を押すことなどを通して得られる感覚情報によって脳が発達していく様子をシミュレーションしています。
國吉教授は「身体性が脳の発達において重要な役割を果たす」と述べており、例えば人が手を動かすとき、手先は多様な動きができるものの、肩からひじまでの長さは一定であるように、一定の制約のもとで脳は発達していくと説明します。
現在のAIは、学習していない状況には脆弱で、人間にはあり得ないような間違いを犯すことがあります。AIが人に寄り添い、真に役立つ存在になるためには、この問題を解決することが不可欠です。身体性に基づく知能を備えれば、AIもあらゆる状況で一定の基準に従って行動できるようになるかもしれません。
また、過去の研究により、赤ちゃんが6カ月ほどの時点で正義感を持っていることが確認されています。國吉教授は、道徳観も身体性から生じる可能性があると考え、「AIも赤ちゃんの発達過程のように成長していくことで、人間の道徳観を備えた知能を持つに至るかもしれない」と期待を寄せています。