AI

ベイズアップグレード:Google AIの新しい教育手法がLLM推論の核心である理由

ベイズアップグレード:Google AIの新しい教育手法がLLM推論の核心である理由 LLM推論の限界:なぜ最先端モデルですら苦労するのか? 最近のChatGPT、Gemini、Claudeなどの大規模言語モデル(LLM)の進歩は目覚ましいものがあります。コーディング、翻訳、テキスト要約など、さまざまなタスクを実行し、人間と似た能力を示しますが、LLMの核心的な能力である「推論(Reasoning)」は依然として未熟な面があります。特に、新しい証拠に基づいて信念を更新する「確率的推論(Probabilistic Reasoning)」能力は深刻なレベルです。これは、熟練したフライト予約アシスタントがユーザーの好みを把握して最適な航空편を推薦しなければならないにもかかわらず、最初の要求以降に学習できない状況と 같습니다. Google研究チームの最近の研究は、このような問題点を指摘し、現在のLLMが実際の世界の複雑さを十分に理解していないことを明らかにしています。Llama-3-70B、Qwen-2.5-32Bなどの最新モデルですら、初期の相互作用以降、学習能力が停滞する現象を示しました。これはLLMが単にテキストデータを暗記し、パターンを認識することに長けているが、実際の世界の不確実性を理解し、それに応じて判断を下す能力が不足していることを意味します。 ベイズ教育:LLMに「賢い推測」を教える新しいアプローチ 従来のLLM学習方式は、「正しい答え」を提供するのに集中していました。まるで生徒に正解を丸暗記させるようなものです。しかし、Google研究チームはLLMに正解を知らせる代わりに、「賢い推測(Educated Guess)」をさせる「ベイズ教育(Bayesian Teaching)」という新しい手法を提案しました。ベイズ教育は、ユーザーの好みを推測するベイズアシスタントの推論過程を模倣するようにLLMを訓練することです。 ベイズアシスタントは、以前の情報(Prior)と新しい証拠(Likelihood)を組み合わせて、ユーザーの好みに基づく確率分布を更新します。このような過程を通じて、LLMは単に正解を暗記するのではなく、不確実性を理解し推論する能力を獲得します。これは、数学者が問題解決過程でいくつかの仮説を立て、実験結果を通して仮説を修正していくことに似ています。 ベイズ教育方式は、教師あり微調整(Supervised Fine-Tuning, SFT)を通じて実現されます。SFTは、従来のデータに加えて、ベイズアシスタントとLLM間の相互作用データを活用してモデルを訓練する方式です。これにより、LLMはベイズアシスタントの推論過程を模倣し、不確実性の中で合理的な判断を下す能力を向上させることができます。 正答よりも「賢い推測」:なぜベイズ教育がより効果的なのか? 驚くべきことに、ベイズ教育は従来の正答データに基づく学習(Oracle Teaching)よりも優れたパフォーマンスを示しました。Oracle Teachingは、LLMに完全に正解を知らせるモデルを基に学習させる方式です。しかし、Oracle Teachingはモデルがユーザーの実際の好みを十分に反映できないという欠点があります。一方、ベイズ教育はモデルが初期段階でエラーを犯しますが、これらのエラーを通して学習し改善していく過程を経験します。これは、子供が転んで立ち上がる過程を通して転ばない方法を学ぶことに似ています。…

19시간 ago