AI只会“抄答案”?谷歌SRL新框架,让它学会“解题思路”!深度解析监督强化学习

📌 AI只会"抄答案"?谷歌SRL新框架,让它学会"解题思路"!深度解析监督强化学习

⓵ 容易懂 Easy Know

想像一下,你正在學解一個超複雜的魔術方塊,這需要很多步驟。傳統的教法有兩種。第一種是「死背公式」(SFT),你只能一模一樣地照抄老師的動作,如果遇到新的狀況就會當場卡住,而且永遠無法比老師更厲害。第二種是「只看結果」(RLVR),只有你完全解開魔術方塊才能得到獎勵,但如果它太難了,你試一百次都失敗,根本不知道哪一步做錯了,最後就會放棄學習。

新的 SRL 方法就像一位超棒的教練。他不只看你最後有沒有解開,而是把你解方塊的過程拆成很多小動作(例如「轉左邊九十度」)。然後在你每做完一個小動作後,他會立刻告訴你:「做得像專家!」或「這裡有點不像」。教練給你鼓勵,讓你每一步都能得到明確的指導,但又允許你自己思考(例如先想一下下一步怎麼轉)。這樣一來,AI 就能學會專家那樣有條理地一步一步思考和行動,最終解決那些連專家都覺得燒腦的複雜問題。

----------------------------------------------------------------------------------------------------

⓶ 總結 Overall Summary

本影片深入探討了如何提升 AI 解決複雜多步驟推理任務的能力,並介紹了由 Google Cloud AI Research 等機構提出的全新框架「監督強化學習」(Supervised Reinforcement Learning, SRL)。

影片首先分析了現有主流方法的瓶頸。監督微調(SFT)依賴於模仿專家解題的每一步驟,導致模型過度擬合、推理僵化,難以泛化到訓練數據外的場景,甚至可能學到專家的錯誤,存在無法突破「老師」性能天花板的困境。另一方面,帶可驗證獎勵的強化學習(RLVR)在處理極度困難的問題時,因成功率趨近於零而面臨「獎勵稀疏性」和「梯度消失」的技術難題,導致模型在黑暗中摸索,無法獲取有效的學習訊號。

SRL 框架的設計目的正是為了解決這兩種方法的不足,它結合了模仿學習的過程指導性與強化學習的優化探索能力。SRL 的核心機制是將專家提供的完整解決方案分解為一系列邏輯獨立的「行動」(Actions),並在訓練過程中,模型每生成一個行動後,SRL 即刻計算該行動序列與專家行動序列之間的相似度,並以此分數作為密集的獎勵訊號。這種獎勵設計擺脫了對最終結果的依賴,使模型在每一步都能獲得即時反饋,有效克服了 RLVR 在難題上的獎勵稀疏問題。

SRL 的工作流程包括五個關鍵步驟:問題重構、數據建構、結合內部思考的學習與相似度獎勵、使用 GRPO 等算法進行強化學習更新,以及動態採樣過濾低信息量樣本以提高效率。值得注意的是,SRL 鼓勵模型生成「內部思考」,但不直接將其納入獎勵評估,這賦予了模型發展自己獨特推理風格的自由。

實證結果顯示,SRL 在需要多步複雜推理的任務中表現卓越。在數學推理和軟體工程的程式碼修復任務中,SRL 模型的性能均顯著超越 SFT 和單獨的 RLVR 基線。尤其在程式碼修復任務中,SRL 的解決率是 SFT 基線的兩倍多。此外,經過 SRL 訓練的模型還展現出如前期規劃、自我反思和驗證答案等「涌現行為」,顯示出推理品質的實質提升。

然而,SRL 仍面臨挑戰,包括如何將基於句法形式的相似度獎勵提升至基於語義和邏輯的深度理解,以及如何將此框架泛化到結構不清晰的非結構化現實世界問題。總體而言,SRL 為 AI 攻克複雜多步驟推理難題開闢了一條高效且具前景的新道路。

----------------------------------------------------------------------------------------------------

⓷ 觀點 Viewpoints

1 傳統SFT(監督微調)的困境在於過度模仿導致推理僵化,模型可能只是記住了操作序列而非背後的邏輯,這不僅限制了泛化能力,有時甚至會降低模型原有的推理水平,且無法超越作為老師的數據源的性能天花板。

2 傳統RLVR(帶可驗證獎勵的強化學習)在處理極端困難的任務時效率低下,因為成功率低導致「獎勵稀疏性」。模型無法獲得正向反饋,進而引發策略梯度為零的「梯度消失」問題,使模型學習停滯。

3 SRL(監督強化學習)的核心創新是將專家解法分解為一系列邏輯「行動」,並使用序列相似度算法來密集獎勵模型每一步的行動。這種設計有效地結合了過程指導與自我優化。

4 獎勵行動而非內部思考是 SRL 設計的關鍵哲學。雖然模型被提示生成內部思考,但獎勵函數僅評估最終行動與專家行動的相似度,這避免了評估主觀思考內容的難度,同時賦予模型發展獨特且靈活的推理風格。

5 實驗證明 SRL 具有強大的跨領域泛化能力。無論是在要求嚴謹邏輯的數學推理(如SEK-1.1數據集),還是在需要與環境互動的軟體工程(程式碼修復),SRL 的表現都顯著優於 SFT 和 RLVR 基線。

6 經過 SRL 訓練的模型出現了積極的「涌現行為」,例如在解題前進行前期規劃、在過程中動態調整,以及在得出答案後進行自我檢查和反思驗證,這表明性能的提升是源於推理質量而非僅靠輸出長度堆砌。

7 SRL 的未來挑戰在於獎勵機制的深化。目前的相似度匹配偏向句法(字符串形式),難以捕捉深層的語義邏輯等價性。將獎勵提升到能真正獎勵「為什麼這麼做」(推理邏輯核心)而非「做什麼」(行動形式)是下一階段的關鍵。

----------------------------------------------------------------------------------------------------

⓸ 摘要 Abstract

✅ SFT(監督微調)因過度模仿,可能導致模型性能在複雜任務上反而下降,出現學歪或學死的現象。
⚠️ RLVR(強化學習)在極困難問題上遭遇獎勵稀疏和梯度消失,導致模型難以有效學習。
📌 SRL(監督強化學習)框架旨在透過分解專家解法為「邏輯行動」來克服傳統方法的瓶頸。
👍 SRL 的核心機制是使用序列相似度算法,對模型每一步生成的行動給予密集的即時獎勵。
🧠 模型生成內部思考(Think 標籤),但獎勵只關注行動本身,允許模型自由發展推理風格。
📈 實驗證實在數學推理和程式碼修復任務中,SRL 解決率顯著超越 SFT 基線兩倍以上。
🔬 經 SRL 訓練的模型展現出前期規劃、動態調整與自我反思等更接近專家的涌現推理行為。
🛑 SRL 需克服如何從獎勵句法相似性轉向獎勵邏輯和語義正確性的挑戰,以適用更模糊的任務。

----------------------------------------------------------------------------------------------------

⓹ FAQ 測驗

**第一題**:
監督微調(SFT)在解決複雜多步驟推理任務時最常遇到的瓶頸是什麼?

A. 模型在所有任務上都缺乏基礎的指令遵循能力。
B. 模型遇到獎勵稀疏問題導致策略梯度無法更新。
C. 模型過度擬合於專家的表面步驟,導致推理死板,難以泛化且可能學到「老師的怪癖」。
D. 模型只能處理數學題,無法應用於軟體工程。

正確答案:C
解釋:SFT 依賴逐字逐句的模仿,導致模型過於死板,只能學到操作序列的表面功夫,難以理解深層邏輯,並且有學到訓練數據中錯誤或怪癖的風險。

**第二題**:
SRL 框架用來解決 RLVR 在處理困難問題時「獎勵稀疏性」的核心創新機制是什麼?

A. 僅依賴最終答案的準確性給予極大的正面獎勵。
B. 完全移除強化學習部分,只依賴監督學習。
C. 將解題過程分解成獨立的邏輯行動,並在每一步行動上計算序列相似度給予密集獎勵。
D. 要求模型在訓練前先進行 1000 次隨機探索。

正確答案:C
解釋:SRL 通過分解問題並在每一步行動後立即給予基於相似度的獎勵,確保模型能夠獲得密集的反饋訊號,有效克服了 RLVR 必須等到最終結果才能得到獎勵的稀疏性問題。

**第三題**:
關於 SRL 模型在推理過程中生成的「內部思考」(internal thinking),下列敘述何者正確?

A. 內部思考必須與專家的思路完全一致,否則會受到嚴厲懲罰。
B. 內部思考會被算法評估其邏輯性,並作為主要獎勵依據。
C. SRL 允許模型生成內部思考,但獎勵函數主要只評估其後續「行動」與專家的相似度。
D. 內部思考的生成只是一種輔助功能,與模型的最終行動和獎勵完全無關。

正確答案:C
解釋:SRL 設計的關鍵在於不強制要求模型的思考方式,只要求最終的「行動」符合專業水準。因此,獎勵主要依賴於行動序列的相似度,允許模型發展自己的推理風格。

✡ Oli小濃縮 Summary bot 為您濃縮重點 ✡

https://youtu.be/dc59mSz3FzE

*

張貼留言 (0)
較新的 較舊

廣告1

廣告2