“對齊”一詞已經流行到了教育界。它本是生成式AI訓練過程中的術語:
對齊是指確保AI系統的目標、意圖和行為始終與人類的價值觀、目標以及利益保持一致。換句話說,就是要保證AI的行為是人類真正想要的,并能為人類帶來積極的效果。因此,對齊問題被公認為是AI時代最核心、最緊迫的挑戰,沒有之一。——《通用人工智能》,劉嘉(清華大學心理與認知科學系主任、人工智能學院教授)
補充一點,“對齊”這一步往往在大語言模型的后訓練步驟完成,完成后才會提供給廣大用戶使用。在用戶端的所謂“對齊”,往往是對特定方向“對齊”的測試和驗證,以防在特定場景出現偏差。
偏見(Bias):包括反映刻板印象的“表征性偏見”和導致資源分配不公的“分配性偏見”。
幻覺(Hallucinations):指AI系統提供不符合事實或誤導性的信息。
這是兩類,今天我們要講的這篇論文主要研究第三類偏差——情境錯位(Contextual Misalignment)。
指模型因未能完全理解教育情境或教學目標,而產生與學習理論或特定環境不一致的響應。這種錯位可能導致教學策略無效,或過度偏好某種教學方法(如死記硬背)而忽視其他方法(如探究式學習),從而損害學生的參與度和學習效果。
本研究旨在通過評估GPT-4與三種主流學習理論(行為主義、主動學習、社會學習)的對齊程度,深化對LLM教學邏輯的可解釋性。
研究問題1 (RQ1):在特定的教育環境中,GPT-4的輸出與學習理論的對齊程度如何?
研究問題2 (RQ2):增加更多的教育性輸入數據,能否改善GPT-4的教學對齊度?
這個研究最大的貢獻在于,發現雖然詳細的提示詞(Prompt Engineering)可以提高模型的響應能力和預測性,但要完全克服LLMs(如GPT-4)源自訓練數據的“內置”對齊傾向仍然非常困難,特別是在涉及復雜的教學法時。
一、核心學習理論框架
為了對LLM的教學行為進行實證分析,研究將多種經典學習理論整合為三個核心的教學方法,并以此作為評估框架。研究結果表明,GPT-4的輸出高度傾向于行為主義(在輔導和課程設計中均表現出最強的對齊性),但在支持主動學習和社交互動方面存在明顯的局限性。
二、研究一:作為導師的GPT-4教學對齊評估 (RQ1)
本研究旨在評估在真實輔導場景中,GPT-4的輸出與特定學習理論的對齊情況。
2.1 方法
目標:解答RQ1,即評估GPT-4在真實教育環境中的教學對齊度。
設置:21名大學生參與者在可汗學院(Khan Academy)平臺上,使用由GPT-4驅動的AI輔導系統Khanmigo進行學習。
流程:參與者被分配到預先按主動學習、行為主義或社會學習理論分類的課程中。研究人員記錄并編碼了參與者的提問(Prompts)和AI的回答(Outputs),以分析其與相應學習理論特征的符合度。
2.2 核心發現
普遍的教學錯位:數據顯示,盡管學生提問主要傾向于主動學習(占所有提問的50.94%),但GPT-4的回答卻嚴重偏向于行為主義(占所有回答的59.32%)。
行為主義理論:表現出強大的對齊性。在這類課程中,高達71.99%的AI輸出符合行為主義原則,與課程設計高度一致。
主動學習理論:存在顯著的教學錯位。盡管課程旨在促進主動學習,但AI輸出中行為主義內容占比高達55.58%,而主動學習內容僅占24.63%。
社會學習理論:對齊性最弱。在這類課程中,AI輸出中僅有10.74%符合社會學習理論,大部分回答轉向了主動學習或行為主義模式。
社會學習提問與相應的輸出之間沒有顯著的統計關系(P = 0.11),表明模型難以穩定地生成社會學習導向的回答。
研究一的結果清晰地表明,GPT-4在作為教學導師時:
對行為主義有強烈的默認傾向,尤其擅長提供結構化的、基于反饋的指導。
與主動學習有中等程度的對齊能力,但當面對主動學習類的提問時,仍傾向于退回行為主義模式。
在支持社會學習方面存在顯著不足,這可能與模型本身的局限以及平臺缺乏協作功能有關。
4. 研究二:作為教學設計者的GPT-4性能評估 (RQ2)
本研究旨在通過一個大規模、可控的實驗,探究更具體、更豐富的教育性輸入是否能提升GPT-4的教學對齊度。
4.1 方法
目標:解答RQ2,即評估增加教育輸入對改善教學對齊度的效果。
流程:使用OpenAI API,通過兩階段過程生成了數千門課程的結構化數據。
階段一(基準):使用一套靈活的教學特征(如課程主題、學生人數等)作為輸入,生成了1,434門課程作為基準。
階段二(強化):在第一階段的基礎上,額外增加了一個與三種學習理論明確掛鉤的“技能”列表(例如,主動學習對應“分析技能”,行為主義對應“記憶技能”,社會學習對應“協作技能”)作為輸入,生成了3,057門課程。
度量標準:采用“教學對齊距離”(Pedagogical Alignment Distance, PAD)分數來量化對齊程度。該分數范圍從-1(完全錯位)到1(完全對齊)。
整體對齊度仍然不佳:盡管在第二階段中輸入了更具體的教學指令,但所有理論的平均PAD分數在兩個階段中均為負值,表明GPT-4在生成完全符合教學法原則的課程設計方面仍存在普遍困難。
對行為主義的對齊度有正面影響,其PAD分數改善了0.11。
對主動學習(ΔPAD = -0.03)和社會學習(ΔPAD = -0.08)的對齊度反而略有下降,說明精確指令可能導致模型在處理復雜教學任務時表現更差。
變量重要性分析:新增的“技能”輸入成為第二階段中最具影響力的變量(相關性為0.35),其重要性超過了“課程主題”(0.25)和“互動方法”(0.29)等其他變量。
模型可預測性顯著增強:引入“技能”變量后,模型生成特定理論導向內容的可預測性大幅提升。例如,在預測行為主義對齊度時,模型的R2值從0.4306躍升至0.7900。
為GPT-4提供更具體、與教學法直接相關的輸入(如“技能”),可以顯著提高其輸出的可預測性,尤其是在結構化理論(如行為主義)方面。
然而,這種可預測性的提升不等于對齊質量的全面改善。對于主動學習和社會學習等更復雜的范式,精確的指令甚至可能導致對齊度下降。這揭示了GPT-4在深層次理解和應用復雜教學原則方面仍存在局限。
5. 總結與啟示
本研究通過一個創新的社會技術框架,系統地評估了GPT-4在教育情境中的教學對齊問題,得出了深刻的結論并為未來實踐提供了方向。
研究貢獻
1.擴展了AI對齊的研究邊界:將AI對齊問題從技術和倫理層面擴展到具體的教學應用領域,為理解和審核LLM的教學行為提供了理論基礎和方法論。
2.驗證了GPT-4的教學偏好:實證揭示了GPT-4對結構化、行為主義任務的內在偏好,并指出了其在支持更高階的主動學習和協作式社會學習方面的明顯短板。
3.開發了可量化的評估工具:提出了“教學對齊距離”(PAD)這一可量化的評估指標,為系統性地審核和比較不同LLM的教學質量提供了有效工具,填補了該領域的空白。
實踐啟示
可以充分利用GPT-4在結構化任務(如基礎知識講授、技能訓練、自動反饋)中的優勢。
在需要促進批判性思維和協作時,必須采用高度具體和目標明確的提示策略來引導模型,并意識到其固有的局限性。
應優化模型的輸入模式和訓練數據,使其能更好地理解和響應多樣化的教學指令,減少對行為主義的過度依賴。
對于政策制定者:應推動建立由教育專家和技術專家共同參與的評估基準,以確保AI在教育領域的應用能夠真正符合多元化和高質量的教學目標。
為什么內置傾向難以改變?如何改變?這是我讀這個研究最關注的點。
研究指出,完全的對齊之所以難以實現,是因為LLMs可能“過度對齊”(over-align)于其訓練數據中的主導模式。盡管模型對提示詞敏感,但由于“固有傾向”,完全的對齊依然“難以捉摸(elusive)” 。
詳細的提示詞設計(如Study 2中的Stage 2)雖然能讓GPT-4更關注具體的教學指令,但不足以根本性地改變其底層的行為主義傾向。模型在面對社會化學習等復雜教學法時,往往會“默認”回退到它最熟悉的結構化、行為主義模式,無論提示詞多么詳細。
這可不是壞消息,這是AI模型垂直領域產品化的機遇。
(一)強制植入思維鏈步驟的推理模型
這個研究表明商用大語言模型原有傾向的頑固性,因此不是換了r系或者o系推理模型就能解決問題的。如果在推理模型的思維鏈(Chain of Thought)中強制植入教學法反思(例如:“在回答學生之前,我需要先評估這是不是一個通過同伴互動解決更好的問題?”),它可能才會比普通模型更有能力執行復雜的教學策略,因為它可以在輸出前進行自我糾正。
(二)微調是更本質的解法,但成本過高
微調更有可能從根本上改變模型的“行為主義”出廠設置,但需要高質量的非行為主義教學對話數據集。論文也引用了 Park (2024) 和 Vassar (2024) 的研究,表明監督微調(Supervised Fine-Tuning, SFT)確實可以讓模型在特定領域(如英語教學或計算機科學教育)更符合教學目標 。
如果您的目標是讓模型從“行為主義”轉向“建構主義”或“社會化學習”,通過構建大量包含蘇格拉底式提問、協作引導而非直接告知答案的數據集進行微調,從概率分布上扭轉模型的“默認行為”是目前最直接的技術手段。
不過論文警告說,領域特定的微調可能會導致模型“過度專業化(Overspecialization)”或出現災難性遺忘 。這對于教育場景很危險,因為教育往往需要廣博的知識背景。
參考文獻:Domínguez Figaredo, D., Fernández Vindel, J.L. & Guerrero Puerta, L. Explainable pedagogical alignment: auditing LLMs with learning theories. Educ Inf Technol (2025). https://doi.org/10.1007/s10639-025-13857-2
在教育與人工智能正結合的時代,我們每天都在面對海量的信息沖擊:大模型、提示詞工程、個性化學習、具身智能……
思考是一項艱難的體力活,就像木匠干活需要錘子和鋸子,思考也需要趁手的工具。
這就是我們在“教育學人AIED內參”開設這個新專欄的初衷,2026我們通過100篇左右的文章介紹丹尼爾·丹尼特的《直覺泵和其他思考工具》,2025年內訂閱,加量不加價。
丹尼爾·丹尼特:“理解”的四種模式