微軟清華北大聯(lián)手推出AI動態(tài)分配模型:AI任務不再一刀切,資源分配更合理
隨著科技的飛速發(fā)展,人工智能(AI)已成為我們生活的重要組成部分。近日,微軟研究院聯(lián)合清華大學、北京大學共同推出了一種全新的AI動態(tài)分配模型——獎勵推理模型(RRMs),這一創(chuàng)新性的研究成果將有望解決當前AI任務資源分配不均的問題,為AI領域的發(fā)展注入新的活力。
RRMs模型的核心在于通過顯式推理過程動態(tài)分配計算資源,以提升復雜任務評估效果。這一方法通過“思維鏈”(Chain-of-Thought)推理,針對獎勵不明顯的復雜查詢投入更多測試時計算資源,從而實現(xiàn)對不同任務類型的自適應分配,使得資源利用更為合理。
強化學習(RL)已成為大語言模型(LLM)后訓練的核心方法,而人類反饋(RLHF)或可驗證獎勵(RLVR)則為強化學習提供了有效的監(jiān)督信號。然而,RLVR在數(shù)學推理中雖有潛力,卻因其依賴可驗證答案的訓練查詢而受限,難以應用于通用領域的大規(guī)模訓練。為了解決這一問題,RRMs提出了新的解決方案。
RRMs基于Qwen2模型,采用Transformer-decoder架構,將獎勵建模轉化為文本補全任務,生成推理過程后給出最終判斷。這一設計思路使得獎勵推理模型能夠更好地適應各種任務場景,同時也提高了模型的泛化能力。
為了評估RRMs的性能,研究團隊利用RewardBench庫進行系統(tǒng)分析。RewardBench庫包含多個評估指標,如指令遵循性、幫助性、準確性、無害性和細節(jié)水平等,這些指標能夠全面地評估AI系統(tǒng)的性能。通過RewardBench庫的評估,RRMs在多個基準測試中表現(xiàn)突出,尤其是在推理類別中達到了98.6%的準確率。這一成果無疑證明了RRMs在復雜查詢中的有效性。
值得一提的是,隨著模型規(guī)模的擴大,RRMs的性能得到了進一步提升。從7B到32B的模型規(guī)模擴展,帶來了更長的推理時間,但準確性卻始終保持增長。這一特性使得RRMs在面對大規(guī)模任務時能夠更加高效地利用計算資源,為傳統(tǒng)標量獎勵模型提供了強大替代方案。
此外,RRMs還支持多響應評估,通過ELO評分系統(tǒng)和淘汰賽機制,結合多數(shù)投票提升計算資源利用率。這一機制能夠更好地適應不同場景下的評估需求,提高計算資源的利用率,從而更好地服務于各類AI任務。
總的來說,微軟清華北大聯(lián)手推出的RRMs模型為AI領域帶來了全新的視角和解決方案。通過動態(tài)分配計算資源,RRMs有效提升了復雜任務評估效果,為AI任務提供了更為合理和高效的資源分配方式。這一創(chuàng)新性的研究成果將有望推動AI領域的發(fā)展,為未來的科技應用帶來更多可能性。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )