理大重塑 AI 訓練範式 大幅降低成本並普及研究
香港理工大學(理大)人工智能高等研究院(PAAI)研究團隊在生成式人工智能(GenAI)領域取得多項關鍵技術突破。團隊創新提出「協作式生成人工智能(Co-Generative AI)」模式,將 AI 訓練從傳統集中式轉向分散式,不僅大幅降低訓練成本、保障數據隱私,更打破資源壁壘,讓全球更多研究機構得以參與 AI 研發,為全球人工智能創新注入強勁動力。
當前,GenAI領域面臨三重核心制約:基礎模型訓練需耗費巨量計算資源,僅少數機構可以負擔,導致學術界難以直接參與基礎模型的訓練、領域專屬知識與數據無法融入模型;隱私保護與版權歸屬問題使醫療、金融等敏感數據難以用於訓練;基礎模型難以及時吸收新知識,每次重新訓練需「天文數字級」資源,嚴重阻礙技術迭代。針對這些痛點,理大 PAAI 團隊從「低成本訓練」與「分散式融合」兩大方向展開攻關,在理論証明和應用落地方面取得突破性成果。
理大成為業界首個開源發布「端到端FP8低比特訓練全套方案」(涵蓋預訓練及後訓練)的大學團隊,該技術打破全球基礎模型以BF16精度訓練的主流格局,是全球少數掌握該核心技術的研究團隊之一。與BF16相比,FP8核心優勢體現在多方面:訓練速度提高逾兩成、顯存峰值佔用減少逾一成、成本大幅下降;整合「持續預訓練」、「監督式微調」和「強化學習」,訓練效果媲美BF16模型且訓練時間和顯存佔用進一步壓縮。團隊已啟動更低成本的FP4精度訓練探索,相關成果已發表於學術論文1;經測試,其在醫療的診斷和推理上超過目前業界發布同等尺寸最優模型領域2;在科研智能體領域(Research Agent)中的任務複雜度,泛化能力和生成報告質量上均取得重大突破3。
傳統基礎模型遵循「縮放定律」(參數越多、知識越廣、性能越強),但集中式訓練需耗費百萬計GPU小時,僅少數機構可以負擔。理大團隊研發的「InfiFusion模型融合技術」則實現關鍵突破:僅需數百GPU小時,即可融合出傳統需100萬至200萬GPU小時訓練的大模型;團隊更以實例驗證效率 —— 用160個GPU小時完成4個尖端模型融合4-5,不僅避免了單個尖端模型傳統訓練需要的百萬計GPU小時,且融合後模型在多項權威測試中性能顯著優於原始模型。
此外,這項由Thinking Machines Lab非常倡導模型融合的理念,被理大團隊首次從理論上驗證了可行性。研究團隊通過嚴謹的數學推導,提出了「模型融合縮放定律」(Model Merging Scaling Law),這意味著通往通用人工智能(AGI)可能還有另一條途徑6。理大 PAAI 執行院長、計算機及數學科學學院副院長(環球事務)及電子計算學系教授楊紅霞教授指出:「以超低資源實現基礎模型訓練,加上高效模型融合,可助全球學術人員投入GenAI研究,匯聚更多力量創新。」
在技術落地層面,理大團隊已取得多領域實質進展。醫療領域中,團隊訓練出性能領先的醫療基礎大模型,並研發專屬「癌症GenAI」—— 在同規模模型中性能最佳,可快速積累高質量醫療數據、直接對接醫療設備,用於癌症個性化治療規劃,目前正聯合復旦大學附屬華山醫院、中山大學腫瘤防治中心、山東省腫瘤醫院及香港伊利沙伯醫院推動合作與臨床落地。此外,團隊在智能體AI(Agentic AI)領域亦有突破,該技術可作為研究生學術助手協助論文撰寫與審閱,同時作為多模態專利檢索引擎為創新研發提供高效支持。
理大高級副校長(研究及創新)趙汝恒教授表示:「人工智能是加速培育新質生產力的核心,理大新成立的PAAI致力加速人工智能技術在各個重點領域的深度融合,並針對不同行業開發具備專業領域知識的人工智能模型。此舉不但能鞏固理大在相關領域的領先地位,更將助力推動香港成為全球生成式人工智能發展的樞紐。」
楊紅霞教授領導的研究項目分別獲得研究資助局「2025/26年度主題研究計劃」、香港特區政府創新科技署「產學研1+計劃」及數碼港「人工智能資助計劃」資助,標誌香港在全球AI創新領域邁出堅實步伐,為AI技術普惠化與產業落地注入新動能。
1InfiR2: A Comprehensive FP8 Training Recipe for Reasoning-Enhanced Language Models, https://arxiv.org/html/2509.22536v3
2InfiMed: Low-Resource Medical MLLMs with Advancing Understanding and Reasoning, https://arxiv.org/html/2505.23867
3InfiAgent: Self-Evolving Pyramid Agent Framework for Infinite Scenarios, https://arxiv.org/html/2509.22502
4InfiGFusion: Graph-on-Logits Distillation via Efficient Gromov-Wasserstein for Model Fusion, https://arxiv.org/html/2505.13893
5InfiFPO: Implicit Model Fusion via Preference Optimization in Large Language Models, https://arxiv.org/abs/2505.13878
6Model Merging Scaling Laws in Large Language Models, https://arxiv.org/html/2509.24244
***完***