Skip to main content Start main content

理大重塑 AI 訓練範式 大幅降低成本並普及研究

2025年10月23日

科研與創新發展 理大人工智能高等研究院

理大人工智能高等研究院(PAAI)的研究團隊在生成式人工智能(GenAI)領域取得多項關鍵技術突破,理大高級副校長(研究及創新)趙汝恒教授(左)與領導該研究項目的PAAI執行院長、計算機及數學科學學院副院長(環球事務)及電子計算學系教授楊紅霞教授(右)出席新聞發布會。

趙汝恒教授指,理大新成立的PAAI致力加速人工智能技術在各個重點領域的深度融合,冀鞏固理大在相關領域的領先地位,並助力推動香港成為全球生成式人工智能發展的樞紐。

楊紅霞教授表示,團隊創新提出的「協作式生成人工智能」模式可助全球學術人員投入 GenAI 研究,匯聚更多力量創新。


香港理工大學(理大)人工智能高等研究院(PAAI)研究團隊在生成式人工智能(GenAI)領域取得多項關鍵技術突破。團隊創新提出「協作式生成人工智能(Co-Generative AI)」模式,將 AI 訓練從傳統集中式轉向分散式,不僅大幅降低訓練成本、保障數據隱私,更打破資源壁壘,讓全球更多研究機構得以參與 AI 研發,為全球人工智能創新注入強勁動力。

當前,GenAI領域面臨三重核心制約:基礎模型訓練需耗費巨量計算資源,僅少數機構可以負擔,導致學術界難以直接參與基礎模型的訓練、領域專屬知識與數據無法融入模型;隱私保護與版權歸屬問題使醫療、金融等敏感數據難以用於訓練;基礎模型難以及時吸收新知識,每次重新訓練需「天文數字級」資源,嚴重阻礙技術迭代。針對這些痛點,理大 PAAI 團隊從「低成本訓練」與「分散式融合」兩大方向展開攻關,在理論証明和應用落地方面取得突破性成果。

理大成為業界首個開源發布「端到端FP8低比特訓練全套方案」(涵蓋預訓練及後訓練)的大學團隊,該技術打破全球基礎模型以BF16精度訓練的主流格局,是全球少數掌握該核心技術的研究團隊之一。與BF16相比,FP8核心優勢體現在多方面:訓練速度提高逾兩成、顯存峰值佔用減少逾一成、成本大幅下降;整合「持續預訓練」、「監督式微調」和「強化學習」,訓練效果媲美BF16模型且訓練時間和顯佔用進一步壓縮。團隊已啟動更低成本的FP4精度訓練探索,相關成果已發表於學術論文1;經測,其在醫療的診斷和推理上超過目前業界發布同等尺寸最優模型領域2;在科研智能體領域Research Agent)中的任務複雜度,泛化能力和生成報告質量上均取得重大突破3

傳統基礎模型遵循「縮放定律」(參數越多、知識越廣、性能越強),但集中式訓練需耗費百萬計GPU小時,僅少數機構可以負擔。理大團隊研發的「InfiFusion模型融合技術」則實現關鍵突破:僅需數百GPU小時,即可融合出傳統需100萬至200GPU小時訓練的大模型;團隊更以實例驗證效率 —— 160GPU小時完成4個尖端模型融合4-5,不僅避免了單個尖端模型傳統訓練需要的百萬計GPU小時,且融合後模型在多項權威測試中性能顯著優於原始模型。

此外,這項由Thinking Machines Lab非常倡導模型融合的理念,被理大團隊首次從理論上驗證了可行性。研究團隊通過嚴謹的數學推導,提出了「模型融合縮放定律」(Model Merging Scaling Law),這意味著通往通用人工智能(AGI)可能還有另一條途徑理大 PAAI 執行院長、計算機及數學科學學院副院長(環球事務)及電子計算學系教授楊紅霞教授指出:「以超低資源實現基礎模型訓練,加上高效模型融合,可助全球學術人員投入GenAI研究,匯聚更多力量創新。」

在技術落地層面,理大團隊已取得多領域實質進展。醫療領域中,團隊訓練出性能領先的醫療基礎大模型,並研發專屬「癌症GenAI—— 在同規模模型中性能最佳,可快速積累高質量醫療數據、直接對接醫療設備,用於癌症個性化治療規劃,目前正聯合復旦大學附屬華山醫院、中山大學腫瘤防治中心、山東省腫瘤醫院及香港伊利沙伯醫院推動合作與臨床落地。此外,團隊在智能體AIAgentic AI)領域亦有突破,該技術可作為研究生學術助手協助論文撰寫與審閱,同時作為多模態專利檢索引擎為創新研發提供高效支持。

理大高級副校長(研究及創新)趙汝恒教授表示:「人工智能是加速培育新質生產力的核心,理大新成立的PAAI致力加速人工智能技術在各個重點領域的深度融合,並針對不同行業開發具備專業領域知識的人工智能模型。此舉不但能鞏固理大在相關領域的領先地位,更將助力推動香港成為全球生成式人工智能發展的樞紐。

楊紅霞教授領導的研究項目分別獲得研究資助局「2025/26年度主題研究計」、香港特區政府創新科技署「產學研1+計劃」及數碼港「人工智能資助計劃」資助,標誌香港在全球AI創新領域邁出堅實步伐,為AI技術普惠化與產業落地注入新動能。

 

1InfiR2: A Comprehensive FP8 Training Recipe for Reasoning-Enhanced Language Models,  https://arxiv.org/html/2509.22536v3

2InfiMed: Low-Resource Medical MLLMs with Advancing Understanding and Reasoning, https://arxiv.org/html/2505.23867

3InfiAgent: Self-Evolving Pyramid Agent Framework for Infinite Scenarios, https://arxiv.org/html/2509.22502

4InfiGFusion: Graph-on-Logits Distillation via Efficient Gromov-Wasserstein for Model Fusion, https://arxiv.org/html/2505.13893

5InfiFPO: Implicit Model Fusion via Preference Optimization in Large Language Models, https://arxiv.org/abs/2505.13878

6Model Merging Scaling Laws in Large Language Models, https://arxiv.org/html/2509.24244

 

******


詳情查詢

鄭秀賢女士

公共事務副經理

詳情查詢

呂文蕙女士

公共事務高級經理

您的瀏覽器不是最新版本。如果繼續瀏覽本網站,部分頁面未必能夠正常運作。

建議您更新至最新版本或選用其他瀏覽器。您可以按此連結查看其他相容的瀏覽器。