中國報告大廳網訊,在今日於北京舉行的智源大會上,北京智源人工智慧研究院正式推出"悟界"系列大模型,標誌著我國在物理AGI領域取得突破性進展。該系列涵蓋多模態理解、腦科學融合、具身智能與微觀生命模擬四大維度,通過構建更接近人類認知的AI系統,為通用人工智慧發展提供了全新技術路徑。
中國報告大廳發布的《2025-2030年全球及中國模型行業市場現狀調研及發展前景分析報告》指出,世界模型是讓AI以人類方式感知並推理物理世界的數字基座。其核心在於將多模態信息(文本/圖像/視頻)轉化為統一表徵空間,使機器能夠像人腦般抽象現實規律。這種技術突破正在重塑智能駕駛、教育等領域的交互邏輯——例如在自動駕駛中,世界模型已從簡單環境感知升級為理解交通規則與物理運動的虛擬推演系統。
全球首個原生多模態世界模型"悟界·Emu3"於2024年10月率先突破技術瓶頸。通過創新視覺編碼器將圖像解構為離散符號序列,該模型首次實現文本、視頻等異質信息的端到端自回歸生成。其核心價值在於:無需依賴擴散模型或組合架構,在單一框架內完成跨模態理解與創作。這種統一性使其在智能客服、虛擬教學等領域展現出更自然的人機互動能力。
"悟界·見微Brainμ"作為首個融合腦科學的多模態模型,將神經元活動模式引入AI訓練體系。通過模擬人類大腦處理信息的方式,該模型在醫療診斷場景中展現出對醫學影像與臨床文本的協同解析能力,為疾病預測提供了更接近生物智能的決策支持。
升級版RoboBrain 2.0標誌著具身智能的關鍵躍進。通過強化環境交互學習,該模型使機器人具備動態規劃路徑、操作複雜器械等高階能力。其技術底層採用全場景世界建模,可實時更新對物理空間的認知狀態,顯著提升了服務型機器人的自主決策效率。
"OpenComplex2"以原子級精度模擬生命體系運行規律,在藥物研發領域實現突破性進展。該模型通過構建蛋白質摺疊的動態預測系統,將新藥篩選周期縮短40%,為生物醫藥行業帶來革命性工具。
總結:本次發布的悟界系列大模型,不僅展現了我國在AGI核心技術上的自主創新能力,更揭示了人工智慧發展的新方向——從單一任務處理向多模態、跨領域認知演進。當前技術仍在算力成本與數據質量上面臨挑戰,但其構建的物理世界數字映射能力,已為自動駕駛、醫療診斷等場景提供了更具潛力的解決方案。隨著模型持續疊代,人類距離實現真正具備常識推理與環境適應能力的通用人工智慧又近了一步。