近日,阿里巴巴聯合上海人工智能實驗室發布了一份長達70頁的報告,主題為《智能時代做負責任的技術》。該報告圍繞“守己、利他、合作”三大核心原則,系統闡述了在云+AI戰略背景下,負責任人工智能的發展實踐與治理路徑,展現了科技企業在推動AI安全、普惠與協同發展方面的積極行動與責任擔當。
在“守己”方面,阿里巴巴構建了一套全生命周期的AI安全體系,強調評測牽引與內外兼備的防護策略。通過內生安全機制,使安全成為模型的本能,從預訓練到強化學習等多個階段塑造模型的安全行為。同時,搭配外層護欄實現實時風險攔截,并依托數字水印、AI生成內容檢測等工具,有效防范盜用與濫用。阿里巴巴還打造了安全可信的云上大模型服務,針對Agent爆發帶來的記憶投毒、權限混亂等特有安全挑戰,提供了針對性的解決方案,筑牢了AI技術的可信底座。
在“利他”維度上,阿里巴巴積極推動技術普惠,通過開源開放的方式持續開源Qwen系列大模型,構建了分層的開源生態與AI應用服務體系。這一舉措不僅明確了各主體的責任,還實施了分級分層的風險治理。同時,阿里巴巴立足大模型“全球造、全球用”的本質,推動其全球化發展與跨文化適配,理性評估AI對經濟社會、商業的深層影響,并通過技術優化引導AI發揮正向價值,避免技術濫用,堅守長期價值建設。
在“合作”方向上,阿里巴巴積極聚力政產學研多方協同,與高校共建實驗室、開展科研課題合作,持續發布人工智能治理知識產品,打造知識共享平臺。通過產學聯訓、舉辦賽事等方式,阿里巴巴培育了大量AI安全與治理人才,并積極參與及牽頭國家及國際AI安全標準的制定,推動技管融合與行業共識的形成。這些舉措不僅提升了AI技術的整體安全水平,也為行業的健康發展提供了有力保障。
報告還深入探索了AI治理的前沿方向,提出以技術創新驅動AI安全與性能協同提升的理念,并推出了“Make Safe AI”理念與前沿AI風險管理框架。這一框架旨在推動治理創新,實現多方能力共建,并倡導將AI安全作為全球公共產品,呼吁全球多元主體協同構建安全、向善、可持續的AI發展范式。阿里巴巴的這一系列舉措,為智能時代的AI治理提供了寶貴的中國實踐與方案。















