在近日《印度快報》主辦的一場活動中,OpenAI首席執(zhí)行官薩姆·奧爾特曼針對外界對人工智能環(huán)境影響的質(zhì)疑作出回應。他特別澄清,所謂“每次使用ChatGPT提問消耗17加侖水”的說法毫無事實依據(jù),并強調(diào)數(shù)據(jù)中心已淘汰蒸發(fā)冷卻技術,相關傳言與現(xiàn)實嚴重脫節(jié)。
奧爾特曼此次專程赴印參加國際人工智能峰會,期間多次被問及能源消耗問題。他承認,早期數(shù)據(jù)中心采用蒸發(fā)冷卻技術時確實存在用水問題,但該技術已被更高效的方案取代。針對主持人援引的“單次提問能耗相當于1.5部iPhone電量”的說法,他直言:"這個數(shù)字被嚴重夸大,實際能耗遠低于此。"
當被問及如何看待人工智能與人類能耗對比時,奧爾特曼提出全新視角。他指出,當前更應關注全球AI規(guī)模化應用帶來的總能耗,而非單次交互的能源消耗。"人類需要20年成長,消耗大量食物和資源才能具備回答問題能力,而AI訓練完成后每次推理的能耗可能已接近人類水平。"他以人類文明演進為例,強調(diào)培養(yǎng)智能體本身就需要巨大能量投入。
這場討論折射出科技行業(yè)面臨的透明度困境。由于缺乏強制披露要求,學術界只能通過獨立研究估算數(shù)據(jù)中心能耗。有研究顯示,全球AI訓練產(chǎn)生的碳排放量已與某些國家全年排放量相當,這引發(fā)了關于技術發(fā)展可持續(xù)性的激烈爭論。奧爾特曼借此呼吁加快能源結(jié)構(gòu)轉(zhuǎn)型:"我們需要更多核能、風能和太陽能來支撐未來計算需求。"
針對訓練階段與推理階段的能耗混淆問題,奧爾特曼認為這種比較有失公允。"就像不能拿造火箭的能耗去衡量單次發(fā)射成本,AI訓練是固定投入,而推理才是持續(xù)消耗。"他透露OpenAI正在優(yōu)化模型效率,未來將通過硬件升級和算法改進進一步降低能耗。這場對話揭示出,在人工智能快速發(fā)展的當下,建立科學的能耗評估體系已成為行業(yè)亟待解決的重要課題。















