科研中的碳排放
用特定類型的“神經架構搜索”(NAS)方法訓練一種語言模型將產生284噸二氧化碳,進行一次基因組組裝就可能產生15千克的碳排放,一座天文臺在使用期限內將產生2000萬噸二氧化碳。
在GRAND為期五年的原型階段期間,數據傳輸將排放470噸二氧化碳,大約相當于270次從巴黎到敦煌航班的碳排放,每年通過飛機運輸四次硬件的碳排放量比在線傳輸數據要少幾個數量級。
“技術進步依賴于科學,我們不能因噎廢食。如果因為科研要減排而減少科研方面的能源投入,那肯定是不行的。我們不減少能源投入,但可以減少碳排放?!?br />
(本文首發于2022年12月1日《南方周末》)
責任編輯:曹海東
大數據時代,科研人員需要頻繁處理海量數據,而這離不開具有強大算力的計算機和大型數據中心。
科學研究是“昂貴”的。
這不僅說的是科學研究耗費高昂,而且也指向科學研究對地球生態潛在的負面影響——科研本身就會產生大量碳排放。
南方周末記者檢索相關論文發現,自然語言處理、生物科學研究、天文學研究等領域的碳排放問題正在引起科研人員的注意。最直觀的例子是大型計算機,天體物理、人工智能等研究領域都依賴大型計算機對海量的數據進行加工處理,而大型計算機的運行過程將產生大量的碳排放。
與工業生產、交通物流、房地產建筑等碳排放“大戶”相比,科學研究不是高耗能的領域,不過,有學者呼吁,科學界應當采取措施,盡可能地減少研究過程中的溫室氣體排放。
碳中和領域專家、《碳中和時代》一書作者汪軍向南方周末記者表示,減碳并非科學家的首要工作,但可以通過逐漸提升電力的綠色化等方式來減排,“不過這屬于能源等其他部門的工作,不應該因此而占據科學家的精力”。
研究設施碳排放
大數據時代,科研人員需要頻繁處理海量數據,而這離不開具有強大算力的計算機和大型數據中心。
例如在計算機研究的自然語言處理領域,2019年發表的一項研究發現,自2017年以來,大型語言模型的能源消耗和碳排放一直呈爆炸式增長。語言模型是自然語言處理研究中重要的一環,機器翻譯、聊天機器人等技術都與語言模型有關。
研究顯示,使用特定類型的“神經架構搜索”(NAS)方法訓練一種語言模型將產生284噸二氧化碳,大約相當于五輛普通美國汽車在使用壽命內的全部碳排放(美國汽車使用壽命平均約為12.1年)。
上述研究發布于第五十七屆國際計算語言學年會,南方周末記者檢索發現,這篇文章已經引起了許多研究人員的重視,截至2022年11月11日,谷歌學術顯示,該論文已被引用大約1700次。
香港中文大學(深圳)理工學院副教授趙俊華多年來從事電力系統和能源經濟方面的研究,他以人工智能研究為例向南方周末記者指出,研究者需要大量地應用顯卡和GPU(關于圖像和圖形相關運算工作的微處理器)進行數據訓練,從而產生能耗。
這些數據任務通過云計算的方式在大型數據中心中進行。數據中心的主要功能是進行
登錄后獲取更多權限
網絡編輯:蓁蓁