消息:科技向善 讓AI助力構建人類命運共同體
1月11日,在騰訊主辦的第三屆“千里之行”科技向善年度論壇中,麻省理工學院物理學終身教授、未來生命研究院創始人馬克思·泰格馬克暢談AI技術,呼吁更加廣泛的共同體,才能實現真正惠及人類生活的美好愿景。
AI科技并非都“向善”
泰格馬克演講的題目是《人類的下半場及與科技和平相處》。他說:“美國動畫片中著名的小黃人辛普森說過:生活中所有問題的解決方案盡在酒中,如果我們把‘酒’替代為‘人工智能’的話,仍然是成立的。我們的生命確實得益于AI,向善的科技是否能夠幫助我們去解決生活中的問題呢?”
他說,人工智能AI正在變得越來越強大,可以走路的機器人出現不久,就出現了可以做前后空翻的機器人;10年前我們沒有自動駕駛汽車,但現在有了自動駕駛、自動回收的火箭;還有人臉識別、語音分析、簡單編程,這樣的例子不勝枚舉。
除了象棋和圍棋,AI實際上在其他領域取得了更大的進展,過去幾十年的一些傳統算法,都被機器學習進行了替代。由于技術進步,人工智能可以解決我們非常多的問題,甚至可以拯救人類的生命。
每年道路交通都要發生上百萬例死亡個案,這種境況可以通過AI來進行優化改善,AI可以大幅降低人為錯誤。醫療系統當中同樣如此,現在有很多數據證明,在前列腺癌、肺癌以及眼疾當中,AI做的比人類更好,不光是軟件層面,還有硬件層面,AI可以接入云端,達成更高質量的診斷效果。
然而,泰格馬克說,AI技術不僅能解決問題,也會帶來問題。
一個真實案例是,某金融機構在一分鐘時間內,因為交易失誤導致了4.4億美元憑空消失。更準確地說,這是人們不夠了解、不夠懂AI導致的一個結果。
AI“向善”如何保證?
有的悲劇,因為不懂AI而發生,而另一些傷害,則是惡意應用AI而造成,比如說偽造與欺詐。這時,如何做才能保持AI的積極層面而杜絕它的負面效應呢?
首先,必須要劃清界限,把技術分成可接受和不可接受的AI應用。界限由何而定?文化、道德、法律、國際公約,這方面基因編輯技術的案例已經提供了很好的借鑒。
其次,人類需要將AI調整到非常好的、積極的、正面的方向。AI的管理和管控是全球性挑戰,因為技術沒有邊界,沒有國界,各個國家也不可能自己關門作戰。
泰格馬克認為,中國在這方面實際上就扮演了非常重要的角色。這不僅僅因為中國實力日益強大,更因為中國有著長期思維的戰略部署,擁有著久遠的歷史和文化積淀。要知道,中國是一個有著5000年文明的古老國家,在國外講長期規劃,大家都會笑,可如果說中國去籌劃高鐵項目,大家就會關注長期的愿景和規劃。
“這是一種智慧,這是一種全世界應該向中國學習或從中受益的一種智慧。所以在發展AI人類命運共同體的時候,我們必須要劃清界限、錨定方向”。
向善愿景,需構建人類命運共同體
我們呼吁共同的、共享的、共有的全人類積極愿景。1975年的阿西洛馬大會出臺了阿西洛馬人工智能原則,隨著技術的發展,這些原則得到了進一步的拓寬和演進,很多大企業都制定了自身向善的原則。所以一項技術啟用前,必須劃清界限,技術到底是向善的,還是向惡的,我們希望技術帶來解藥,而不是武器。
隨著技術和科學的日益強大,我們發現只從錯誤中學習,已經遠遠不夠。在過于強大的技術面前,要主動出擊,而非坐以待斃,有人說,這是危言聳聽,其實在麻省理工的字眼當中,這叫安防工程。
如果一項工作,機器比人類做的更好、更便宜,我們是應該自鳴得意,放任機器把人汰掉,還是謹慎樂觀,留有后手?就算最后能夠建立超級智能,這個超級智能也一定要普及、惠及所有人類,而不只是讓一小部分人受惠。
他呼吁,要真正實現人工智能的技術向善,與人類的和諧共存,不僅僅是技術應用層面的問題,應該建立更廣、更遠大的目標,劃清界限,這需要的是全球、全人類共有的一個積極愿景。
責任編輯:孫知兵
免責聲明:本文僅代表作者個人觀點,與太平洋財富網無關。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。
如有問題,請聯系我們!