AI蘊藏萬億價值,防范風險迫在眉睫
在現(xiàn)場,北京智源研究院創(chuàng)始理事長張宏江向聽眾展示了一段由OpenAI旗下Sora生成的視頻——汽車快撞山時會往左拐,避開懸崖會往右拐。這段視頻由一段文字生成,沒有使用3D模型加持,卻顯得如此逼真。不僅如此,張宏江展示的另一段由多模態(tài)大模型生成的視頻,還能判斷指出某段視頻是由AI生成的,理由是櫻花和下雪天不可能發(fā)生,且自然的雪不可能下得如此均勻。
“未來的多模態(tài)大模型一定不止于進行視頻的生成和剪輯,不止于生成電影或者電視劇,更重要的是可以用來做機器的大腦,用來識別外圍的世界,用于自動駕駛,將今天的信息系統(tǒng)、模型系統(tǒng)應(yīng)用到未來的行動系統(tǒng)。”張宏江說。
張宏江認為,大模型會重寫所有的應(yīng)用。模型的能力一兩年提升一代,訓(xùn)練成本每18個月變成之前的四分之一,新摩爾定律將帶來大模型快速的普及。生產(chǎn)AI芯片的英偉達的股票在過去12個月突飛猛漲,成為世界前三最有價值的公司。芯片的需求會帶動數(shù)據(jù)中心,整個大模型產(chǎn)業(yè)鏈正在快速地發(fā)展成長起來。
采埃孚集團提供電動車和智能車的系統(tǒng),其董事會主席、首席執(zhí)行官柯皓哲在現(xiàn)場介紹,AI已經(jīng)在改變著他們的工作方式、工程師編碼軟件方式、優(yōu)化產(chǎn)品和流程的方式。他們用AI測量電動車發(fā)動機的轉(zhuǎn)速,訓(xùn)練自動駕駛系統(tǒng)。過去幾周,還向全球16萬名員工提供了微軟的Copilot功能,用于寫東西、做產(chǎn)品。
麥肯錫公司全球總裁鮑勃·斯騰菲爾斯指出,AI技術(shù)如果應(yīng)用于63個主要領(lǐng)域,預(yù)計將創(chuàng)造2.6萬-3.4萬億美元的價值,主要集中在制造、市場營銷、軟件工程、研發(fā)等四個領(lǐng)域。而基于AI技術(shù),到2030年美國預(yù)計有30%的工作都可以實現(xiàn)自動化,這意味著大概有1200萬份工作需要轉(zhuǎn)型,其中不乏高收入工作。
香港中文大學(深圳)前海國際事務(wù)研究院院長鄭永年表示,對于AI技術(shù),歐盟缺少大型本土互聯(lián)網(wǎng)公司,所以是規(guī)制導(dǎo)向。而目前為止,美國是AI領(lǐng)域規(guī)制最少的國家。新加坡、越南也主張利用AI為經(jīng)濟發(fā)展服務(wù),所謂“全國開放、有效管理”模式。但鄭永年提醒,發(fā)展AI與治理規(guī)制還是應(yīng)該同時發(fā)展。
Verimag實驗室創(chuàng)始人、2007年圖靈獎得主約瑟夫·希發(fā)基思表示,對于AI的終極目標,一種觀點認為應(yīng)該構(gòu)建超越人類思維能力,在醫(yī)療保健、金融、交通運輸和制造業(yè)等領(lǐng)域做出有效決策的超級智能代理。另一種觀點則認為,應(yīng)當構(gòu)建具有人類水平智能的機器,替代人類工作,如自動駕駛汽車、智能工廠等等。
約瑟夫·希發(fā)基思說,人工智能本身既不是好的,也不是壞的,關(guān)鍵在于明智地進行使用,通過規(guī)范來預(yù)防風險。此外,如果不能確保系統(tǒng)是以公正、中立的方式使用可靠信息,則不要將決策權(quán)交給系統(tǒng)。需要考慮,技術(shù)的進步和創(chuàng)新是不是意味著人類技能的喪失?如果人類變得越來越懶惰,將是糟糕的前景。
“AI的本質(zhì),實際上來源于我們所有人,來源于你們在網(wǎng)上分享的思想。它能夠自我完善,甚至以光速的速度來自我完善。”福特斯克金屬集團執(zhí)行董事長安德魯·福瑞斯特指出,人類的DNA可能幾十年甚至幾百年才能夠有一些改善,而AI能夠以光速不斷完善。如果不加以監(jiān)管,人類的智力絕對會被超過。
張宏江也發(fā)出警告,未來通用人工智能的發(fā)展可能產(chǎn)生一些風險,甚至導(dǎo)致人類滅絕。如果以GPT-4.0作為一個節(jié)點,AI的智力IQ跟人類的平均IQ已經(jīng)比較相近了。再往下走,或許不再是虛假信息或是消滅一些工作,而是奇點的來臨。
清華大學智能產(chǎn)業(yè)研究院院長、中國工程院院士張亞勤建議,將所有數(shù)字智能體進行AI標識;機器人必須映射到個人或者公司等法定實體,可以追責;對大模型建立監(jiān)管的分級體制;各方將10%的研究經(jīng)費投入大模型風險研究;此外,全球各國需要將人工智能和氣候、疫情、核武器作為同樣的社會風險來對待。
張宏江介紹,前段時間,數(shù)十位AI領(lǐng)域的頂級中外
專家在華簽署了《北京AI安全國際共識》,畫出幾條基本紅線:禁止AI自主復(fù)制或者改進;禁止AI尋求權(quán)力;禁止使用AI協(xié)助武器,尤其是大規(guī)模殺傷性武器或者生化武器的研制;禁止AI欺騙。而要做到這些,需要全球政府和從事AI研發(fā)的企業(yè)共同推動。
內(nèi).容.來.自:中`國*碳-排*放*交*易^網(wǎng) t a npai fa ng.com
【版權(quán)聲明】本網(wǎng)為公益類網(wǎng)站,本網(wǎng)站刊載的所有內(nèi)容,均已署名來源和作者,僅供訪問者個人學習、研究或欣賞之用,如有侵權(quán)請權(quán)利人予以告知,本站將立即做刪除處理(QQ:51999076)。