編者按:本文來(lái)自微信公眾號(hào) 新智元(ID:AI_era),創(chuàng)業(yè)邦經(jīng)授權(quán)轉(zhuǎn)載,頭圖來(lái)源攝圖網(wǎng)
上次是周受資,這次,輪到了Sam Altman。
不過(guò)這一次,國(guó)會(huì)議員對(duì)他的態(tài)度截然不同——友好,耐心,做足了功課,虛心請(qǐng)教。
北京時(shí)間昨晚,OpenAI CEO Sam Altman在美國(guó)參議院就AI技術(shù)的潛在危險(xiǎn)作證,并敦促立法者對(duì)制造先進(jìn)AI的組織實(shí)施許可要求和其他法規(guī)。

Sam Altman不用接受刁鉆的問(wèn)話,他坐在席位上游刃有余、侃侃而談,再次向世界證明:作為全世界最受矚目的初創(chuàng)公司CEO,他在書寫著科技世界的規(guī)則和未來(lái)。
面對(duì)美國(guó)國(guó)會(huì),Sam Altman再次斬釘截鐵地保證:在未來(lái)六個(gè)月內(nèi),OpenAI堅(jiān)決不會(huì)訓(xùn)練GPT-5。
同時(shí), 他也對(duì)全世界發(fā)出警告:AI有可能會(huì)對(duì)世界有害,為了應(yīng)對(duì)日益強(qiáng)大的AI風(fēng)險(xiǎn),我們需要加強(qiáng)監(jiān)管和立法,而政府的干預(yù)極為重要。
為啥Altman對(duì)政府監(jiān)管如此積極呢?
顯然,只要成為規(guī)則制定者,就能在競(jìng)爭(zhēng)中贏者通吃。
而對(duì)于在硅谷靠著「社?!箤傩躁J出一片天地的Altman,和政府打交道,簡(jiǎn)直輕松得如同探囊取物。
用AI生成的開(kāi)場(chǎng)演講
作為科技界異軍突起的新力量,OpenAI在成立8年后,在今年以迅雷不及掩耳之勢(shì)攪動(dòng)了全世界,逼得所有科技公司都參與進(jìn)了一場(chǎng)以ChatGPT為起點(diǎn)的全球內(nèi)卷。
這場(chǎng)全球AI軍備競(jìng)賽,讓不少專家警鈴大作。
不過(guò)這次聽(tīng)證會(huì),參議院的議員們并沒(méi)有批評(píng)OpenAI的技術(shù)帶來(lái)的混亂,而是謙遜地就ChatGPT的潛在規(guī)則征求了證人們的意見(jiàn),對(duì)Sam Atlman的態(tài)度是肉眼可見(jiàn)的友好和尊敬。

聽(tīng)證會(huì)一開(kāi)始,參議員Richard Blumenthal使用了聲音克隆軟件復(fù)制自己的音色,讓ChatGPT寫了一段開(kāi)場(chǎng)白,使用數(shù)小時(shí)的演講訓(xùn)練了一個(gè)文本到語(yǔ)音生成器。
此舉證明,國(guó)會(huì)「擁抱AI」的態(tài)度旗幟鮮明。
AI危險(xiǎn),請(qǐng)監(jiān)管我們
這一場(chǎng)聽(tīng)證會(huì)上,立法者明顯非常興奮,與他們?cè)?jīng)對(duì)小扎和周受資步步緊逼的質(zhì)疑形成了鮮明對(duì)比。
參議員們沒(méi)有喋喋不休地談?wù)撨^(guò)去的錯(cuò)誤,而是對(duì)AI可能帶來(lái)的好處充滿渴望。
而Altman開(kāi)門見(jiàn)山地告訴參議院:AI技術(shù)可能會(huì)出錯(cuò)。

他表示,自己很擔(dān)心人工智能行業(yè)對(duì)世界造成重大傷害(cause significant harm to the world)。
「如果AI技術(shù)出錯(cuò),造成的后果不堪設(shè)想。我們需要對(duì)此發(fā)聲:我們希望與政府合作,防止這種情況發(fā)生。」
「我們認(rèn)為,政府的監(jiān)管干預(yù)對(duì)于減輕日益強(qiáng)大的AI模型的風(fēng)險(xiǎn),至關(guān)重要。比如,美國(guó)政府可以考慮將許可和測(cè)試的要求結(jié)合起來(lái),以開(kāi)發(fā)和發(fā)布超過(guò)能力閾值的AI模型?!?/p>
Altman表示,自己非常擔(dān)心選舉會(huì)受到AI生成內(nèi)容的影響,因此在這方面需要有足夠的監(jiān)管。
對(duì)此,參議員Dick Durbin表示,大公司來(lái)到參議院「懇求我們的監(jiān)管」,是很了不起的行為。
Altman提出三點(diǎn)方案:
怎么監(jiān)管?Altman早就替政府想好了。
在聽(tīng)證會(huì)上,他提出一個(gè)成體系的方案。
1. 成立一個(gè)新的政府機(jī)構(gòu),負(fù)責(zé)為大型 AI 模型頒發(fā)許可,撤銷不符合標(biāo)準(zhǔn)的模型的許可。
而對(duì)于能力遠(yuǎn)達(dá)不到最先進(jìn)的大模型的技術(shù),他認(rèn)為不需要使用這種許可監(jiān)管制度。國(guó)會(huì)可以「定義能力閾值」,免除小型公司和研究人員可能遇到的監(jiān)管負(fù)擔(dān),鼓勵(lì)創(chuàng)新。
2. 為 AI 模型創(chuàng)建一套安全標(biāo)準(zhǔn),包括對(duì)其危險(xiǎn)能力的評(píng)估。
例如,模型必須通過(guò)安全測(cè)試,比如它們是否可以「自我復(fù)制」和「流出到監(jiān)管之外」。
3. 要求獨(dú)立專家對(duì)模型在各種指標(biāo)上的表現(xiàn)進(jìn)行獨(dú)立審計(jì)。
當(dāng)參議員問(wèn)他是否愿意擔(dān)任這個(gè)角色時(shí),Altman說(shuō):我對(duì)目前的工作感到滿意,不過(guò)他很愿意提供一個(gè)名單供國(guó)會(huì)挑選。
Altman說(shuō),因?yàn)锳I模型可以「說(shuō)服、操縱、影響一個(gè)人的行為、信仰」,甚至「創(chuàng)造新的生物制劑」,因此,非常需要許可。
對(duì)所有超過(guò)一定計(jì)算能力閾值的系統(tǒng)進(jìn)行許可會(huì)更簡(jiǎn)單,但Altman表示,自己更愿意根據(jù)特定能力劃定監(jiān)管線。

那OpenAI自己的模型安不安全呢?
Altman一再表示,大家可以放心。
他說(shuō),GPT-4模型比其他任何類似模型做出的回應(yīng)都會(huì)更有意、更真實(shí),并且一定會(huì)拒絕有害的請(qǐng)求,因?yàn)镚PT-4經(jīng)過(guò)了廣泛的預(yù)發(fā)布測(cè)試和審計(jì)。
「在發(fā)布任何新系統(tǒng)之前,OpenAI 會(huì)進(jìn)行廣泛的測(cè)試,聘請(qǐng)外部專家進(jìn)行詳細(xì)審查和獨(dú)立審計(jì),改進(jìn)模型的行為,并實(shí)施強(qiáng)大的安全和監(jiān)控系統(tǒng)?!?/p>

「在發(fā)布GPT-4之前,我們花了六個(gè)多月的時(shí)間進(jìn)行廣泛的評(píng)估、外部紅隊(duì)和危險(xiǎn)能力測(cè)試?!?/p>
并且在上個(gè)月,ChatGPT的用戶已經(jīng)可以關(guān)閉聊天記錄,防止自己的個(gè)人數(shù)據(jù)被用來(lái)訓(xùn)練AI模型了。
不過(guò)呢,也有眼尖的群眾發(fā)現(xiàn)了「華點(diǎn)」,Altman的提議中,并沒(méi)有涉及到公眾熱議的兩點(diǎn)——
1. 要求AI模型為其訓(xùn)練數(shù)據(jù)公開(kāi)來(lái)源。
2. 禁止AI模型使用受到知識(shí)產(chǎn)權(quán)保護(hù)的作品進(jìn)行訓(xùn)練。
嗯,就是說(shuō),Altman非常巧妙地回避了這兩個(gè)爭(zhēng)議點(diǎn)。
Altman對(duì)于AI安全規(guī)則的提議,議員們大為贊許,并且偶爾會(huì)對(duì)他的證詞表示感謝。參議員R-LA甚至向Altman拋出了橄欖枝,問(wèn)他是否有意在國(guó)會(huì)創(chuàng)建的監(jiān)管機(jī)構(gòu)工作。
國(guó)會(huì)決心監(jiān)管人工智能,早有前兆。本月初,Altman同谷歌、微軟和英偉達(dá)的CEO一同在白宮會(huì)見(jiàn)了副總統(tǒng)Kamala Harris,討論了負(fù)責(zé)任AI的發(fā)展。
而早在去年,白宮就曾提出「人工智能權(quán)利法案」,向業(yè)界提出各種要求,比如防止歧視。
類比原子彈,建議成立類似國(guó)際原子能機(jī)構(gòu)的國(guó)際組織
參議員提出,把AI比作原子彈的說(shuō)法。
而Altman參考世界各國(guó)政府監(jiān)管核武器的做法,提出了組建一個(gè)類似于國(guó)際原子能機(jī)構(gòu)的機(jī)構(gòu),來(lái)為該行業(yè)制定全球規(guī)則的想法。
OpenAI在未來(lái)六個(gè)月內(nèi)不會(huì)訓(xùn)練GPT-5
在4月份Lex Fridman的第2輪訪談中,Sam Altman言之鑿鑿地說(shuō):「我們現(xiàn)在并沒(méi)有訓(xùn)練GPT-5,目前只是在GPT-4的基礎(chǔ)上進(jìn)行更多的工作而已。」

這次聽(tīng)證會(huì)上,Altman更是直接承認(rèn),OpenAI在未來(lái)6個(gè)月內(nèi),沒(méi)有訓(xùn)練可能成為GPT-5的新模型的計(jì)劃。
而這應(yīng)該意味著,谷歌將在今年晚些時(shí)候擁有其迄今為止最強(qiáng)大的人工智能系統(tǒng)——Project Gemini。
據(jù)說(shuō),Gemini專為存儲(chǔ)和調(diào)度等未來(lái)創(chuàng)新而設(shè)計(jì),不僅從一開(kāi)始就是多模態(tài)的,而且在集成工具和API方面效率很高。目前正由新成立的Google Deepmind團(tuán)隊(duì)研發(fā)。
馬庫(kù)斯:OpenAI自稱為了全人類,可數(shù)據(jù)不透明
紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授Gary Marcus也出現(xiàn)在了證人席上。

他的攻擊性甚至比國(guó)會(huì)議員們還要強(qiáng)。
他對(duì)Sam Altman發(fā)出的提問(wèn),可謂「招招致命」。
OpenAI成立的宗旨不是造福全人類么,如今為什么跑去和微軟結(jié)盟?
OpenAI不Open,GPT-4的訓(xùn)練數(shù)據(jù)不透明,到底是幾個(gè)意思?
馬庫(kù)斯總結(jié)道:我們擁有前所未有的機(jī)會(huì),但我們也面臨著企業(yè)不負(fù)責(zé)任、廣泛部署、缺乏適當(dāng)監(jiān)管和不可靠的可怕風(fēng)險(xiǎn)
在馬庫(kù)斯看來(lái),Open和微軟的行事都大有問(wèn)題。
曾經(jīng)微軟的必應(yīng)AI悉尼,表現(xiàn)出了一系列令人震驚的行為。
「悉尼的問(wèn)題很大,如果是我,會(huì)馬上把它從市場(chǎng)上撤下,但微軟并沒(méi)有。」
馬庫(kù)斯表示,這件事給自己敲響了警鐘——即使是像OpenAI這樣的非盈利組織,也可能被大公司買下,然后想做什么就做什么。
但現(xiàn)在,人們的觀點(diǎn)和生活都在潛移默化地被AI塑造和改變,如果有人故意利用AI技術(shù),用于不良的目的呢?
馬庫(kù)斯對(duì)此表示非常擔(dān)心。
「如果讓一種技術(shù)官僚和寡頭政治相結(jié)合,那少數(shù)公司就可以影響人們的信仰,這是真正的風(fēng)險(xiǎn)所在......讓少數(shù)玩家使用我們根本不知道的數(shù)據(jù)來(lái)做到這一點(diǎn),這讓我感到害怕」
Altman表示AI界并不存在壟斷
針對(duì)一些常見(jiàn)的法律監(jiān)管方面的問(wèn)題,看得出來(lái)Altman早就成竹在胸,給各位參議員們安排得明明白白的。
參議員說(shuō),他對(duì)人工智能的「最大擔(dān)憂」之一是「這種大規(guī)模的企業(yè)壟斷」。
他舉了 OpenAI 與科技巨頭微軟的合作為例。
Altman表示,他認(rèn)為能夠制造大模型的企業(yè)數(shù)量相對(duì)較少,反而可能會(huì)更加方便監(jiān)管。
例如,大型的生成式 AI,只有少數(shù)公司能夠制造,但是競(jìng)爭(zhēng)一直是存在的。
給大模型建立法律責(zé)任
美國(guó)國(guó)會(huì) 1996 年通過(guò)的第 230 條促進(jìn)了社交媒體的興起,該條款保護(hù)網(wǎng)站免于對(duì)用戶的帖子承擔(dān)責(zé)任。
Altman認(rèn)為:大模型現(xiàn)在沒(méi)有辦法受到230條的法律保護(hù)。應(yīng)該制定新的法律保護(hù)大模型不會(huì)因?yàn)檩敵鰞?nèi)容而承擔(dān)法律責(zé)任。
巧妙回避最致命的問(wèn)題
奧特曼最初回避了參議員提出的「AI可能造成最嚴(yán)重的后果」。
但在馬庫(kù)斯友好地提醒 Altman 沒(méi)有回答問(wèn)題后,這位參議員重復(fù)了他的問(wèn)題。
Altman最終也沒(méi)有正面回答這個(gè)問(wèn)題。

他說(shuō),OpenAI 曾試圖非常清楚人工智能的風(fēng)險(xiǎn),這可能會(huì)以「很多不同的方式」對(duì)「世界造成重大傷害」。
他再次闡明。應(yīng)對(duì)這個(gè)問(wèn)題就是OpenAI成立的原因?!溉绻@項(xiàng)技術(shù)出了問(wèn)題,它可能會(huì)大錯(cuò)特錯(cuò)?!?/p>
其實(shí),在今年早些時(shí)候接受「StrictlyVC」采訪時(shí),Altman稱人類滅絕是最壞的情況。
最終,就連馬庫(kù)斯似乎也對(duì)奧特曼軟化了。
在聽(tīng)證會(huì)快結(jié)束時(shí),坐在Altman旁邊的馬庫(kù)斯說(shuō),「他在談?wù)摽謶謺r(shí)的誠(chéng)意非常明顯,這種誠(chéng)意在透過(guò)電視屏幕是沒(méi)法感受到的?!?/p>
老練的科技領(lǐng)袖
跟小扎相比,Altman此次聽(tīng)證會(huì)的表現(xiàn)十分老練,想來(lái)他作為社牛,對(duì)與政客們打交道早已游刃有余。畢竟,Altman可是多年前就曾考慮過(guò)競(jìng)選加州州長(zhǎng)的人物。
而Altman背后的OpenAI不但幾乎沒(méi)有受到任何公眾的指責(zé),還是目前AI領(lǐng)域「萬(wàn)物竟發(fā)」局面的最主要開(kāi)創(chuàng)者。
面對(duì)一上來(lái)就示好,呼吁對(duì)AI進(jìn)行監(jiān)管的Altman,這些幾乎都是「技術(shù)素人」的立法者自然在這位「權(quán)威」面前會(huì)顯得溫柔和藹很多。
所以同樣場(chǎng)合之下,Altman身上的壓力與小扎相比完全不是一個(gè)數(shù)量級(jí)。
大模型的商業(yè)模式
有參議院提出這種擔(dān)心,如果像互聯(lián)網(wǎng)社交平臺(tái)一樣,AI產(chǎn)品如果采用廣告為主的商業(yè)模式,會(huì)讓操縱性的產(chǎn)品設(shè)計(jì)和令人上癮的算法被濫用。
Altman說(shuō)自己「非常喜歡」訂閱模式。
但是OpenAI 確實(shí)考慮過(guò)在 ChatGPT 免費(fèi)版中投放廣告來(lái)從其免費(fèi)用戶那里賺錢的可能性。
參考資料:
https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/
https://www.theverge.com/2023/5/16/23726119/congress-ai-hearing-sam-altman-openai
本文為專欄作者授權(quán)創(chuàng)業(yè)邦發(fā)表,版權(quán)歸原作者所有。文章系作者個(gè)人觀點(diǎn),不代表創(chuàng)業(yè)邦立場(chǎng),轉(zhuǎn)載請(qǐng)聯(lián)系原作者。如有任何疑問(wèn),請(qǐng)聯(lián)系editor@cyzone.cn。







