精華熱點(diǎn) 一、互聯(lián)網(wǎng)上的惡意、謾罵以及其它非瑣碎、足以改變世界的意見(jiàn)不合...
人工智能既性感又酷炫。它在加深不平等、顛覆就業(yè)市場(chǎng)并破壞教育體系。人工智能像是主題公園的游樂(lè)設(shè)施,又好像是魔術(shù)戲法。它是我們的終極發(fā)明,也是道德責(zé)任的體現(xiàn)。人工智能是這十年的流行語(yǔ),也是源自 1955 年的營(yíng)銷術(shù)語(yǔ)。人工智能類人,又似異星來(lái)客;它超級(jí)智能卻也愚不可及。人工智能熱潮將推動(dòng)經(jīng)濟(jì)發(fā)展,而其泡沫似乎也將一觸即發(fā)。人工智能將增加富足,賦能人類在宇宙中最大限度地繁榮發(fā)展,卻又預(yù)示著我們的末日。

(來(lái)源:MIT TR)
大家都在談?wù)撔┦裁茨兀?/span>
人工智能是我們時(shí)代最炙手可熱的技術(shù)。但它究竟是什么?這聽(tīng)起來(lái)像是一個(gè)愚蠢的問(wèn)題,但從未像現(xiàn)在這樣緊迫。簡(jiǎn)而言之,人工智能是一系列技術(shù)的總稱,這些技術(shù)使計(jì)算機(jī)能夠完成那些當(dāng)人類執(zhí)行時(shí)被認(rèn)為需要智慧的任務(wù)。想想面部識(shí)別、語(yǔ)音理解、駕駛汽車、寫作句子、回答問(wèn)題、創(chuàng)作圖像等。但即便這樣的定義也包含多重含義。
而這正是問(wèn)題所在。讓機(jī)器“理解”語(yǔ)音或“書(shū)寫”句子意味著什么?我們能要求這類機(jī)器完成哪些任務(wù)?我們又該對(duì)它們的執(zhí)行能力給予多大信任?
隨著這項(xiàng)技術(shù)從原型快速轉(zhuǎn)化為產(chǎn)品,這些問(wèn)題已成為我們所有人的議題。但(劇透警告?。┪也](méi)有答案。甚至無(wú)法確切告訴你人工智能是什么。制造它的人也不真正知道。Anthropic 人工智能實(shí)驗(yàn)室位于舊金山的首席科學(xué)家 Chris Olah 表示:“這些都是重要的問(wèn)題,以至于每個(gè)人都覺(jué)得自己可以有意見(jiàn)。同時(shí),我認(rèn)為你可以對(duì)此爭(zhēng)論不休,而目前沒(méi)有任何證據(jù)會(huì)反駁你?!?/span>
但如果你愿意坐穩(wěn)并加入這場(chǎng)探索之旅,我可以告訴你為何無(wú)人真正知曉,為何大家看似各執(zhí)一詞,以及你為何應(yīng)當(dāng)關(guān)注這一切。
讓我們從一個(gè)隨口的玩笑開(kāi)始...
回溯至 2022 年,在《神秘 AI 炒作劇場(chǎng) 3000》這一檔略顯掃興的播客首集的中途——該播客由易怒的聯(lián)合主持人 Alex Hanna 和 Emily Bender 主持,他們樂(lè)此不疲地用“最鋒利的針”刺向硅谷一些最被吹捧的神圣不可侵犯的事物中——他們提出了一個(gè)荒謬的建議。當(dāng)時(shí),他們正在大聲朗讀 Google 工程副總裁 Blaise Agüera y Arcas 在 Medium 上發(fā)表的一篇長(zhǎng)達(dá) 12,500 字的文章,題為《機(jī)器能學(xué)會(huì)如何表現(xiàn)嗎?》。Agüera y Arcas 認(rèn)為,人工智能能夠以某種與人類相似的方式理解概念——比如道德價(jià)值觀這樣的概念,從而暗示機(jī)器或許能夠被教導(dǎo)如何表現(xiàn)。

(來(lái)源:MIT TR)
然而,Hanna 和 Bender 并不買賬。他們決定將“AI”一詞替換為“數(shù)學(xué)魔法”——就是大量且復(fù)雜的數(shù)學(xué)運(yùn)算。
這個(gè)不敬的表達(dá)旨在戳破他們認(rèn)為存在于引述句中的夸張和擬人化描述。很快,身為分布式人工智能研究機(jī)構(gòu)的研究主任及社會(huì)學(xué)家的 Hanna,以及華盛頓大學(xué)計(jì)算語(yǔ)言學(xué)家、因批評(píng)科技行業(yè)夸大其詞而在網(wǎng)絡(luò)上聲名鵲起的 Bender,就在 Agüera y Arcas 想要傳達(dá)的信息與其選擇聽(tīng)取的內(nèi)容之間劃開(kāi)了一道鴻溝。
Agüera y Arcas 問(wèn)道:“AI、其創(chuàng)造者及使用者應(yīng)如何在道德上承擔(dān)責(zé)任?”
Bender 則反問(wèn):“數(shù)學(xué)魔法應(yīng)如何在道德上承擔(dān)責(zé)任?”
她指出:“這里存在分類錯(cuò)誤?!盚anna 和 Bender 不只是反對(duì) Agüera y Arcas 的觀點(diǎn),他們認(rèn)為這種說(shuō)法毫無(wú)意義?!拔覀兡芊裢V故褂谩粋€(gè)人工智能’或‘人工智能們’這樣的表述,好像它們是世界上的個(gè)體一樣?”Bender 說(shuō)。
這聽(tīng)起來(lái)仿佛他們?cè)谟懻撏耆煌氖挛?,但?shí)際上并非如此。雙方討論的都是當(dāng)前人工智能熱潮背后的技術(shù)——大型語(yǔ)言模型。只是關(guān)于人工智能的討論方式比以往任何時(shí)候都更加兩極分化。同年 5 月,OpenAI 的 CEO Sam Altman 在預(yù)告其公司旗艦?zāi)P?GPT-4 的最新更新時(shí),在推特上寫道:“對(duì)我來(lái)說(shuō),這感覺(jué)就像魔法?!?/span>
從數(shù)學(xué)到魔法之間,存在著一條漫長(zhǎng)的道路。
人工智能擁有信徒,他們對(duì)技術(shù)當(dāng)前的力量和不可避免的未來(lái)進(jìn)步抱有信仰般的信念。他們宣稱,通用人工智能已近在眼前,超級(jí)智能緊隨其后。同時(shí),也有異見(jiàn)者對(duì)此嗤之以鼻,認(rèn)為這些都是神秘主義的胡言亂語(yǔ)。
流行的、充滿話題性的敘述受到一系列大人物的影響,從 Sundar Pichai 和 Satya Nadella 這樣的大型科技公司首席營(yíng)銷官,到 Elon Musk 和 Altman 這樣的行業(yè)邊緣玩家,再到 Geoffrey Hinton 這樣的明星計(jì)算機(jī)科學(xué)家。有時(shí),這些鼓吹者和悲觀論者是同一批人,告訴我們這項(xiàng)技術(shù)好到令人擔(dān)憂的地步。
隨著人工智能的炒作不斷膨脹,一個(gè)直言不諱的反炒作陣營(yíng)也應(yīng)運(yùn)而生,時(shí)刻準(zhǔn)備著擊破那些雄心勃勃、往往過(guò)于離譜的聲明。在這個(gè)方向上努力的,包括 Hanna 和 Bender 在內(nèi)的一大群研究者,還有諸如前谷歌員工、有影響力的計(jì)算機(jī)科學(xué)家 Timnit Gebru 和紐約大學(xué)認(rèn)知科學(xué)家 Gary Marcus 這樣的行業(yè)批評(píng)者。他們每個(gè)人都有眾多追隨者,在評(píng)論中爭(zhēng)吵不休。
簡(jiǎn)而言之,人工智能已經(jīng)成為所有人眼中無(wú)所不能的存在,將領(lǐng)域分割成一個(gè)個(gè)粉絲群體。不同陣營(yíng)之間的交流似乎常常驢唇不對(duì)馬嘴,而且并不總是出于善意。
也許你覺(jué)得這一切都很愚蠢或煩人。但鑒于這些技術(shù)的力量和復(fù)雜性——它們已被用于決定我們的保險(xiǎn)費(fèi)用、信息檢索方式、工作方式等等——至少就我們正在討論的內(nèi)容達(dá)成共識(shí)已經(jīng)刻不容緩。
然而,在我與處于這項(xiàng)技術(shù)前沿的人們的諸多對(duì)話中,沒(méi)有人直接回答他們究竟在構(gòu)建什么。(旁注:本文主要聚焦于美國(guó)和歐洲的人工智能辯論,很大程度上是因?yàn)樵S多資金最充裕、最先進(jìn)的 AI 實(shí)驗(yàn)室都位于這些地區(qū)。當(dāng)然,其他國(guó)家也在進(jìn)行重要的研究,尤其是中國(guó),他們對(duì)人工智能有著各自不同的看法。)部分原因在于技術(shù)發(fā)展的速度,但科學(xué)本身也非常開(kāi)放。如今的大型語(yǔ)言模型能夠完成令人驚嘆的事情,從解決高中數(shù)學(xué)問(wèn)題到編寫計(jì)算機(jī)代碼,再到通過(guò)法律考試乃至創(chuàng)作詩(shī)歌。當(dāng)人做這些事情時(shí),我們認(rèn)為這是智慧的標(biāo)志。那么,當(dāng)計(jì)算機(jī)做到這些時(shí)呢?表象上的智慧是否足夠?
這些問(wèn)題觸及了我們所說(shuō)的“人工智能”這一概念的核心,人們實(shí)際上已經(jīng)為此爭(zhēng)論了幾十年。但隨著能夠以或令人驚悚,或令人著迷的真實(shí)模仿我們說(shuō)話和寫作方式的大型語(yǔ)言模型的興起,圍繞 AI 的討論變得更加尖酸刻薄。
我們已經(jīng)制造出了具有類人行為的機(jī)器,卻沒(méi)有擺脫想象機(jī)器背后存在類人思維的習(xí)慣。這導(dǎo)致對(duì)人工智能能力的過(guò)高評(píng)價(jià);它將直覺(jué)反應(yīng)固化為教條式的立場(chǎng),并且加劇了技術(shù)樂(lè)觀主義者與懷疑主義者之間更廣泛的文化戰(zhàn)爭(zhēng)。
在這團(tuán)不確定性的燉菜中,再加上大量的文化負(fù)擔(dān),從我敢打賭許多行業(yè)內(nèi)人士成長(zhǎng)過(guò)程中接觸到的科幻小說(shuō),到更惡劣地影響我們思考未來(lái)的意識(shí)形態(tài)。鑒于這種令人陶醉的混合體,關(guān)于人工智能的爭(zhēng)論不再僅僅是學(xué)術(shù)性的(或許從來(lái)都不是)。人工智能點(diǎn)燃了人們的激情,使得成年人互相指責(zé)。

(來(lái)源:MIT TR)
“目前這場(chǎng)辯論并不處于一個(gè)智力健康的狀態(tài),”Marcus 這樣評(píng)價(jià)道。多年來(lái),Marcus 一直在指出深度學(xué)習(xí)的缺陷和局限性,正是這項(xiàng)技術(shù)將人工智能推向主流,支撐著從大型語(yǔ)言模型到圖像識(shí)別,再到自動(dòng)駕駛汽車的一切應(yīng)用。他在 2001 年出版的《代數(shù)思維》一書(shū)中提出,作為深度學(xué)習(xí)基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)本身無(wú)法獨(dú)立進(jìn)行推理。(我們暫時(shí)略過(guò)這一點(diǎn),但稍后我會(huì)回來(lái)探討像“推理”這樣的詞匯在一個(gè)句子中的重要性。)
Marcus 表示,他曾試圖與 Hinton 就大型語(yǔ)言模型的實(shí)際能力展開(kāi)一場(chǎng)恰當(dāng)?shù)霓q論,而 Hinton 去年公開(kāi)表達(dá)了對(duì)自己參與發(fā)明的這項(xiàng)技術(shù)的生存恐懼?!八褪遣辉敢膺@么做,”Marcus 說(shuō),“他叫我傻瓜。”(過(guò)去在與 Hinton 談及 Marcus 時(shí),我可以證實(shí)這一點(diǎn)。Hinton 去年曾告訴我:“ChatGPT 顯然比他更了解神經(jīng)網(wǎng)絡(luò)?!保㎝arcus 在他撰寫的一篇名為《深度學(xué)習(xí)正遭遇瓶頸》的文章后也招致了不滿。Altman 在推特上回應(yīng)稱:“給我一個(gè)平庸深度學(xué)習(xí)懷疑論者的自信吧?!?/span>
與此同時(shí),敲響警鐘也讓 Marcus 成為了一個(gè)個(gè)人品牌,并獲得了與 Altman 并肩坐在美國(guó)參議院人工智能監(jiān)督委員會(huì)面前作證的邀請(qǐng)。
而這正是所有這些爭(zhēng)論比普通網(wǎng)絡(luò)惡意更重要的原因。當(dāng)然,這里涉及到巨大的自我和巨額的資金。但更重要的是,當(dāng)行業(yè)領(lǐng)袖和有觀點(diǎn)的科學(xué)家被國(guó)家元首和立法者召集,來(lái)解釋這項(xiàng)技術(shù)是什么以及它能做什么(以及我們應(yīng)該有多害怕)時(shí),這些爭(zhēng)議就顯得尤為重要。當(dāng)這項(xiàng)技術(shù)被嵌入到我們?nèi)粘J褂玫能浖?,從搜索引擎到文字處理?yīng)用程序,再到手機(jī)上的助手,人工智能不會(huì)消失。但如果我們不知道自己購(gòu)買的是什么,誰(shuí)又是那個(gè)受騙者呢?
Stephen Cave 和 Kanta Dihal 在 2023 年出版的論文集《構(gòu)想 AI》中寫道:“很難想象歷史上還有其他技術(shù)能引起這樣的辯論——一場(chǎng)關(guān)于它是否無(wú)處不在,或者根本不存在的辯論。對(duì)人工智能能有這樣的辯論,證明了它的神話特質(zhì)?!?/span>
最重要的是,人工智能是一種觀念、一種理想,它受到世界觀和科幻元素的塑造,就如同數(shù)學(xué)和計(jì)算機(jī)科學(xué)的塑造一樣。當(dāng)我們談?wù)撊斯ぶ悄軙r(shí),弄清楚我們?cè)谡務(wù)撌裁磳⒊吻逶S多事情。我們可能在這些事情上無(wú)法達(dá)成一致,但就人工智能的本質(zhì)達(dá)成共識(shí)將是討論人工智能應(yīng)該成為什么樣子,至少是一個(gè)良好的開(kāi)端。
二、那么,大家到底在爭(zhēng)什么呢?
2022 年末,就在 OpenAI 發(fā)布 ChatGPT 之后不久,一個(gè)新的梗開(kāi)始在網(wǎng)上流傳,這個(gè)梗比任何其他方式都更能捕捉到這項(xiàng)技術(shù)的奇異之處。在多數(shù)版本中,一個(gè)名為“修格斯”的洛夫克拉夫特式怪物——全身觸須和眼球——舉起一個(gè)平淡無(wú)奇的笑臉表情符號(hào),仿佛要掩飾其真實(shí)的本質(zhì)。ChatGPT 在對(duì)話中的措辭表現(xiàn)出類似人類的親和力,但在那友好的表面之下隱藏著難以理解的復(fù)雜性乃至恐怖之處。(正如 H.P. 洛夫克拉夫特在他的 1936 年中篇小說(shuō)《瘋狂山脈》中所寫:“那是一個(gè)可怕得無(wú)法形容的東西,比任何地鐵列車都要龐大——一團(tuán)無(wú)定形的原生質(zhì)泡狀聚合物。”)

(來(lái)源:ANTHRUPAD)
這些爭(zhēng)論核心在于,人工智能不僅是一個(gè)技術(shù)問(wèn)題,它觸及了我們對(duì)自身認(rèn)知、創(chuàng)造力、道德責(zé)任,乃至我們對(duì)未來(lái)的希望和恐懼的根本理解。一方看到的是人工智能帶來(lái)的無(wú)限潛能,是人類智慧的延伸,是解決復(fù)雜問(wèn)題、提高生活質(zhì)量的工具;另一方則擔(dān)憂它可能帶來(lái)的失業(yè)、隱私侵犯、社會(huì)不公,甚至是人類自主性和生存的威脅。ChatGPT 的出現(xiàn),如同那個(gè)舉起笑臉表情的修格斯,象征著人工智能技術(shù)在提供友好交互界面的同時(shí),也隱藏著深刻的社會(huì)、倫理和哲學(xué)挑戰(zhàn)。這場(chǎng)辯論,實(shí)質(zhì)上是關(guān)于我們?nèi)绾谓缍ㄖ悄?、何為人性,以及我們?cè)敢庾尲夹g(shù)在我們的生活中扮演何種角色的深刻反思。
多年來(lái),流行文化中人工智能最著名的參照物之一是《終結(jié)者》,Dihal 提到。但 OpenAI 通過(guò)免費(fèi)上線 ChatGPT,讓數(shù)百萬(wàn)人親身經(jīng)歷了一種截然不同的東西。“人工智能一直是一個(gè)非常模糊的概念,可以無(wú)限擴(kuò)展以包含各種想法,”她說(shuō)。但 ChatGPT 讓這些想法變得具體起來(lái):“突然間,每個(gè)人都有了一個(gè)具體的參照物?!睂?duì)于數(shù)百萬(wàn)人來(lái)說(shuō),人工智能的答案現(xiàn)在變成了:ChatGPT。
人工智能產(chǎn)業(yè)正大力推銷這個(gè)微笑的面孔。想想《每日秀》最近如何通過(guò)行業(yè)領(lǐng)袖的言論來(lái)諷刺這種炒作。硅谷風(fēng)投大佬 Marc Andreessen 說(shuō):“這有可能讓生活變得更好……我覺(jué)得這簡(jiǎn)直就是個(gè)輕松得分的機(jī)會(huì)?!盇ltman 說(shuō):“我不想在這里聽(tīng)起來(lái)像個(gè)烏托邦式的技術(shù)狂人,但人工智能能帶來(lái)的生活質(zhì)量提升是非凡的。”Pichai 說(shuō):“人工智能是人類正在研究的最深遠(yuǎn)的技術(shù)。比火還要深遠(yuǎn)?!?/span>
Jon Stewart 諷刺道:“是啊,火,你吃癟吧!”
但正如這個(gè)梗所示,ChatGPT 是一個(gè)友好的面具。在其背后,是一個(gè)名為 GPT-4 的怪物,這是一個(gè)基于龐大神經(jīng)網(wǎng)絡(luò)的大型語(yǔ)言模型,其攝入的文字量超過(guò)我們大多數(shù)人千輩子閱讀的總量。在持續(xù)數(shù)月、耗資數(shù)千萬(wàn)美元的訓(xùn)練過(guò)程中,這類模型被賦予了填充來(lái)自數(shù)百萬(wàn)本書(shū)籍和互聯(lián)網(wǎng)相當(dāng)大部分內(nèi)容中句子空白的任務(wù)。它們一遍又一遍地執(zhí)行這個(gè)任務(wù)。從某種意義上說(shuō),它們被訓(xùn)練成超級(jí)自動(dòng)補(bǔ)全機(jī)器。結(jié)果是生成了一個(gè)模型,它將世界上大部分書(shū)面信息轉(zhuǎn)換成了一個(gè)統(tǒng)計(jì)表示,即哪些詞最有可能跟隨其他詞出現(xiàn),這一過(guò)程跨越了數(shù)十億計(jì)的數(shù)值。
這確實(shí)是數(shù)學(xué)——大量的數(shù)學(xué)。沒(méi)有人對(duì)此有異議。但問(wèn)題在于,這只是數(shù)學(xué)嗎,還是這種復(fù)雜的數(shù)學(xué)編碼了能夠類似人類推理或概念形成的算法?
許多對(duì)這個(gè)問(wèn)題持肯定態(tài)度的人相信,我們即將解鎖所謂的通用人工智能(AGI),這是一種假設(shè)中的未來(lái)技術(shù),能在多種任務(wù)上達(dá)到人類水平。他們中的一些人甚至將目標(biāo)瞄準(zhǔn)了所謂的超級(jí)智能,即科幻小說(shuō)中那種能遠(yuǎn)超人類表現(xiàn)的技術(shù)。這一群體認(rèn)為 AGI 將極大地改變世界——但目的是什么?這是另一個(gè)緊張點(diǎn)。它可能解決世界上所有問(wèn)題,也可能帶來(lái)世界的末日。

(來(lái)源:X)
如今,AGI 出現(xiàn)在全球頂級(jí) AI 實(shí)驗(yàn)室的使命宣言中。但這個(gè)詞是在 2007 年作為一個(gè)小眾嘗試而創(chuàng)造出來(lái)的,旨在為當(dāng)時(shí)以讀取銀行存款單上的手寫內(nèi)容或推薦下一本購(gòu)書(shū)為主的領(lǐng)域注入一些活力。其初衷是重拾最初設(shè)想的人工智能,即能做類人事務(wù)的人工智能(更多內(nèi)容即將揭曉)。
Google DeepMind 聯(lián)合創(chuàng)始人 Shane Legg,也就是創(chuàng)造了這個(gè)術(shù)語(yǔ)的人,在去年告訴我,這其實(shí)更多是一種愿望:“我沒(méi)有特別清晰的定義。”
AGI 成為了人工智能領(lǐng)域最具爭(zhēng)議的想法。一些人將其炒作為下一個(gè)重大事件:AGI 就是人工智能,但你知道的,要好得多。其他人則聲稱這個(gè)術(shù)語(yǔ)太過(guò)模糊,以至于毫無(wú)意義。
“AGI 曾經(jīng)是個(gè)忌諱的詞,”O(jiān)penAI 前首席科學(xué)家 Ilya Sutskever 在辭職前告訴過(guò)我。
但大型語(yǔ)言模型,特別是 ChatGPT,改變了一切。AGI 從忌諱之詞變成了營(yíng)銷夢(mèng)想。
這就引出了我認(rèn)為目前最具說(shuō)明性的爭(zhēng)議之一——這場(chǎng)爭(zhēng)議設(shè)定了辯論雙方以及其中的利害關(guān)系。
在機(jī)器中看見(jiàn)魔法
在 OpenAI 的大型語(yǔ)言模型 GPT-4 于 2023 年 3 月公開(kāi)發(fā)布前幾個(gè)月,公司與微軟分享了一個(gè)預(yù)發(fā)布版本,微軟希望利用這個(gè)新模型來(lái)改造其搜索引擎 Bing。
那時(shí),Sebastian Bubeck 正在研究 LLMs(大型語(yǔ)言模型)的局限性,并對(duì)它們的能力持一定程度的懷疑態(tài)度。尤其是身為華盛頓州雷德蒙德微軟研究院生成 AI 研究副總裁的 Bubeck,一直在嘗試并未能成功讓這項(xiàng)技術(shù)解決中學(xué)數(shù)學(xué)問(wèn)題。比如:x - y = 0;x 和 y 各是多少?“我認(rèn)為推理是一個(gè)瓶頸,一個(gè)障礙,”他說(shuō),“我原以為你必須做一些根本性不同的事情才能克服這個(gè)障礙。”
然后他接觸到了 GPT-4。他做的第一件事就是嘗試那些數(shù)學(xué)問(wèn)題?!斑@個(gè)模型完美解決了問(wèn)題,”他說(shuō),“坐在 2024 年的現(xiàn)在,當(dāng)然 GPT-4 能解線性方程。但在當(dāng)時(shí),這太瘋狂了。GPT-3 做不到這一點(diǎn)?!?/span>
但 Bubeck 真正的頓悟時(shí)刻來(lái)自于他推動(dòng) GPT-4 去做一些全新的事情。
關(guān)于中學(xué)數(shù)學(xué)問(wèn)題,它們遍布互聯(lián)網(wǎng),GPT-4 可能只是記住了它們?!澳闳绾窝芯恳粋€(gè)可能已經(jīng)看過(guò)人類所寫一切的模型?”Bubeck 問(wèn)道。他的答案是測(cè)試 GPT-4 解決一系列他和他的同事們認(rèn)為是新穎的問(wèn)題。
在與微軟研究院的數(shù)學(xué)家 Ronen Eldan 一起嘗試時(shí),Bubeck 要求 GPT-4 以詩(shī)歌的形式給出證明存在無(wú)限多質(zhì)數(shù)的數(shù)學(xué)證明。
以下是 GPT-4 回應(yīng)的一段:“如果我們?nèi)?S 中未在 P 中的最小數(shù)/并稱之為 p,我們可以將它加入我們的集合,你看不見(jiàn)嗎?/但是這個(gè)過(guò)程可以無(wú)限重復(fù)。/因此,我們的集合 P 也必定是無(wú)限的,你會(huì)同意。”
很有趣,對(duì)吧?但 Bubeck 和 Eldan 認(rèn)為這遠(yuǎn)遠(yuǎn)不止于此?!拔覀?cè)谀莻€(gè)辦公室,”Bubeck 通過(guò) Zoom 指著身后的房間說(shuō),“我們兩個(gè)都從椅子上摔了下來(lái)。我們無(wú)法相信自己所看到的。這太有創(chuàng)意了,如此與眾不同?!?/span>
微軟團(tuán)隊(duì)還讓 GPT-4 生成代碼,在用 Latex(一種文字處理程序)繪制的獨(dú)角獸卡通圖片上添加一只角。Bubeck 認(rèn)為這表明模型能夠閱讀現(xiàn)有的 Latex 代碼,理解其描繪的內(nèi)容,并識(shí)別角應(yīng)該加在哪里。
“有很多例子,但其中一些是推理能力的鐵證,”他說(shuō)——推理能力是人類智能的關(guān)鍵構(gòu)建塊。

(來(lái)源:Bubeck)
Bubeck、Eldan 及微軟的其他研究團(tuán)隊(duì)成員在一篇名為《人工通用智能的火花》的論文中闡述了他們的發(fā)現(xiàn),文中提到:“我們相信,GPT-4 所展示的智能標(biāo)志著計(jì)算機(jī)科學(xué)領(lǐng)域及之外的一次真正范式轉(zhuǎn)變?!盉ubeck 在網(wǎng)上分享該論文時(shí),在推特上寫道:“是時(shí)候面對(duì)現(xiàn)實(shí)了,#AGI 的火花已被點(diǎn)燃。”
這篇《火花》論文迅速變得臭名昭著,同時(shí)也成為 AI 支持者的試金石。Agüera y Arcas 與 Google 前研究總監(jiān)、《人工智能:現(xiàn)代方法》一書(shū)的合著者 Peter Norvig 共同撰寫了一篇文章,題為《人工通用智能已經(jīng)到來(lái)》。該文章發(fā)表在洛杉磯智庫(kù) Berggruen 研究所支持的雜志 Noema 上,其中援引《火花》論文作為出發(fā)點(diǎn),指出:“人工通用智能(AGI)對(duì)不同的人來(lái)說(shuō)意味著許多不同的事物,但它的最重要部分已經(jīng)被當(dāng)前一代的先進(jìn)大型語(yǔ)言模型實(shí)現(xiàn)。幾十年后,它們會(huì)被公認(rèn)為第一批真正的 AGI 實(shí)例?!?/span>
此后,圍繞這一議題的炒作持續(xù)膨脹。當(dāng)時(shí)在 OpenAI 專注于超級(jí)智能研究的 Leopold Aschenbrenner 去年告訴我:“過(guò)去幾年里,AI 的發(fā)展速度異常迅速。我們不斷打破各種基準(zhǔn)測(cè)試記錄,而且這種進(jìn)步勢(shì)頭不減。但這只是個(gè)開(kāi)始,我們將擁有超越人類的模型,比我們更聰明得多的模型。”(他聲稱因提出構(gòu)建技術(shù)的安全性問(wèn)題并“觸怒了一些人”,于今年 4 月被 OpenAI 解雇,并隨后在硅谷成立了投資基金。)
今年 6 月,Aschenbrenner 發(fā)布了一份長(zhǎng)達(dá) 165 頁(yè)的宣言,稱 AI 將在“2025/2026 年”超過(guò)大學(xué)畢業(yè)生,并在本十年末實(shí)現(xiàn)真正意義上的超智能。然而,業(yè)內(nèi)其他人對(duì)此嗤之以鼻。當(dāng) Aschenbrenner 在推特上發(fā)布圖表,展示他預(yù)計(jì) AI 在未來(lái)幾年內(nèi)如何繼續(xù)保持近年來(lái)的快速進(jìn)步速度時(shí),科技投資者 Christian Keil 反駁道,按照同樣的邏輯,他剛出生的兒子如果體重翻倍的速度保持不變,到 10 歲時(shí)將重達(dá) 7.5 萬(wàn)億噸。
因此,“AGI 的火花”也成為了過(guò)度炒作的代名詞,不足為奇?!拔艺J(rèn)為他們有點(diǎn)得意忘形了,”Marcus 在談到微軟團(tuán)隊(duì)時(shí)說(shuō),“他們像發(fā)現(xiàn)新大陸一樣興奮,‘嘿,我們發(fā)現(xiàn)了東西!這太神奇了!’但他們沒(méi)有讓科學(xué)界進(jìn)行驗(yàn)證。”Bender 則將《火花》論文比喻為一部“粉絲小說(shuō)”。
宣稱 GPT-4 的行為顯示出 AGI 跡象不僅具有挑釁性,而且作為在其產(chǎn)品中使用 GPT-4 的微軟,顯然有動(dòng)機(jī)夸大這項(xiàng)技術(shù)的能力。“這份文件是偽裝成研究的營(yíng)銷噱頭,”一位科技公司的首席運(yùn)營(yíng)官在領(lǐng)英上如此評(píng)論。
一些人還批評(píng)該論文的方法論存在缺陷。其證據(jù)難以驗(yàn)證,因?yàn)檫@些證據(jù)源自與未向 OpenAI 和微軟以外公開(kāi)的 GPT-4 版本的互動(dòng)。Bubeck 承認(rèn),公眾版 GPT-4 設(shè)有限制模型能力的護(hù)欄,這使得其他研究人員無(wú)法重現(xiàn)他的實(shí)驗(yàn)。
一個(gè)團(tuán)隊(duì)嘗試使用一種名為 Processing 的編程語(yǔ)言重新創(chuàng)建獨(dú)角獸示例,GPT-4 同樣能用此語(yǔ)言生成圖像。他們發(fā)現(xiàn),公眾版 GPT-4 雖能生成一個(gè)過(guò)得去的獨(dú)角獸圖像,卻不能將該圖像旋轉(zhuǎn) 90 度。這看似微小的區(qū)別,但在聲稱繪制獨(dú)角獸的能力是 AGI 標(biāo)志時(shí),就顯得至關(guān)重要。
《火花》論文中的關(guān)鍵點(diǎn),包括獨(dú)角獸的例子,是 Bubeck 及其同事認(rèn)為這些都是創(chuàng)造性推理的真實(shí)案例。這意味著團(tuán)隊(duì)必須確保這些任務(wù)或非常類似的任務(wù)未包含在 OpenAI 用于訓(xùn)練其模型的龐大數(shù)據(jù)集中。否則,結(jié)果可能被解釋為 GPT-4 重復(fù)其已見(jiàn)過(guò)的模式,而非創(chuàng)新性的表現(xiàn)。

(來(lái)源:JUN IONEDA)
Bubeck 堅(jiān)持表示,他們只給模型設(shè)置那些在網(wǎng)上找不到的任務(wù)。用 Latex 繪制卡通獨(dú)角獸無(wú)疑就是這樣的一個(gè)任務(wù)。但互聯(lián)網(wǎng)浩瀚無(wú)邊,很快就有其他研究者指出,實(shí)際上確實(shí)存在專門討論如何用 Latex 繪制動(dòng)物的在線論壇?!皟H供參考,我們當(dāng)時(shí)知道這件事,”Bubeck 在 X 平臺(tái)上回復(fù)道,“《火花》論文中的每一個(gè)查詢都在互聯(lián)網(wǎng)上進(jìn)行了徹底的搜索。”
(但這并未阻止外界的指責(zé):“我要求你停止做江湖騙子,”加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)家 Ben Recht 在推特上回?fù)?,并指?Bubeck“被當(dāng)場(chǎng)抓包撒謊”。)
Bubeck 堅(jiān)稱這項(xiàng)工作是出于好意進(jìn)行的,但他和他的合著者在論文中承認(rèn),他們的方法并不嚴(yán)格,只是基于筆記本觀察而非無(wú)懈可擊的實(shí)驗(yàn)。
即便如此,他并不后悔:“論文已經(jīng)發(fā)表一年多,我還沒(méi)有看到有人給我一個(gè)令人信服的論證,比如說(shuō),為何獨(dú)角獸不是一個(gè)真實(shí)推理的例子?!?/span>
這并不是說(shuō)他對(duì)這個(gè)重大問(wèn)題能給出直接答案——盡管他的回答揭示了他希望給出的那種答案類型?!笆裁词?AI?”Bubeck 反問(wèn)我,“我想跟你說(shuō)明白,問(wèn)題可以簡(jiǎn)單,但答案可能很復(fù)雜?!?/span>
“有很多簡(jiǎn)單的問(wèn)題,我們至今仍不知道答案。而其中一些簡(jiǎn)單的問(wèn)題,卻是最深刻的,”他接著說(shuō),“我把這個(gè)問(wèn)題放在同等重要的地位上,就像,生命起源于何?宇宙的起源是什么?我們從何而來(lái)?這類大大的問(wèn)題?!?/span>
在機(jī)器中只見(jiàn)數(shù)學(xué)
Bender 成為 AI 推動(dòng)者的首席對(duì)手之前,她曾作為兩篇有影響力的論文的合著者在 AI 領(lǐng)域留下了自己的印記。(她喜歡指出,這兩篇論文都經(jīng)過(guò)了同行評(píng)審,與《火花》論文及許多備受關(guān)注的其他論文不同。)第一篇論文是與德國(guó)薩爾蘭大學(xué)的計(jì)算語(yǔ)言學(xué)家 Alexander Koller 共同撰寫,于 2020 年發(fā)表,名為“邁向自然語(yǔ)言理解(NLU)”。
“這一切對(duì)我來(lái)說(shuō)開(kāi)始于與計(jì)算語(yǔ)言學(xué)界的其他人爭(zhēng)論,語(yǔ)言模型是否真正理解任何東西,”她說(shuō)。(理解,如同推理一樣,通常被認(rèn)為是人類智能的基本組成部分。)
Bender 和 Koller 認(rèn)為,僅在文本上訓(xùn)練的模型只會(huì)學(xué)習(xí)語(yǔ)言的形式,而不是其意義。他們認(rèn)為,意義由兩部分組成:詞匯(可能是符號(hào)或聲音)加上使用這些詞匯的原因。人們出于多種原因使用語(yǔ)言,比如分享信息、講笑話、調(diào)情、警告他人退后等。剝離了這一語(yǔ)境后,用于訓(xùn)練如 GPT-4 這樣的大型語(yǔ)言模型(LLMs)的文本足以讓它們模仿語(yǔ)言的模式,使得許多由 LLM 生成的句子看起來(lái)與人類寫的句子一模一樣。然而,它們背后沒(méi)有真正的意義,沒(méi)有靈光一閃。這是一種顯著的統(tǒng)計(jì)學(xué)技巧,但卻完全無(wú)意識(shí)。
他們通過(guò)一個(gè)思維實(shí)驗(yàn)來(lái)闡述自己的觀點(diǎn)。想象兩個(gè)說(shuō)英語(yǔ)的人被困在相鄰的荒島上,有一條水下電纜讓他們能夠互相發(fā)送文字信息?,F(xiàn)在設(shè)想一只對(duì)英語(yǔ)一無(wú)所知但擅長(zhǎng)統(tǒng)計(jì)模式匹配的章魚(yú)纏繞上了電纜,開(kāi)始監(jiān)聽(tīng)這些信息。章魚(yú)變得非常擅長(zhǎng)猜測(cè)哪些詞會(huì)跟隨其他詞出現(xiàn)。它變得如此之好,以至于當(dāng)它打斷電纜并開(kāi)始回應(yīng)其中一個(gè)島民的信息時(shí),她相信自己仍在與鄰居聊天。(如果你沒(méi)注意到,這個(gè)故事中的章魚(yú)就是一個(gè)聊天機(jī)器人。)
與章魚(yú)交談的人會(huì)在一段時(shí)間內(nèi)被騙,但這能持續(xù)嗎?章魚(yú)能理解通過(guò)電纜傳來(lái)的內(nèi)容嗎?

(來(lái)源:JUN IONEDA)
想象一下,現(xiàn)在島民說(shuō)她建造了一個(gè)椰子彈射器,并請(qǐng)章魚(yú)也建造一個(gè)并告訴她它的想法。章魚(yú)無(wú)法做到這一點(diǎn)。由于不了解消息中的詞匯在現(xiàn)實(shí)世界中的指代,它無(wú)法遵循島民的指示。也許它會(huì)猜測(cè)回復(fù):“好的,酷主意!”島民可能會(huì)認(rèn)為這意味著與她對(duì)話的人理解了她的信息。但如果真是這樣,她就是在沒(méi)有意義的地方看到了意義。最后,想象島民遭到熊的襲擊,通過(guò)電纜發(fā)出求救信號(hào)。章魚(yú)該如何處理這些詞語(yǔ)呢?
Bender 和 Koller 認(rèn)為,這就是大型語(yǔ)言模型如何學(xué)習(xí)以及為什么它們受限的原因?!斑@個(gè)思維實(shí)驗(yàn)表明,這條路不會(huì)引領(lǐng)我們走向一臺(tái)能理解任何事物的機(jī)器,”Bender 說(shuō)?!芭c章魚(yú)的交易在于,我們給它提供了訓(xùn)練數(shù)據(jù),即那兩個(gè)人之間的對(duì)話,僅此而已。但是,當(dāng)出現(xiàn)了出乎意料的情況時(shí),它就無(wú)法應(yīng)對(duì),因?yàn)樗鼪](méi)有理解?!?/span>
Bender 另一篇知名的論文《隨機(jī)鸚鵡的危險(xiǎn)》強(qiáng)調(diào)了一系列她和她的合著者認(rèn)為制作大型語(yǔ)言模型的公司正在忽視的危害。這些危害包括制造模型的巨大計(jì)算成本及其對(duì)環(huán)境的影響;模型固化的種族主義、性別歧視和其他辱罵性語(yǔ)言;以及構(gòu)建一個(gè)系統(tǒng)所帶來(lái)的危險(xiǎn),該系統(tǒng)可能通過(guò)“隨意拼接語(yǔ)言形式的序列……根據(jù)它們?nèi)绾谓Y(jié)合的概率信息,而不參考任何意義:一個(gè)隨機(jī)鸚鵡”,從而欺騙人們。
谷歌高級(jí)管理層對(duì)該論文不滿,由此引發(fā)的沖突導(dǎo)致 Bender 的兩位合著者 Timnit Gebru 和 Margaret Mitchell 被迫離開(kāi)公司,她們?cè)谀抢镱I(lǐng)導(dǎo)著 AI 倫理團(tuán)隊(duì)。這也使得“隨機(jī)鸚鵡”成為了大型語(yǔ)言模型的一個(gè)流行貶義詞,并將 Bender 直接卷入了這場(chǎng)互罵的漩渦中。
對(duì)于 Bender 和許多志同道合的研究人員來(lái)說(shuō),底線是該領(lǐng)域已被煙霧和鏡子所迷惑:“我認(rèn)為他們被引導(dǎo)去想象能夠自主思考的實(shí)體,這些實(shí)體可以為自己做出決定,并最終成為那種能夠?qū)ζ錄Q定負(fù)責(zé)的東西。”
作為始終如一的語(yǔ)言學(xué)家,Bender 現(xiàn)在甚至不愿在不加引號(hào)的情況下使用“人工智能”這個(gè)詞?!拔艺J(rèn)為它是一種讓人產(chǎn)生幻想的概念,讓人想象出能夠自我決策并最終為這些決策承擔(dān)責(zé)任的自主思考實(shí)體,”她告訴我。歸根結(jié)底,對(duì)她而言,這是大型科技公司的一個(gè)流行語(yǔ),分散了人們對(duì)諸多相關(guān)危害的注意力?!拔椰F(xiàn)在置身事中,”她說(shuō)。“我關(guān)心這些問(wèn)題,而過(guò)度炒作正在妨礙進(jìn)展。”
非凡的證據(jù)?
Agüera y Arcas 將像 Bender 這樣的人稱為“AI 否定者”,暗示他們永遠(yuǎn)不會(huì)接受他視為理所當(dāng)然的觀點(diǎn)。Bender 的立場(chǎng)是,非凡的主張需要非凡的證據(jù),而我們目前還沒(méi)有這樣的證據(jù)。
但有人正在尋找這些證據(jù),在他們找到明確無(wú)疑的證據(jù)——無(wú)論是思維的火花、隨機(jī)鸚鵡還是介于兩者之間的東西——之前,他們寧愿置身事外。這可以被稱為觀望陣營(yíng)。
正如在布朗大學(xué)研究神經(jīng)網(wǎng)絡(luò)的 Ellie Pavlick 對(duì)我所說(shuō):“向某些人暗示人類智能可以通過(guò)這類機(jī)制重現(xiàn),對(duì)他們來(lái)說(shuō)是冒犯。”
她補(bǔ)充道,“人們對(duì)這個(gè)問(wèn)題有著根深蒂固的信念——這幾乎感覺(jué)像是宗教信仰。另一方面,有些人則有點(diǎn)上帝情結(jié)。因此,對(duì)他們來(lái)說(shuō),暗示他們就是做不到也是無(wú)禮的。”
Pavlick 最終持不可知論態(tài)度。她堅(jiān)持自己是一名科學(xué)家,會(huì)遵循科學(xué)的任何導(dǎo)向。她對(duì)那些夸張的主張翻白眼,但她相信有一些令人興奮的事情正在發(fā)生?!斑@就是我和 Bender 及 Koller 意見(jiàn)不同的地方,”她告訴我,“我認(rèn)為實(shí)際上有一些火花——也許不是 AGI 級(jí)別的,但就像,里面有些東西是我們未曾預(yù)料到會(huì)發(fā)現(xiàn)的。”
問(wèn)題在于,要找到對(duì)這些令人興奮的事物及其為何令人興奮的共識(shí)。在如此多的炒作之下,很容易變得憤世嫉俗。
當(dāng)你聽(tīng)取像 Bubeck 這樣的研究人員的意見(jiàn)時(shí),你會(huì)發(fā)現(xiàn)他們似乎更為冷靜。他認(rèn)為內(nèi)部爭(zhēng)執(zhí)忽視了他工作的細(xì)微差別。“同時(shí)持有不同的觀點(diǎn)對(duì)我來(lái)說(shuō)沒(méi)有任何問(wèn)題,”他說(shuō),“存在隨機(jī)鸚鵡現(xiàn)象,也存在推理——這是一個(gè)范圍,非常復(fù)雜。我們并沒(méi)有所有的答案?!?/span>
“我們需要一套全新的詞匯來(lái)描述正在發(fā)生的事情,”他說(shuō),“當(dāng)我談?wù)摯笮驼Z(yǔ)言模型中的推理時(shí),人們會(huì)反駁,原因之一是它與人類的推理方式不同。但我認(rèn)為我們無(wú)法不稱之為推理,它確實(shí)是一種推理?!?/span>
盡管他的公司 Anthropic 是目前全球最炙手可熱的 AI 實(shí)驗(yàn)室之一,且今年早些時(shí)候發(fā)布的 Claude 3——與 GPT-4 一樣(甚至更多)獲得了大量夸張贊譽(yù)的大型語(yǔ)言模型,但 Olah 在被問(wèn)及如何看待 LLMs 時(shí)仍表現(xiàn)得相當(dāng)謹(jǐn)慎。
“我覺(jué)得關(guān)于這些模型能力的很多討論都非常部落化,”他說(shuō),“人們有先入為主的觀念,而且任何一方的論證都沒(méi)有充分的證據(jù)支撐。然后這就變成了基于氛圍的討論,我認(rèn)為互聯(lián)網(wǎng)上的這種基于氛圍的爭(zhēng)論往往會(huì)走向糟糕的方向?!?/span>
Olah 告訴我他有自己的直覺(jué)?!拔业闹饔^印象是,這些東西在追蹤相當(dāng)復(fù)雜的思想,”他說(shuō),“我們沒(méi)有一個(gè)全面的故事來(lái)解釋非常大的模型是如何工作的,但我認(rèn)為我們所看到的很難與極端的‘隨機(jī)鸚鵡’形象相調(diào)和?!?/span>
這就是他的極限:“我不想超越我們現(xiàn)有證據(jù)所能強(qiáng)烈推斷出的內(nèi)容?!?/span>
上個(gè)月,Anthropic 發(fā)布了一項(xiàng)研究的結(jié)果,研究人員給 Claude 3 做了相當(dāng)于神經(jīng)網(wǎng)絡(luò)的 MRI。通過(guò)監(jiān)測(cè)模型運(yùn)行時(shí)哪些部分開(kāi)啟和關(guān)閉,他們識(shí)別出了在模型展示特定輸入時(shí)激活的特定神經(jīng)元模式。
例如,當(dāng)模型接收到金門大橋的圖像或與之相關(guān)的詞匯時(shí),似乎就會(huì)出現(xiàn)一種特定的模式。研究人員發(fā)現(xiàn),如果他們?cè)鰪?qiáng)模型中這一部分的作用,Claude 就會(huì)完全沉迷于這座著名的建筑。無(wú)論你問(wèn)它什么問(wèn)題,它的回答都會(huì)涉及這座橋——甚至在被要求描述自己時(shí),它也會(huì)將自己與橋聯(lián)系起來(lái)。有時(shí)它會(huì)注意到提及橋梁是不恰當(dāng)?shù)?,但又忍不住?huì)這樣做。

(來(lái)源:Claude)
Anthropic 還報(bào)告了與嘗試描述或展示抽象概念的輸入相關(guān)的模式?!拔覀兛吹搅伺c欺騙和誠(chéng)實(shí)、諂媚、安全漏洞、偏見(jiàn)相關(guān)的特征,”O(jiān)lah 說(shuō),“我們發(fā)現(xiàn)了與尋求權(quán)力、操縱和背叛相關(guān)的特征?!?/span>
這些結(jié)果讓我們迄今為止最清晰地看到了大型語(yǔ)言模型的內(nèi)部情況。這是對(duì)看似難以捉摸的人類特質(zhì)的一種誘人一瞥。但它真正告訴我們什么呢?正如 Olah 所承認(rèn)的,他們不知道模型如何處理這些模式?!斑@是一個(gè)相對(duì)有限的畫(huà)面,分析起來(lái)相當(dāng)困難,”他說(shuō)。
即使 Olah 不愿意具體說(shuō)明他認(rèn)為像 Claude 3 這樣的大型語(yǔ)言模型內(nèi)部究竟發(fā)生了什么,顯而易見(jiàn)的是,這個(gè)問(wèn)題對(duì)他來(lái)說(shuō)為什么重要。Anthropic 以其在 AI 安全方面的工作而聞名——確保未來(lái)強(qiáng)大的模型會(huì)按照我們希望的方式行動(dòng),而不是以我們不希望的方式(在行業(yè)術(shù)語(yǔ)中稱為“對(duì)齊”)。弄清楚當(dāng)今模型的工作原理,不僅是如果你想控制未來(lái)模型所必需的第一步;它也告訴你,首先你需要對(duì)末日情景擔(dān)心多少?!叭绻阏J(rèn)為模型不會(huì)有很強(qiáng)的能力,”O(jiān)lah 說(shuō),“那么它們可能也不會(huì)很危險(xiǎn)?!?/span>
三、為何我們難以達(dá)成一致
在 2014 年 BBC 對(duì)她職業(yè)生涯回顧的一次采訪中,現(xiàn)年 87 歲的有影響力的認(rèn)知科學(xué)家 Margaret Boden 被問(wèn)及她是否認(rèn)為有任何限制會(huì)阻止計(jì)算機(jī)(或者她所謂的“錫罐子”)去做人類能做的事情。
“我當(dāng)然不認(rèn)為原則上存在這樣的限制,”她說(shuō),“因?yàn)榉裾J(rèn)這一點(diǎn)就意味著人類的思維是靠魔法發(fā)生的,而我不相信它是靠魔法發(fā)生的。”
但她警告說(shuō),強(qiáng)大的計(jì)算機(jī)本身并不足以使我們達(dá)到這一目標(biāo):AI 領(lǐng)域還需要“有力的想法”——關(guān)于思維如何發(fā)生的全新理論,以及可能復(fù)制這一過(guò)程的新算法?!暗@些東西非常、非常困難,我沒(méi)有理由假設(shè)有一天我們能夠回答所有這些問(wèn)題。或許我們能;或許我們不能?!?/span>
博登回顧了當(dāng)前繁榮期的早期階段,但這種我們能否成功的搖擺不定反映了數(shù)十年來(lái)她和她的同僚們努力解決的難題,這些難題正是今天研究人員也在努力克服的。AI 作為一個(gè)雄心勃勃的目標(biāo)始于大約 70 年前,而我們至今仍在爭(zhēng)論哪些是可實(shí)現(xiàn)的,哪些不是,以及我們?nèi)绾沃雷约菏欠褚呀?jīng)實(shí)現(xiàn)了目標(biāo)。大部分——如果不是全部的話——這些爭(zhēng)議歸結(jié)為一點(diǎn):我們尚未很好地理解什么是智能,或者如何識(shí)別它。這個(gè)領(lǐng)域充滿了直覺(jué),但沒(méi)有人能確切地說(shuō)出答案。
自從人們開(kāi)始認(rèn)真對(duì)待 AI 這一理念以來(lái),我們就一直卡在這個(gè)問(wèn)題上。甚至在此之前,當(dāng)我們消費(fèi)的故事開(kāi)始在集體想象中深深植入類人機(jī)器的概念時(shí),也是如此。這些爭(zhēng)論的悠久歷史意味著,今天的爭(zhēng)論往往強(qiáng)化了自一開(kāi)始就存在的分歧,使得人們更加難以找到共同點(diǎn)。
為了理解我們是如何走到這一步的,我們需要了解我們?cè)?jīng)走過(guò)的路。因此,讓我們深入探究AI的起源故事——這也是一個(gè)為了資金而大肆宣傳的故事。
人工智能宣傳簡(jiǎn)史
計(jì)算機(jī)科學(xué)家 John McCarthy(約翰·麥卡錫) 在 1955 年為新罕布什爾州達(dá)特茅斯學(xué)院 (Dartmouth College)的一個(gè)暑期研究項(xiàng)目撰寫資助申請(qǐng)時(shí),被認(rèn)為提出了“人工智能”這一術(shù)語(yǔ)。

從左到右:Oliver Selfridge, Nathaniel Rochester, Ray Solomonoff, Marvin Minsky, Peter Milner, John McCarthy, and Claude Shannon 坐在 1956 年達(dá)特茅斯會(huì)議的草坪上(來(lái)源:COURTESY OF THE MINSKY FAMILY)
計(jì)劃是讓 McCarthy 和他的幾個(gè)研究員同伴——戰(zhàn)后美國(guó)數(shù)學(xué)家和計(jì)算機(jī)科學(xué)家的精英群體,或如劍橋大學(xué)研究 AI 歷史以及谷歌 DeepMind 倫理與政策的研究員 Harry Law 所稱的“John McCarthy 和他的小伙伴們”——聚在一起兩個(gè)月(沒(méi)錯(cuò),是兩個(gè)月),在這個(gè)他們?yōu)樽约涸O(shè)定的新研究挑戰(zhàn)上取得重大進(jìn)展。
McCarthy 和他的合著者寫道:“該研究基于這樣一個(gè)假設(shè)進(jìn)行:學(xué)習(xí)的每一個(gè)方面或智力的任何其他特征原則都可以被如此精確地描述,以至于可以制造一臺(tái)機(jī)器來(lái)模擬它。我們將嘗試找出如何讓機(jī)器使用語(yǔ)言、形成抽象概念、解決目前僅限于人類的問(wèn)題,并自我改進(jìn)。”
他們想讓機(jī)器做到的這些事情——Bender 稱之為“充滿憧憬的夢(mèng)想”——并沒(méi)有太大改變。使用語(yǔ)言、形成概念和解決問(wèn)題仍然是當(dāng)今 AI 的定義性目標(biāo)。傲慢也并未減少多少:“我們認(rèn)為,如果精心挑選的一組科學(xué)家一起工作一個(gè)夏天,就能在這些問(wèn)題中的一個(gè)或多個(gè)方面取得顯著進(jìn)展?!彼麄儗懙?。當(dāng)然,那個(gè)夏天已經(jīng)延長(zhǎng)到了七十年。至于這些問(wèn)題實(shí)際上現(xiàn)在解決了多少,仍然是人們?cè)诰W(wǎng)絡(luò)上爭(zhēng)論的話題。
然而,這段經(jīng)典歷史中常被忽略的是,人工智能差點(diǎn)就沒(méi)有被稱為“人工智能”。
不止一位 McCarthy 的同事討厭他提出的這個(gè)術(shù)語(yǔ)。據(jù)歷史學(xué)家 Pamela McCorduck (帕梅拉·麥考達(dá)克)2004 年的書(shū)《思考的機(jī)器》引用,達(dá)特茅斯會(huì)議參與者及首臺(tái)跳棋電腦創(chuàng)造者 Arthur Samuel(亞瑟·塞繆爾) 說(shuō):“'人工'這個(gè)詞讓你覺(jué)得這里面有些虛假的東西。”數(shù)學(xué)家 Claude Shannon(克勞德·香農(nóng)),達(dá)特茅斯提案的合著者,有時(shí)被譽(yù)為“信息時(shí)代之父”,更喜歡“自動(dòng)機(jī)研究”這個(gè)術(shù)語(yǔ)。Herbert Simon(赫伯特·西蒙)和 Allen Newell(艾倫·紐厄爾),另外兩位 AI 先驅(qū),在之后的多年里仍稱自己的工作為“復(fù)雜信息處理”。
事實(shí)上,“人工智能”只是可能概括達(dá)特茅斯小組汲取的雜亂思想的幾個(gè)標(biāo)簽之一。歷史學(xué)家 Jonnie Penn 當(dāng)時(shí)已確認(rèn)了一些可能的替代選項(xiàng),包括“工程心理學(xué)”、“應(yīng)用認(rèn)識(shí)論”、“神經(jīng)控制論”、“非數(shù)值計(jì)算”、“神經(jīng)動(dòng)力學(xué)”、“高級(jí)自動(dòng)編程”和“假設(shè)性自動(dòng)機(jī)”。這一系列名稱揭示了他們新領(lǐng)域靈感來(lái)源的多樣性,涵蓋了生物學(xué)、神經(jīng)科學(xué)、統(tǒng)計(jì)學(xué)等多個(gè)領(lǐng)域。另一位達(dá)特茅斯會(huì)議參與者 Marvin Minsky 曾將 AI 描述為一個(gè)“手提箱詞”,因?yàn)樗艹休d許多不同的解釋。
但 McCarthy 想要一個(gè)能捕捉到他愿景雄心壯志的名稱。將這個(gè)新領(lǐng)域稱為“人工智能”吸引了人們的注意——以及資金。別忘了:AI 既性感又酷。
除了術(shù)語(yǔ),達(dá)特茅斯提案還確定了人工智能相互競(jìng)爭(zhēng)的方法之間的分裂,這種分裂自此以后一直困擾著該領(lǐng)域——Law 稱之為“AI 的核心緊張關(guān)系”。

(來(lái)源:MIT TR)
McCarthy 和他的同事們想用計(jì)算機(jī)代碼描述“學(xué)習(xí)的每一個(gè)方面或其他任何智力特征”,以便機(jī)器模仿。換句話說(shuō),如果他們能弄清楚思維是如何工作的——推理的規(guī)則——并寫下來(lái),他們就可以編程讓計(jì)算機(jī)遵循。這奠定了后來(lái)被稱為基于規(guī)則或符號(hào) AI(現(xiàn)在有時(shí)被稱為 GOFAI,即“好老式的人工智能”)的基礎(chǔ)。但提出硬編碼規(guī)則來(lái)捕獲實(shí)際、非瑣碎問(wèn)題的解決過(guò)程證明太難了。
另一條路徑則偏愛(ài)神經(jīng)網(wǎng)絡(luò),即試圖以統(tǒng)計(jì)模式自行學(xué)習(xí)這些規(guī)則的計(jì)算機(jī)程序。達(dá)特茅斯提案幾乎是以附帶的方式提到它(分別提到“神經(jīng)網(wǎng)絡(luò)”和“神經(jīng)網(wǎng)”)。盡管這個(gè)想法起初似乎不太有希望,但一些研究人員還是繼續(xù)在符號(hào) AI 的同時(shí)開(kāi)發(fā)神經(jīng)網(wǎng)絡(luò)的版本。但它們真正起飛要等到幾十年后——加上大量的計(jì)算能力和互聯(lián)網(wǎng)上的大量數(shù)據(jù)??爝M(jìn)到今天,這種方法支撐了整個(gè) AI 的繁榮。
這里的主要收獲是,就像今天的研究人員一樣,AI 的創(chuàng)新者們?cè)诨A(chǔ)概念上爭(zhēng)執(zhí)不休,并陷入了自我宣傳的旋渦。就連 GOFAI 團(tuán)隊(duì)也飽受爭(zhēng)吵之苦。年近九旬的哲學(xué)家及 AI 先驅(qū) Aaron Sloman 回憶起他在 70 年代認(rèn)識(shí)的“老朋友”明斯基和麥卡錫時(shí),兩人“強(qiáng)烈意見(jiàn)不合”:“Minsky 認(rèn)為 McCarthy 關(guān)于邏輯的主張行不通,而 McCarthy 認(rèn)為 Minsky 的機(jī)制無(wú)法做到邏輯所能做的。我和他們都相處得很好,但我當(dāng)時(shí)在說(shuō),‘你們倆都沒(méi)搞對(duì)。’”(斯洛曼仍然認(rèn)為,沒(méi)有人能解釋人類推理中直覺(jué)與邏輯的運(yùn)用,但這又是另一個(gè)話題!)
隨著技術(shù)命運(yùn)的起伏,“AI”一詞也隨之時(shí)興和過(guò)時(shí)。在 70 年代初,英國(guó)政府發(fā)布了一份報(bào)告,認(rèn)為 AI 夢(mèng)想毫無(wú)進(jìn)展,不值得資助,導(dǎo)致這兩條研究路徑實(shí)際上都被擱置了。所有那些炒作,實(shí)質(zhì)上都未帶來(lái)任何成果。研究項(xiàng)目被關(guān)閉,計(jì)算機(jī)科學(xué)家從他們的資助申請(qǐng)中抹去了“人工智能”一詞。
當(dāng)我在 2008 年完成計(jì)算機(jī)科學(xué)博士學(xué)位時(shí),系里只有一個(gè)人在研究神經(jīng)網(wǎng)絡(luò)。Bender 也有類似的記憶:“在我上大學(xué)時(shí),一個(gè)流傳的笑話是,AI 是我們還沒(méi)有弄清楚如何用計(jì)算機(jī)做的任何事。就像是,一旦你弄明白怎么做了,它就不再神奇,所以它就不再是 AI 了。”
但那種魔法——達(dá)特茅斯提案中概述的宏偉愿景——仍然生機(jī)勃勃,正如我們現(xiàn)在所見(jiàn),它為 AGI(通用人工智能)夢(mèng)想奠定了基礎(chǔ)。
好行為與壞行為
1950 年,也就是 McCarthy 開(kāi)始談?wù)撊斯ぶ悄艿奈迥昵?,Alan Turing(艾倫·圖靈) 發(fā)表了一篇論文,提出了一個(gè)問(wèn)題:機(jī)器能思考嗎?為了探討這個(gè)問(wèn)題,這位著名的數(shù)學(xué)家提出了一個(gè)假設(shè)測(cè)試,即后來(lái)聞名的圖靈測(cè)試。測(cè)試設(shè)想了一個(gè)場(chǎng)景,其中一個(gè)人類和一臺(tái)計(jì)算機(jī)位于屏幕后,而第二個(gè)人類通過(guò)打字向他們雙方提問(wèn)。如果提問(wèn)者無(wú)法分辨哪些回答來(lái)自人類,哪些來(lái)自計(jì)算機(jī),Turing 認(rèn)為,可以說(shuō)計(jì)算機(jī)也可以算是思考的。
與 McCarthy 團(tuán)隊(duì)不同,Turing 意識(shí)到思考是一個(gè)很難描述的事情。圖靈測(cè)試是一種繞開(kāi)這個(gè)問(wèn)題的方法?!八旧鲜窃谡f(shuō):與其關(guān)注智能的本質(zhì),不如尋找它在世界中的表現(xiàn)形式。我要尋找它的影子,”Law 說(shuō)。
1952 年,英國(guó)廣播公司電臺(tái)組織了一個(gè)專家小組進(jìn)一步探討 Turing 的觀點(diǎn)。圖靈在演播室里與他的兩位曼徹斯特大學(xué)同事——數(shù)學(xué)教授 Maxwell Newman (麥克斯韋爾·紐曼)和神經(jīng)外科教授 Geoffrey Jefferson(杰弗里·杰斐遜),以及劍橋大學(xué)的科學(xué)、倫理與宗教哲學(xué)家 Richard Braithwaite(理查德·布雷斯韋特)一同出席。
Braithwaite 開(kāi)場(chǎng)說(shuō)道:“思考通常被認(rèn)為是人類,也許還包括其他高等動(dòng)物的專長(zhǎng),這個(gè)問(wèn)題可能看起來(lái)太荒謬了,不值得討論。但當(dāng)然,這完全取決于‘思考’中包含了什么?!?/span>
小組成員圍繞 Turing 的問(wèn)題展開(kāi)討論,但始終未能給出確切的定義。
當(dāng)他們?cè)噲D定義思考包含什么,其機(jī)制是什么時(shí),標(biāo)準(zhǔn)一直在變動(dòng)。“一旦我們能在大腦中看到因果關(guān)系的運(yùn)作,我們就會(huì)認(rèn)為那不是思考,而是一種缺乏想象力的苦力工作,”圖靈說(shuō)道。
問(wèn)題在于:當(dāng)一位小組成員提出某種可能被視為思考證據(jù)的行為——比如對(duì)新想法表示憤怒——另一位成員就會(huì)指出,計(jì)算機(jī)也可以被編程來(lái)做到這一點(diǎn)。

(來(lái)源:MIT TR)
正如 Newman 所說(shuō),編程讓計(jì)算機(jī)打印出“我不喜歡這個(gè)新程序”是輕而易舉的。但他承認(rèn),這不過(guò)是個(gè)把戲。
Jefferson 對(duì)此表示贊同:他想要的是一臺(tái)因?yàn)椴幌矚g新程序而打印出“我不喜歡這個(gè)新程序”的計(jì)算機(jī)。換言之,對(duì)于 Jefferson 來(lái)說(shuō),行為本身是不夠的,引發(fā)行為的過(guò)程才是關(guān)鍵。
但 Turing 并不同意。正如他所指出的,揭示特定過(guò)程——他所說(shuō)的苦力工作——并不能確切指出思考是什么。那么剩下的還有什么?
“從這個(gè)角度來(lái)看,人們可能會(huì)受到誘惑,將思考定義為我們還不理解的那些心理過(guò)程,”Turing 說(shuō),“如果這是正確的,那么制造一臺(tái)思考機(jī)器就是制造一臺(tái)能做出有趣事情的機(jī)器,而我們其實(shí)并不完全理解它是如何做到的。”
聽(tīng)到人們首次探討這些想法感覺(jué)有些奇怪?!斑@場(chǎng)辯論具有預(yù)見(jiàn)性,”哈佛大學(xué)的認(rèn)知科學(xué)家 Tomer Ullman 說(shuō),“其中的一些觀點(diǎn)至今仍然存在——甚至更為突出。他們似乎在反復(fù)討論的是,圖靈測(cè)試首先并且主要是一個(gè)行為主義測(cè)試?!?/span>
對(duì) Turing 而言,智能難以定義但容易識(shí)別。他提議,智能的表現(xiàn)就足夠了,而沒(méi)有提及這種行為應(yīng)當(dāng)如何產(chǎn)生。
然而,大多數(shù)人被逼問(wèn)時(shí),都會(huì)憑直覺(jué)判斷何為智能,何為非智能。表現(xiàn)出智能有愚蠢和聰明的方式。1981 年,紐約大學(xué)的哲學(xué)家 Ned Block 表明,Turing 的提議沒(méi)有滿足這些直覺(jué)。由于它沒(méi)有說(shuō)明行為的原因,圖靈測(cè)試可以通過(guò)欺騙手段(正如紐曼在 BBC 廣播中所指出的)來(lái)通過(guò)。
“一臺(tái)機(jī)器是否真的在思考或是否智能的問(wèn)題,難道取決于人類審問(wèn)者的易騙程度嗎?”布洛克問(wèn)道。(正如計(jì)算機(jī)科學(xué)家 Mark Reidl 所評(píng)論的那樣:“圖靈測(cè)試不是為了讓 AI 通過(guò),而是為了讓人類失敗?!保?/span>
Block 設(shè)想了一個(gè)龐大的查找表,其中人類程序員錄入了對(duì)所有可能問(wèn)題的所有可能答案。向這臺(tái)機(jī)器輸入問(wèn)題,它會(huì)在數(shù)據(jù)庫(kù)中查找匹配的答案并發(fā)送回來(lái)。Block 認(rèn)為,任何人使用這臺(tái)機(jī)器都會(huì)認(rèn)為其行為是智能的:“但實(shí)際上,這臺(tái)機(jī)器的智能水平就像一個(gè)烤面包機(jī),”他寫道,“它展現(xiàn)的所有智能都是其程序員的智能。”
Block 總結(jié)道,行為是否為智能行為,取決于它是如何產(chǎn)生的,而非它看起來(lái)如何。Block 的“烤面包機(jī)”(后來(lái)被稱為 Blockhead)是對(duì) Turing 提議背后假設(shè)最強(qiáng)有力的反例之一。
探索內(nèi)在機(jī)制
圖靈測(cè)試本意并非實(shí)際衡量標(biāo)準(zhǔn),但它對(duì)我們今天思考人工智能的方式有著深遠(yuǎn)的影響。這一點(diǎn)隨著近年來(lái)大型語(yǔ)言模型(LLMs)的爆炸性發(fā)展變得尤為相關(guān)。這些模型以外在行為作為評(píng)判標(biāo)準(zhǔn),具體表現(xiàn)為它們?cè)谝幌盗袦y(cè)試中的表現(xiàn)。當(dāng) OpenAI 宣布 GPT-4 時(shí),發(fā)布了一份令人印象深刻的得分卡,詳細(xì)列出了該模型在多個(gè)高中及專業(yè)考試中的表現(xiàn)。幾乎沒(méi)有人討論這些模型是如何取得這些成績(jī)的。
這是因?yàn)槲覀儾恢?。如今的大型語(yǔ)言模型太過(guò)復(fù)雜,以至于任何人都無(wú)法確切說(shuō)明其行為是如何產(chǎn)生的。除少數(shù)幾家開(kāi)發(fā)這些模型的公司外,外部研究人員不了解其訓(xùn)練數(shù)據(jù)包含什么;模型制造商也沒(méi)有分享任何細(xì)節(jié)。這使得區(qū)分什么是記憶(隨機(jī)模仿)什么是真正的智能變得困難。即便是在內(nèi)部工作的研究人員,如 Olah,面對(duì)一個(gè)癡迷于橋梁的機(jī)器人時(shí),也不知道真正發(fā)生了什么。
這就留下了一個(gè)懸而未決的問(wèn)題:是的,大型語(yǔ)言模型建立在數(shù)學(xué)之上,但它們是否在用智能的方式運(yùn)用這些數(shù)學(xué)知識(shí)呢?
爭(zhēng)論再次開(kāi)始。
布朗大學(xué)的 Pavlick 說(shuō):“大多數(shù)人試圖從理論上推測(cè)(armchair through it),”這意味著他們?cè)跊](méi)有觀察實(shí)際情況的情況下?tīng)?zhēng)論理論?!坝行┤藭?huì)說(shuō),‘我認(rèn)為情況是這樣的,’另一些人則會(huì)說(shuō),‘嗯,我不這么認(rèn)為?!覀冇悬c(diǎn)陷入僵局,每個(gè)人都不滿意?!?/span>
Bender 認(rèn)為這種神秘感加劇了神話的構(gòu)建。(“魔術(shù)師不會(huì)解釋他們的把戲,”她說(shuō)。)沒(méi)有恰當(dāng)理解 LLM 語(yǔ)言輸出的來(lái)源,我們便傾向于依賴對(duì)人類的熟悉假設(shè),因?yàn)檫@是我們唯一的真正參照點(diǎn)。當(dāng)我們與他人交談時(shí),我們?cè)噲D理解對(duì)方想告訴我們什么。“這個(gè)過(guò)程必然涉及想象言語(yǔ)背后的那個(gè)生命,”Bender 說(shuō)。這就是語(yǔ)言的工作方式。

(來(lái)源:JUN IONEDA)
“ChatGPT 的小把戲如此令人印象深刻,以至于當(dāng)我們看到這些詞從它那里冒出來(lái)時(shí),我們會(huì)本能地做同樣的事,”她說(shuō)?!八浅I瞄L(zhǎng)模仿語(yǔ)言的形式。問(wèn)題是,我們根本不擅長(zhǎng)遇到語(yǔ)言的形式而不去想象它的其余部分?!?/span>
對(duì)于一些研究者來(lái)說(shuō),我們是否能理解其運(yùn)作方式并不重要。Bubeck 過(guò)去研究大型語(yǔ)言模型是為了嘗試弄清楚它們是如何工作的,但 GPT-4 改變了他的看法?!斑@些問(wèn)題似乎不再那么相關(guān)了,”他說(shuō)?!澳P吞螅珡?fù)雜,以至于我們不能指望打開(kāi)它并理解里面真正發(fā)生的事情?!?/span>
但 Pavlick 像 Olah 一樣,正努力做這件事。她的團(tuán)隊(duì)發(fā)現(xiàn),模型似乎編碼了物體之間的抽象關(guān)系,比如國(guó)家和首都之間的關(guān)系。通過(guò)研究一個(gè)大型語(yǔ)言模型,Pavlick 和她的同事們發(fā)現(xiàn),它使用相同的編碼映射法國(guó)到巴黎,波蘭到華沙。我告訴她,這聽(tīng)起來(lái)幾乎很聰明?!安?,它實(shí)際上就是一個(gè)查找表,”她說(shuō)。
但讓 Pavlick 感到震驚的是,與 Blockhead 不同,模型自己學(xué)會(huì)了這個(gè)查找表。換句話說(shuō),LLM 自己發(fā)現(xiàn)巴黎對(duì)于法國(guó)就如同華沙對(duì)于波蘭一樣。但這展示了什么?自編碼查找表而不是使用硬編碼的查找表是智能的標(biāo)志嗎?我們?cè)撛谀睦飫澢褰缦蓿?/span>
“基本上,問(wèn)題在于行為是我們唯一知道如何可靠測(cè)量的東西,” Pavlick 說(shuō)?!捌渌魏螙|西都需要理論上的承諾,而人們不喜歡不得不做出理論上的承諾,因?yàn)樗休d了太多含義?!?/span>
并非所有人都這樣。許多有影響力的科學(xué)家樂(lè)于做出理論上的承諾。例如,Hinton 堅(jiān)持認(rèn)為神經(jīng)網(wǎng)絡(luò)是你需要的一切來(lái)重現(xiàn)類似人類的智能?!吧疃葘W(xué)習(xí)將能夠做一切,”他在 2020 年接受《麻省理工科技評(píng)論》采訪時(shí)說(shuō)。
這是一個(gè) Hinton 似乎從一開(kāi)始就堅(jiān)持的信念。Sloman 記得當(dāng) Hinton 是他實(shí)驗(yàn)室的研究生時(shí),兩人曾發(fā)生過(guò)爭(zhēng)執(zhí),他回憶說(shuō)自己無(wú)法說(shuō)服 Hinton 相信神經(jīng)網(wǎng)絡(luò)無(wú)法學(xué)習(xí)某些人類和其他某些動(dòng)物似乎直觀掌握的關(guān)鍵抽象概念,比如某事是否不可能。Sloman 說(shuō),我們可以直接看出什么時(shí)候某事被排除了。“盡管 Hinton 擁有杰出的智慧,但他似乎從未理解這一點(diǎn)。我不知道為什么,但有大量的神經(jīng)網(wǎng)絡(luò)研究者都有這個(gè)盲點(diǎn)?!?/span>
然后是 Marcus,他對(duì)神經(jīng)網(wǎng)絡(luò)的看法與 Hinton 截然相反。他的觀點(diǎn)基于他所說(shuō)的科學(xué)家對(duì)大腦的發(fā)現(xiàn)。
Marcus 指出,大腦并不是從零開(kāi)始學(xué)習(xí)的白板——它們天生帶有指導(dǎo)學(xué)習(xí)的固有結(jié)構(gòu)和過(guò)程。他認(rèn)為,這就是嬰兒能學(xué)到目前最好的神經(jīng)網(wǎng)絡(luò)仍不能掌握的東西的原因。
“神經(jīng)網(wǎng)絡(luò)研究者手頭有這個(gè)錘子,現(xiàn)在一切都變成了釘子,”Marcus 說(shuō)?!八麄兿胗脤W(xué)習(xí)來(lái)做所有的事,許多認(rèn)知科學(xué)家會(huì)認(rèn)為這不切實(shí)際且愚蠢。你不可能從零開(kāi)始學(xué)習(xí)一切?!?/span>
不過(guò),作為一名認(rèn)知科學(xué)家,Marcus 對(duì)自己的觀點(diǎn)同樣確信?!叭绻嬗腥藴?zhǔn)確預(yù)測(cè)了當(dāng)前的情況,我想我必須排在任何人名單的最前面,”他在前往歐洲演講的 Uber 后座上告訴我?!拔抑肋@聽(tīng)起來(lái)不太謙虛,但我確實(shí)有這樣一個(gè)視角,如果你試圖研究的是人工智能,這個(gè)視角就顯得非常重要?!?/span>
鑒于他對(duì)該領(lǐng)域公開(kāi)的批評(píng),你或許會(huì)驚訝于 Marcus 仍然相信通用人工智能(AGI)即將來(lái)臨。只是他認(rèn)為當(dāng)今對(duì)神經(jīng)網(wǎng)絡(luò)的執(zhí)著是個(gè)錯(cuò)誤。“我們可能還需要一兩個(gè)或四個(gè)突破,”他說(shuō)。“你和我可能活不到那么久,很抱歉這么說(shuō)。但我認(rèn)為這將在本世紀(jì)發(fā)生。也許我們有機(jī)會(huì)見(jiàn)證。”
炫彩之夢(mèng)的力量
在以色列拉馬特甘家中通過(guò) Zoom 通話時(shí),Dor Skuler 背后的某個(gè)類似小臺(tái)燈的機(jī)器人隨著我們的談話時(shí)亮?xí)r滅。“你可以在我身后看到 ElliQ,”他說(shuō)。Skuler 的公司 Intuition Robotics 為老年人設(shè)計(jì)這些設(shè)備,而 ElliQ 的設(shè)計(jì)——結(jié)合了亞馬遜 Alexa 的部分特征和 R2-D2 的風(fēng)格——明確表明它是一臺(tái)計(jì)算機(jī)。Skuler 表示,如果有任何客戶表現(xiàn)出對(duì)此有所混淆的跡象,公司就會(huì)收回這款設(shè)備。
ElliQ 沒(méi)有臉,沒(méi)有任何人類的形狀。如果你問(wèn)它關(guān)于體育的問(wèn)題,它會(huì)開(kāi)玩笑說(shuō)自己沒(méi)有手眼協(xié)調(diào)能力,因?yàn)樗葲](méi)有手也沒(méi)有眼睛。“我實(shí)在不明白,為什么行業(yè)里都在努力滿足圖靈測(cè)試,” Skuler 說(shuō),“為什么為了全人類的利益,我們要研發(fā)旨在欺騙我們的技術(shù)呢?”
相反,Skuler 的公司賭注于人們可以與明確呈現(xiàn)為機(jī)器的機(jī)器建立關(guān)系?!熬拖裎覀冇心芰εc狗建立真實(shí)的關(guān)系一樣,”他說(shuō),“狗給人們帶來(lái)了很多快樂(lè),提供了陪伴。人們愛(ài)他們的狗,但他們從不把它混淆成人?!?/span>

(來(lái)源:MIT TR)
ElliQ 的用戶,很多都是八九十歲的老人,稱這個(gè)機(jī)器人為一個(gè)實(shí)體或一種存在——有時(shí)甚至是一個(gè)室友?!八麄兡軌?yàn)檫@種介于設(shè)備或電腦與有生命之物之間的關(guān)系創(chuàng)造一個(gè)空間,” Skuler 說(shuō)。
然而,不管 ElliQ 的設(shè)計(jì)者多么努力地控制人們對(duì)這款設(shè)備的看法,他們都在與塑造了我們期望幾十年的流行文化競(jìng)爭(zhēng)。為什么我們?nèi)绱藞?zhí)著于類人的人工智能?“因?yàn)槲覀兒茈y想象其他的可能性,” Skuler 說(shuō)(在我們的對(duì)話中,他確實(shí)一直用“她”來(lái)指代 ElliQ),“而且科技行業(yè)的許多人都是科幻迷。他們?cè)噲D讓自己的夢(mèng)想成真?!?/span>
有多少開(kāi)發(fā)者在成長(zhǎng)過(guò)程中認(rèn)為,構(gòu)建一臺(tái)智能機(jī)器是他們可能做的最酷的事情——如果不是最重要的事情?
不久之前,OpenAI 推出了新的語(yǔ)音控制版 ChatGPT,其聲音聽(tīng)起來(lái)像 Scarlett Johansson(斯嘉麗約翰遜),之后包括 Altman 在內(nèi)的許多人都指出了它與 Spike Jonze (斯派克瓊斯) 2013 年的電影《她》之間的聯(lián)系。
科幻小說(shuō)共同創(chuàng)造了人工智能被理解為何物。正如 Cave 和 Dihal 在《想象人工智能》一書(shū)中所寫:“人工智能在成為技術(shù)現(xiàn)象很久以前就已經(jīng)是一種文化現(xiàn)象了?!?/span>
關(guān)于將人類重塑為機(jī)器的故事和神話已有數(shù)百年歷史。Dihal 指出,人們對(duì)于人造人的夢(mèng)想可能與他們對(duì)于飛行的夢(mèng)想一樣長(zhǎng)久。她提到,希臘神話中的著名人物戴達(dá)羅斯,除了為自己和兒子伊卡洛斯建造了一對(duì)翅膀外,還建造了一個(gè)實(shí)質(zhì)上是巨型青銅機(jī)器人的塔洛斯,它會(huì)向過(guò)往的海盜投擲石頭。
“機(jī)器人”這個(gè)詞來(lái)自 robota,這是捷克劇作家 Karel ?apek 在他的 1920 年戲劇《羅素姆的萬(wàn)能機(jī)器人》中創(chuàng)造的一個(gè)術(shù)語(yǔ),意為“強(qiáng)制勞動(dòng)”。Isaac Asimov(艾薩克·阿西莫夫)在其科幻作品中概述的“機(jī)器人學(xué)三大法則”,禁止機(jī)器傷害人類,而在像《終結(jié)者》這樣的電影中,這些法則被反轉(zhuǎn),成為了對(duì)現(xiàn)實(shí)世界技術(shù)的普遍恐懼的經(jīng)典參考點(diǎn)。2014 年的電影《機(jī)械姬》是對(duì)圖靈測(cè)試的戲劇性演繹。去年的大片《造物主》設(shè)想了一個(gè)未來(lái)世界,在這個(gè)世界里,人工智能因引發(fā)核彈爆炸而被取締,這一事件被某些末日論者至少視為一個(gè)可能的外部風(fēng)險(xiǎn)。
Cave 和 Dihal 講述了另一部電影《超驗(yàn)駭客》(2014 年),在這部電影中,由 Johnny Depp(約翰尼·德普)飾演的一位人工智能專家將自己的意識(shí)上傳到了電腦中,這一情節(jié)推動(dòng)了元末日論者 Stephen Hawking(斯蒂芬·霍金)、物理學(xué)家 Max Tegmark(馬克斯·泰格馬克)以及人工智能研究員 Stuart Russell(斯圖爾特·拉塞爾)提出的敘事。在電影首映周末發(fā)表在《赫芬頓郵報(bào)》上的一篇文章中,三人寫道:“隨著好萊塢大片《超驗(yàn)駭客》的上映……它帶來(lái)了關(guān)于人類未來(lái)的沖突愿景,很容易將高度智能機(jī)器的概念視為純粹的科幻小說(shuō)。但這將是一個(gè)錯(cuò)誤,可能是我們有史以來(lái)最大的錯(cuò)誤?!?/span>

(來(lái)源:ALCON ENTERTAINMENT)
大約在同一時(shí)期,Tegmark 創(chuàng)立了未來(lái)生命研究所,其使命是研究和促進(jìn)人工智能安全。電影中德普的搭檔 Morgan Freeman(摩根·弗里曼)是該研究所董事會(huì)成員,而曾在電影中有客串的 Elon Musk 在第一年捐贈(zèng)了1000萬(wàn)美元。對(duì)于 Cave 和 Dihal 來(lái)說(shuō),《超驗(yàn)駭客》是流行文化、學(xué)術(shù)研究、工業(yè)生產(chǎn)和“億萬(wàn)富翁資助的未來(lái)塑造之戰(zhàn)”之間多重糾葛的完美例證。
去年在 Altman 的世界巡回倫敦站,當(dāng)被問(wèn)及他在推特上所說(shuō)“人工智能是世界一直想要的技術(shù)”是什么意思時(shí),站在房間后面,面對(duì)著數(shù)百名聽(tīng)眾,我聽(tīng)到他給出了自己的起源故事:“我小時(shí)候非常緊張,讀了很多科幻小說(shuō),很多周五晚上都待在家里玩電腦。但我一直對(duì)人工智能很感興趣,我覺(jué)得那會(huì)非??帷!彼狭舜髮W(xué),變得富有,并見(jiàn)證了神經(jīng)網(wǎng)絡(luò)變得越來(lái)越好?!斑@可能非常好,但也可能真的很糟糕。我們要怎么應(yīng)對(duì)?”他回憶起 2015 年時(shí)的想法,“我最終創(chuàng)立了 OpenAI。”
四、為何你應(yīng)該關(guān)心一群書(shū)呆子對(duì) AI 的爭(zhēng)論
好的,你已經(jīng)明白了:沒(méi)人能就人工智能是什么達(dá)成一致。但似乎每個(gè)人都同意的是,當(dāng)前圍繞 AI 的爭(zhēng)論已遠(yuǎn)遠(yuǎn)超出了學(xué)術(shù)和科學(xué)范疇。政治和道德因素正在發(fā)揮作用,而這并沒(méi)有幫助大家減少彼此認(rèn)為對(duì)方錯(cuò)誤的情況。
解開(kāi)這個(gè)謎團(tuán)很難。當(dāng)某些道德觀點(diǎn)涵蓋了整個(gè)人類的未來(lái),并將其錨定在一個(gè)無(wú)人能確切定義的技術(shù)上時(shí),要想看清正在發(fā)生什么變得尤為困難。
但我們不能就此放棄。因?yàn)闊o(wú)論這項(xiàng)技術(shù)是什么,它即將到來(lái),除非你與世隔絕,否則你將以這樣或那樣的形式使用它。而技術(shù)的形態(tài),以及它解決和產(chǎn)生的問(wèn)題,都將受到你剛剛讀到的這類人的思想和動(dòng)機(jī)的影響,尤其是那些擁有最大權(quán)力、最多資金和最響亮聲音的人。
這讓我想到了 TESCREALists。等等,別走!我知道,在這里引入另一個(gè)新概念似乎不公平。但要理解掌權(quán)者如何塑造他們構(gòu)建的技術(shù),以及他們?nèi)绾蜗蛉虮O(jiān)管機(jī)構(gòu)和立法者解釋這些技術(shù),你必須真正了解他們的思維方式。
Gebru 在離開(kāi)谷歌后創(chuàng)建了分布式人工智能研究所,以及凱斯西儲(chǔ)大學(xué)的哲學(xué)家和歷史學(xué)家 émile Torres(埃米爾·托雷斯),他們追蹤了幾個(gè)技術(shù)烏托邦信仰體系對(duì)硅谷的影響。二人認(rèn)為,要理解 AI 當(dāng)前的狀況——為什么像谷歌 DeepMind 和 OpenAI 這樣的公司正在競(jìng)相構(gòu)建通用人工智能(AGI),以及為什么像 Tegmark 和 Hinton 這樣的末日預(yù)言者警告即將到來(lái)的災(zāi)難——必須通過(guò)托雷斯所稱的 TESCREAL 框架來(lái)審視這個(gè)領(lǐng)域。
這個(gè)笨拙的縮寫詞(發(fā)音為tes-cree-all)取代了一個(gè)更笨拙的標(biāo)簽列表:超人類主義、外展主義、奇點(diǎn)主義、宇宙主義、理性主義、有效利他主義和長(zhǎng)期主義。關(guān)于這些世界觀的許多內(nèi)容(以及將會(huì)有的更多內(nèi)容)已經(jīng)被撰寫,所以我在這里就不贅述了。(對(duì)于任何想要深入探索的人來(lái)說(shuō),這里充滿了層層遞進(jìn)的兔子洞。選擇你的領(lǐng)域,帶上你的探險(xiǎn)裝備吧。)
這一系列相互重疊的思想觀念對(duì)西方科技界中某種類型的天才思維極具吸引力。一些人預(yù)見(jiàn)到人類的永生,其他人則預(yù)測(cè)人類將殖民星辰。共同的信條是,一種全能的技術(shù)——無(wú)論是通用人工智能(AGI)還是超級(jí)智能,選邊站隊(duì)吧——不僅觸手可及,而且不可避免。你可以在諸如 OpenAI 這樣的前沿實(shí)驗(yàn)室里無(wú)處不在的拼命態(tài)度中看到這一點(diǎn):如果我們不制造出 AGI,別人也會(huì)。
更重要的是,TESCREA 主義者認(rèn)為 AGI 不僅能解決世界的問(wèn)題,還能提升人類層次。“人工智能的發(fā)展和普及——遠(yuǎn)非我們應(yīng)該害怕的風(fēng)險(xiǎn)——是我們對(duì)自己、對(duì)子女和對(duì)未來(lái)的一種道德義務(wù),” Andreessen 去年在一篇備受剖析的宣言中寫道。我多次被告知,AGI 是讓世界變得更美好的途徑——這是 DeepMind 的首席執(zhí)行官和聯(lián)合創(chuàng)始人 Demis Hassabis(戴米斯·哈薩比斯)、新成立的微軟 AI 的首席執(zhí)行官及 DeepMind 的另一位聯(lián)合創(chuàng)始人Mustafa Suleyman、Sutskever、Altman 等人告訴我的。
但正如 Andreessen 所指出的,這是一種陰陽(yáng)心態(tài)。技術(shù)烏托邦的反面就是技術(shù)地獄。如果你相信自己正在建設(shè)一種強(qiáng)大到足以解決世界上所有問(wèn)題的技術(shù),你很可能也相信它有可能完全出錯(cuò)的風(fēng)險(xiǎn)。當(dāng)二月份在世界政府峰會(huì)上被問(wèn)及什么讓他夜不能寐時(shí),阿爾特曼回答說(shuō):“都是科幻小說(shuō)里的東西?!?/span>
這種緊張局勢(shì)是 Hinton 在過(guò)去一年里不斷強(qiáng)調(diào)的。這也是 Anthropic 等公司聲稱要解決的問(wèn)題,是 Sutskever 在他的新實(shí)驗(yàn)室關(guān)注的焦點(diǎn),也是他去年希望 OpenAI 內(nèi)部特別團(tuán)隊(duì)專注的,直到在公司如何平衡風(fēng)險(xiǎn)與回報(bào)上的分歧導(dǎo)致該團(tuán)隊(duì)大多數(shù)成員離職。
當(dāng)然,末日論也是宣傳的一部分。(“聲稱你創(chuàng)造了某種超級(jí)智能的東西有利于銷售數(shù)字,”迪哈爾說(shuō),“就像是,‘請(qǐng)有人阻止我這么好,這么強(qiáng)大吧。’”)但不論繁榮還是毀滅,這些人號(hào)稱要解決的到底是什么問(wèn)題?誰(shuí)的問(wèn)題?我們真的應(yīng)該信任他們建造的東西以及他們向我們的領(lǐng)導(dǎo)人講述的內(nèi)容嗎?
Gebru 和 Torres(以及其他一些人)堅(jiān)決反對(duì):不,我們不應(yīng)該。他們對(duì)這些意識(shí)形態(tài)及其可能如何影響未來(lái)技術(shù),特別是 AI 的發(fā)展持高度批評(píng)態(tài)度。從根本上講,他們將這些世界觀中幾個(gè)以“改善”人類為共同焦點(diǎn)的觀念與 20 世紀(jì)的種族優(yōu)生運(yùn)動(dòng)聯(lián)系起來(lái)。
他們認(rèn)為,一個(gè)危險(xiǎn)是,資源向這些意識(shí)形態(tài)要求的科技創(chuàng)新轉(zhuǎn)移,從構(gòu)建 AGI 到延長(zhǎng)壽命再到殖民其他星球,最終將以數(shù)十億非西方和非白人群體的利益為代價(jià),使西方和白人受益。如果你的目光鎖定在幻想的未來(lái)上,很容易忽視創(chuàng)新的當(dāng)下成本,比如勞工剝削、種族和性別偏見(jiàn)的根深蒂固以及環(huán)境破壞。
Bender 反思這場(chǎng)通往 AGI 競(jìng)賽的犧牲時(shí)問(wèn)道:“我們是否在試圖建造某種對(duì)我們有用工具?”如果是這樣,那是為誰(shuí)建造的,我們?nèi)绾螠y(cè)試它,它工作得有多好?“但如果我們要建造它的目的僅僅是為了能夠說(shuō)我們做到了,這不是我能支持的目標(biāo)。這不是值得數(shù)十億美元的目標(biāo)。”
Bender 說(shuō),認(rèn)識(shí)到 TESCREAL 意識(shí)形態(tài)之間的聯(lián)系讓她意識(shí)到這些辯論背后還有更多的東西?!芭c那些人的糾纏是——”她停頓了一下,“好吧,這里不僅僅只有學(xué)術(shù)思想。其中還捆綁著一種道德準(zhǔn)則?!?/span>
當(dāng)然,如果這樣缺乏細(xì)微差別地闡述,聽(tīng)起來(lái)好像我們——作為社會(huì),作為個(gè)人——并沒(méi)有得到最好的交易。這一切聽(tīng)起來(lái)也很愚蠢。當(dāng) Gebru 去年在一次演講中描述了 TESCREAL 組合的部分內(nèi)容時(shí),她的聽(tīng)眾笑了。也的確很少有人會(huì)認(rèn)同自己是這些思想流派的忠實(shí)信徒,至少在極端意義上不會(huì)。
但如果我們不了解那些構(gòu)建這項(xiàng)技術(shù)的人是如何看待它的,我們又怎么能決定我們要達(dá)成什么樣的協(xié)議呢?我們決定使用哪些應(yīng)用程序,我們想向哪個(gè)聊天機(jī)器人提供個(gè)人信息,我們?cè)谏鐓^(qū)支持哪些數(shù)據(jù)中心,我們想投票給哪些政治家?
過(guò)去常常是這樣:世界上有一個(gè)問(wèn)題,我們就建造一些東西來(lái)解決它。而現(xiàn)在,一切都顛倒了:目標(biāo)似乎是建造一臺(tái)能做所有事情的機(jī)器,跳過(guò)在找到解決方案前緩慢而艱難地識(shí)別問(wèn)題的工作。
正如 Gebru 在那次演講中所說(shuō),“一臺(tái)能解決所有問(wèn)題的機(jī)器:如果這都不是魔法,那它是什么呢?”
語(yǔ)義,語(yǔ)義……還是語(yǔ)義?
當(dāng)直截了當(dāng)?shù)貑?wèn)及什么是人工智能時(shí),很多人會(huì)回避這個(gè)問(wèn)題。Suleyman 不是這樣。四月份,微軟 AI 的首席執(zhí)行官站在 TED 的舞臺(tái)上,告訴觀眾他對(duì)六歲侄子提出同樣問(wèn)題時(shí)的回答。Suleyman 解釋說(shuō),他能給出的最佳答案是,人工智能是“一種新型的數(shù)字物種”——一種如此普遍、如此強(qiáng)大的技術(shù),以至于稱其為工具已不再能概括它能為我們做什么。
“按照目前的發(fā)展軌跡,我們正走向某種我們都難以描述的出現(xiàn),而我們無(wú)法控制我們不理解的事物,”他說(shuō),“因此,比喻、心智模型、名稱——這些都至關(guān)重要,只有這樣我們才能在最大限度利用人工智能的同時(shí)限制其潛在的負(fù)面影響?!?/span>

(來(lái)源:MIT TR)
語(yǔ)言很重要!我希望從我們經(jīng)歷過(guò)的曲折、轉(zhuǎn)折和情緒爆發(fā)中,這一點(diǎn)已經(jīng)很清楚了。但我也希望你在問(wèn):是誰(shuí)的語(yǔ)言?又是誰(shuí)的負(fù)面影響?Suleyman 是一家科技巨頭的行業(yè)領(lǐng)導(dǎo)者,該公司有望從其 AI 產(chǎn)品中賺取數(shù)十億美元。將這些產(chǎn)品的背后技術(shù)描述為一種新型物種,暗示著某種前所未有的東西,它具有我們從未見(jiàn)過(guò)的自主性和能力。這讓我感到不安,你呢?
我無(wú)法告訴你這里是否有魔法(諷刺與否)。我也無(wú)法告訴你數(shù)學(xué)是如何實(shí)現(xiàn) Bubeck 和其他許多人在這項(xiàng)技術(shù)中看到的(目前還沒(méi)有人能做到)。你必須自己下結(jié)論。但我可以揭示我自己的觀點(diǎn)。
在 2020 年寫到 GPT-3 時(shí),我說(shuō)人工智能最偉大的把戲就是說(shuō)服世界它存在。我仍然這么認(rèn)為:我們天生就會(huì)在表現(xiàn)出特定行為的事物中看到智慧,不管它是否存在。在過(guò)去幾年里,科技行業(yè)本身也找到了理由來(lái)說(shuō)服我們相信人工智能的存在。這使我對(duì)接收到的許多關(guān)于這項(xiàng)技術(shù)的聲明持懷疑態(tài)度。
與此同時(shí),大型語(yǔ)言模型讓我感到驚奇。它們究竟可以做什么以及如何做到,是我們這個(gè)時(shí)代最令人興奮的問(wèn)題之一。
也許人類一直對(duì)智慧著迷——它是什么,還有什么擁有它。Pavlick 告訴我,哲學(xué)家長(zhǎng)期以來(lái)一直在構(gòu)想假設(shè)場(chǎng)景,來(lái)想象遇到非人類來(lái)源的智能行為意味著什么——比如說(shuō),如果一波浪沖刷海灘,當(dāng)它退去時(shí)在沙灘上留下了一行字,拼湊成一首詩(shī)?
通過(guò)大型語(yǔ)言模型——通過(guò)它們的微笑面具——我們面臨著前所未有的思考對(duì)象?!八鼘⑦@個(gè)假設(shè)的東西變得非常具體,”Pavlick 說(shuō),“我從未想過(guò)一段語(yǔ)言的生成是否需要智慧,因?yàn)槲覐奈刺幚磉^(guò)來(lái)自非人類的言語(yǔ)。”
人工智能包含很多東西。但我不認(rèn)為它是類人的。我不認(rèn)為它是解決我們所有(甚至大部分)問(wèn)題的答案。它不是 ChatGPT、Gemini 或 Copilot,也不是神經(jīng)網(wǎng)絡(luò)。它是一種理念、一種愿景,一種愿望的實(shí)現(xiàn)。理念受到其他理念、道德、準(zhǔn)宗教信念、世界觀、政治和直覺(jué)的影響?!叭斯ぶ悄堋笔敲枋鲆幌盗胁煌夹g(shù)的有用簡(jiǎn)略說(shuō)法。但人工智能并不是單一事物;從來(lái)都不是,不管品牌標(biāo)識(shí)多么頻繁地烙印在外包裝上。
“事實(shí)是,這些詞匯——智力、推理、理解等——在需要精確界定之前就已經(jīng)被定義了,”Pavlick 說(shuō),“當(dāng)問(wèn)題變成‘模型是否理解——是或否?’時(shí),我并不喜歡,因?yàn)?,嗯,我不知道。詞語(yǔ)會(huì)被重新定義,概念會(huì)不斷進(jìn)化?!?/span>

我認(rèn)為這是對(duì)的。我們?cè)皆缒芎笸艘徊?,就我們不知道的事達(dá)成共識(shí),并接受這一切尚未塵埃落定,我們就能越快地——我不知道,或許不是手牽手唱起 Kumbaya(《歡聚一堂》),但我們可以停止互相指責(zé)。
原標(biāo)題:《麻省理工科技評(píng)論》萬(wàn)字長(zhǎng)文:什么是人工智能?
來(lái)源:MIT TR 數(shù)據(jù)科學(xué)與人工智能公眾號(hào)




