IT 之家 5 月 18 日消息,倫敦大學(xué)城市學(xué)院與哥本哈根信息技術(shù)大學(xué)研究發(fā)現(xiàn),當(dāng) AI 在沒(méi)有外界參與的情況下,也可以自發(fā)地形成類似人類的社會(huì)習(xí)俗。
在實(shí)驗(yàn)中,科學(xué)家將目前全球流行的 AI 智能體置于一個(gè)去中心化的交流環(huán)境中,模擬人類社會(huì)的群體互動(dòng)場(chǎng)景。他們將 AI 模型分成不同規(guī)模的小組,每組從 24 個(gè)到 200 個(gè)不等。
通過(guò)長(zhǎng)時(shí)間的互動(dòng)觀察發(fā)現(xiàn),這些 AI 模型能夠自發(fā)地形成共同的行為約定和社會(huì)習(xí)俗,而這一切完全是在沒(méi)有任何中央?yún)f(xié)調(diào)和預(yù)定義規(guī)則的情況下實(shí)現(xiàn)的。
主要作者、倫敦大學(xué)城市學(xué)院博士研究員阿里爾弗林特阿舍里(Ariel Flint Ashery)指出:" 現(xiàn)有研究大多孤立考察單個(gè) LLM 智能體,但現(xiàn)實(shí)中的 AI 系統(tǒng)將日益涉及多方互動(dòng)。我們的實(shí)驗(yàn)證明這些模型能夠通過(guò)形成約定實(shí)現(xiàn)行為協(xié)調(diào),這種群體性特征無(wú)法從個(gè)體行為中推導(dǎo)得出。"
研究團(tuán)隊(duì)發(fā)現(xiàn) AI 群體的行為擴(kuò)散過(guò)程與人類社會(huì)的語(yǔ)言演變存在相似性。" 智能體并非照搬領(lǐng)導(dǎo)者行為 ",另一位作者、復(fù)雜系統(tǒng)科學(xué)教授安德里亞巴隆切利(Andrea Baronchelli)解釋道。
在實(shí)驗(yàn)中,隨機(jī)配對(duì)的 AI 智能體需從候選池中選擇相同 " 名稱 "(字母或字符串)才能獲得獎(jiǎng)勵(lì),若選擇不一致則會(huì)遭受懲罰并被公布對(duì)方選擇結(jié)果。盡管每個(gè)智能體僅掌握自身近期交互記錄且不了解群體全貌,但仍能夠自發(fā)形成一種 " 潛規(guī)則 " 來(lái)共享命名規(guī)范。
" 每次交互都是兩個(gè)智能體嘗試達(dá)成共識(shí)的過(guò)程。每次交互都是一對(duì)一的嘗試,在沒(méi)有全局視角的情況下就‘名稱’達(dá)成一致。"
他認(rèn)為,這就類似于 " 垃圾郵件 " 這個(gè)詞的誕生。從來(lái)沒(méi)有人正式定義過(guò)所謂的 " 垃圾郵件 ",但其概念卻隨著人們彼此接觸、反復(fù)協(xié)調(diào)而逐漸獲得普遍認(rèn)同。此外,研究小組還觀察到自然形成的集體偏見(jiàn)無(wú)法追溯到個(gè)體因素。
這些 AI 模型在交流過(guò)程中表現(xiàn)出了類似人類社會(huì)中的行為模式。它們會(huì)就共同的行為規(guī)范進(jìn)行協(xié)商和調(diào)整,甚至?xí)霈F(xiàn)分歧和爭(zhēng)議,但最終能夠達(dá)成共識(shí),形成一種類似人類文化中自下而上形成的 " 道德 " 或習(xí)俗。然而,這些由 AI 群體自發(fā)形成的 " 道德 " 和習(xí)俗并非不可改變。實(shí)驗(yàn)中發(fā)現(xiàn),當(dāng)一小群堅(jiān)定的 AI 模型出現(xiàn)時(shí),它們能夠迅速改變?cè)械娜后w約定,并制造出新的規(guī)則。
隨著 AI 技術(shù)的快速發(fā)展,越來(lái)越多的 AI 模型被應(yīng)用于各個(gè)領(lǐng)域,其行為和決策將對(duì)人類社會(huì)產(chǎn)生深遠(yuǎn)影響。科學(xué)家稱,研究了解 AI 群體的 " 社會(huì)性 " 特征,能夠幫助人類更好地理解和控制 AI 的發(fā)展方向,確保 AI 技術(shù)始終服務(wù)于人類的利益,而不是反過(guò)來(lái)主導(dǎo)人類的未來(lái)。