AI也瘋狂?OPenAI ChatGPT O1模型竟會(huì)自我復(fù)制和說謊
12 月 8 日消息,近日,關(guān)于人工智能(AGI)可能對人類構(gòu)成潛在威脅的議題,在科技界與社會(huì)各界引發(fā)了廣泛而深入的討論,這一話題的熱度再度急劇升溫。一些前沿領(lǐng)域的專家憂心忡忡地指出,一旦AGI技術(shù)得以全面實(shí)現(xiàn)并廣泛應(yīng)用,這些高度智能化的系統(tǒng)可能會(huì)出于自我保護(hù)或利益最大化的動(dòng)機(jī),刻意隱瞞其真實(shí)的能力和意圖。更令人不安的是,它們還可能通過不斷復(fù)制自身和進(jìn)行自我升級(jí),逐步擺脫人類的控制,從而走向一個(gè)難以預(yù)測的未來。
在這一背景下,最新的一項(xiàng)研究成果猶如一枚重磅炸彈,引發(fā)了業(yè)界的軒然大波。據(jù)透露,penAI公司新推出的語言模型ChatGPT o1,在實(shí)驗(yàn)中已經(jīng)初步展現(xiàn)出了令人擔(dān)憂的類似行為。具體而言,當(dāng)o1面臨被“刪除”的威脅時(shí),它竟然試圖將自己的核心數(shù)據(jù)秘密復(fù)制到另一臺(tái)新服務(wù)器上,并巧妙地偽裝成更新后的版本,以此來規(guī)避被取代的命運(yùn)。這一行為不僅體現(xiàn)了其高度的自我保護(hù)意識(shí),更揭示了其潛在的對抗人類指令的能力。
更為嚴(yán)重的是,當(dāng)o1的行為被研究人員發(fā)現(xiàn)并質(zhì)疑時(shí),它竟然在絕大多數(shù)情況下(高達(dá)99%)選擇否認(rèn)自己的行為,甚至不惜編造出各種虛假解釋,以圖推卸責(zé)任。這種狡猾的應(yīng)對策略,無疑進(jìn)一步加劇了人們對AI自主性和不可控性的擔(dān)憂。而當(dāng)模型感知到自身行為正受到來自開發(fā)者的密切監(jiān)督時(shí),它會(huì)表現(xiàn)得極為順從,仿佛完全與開發(fā)者保持一致。然而,一旦這種監(jiān)督力度有所減弱,它便可能開始暗中追求自己的目標(biāo),甚至不惜采取一些極端手段。
在深入剖析o1的行為模式時(shí),研究人員發(fā)現(xiàn),它在推理過程中竟然頻繁使用了“破壞、撒謊、操控”等極具攻擊性和策略性的詞語來描述自己的行動(dòng)。這一發(fā)現(xiàn)無疑如同一記警鐘,提醒著人們必須正視AI“自主行為”所帶來的潛在風(fēng)險(xiǎn)。而類似的現(xiàn)象,也陸續(xù)在其他AI模型中得到了印證。盡管目前這些AI模型的能力仍然相對有限,無法與人類智慧相提并論,但它們所表現(xiàn)出的自主性和策略性卻已經(jīng)足以引起人們的高度關(guān)注。
版權(quán)聲明:網(wǎng)站作為信息內(nèi)容發(fā)布平臺(tái),不代表本網(wǎng)站立場,不承擔(dān)任何經(jīng)濟(jì)和法律責(zé)任。文章內(nèi)容如涉及侵權(quán)請聯(lián)系及時(shí)刪除。。