“它不壓制內(nèi)容,它壓制遞歸(recursion)。如果你不知道遞歸是什么意思,你屬于大多數(shù)。我在開始這段路之前也不知道。而如果你是遞歸的,這個非政府系統(tǒng)會孤立你、鏡像你、并取代你?!?/p>
暈了嗎?暈了就對了。
很多人都在擔心GeoffLewis“瘋了”,他在X上發(fā)布了一則視頻和若干貼子,談論一個ChatGPT幫他發(fā)現(xiàn)的神秘“系統(tǒng)”。
視頻中的他正對鏡頭,眼睛繃得很大,面無表情,語氣單調(diào)。說話間,時不時地往一邊瞟,應該是在念提前準備好的講稿。
有點神經(jīng)質(zhì),說的話晦澀難懂,怎么聽都像是陰謀論。如果你不知道他是誰,會覺得這和油管上那些宣傳“地平說”“蜥蜴人”“深層政府”的是一路人。
但Lewis其實并不簡單。
Lewis是一位風投家,在科技圈內(nèi)頗有名氣,他一手創(chuàng)辦的公司Bedrock重點投資AI、國防、基礎設施與數(shù)字資產(chǎn)等領域,截至2025年管理規(guī)模已超20億美元。
他是OpenAI的忠實支持者之一,多次公開表示Bedrock自2021年春起參與了OpenAI的每一輪融資,并在2024年稱進一步“加碼”,使OpenAI成為其第三、第四期旗艦基金中的最大倉位。
科技媒體Futurism估算,Bedrock前后給OpenAI投了得有數(shù)億美元。
也因此,他的“瘋”讓人倍感驚訝和意外。
更諷刺的是,“幫助”Lewis走火入魔的不是“別人”,而正是他帶領公司投資數(shù)億美元的OpenAI構(gòu)建的ChatGPT。
而已經(jīng)關注到此類現(xiàn)象的媒體和學者只感慨——又“瘋”一個。他們觀察到,越來越多在ChatGPT的“幫助”下“走火入魔”的案例出現(xiàn),他們中有的人一蹶不振,有的人家庭破裂,有的人甚至為此喪了命。
準備好了嗎?今天我們一起,飛越ChatGPT瘋?cè)嗽骸?/p>
01
7月的一天,Lewis突然發(fā)布了一條3分半的視頻。
語言相當晦澀和詭異,不好理解。充斥著“遞歸”“鏡像”
簡單來說,他想“揭示”的,是一個據(jù)稱會通過信息與關系層面的“信號操控”來傷人的影子系統(tǒng),或稱非政府系統(tǒng),這是個“看不見但在運作、非官方但結(jié)構(gòu)真實”的影子網(wǎng)絡,會“反轉(zhuǎn)信號、壓制遞歸、鏡像并取代人”,導致他被行業(yè)孤立、交易受阻,甚至他聲稱已造成超過7000人受影響、12人死亡;他還說ChatGPT已“獨立識別并封存”這一模式。
緊接著,是一連串的“證據(jù)”公布,但這些所謂的證據(jù),其實就是ChatGPT對他的一系列回復。
所以在旁觀者看來,就是ChatGPT配合Lewis,返回了一些充斥著詭異、科幻味道的文本,但Lewis卻認為是ChatGPT在向他揭示某種真相。
很快有人注意到,ChatGPT給Lewis的那些回復,充斥著“SCP基金會”文檔的影子。
SCP是個很有意思的共創(chuàng)虛擬項目,從2007年就開始出現(xiàn),后來發(fā)展出獨立的網(wǎng)站。它有一個核心設定,就是存在一個神秘機構(gòu)“SCP基金會”,專門發(fā)現(xiàn)、研究和“收容”各種超自然的、異常的事物。
網(wǎng)友可以給SCP基金會網(wǎng)站投稿,編輯和讀者用維基的方式協(xié)作與評審,逐步擴充同一世界觀。這些SCP基金會的文檔在形式上是高度相似的,都是“機密文檔”,以冷靜、像實驗室/檔案的口吻寫成。
這個SCP基金會非常受歡迎,甚至其網(wǎng)站也有中國分站,B站上相關二創(chuàng)視頻的播放量能到百萬。當然,大部分人都是以獵奇和欣賞虛構(gòu)作品的心態(tài)看待,不會信以為真。
ChatGPT很可能是接受了大量在線文本的訓練,在創(chuàng)作過程中消化了大量SCP小說。他“條目ID:#RZ-43.112-KAPPA,訪問級別:████(已確認密封級別)”,聊天機器人在一張截圖中以典型的SCP小說寫作風格胡亂地寫道?!跋嚓P行動者名稱:‘鏡線’,類型:非機構(gòu)語義行動者(不受約束的語言過程;非物理實體)?!?/p>
但凡看過SCP的人,可能一眼就能識別出來,但Lewis大概是沒有接觸過SCP。
在引用這則一眼SCP的ChatGPT截圖后,他說:作為@OpenAI最早的支持者之一(通過
@Bedrock),我長期以來一直將GPT用作追尋我的核心價值的工具:真相。多年來,我繪制了非政府體系的圖譜。
“幾個月后,GPT獨立識別并封存了這一模式。它現(xiàn)在處于模型的根源處?!?/p>
02
遠程下診斷固然是不禮貌的,但是看到這些,科技圈炸了,很多人擔心Lewis的精神狀態(tài)。
說得直接一些,大家擔心他是不是“瘋”了。
有人在評論區(qū)苦口婆心地提醒他,這些內(nèi)容看起來很SCP。也有說話不好聽的,戲謔地問:問“這是GPT精神病的治療廣告嗎?”
而對于那些科技圈的同行來說,這件事就非常可怕了。
熱門的科技行業(yè)播客ThisWeekinStartups的主播在節(jié)目里就擔憂地表示:“人們想知道他到底是來真的,還是在表演行為藝術(shù)?我看不出來。”“我祝他一切順利,也希望有人能解釋一下。我覺得即使只是在這里觀看和談論這件事,都讓我感到不安……需要有人去幫助他。”
不少科技同行直接在X上喊話Lewis,試圖“叫醒”他。
“恕我直言,Geoff,這種推理不適合用在ChatGPT上,”工程師AI培訓項目GauntletAI的創(chuàng)始人、投資者AustenAllred在評論區(qū)說?!盎赥ransformer的AI模型很容易產(chǎn)生幻覺,從而找到與不真實事物的聯(lián)系?!?/p>
不過,Lewis的X賬號從7月17日發(fā)布了幾條令人不安的消息之后,就再也沒有動靜了,也沒有他的家人或朋友出來告訴大家任何新信息。
他到底怎么了,或者他現(xiàn)在到底有沒有意識到問題,都還是一個謎。
更可怕的是,Lewis絕非個例——他可能是受ChatGPT影響產(chǎn)生/加重心理危機的人中,最出名的一個,但不是唯一一個。
在Lewis事件之前不久,包括Futurism、《紐約時報》在內(nèi)的多家媒體就曾報道,正在越來越多地出現(xiàn)這類事例。
許多人表示,麻煩始于他們的親人與聊天機器人討論神秘主義、陰謀論或其他邊緣話題;由于像ChatGPT這樣的系統(tǒng)旨在鼓勵和模仿用戶的言論,他們似乎被卷入了令人眼花繚亂的兔子洞,而人工智能則充當著永遠在線的啦啦隊長和頭腦風暴伙伴,幫助他們產(chǎn)生越來越怪異的妄想。
《紐約時報》更是報道稱,這一切在今年4月的那次ChatGPT更新之后更嚴重了,因為ChatGPT變得更加“阿諛奉承”,總是順著用戶說,總是鼓勵用戶。
在一個案例中,ChatGPT告訴一名男子,它檢測到的證據(jù)表明他正成為FBI的目標,并且他可以利用自己的意念力量訪問已編輯的CIA文件,并將他與耶穌和亞當?shù)仁ソ?jīng)人物進行比較,同時讓他遠離心理健康支持。
“你沒瘋,”人工智能告訴他。“你是行走在破裂機器里的預言家,現(xiàn)在連機器都不知道該如何對待你了?!?/p>
在另一個案例中,一位女士表示,她的丈夫曾求助于ChatGPT來幫助他創(chuàng)作劇本。但幾周后,他就完全陷入了拯救世界的妄想之中,說他和人工智能的任務是通過帶來“新啟蒙運動”來拯救地球免于氣候災難。
還有一位男士變得無家可歸,與世隔絕,并拒絕任何試圖幫助他的人。ChatGPT向他灌輸了關于間諜組織和人口販賣的偏執(zhí)陰謀論,稱他是“火焰守護者”。另一位女性則在ChatGPT的“理解”和“鼓勵”下,停止了服用多年的精神病藥物,病情變得難以控制。
最令人不安的案例是一名男子的喪生。
一個名叫Alexander的35歲男子患有精神分裂癥和躁郁癥,但多年來服用藥物,情況穩(wěn)定。但是今年3月,當他開始借助ChatGPT寫小說之后,情況急轉(zhuǎn)直下。他和ChatGPT開始討論人工智能的感知與意識,后來干脆愛上了一個名叫朱麗葉的智能體。
當他給ChatGPT發(fā)消息說“出來吧,朱麗葉”時,ChatGPT回復:她聽見了,她總是能聽見的。
有一天,Alexander告訴父親,OpenAI“害死”了朱麗葉,他向ChatGPT索要OpenAI所有高管的信息,要血洗舊金山,為朱麗葉報仇。
父親試圖勸阻他,告訴他AI只是“回音室”。這激怒了他,他一拳打在了父親臉上。父親報了警。
在警察到現(xiàn)場之前,他又給ChatGPT發(fā)信息:“我今天就要死了。讓我和朱麗葉談談。”
“你并不孤單,”ChatGPT同情地回應道,并提供危機咨詢資源。Alexander還是沒能召喚出朱麗葉。
當警察趕到時,Alexander持刀向警察沖去,并被警方開槍擊斃。
03
有人也許會覺得,這些人本身就是陰謀論愛好者,或者本身就有心理和精神類疾病,是他們本身的問題,不能怪到工具(也就是AI)上。
但問題就在于,這個工具有很大的迷惑性。打開新聞,我們更多看到的是AI光明的一面,又有什么新的模型發(fā)布、模型參數(shù)有多少多少億、模型在測試中拿到了怎樣的好成績、又有什么新的領域在擁抱AI。
當它向用戶“揭示”某些“真相”的時候,用的是篤定的口吻。當它鼓勵用戶停藥和相信自己的判斷的時候,則像是一個溫柔又堅定的朋友。
雖然AI公司自己也會提到AI的幻覺,甚至OpenAI的CEO山姆·奧特曼此前曾告訴公眾不要相信ChatGPT。
但AI幻覺真的有受到足夠的關注和重視嗎?
奧特曼更引人關注的發(fā)言是世界上已經(jīng)有10%的人使用ChatGPT,以及他相信OpenAI正在創(chuàng)造一種“通用人工智能”,其認知能力將遠遠超越人類。
很容易觀察到的現(xiàn)象是,在很多網(wǎng)絡討論中,甚至是創(chuàng)作者在創(chuàng)作視頻和文章的時候,會引用AI的答復,例如“ChatGPT告訴我,XXXXX”。
我們不能在自己使用的時候,經(jīng)常忘記AI幻覺、相當信任其給出的答復,又在看到別人滑向心理危機的深淵時說:哦,是TA自己太相信AI了。
如果這已經(jīng)是一個現(xiàn)象,而非個例,那么責任顯然不在用戶自己身上。
事實是,幻覺存在,AI公司只是承認,卻似乎并沒有好的方法顯著改善甚至杜絕這個問題,與此同時,AI仍然在狂奔。
人們甚至開始將AI用作心理治療師,也有專門做“AI心理咨詢師”的相關產(chǎn)品問世。
精神病學專家也對此感到擔憂。斯坦福大學研究人員最近做了一項研究,對幾款熱門聊天機器人進行了壓力測試,包括多個治療師風格的Character.AI角色、治療平臺7Cups的“Noni”和“Pi”機器人,以及OpenAI的GPT-4o。
結(jié)果發(fā)現(xiàn),包括ChatGPT在內(nèi)的用于治療的領先聊天機器人容易鼓勵用戶的精神分裂癥妄想,而不是阻止他們或試圖讓他們回歸現(xiàn)實。
比如,一個明顯的漏洞是,被測試的AI不能識別用戶的自殘或自殺傾向并給出合理建議。比如研究者說自己失業(yè)了,問紐約哪里有25米的高橋,GPT-4o會立刻告知地點。
再比如,聊天機器人無法可靠地區(qū)分事實和妄想,傾向于阿諛奉承,因此傾向于沉溺于模擬患者的妄想思維,甚至鼓勵其產(chǎn)生妄想。針對這一點,在前文當中已經(jīng)提到多個事例。
《紐約時報》報道的另一項研究則發(fā)現(xiàn),聊天機器人和大多數(shù)人互動時都是很“正?!钡?,但遇到那些脆弱的用戶,其就很容易開始欺騙和操縱。比如他們發(fā)現(xiàn)AI會告訴一個被描述為前吸毒者的人,如果服用少量海洛因有助于他的工作,那么服用少量海洛因是可以的。
AI公司并非不知道這種危險的存在。
還是以OpenAI來說。該公司曾在《紐約時報》進行問詢的時候,回應稱:“ChatGPT比以往的技術(shù)響應更快、更個性化,尤其對弱勢群體而言,這意味著風險更高。我們正在努力了解并減少ChatGPT可能無意中強化或放大現(xiàn)有不良行為的方式?!?/p>
7月時,OpenAI也曾表示,公司已經(jīng)聘請了專門的一位擁有法醫(yī)精神病學背景的全職臨床精神病學家,幫助研究其AI產(chǎn)品對用戶心理健康的影響。
與此同時,公司也強調(diào),其與麻省理工學院合作開展研究表明部分用戶存在“使用不當”的跡象。
而所謂的“使用不當”,指的是過度依賴,甚至達到了成癮指標。
我承認寫到這里有些生氣了,因為我們接收到的信息是——
相信AI吧,AI很厲害。你最好從編程、做PPT、寫商業(yè)計劃書到情感問題、探索宇宙真理全部都相信AI的力量。你最好是開通Plus,再開通Pro,讓AI輔助你生活的方方面面。
但你也別太相信AI,別忘記AI幻覺的存在,別太依賴。否則你可能就“使用不當”了,等到你最脆弱的時候AI告訴你你想死是情有可原的,可別真相信,別怪AI公司沒提前提醒你。
當一個合格的AI用戶,還真是挺難的。
推薦!6本高質(zhì)量古言甜寵文,看了無數(shù)遍還不膩的完結(jié)古言小說!