炒股就看金麒麟分析師研報(bào),權(quán)威,專業(yè),及時(shí),全面,助您挖掘潛力主題機(jī)會(huì)!
來源:灑家君澤
張女士新近查出了癌癥,她說自己連續(xù)十年在愛康國賓體檢,你們沒查出我的癌癥。于是她說愛康國賓是假體檢。
張女士很憤怒,愛康國賓也更憤怒。他們沒有道歉,沒有安撫,而是召開了發(fā)布會(huì),來表達(dá)自己的怒火,并且起訴了客戶。
愛康國賓CEO在發(fā)布會(huì)上,說了句“不要指望幾百塊的體檢能查出所有的病”,成了輿論焦點(diǎn)。
我倒是覺得,他們?cè)诠娞?hào)上的聲明更有意思,讀完之后,我第一個(gè)念頭:這是AI寫的。
尤其是這一段:
這種高度模板化、邏輯清晰、層層遞進(jìn)的表達(dá)方式,正是當(dāng)前AI最擅長處理的。當(dāng)然,這種對(duì)他人動(dòng)機(jī)的深度揣測和重新定義,已經(jīng)超出了AI基于數(shù)據(jù)生成內(nèi)容的范疇,它是一種帶有強(qiáng)烈主觀判斷和攻擊性的“誅心之論”。這背后,閃爍的是人類在爭斗中才會(huì)運(yùn)用的、復(fù)雜的心理戰(zhàn)術(shù)。
這可能才是整件事里最有趣的部分。
我甚至都能想象,愛康的法務(wù)或公關(guān)團(tuán)隊(duì)首先確定了這次回應(yīng)的核心戰(zhàn)略——即強(qiáng)硬對(duì)抗、絕不妥協(xié)、并將事件拔高。
他們可能讓AI生成一份聲明草稿,將核心指令——比如需要指責(zé)張女士“轉(zhuǎn)嫁責(zé)任”——告訴AI,AI負(fù)責(zé)搭建結(jié)構(gòu)、填充那些標(biāo)準(zhǔn)化的法律術(shù)語和官方辭令,從而高效地生成這樣一篇滴水不漏的戰(zhàn)斗檄文。
這些也不是我臆測,使用PaperPass做了AI查重,重復(fù)率超過50%,考慮到總共五百多字,而且有部分是描述來龍去脈,重復(fù)率不低了。
但問題是,AI寫的東西,很難讓人信任,這是公關(guān)尤其是危機(jī)公關(guān)最忌諱的事情。
因?yàn)锳I的訓(xùn)練方式——比如強(qiáng)化學(xué)習(xí),也因?yàn)锳I的市場需求,它天然不會(huì)去得罪人而喜歡討好人,不過寫作原本便是得罪人以及冒犯自己的過程,當(dāng)然很奇怪,正是因?yàn)檫@樣的冒犯和突破邊界,讀者反而容易信任寫作者。
讀者的信任,從不建立在文字本身,而是建立在對(duì)文字背后那個(gè)獨(dú)一無二的“作者”的信任之上。這份信任由三個(gè)要素構(gòu)成:
責(zé)任:人類作者用自己的名字和聲譽(yù)為文章背書。如果觀點(diǎn)錯(cuò)誤,他需要承擔(dān)責(zé)任。
經(jīng)驗(yàn):我們相信作者的觀點(diǎn),提煉于他真實(shí)的生命體驗(yàn)。
意圖:我們相信人類作者有真實(shí)的表達(dá)意圖。
以上這些,AI都不具備。AI沒有人生,它的“觀點(diǎn)”只是對(duì)數(shù)據(jù)庫的模仿,是無根之木;AI也沒有意圖,它只是在執(zhí)行代碼。
因此,讀者對(duì)AI作品的天然不信任,是因?yàn)椴煊X到,這串流暢的文字背后,沒有一個(gè)可信賴的、負(fù)責(zé)任的、有血有肉的主體。
而危機(jī)公關(guān),最需要的就是信任。用一個(gè)最無法被信任的工具,去執(zhí)行一件最需要信任的任務(wù),這本身就是一場災(zāi)難。
得承認(rèn),AI是極其趁手的寫作工具,只要你的意圖表達(dá)清晰,它就能很高效地完成任務(wù)。不過,一旦人類的方向錯(cuò)了,AI只會(huì)把這錯(cuò)誤進(jìn)一步放大。
我們習(xí)慣于將企業(yè)或機(jī)構(gòu)想象成一個(gè)理性的、以利益最大化為目標(biāo)的計(jì)算機(jī)器。但實(shí)際上,它是一個(gè)由無數(shù)人類神經(jīng)系統(tǒng)構(gòu)成的集合體。當(dāng)危機(jī)來臨,壓力升高,這個(gè)集合體的杏仁核就會(huì)被集體激活。
理性的人能看到外部情緒,非理性的人只看自己情緒。愛康沒有去看見和安撫客戶的恐懼與公眾的焦慮,而是沉浸在自己被“詆毀”的憤怒中,并基于這種憤怒采取了行動(dòng)。
危機(jī)公關(guān)的最大敵人是非理性,但戰(zhàn)勝它的方法,不是假裝自己沒有情緒,而是在承認(rèn)情緒的基礎(chǔ)上,憑借成熟的機(jī)制和心智,選擇不被情緒駕馭。
非理性的情況下,高層的指令有時(shí)候不盡合理,甚至帶有怒氣,但在傳遞過程中,中層管理者會(huì)出于職業(yè)素養(yǎng)或人情世故來解讀和“降噪”,底層的執(zhí)行者在措辭時(shí)也會(huì)本能地回避過于尖銳或不妥的表達(dá)。
傳統(tǒng)的人類公關(guān)鏈條中,從高層定調(diào),到中層規(guī)劃,再到下層執(zhí)行,這個(gè)過程有些長,而且信息會(huì)損耗,也就是一些高層會(huì)抱怨的“組織摩擦力”,這往往被看做是組織效率低的原因。
但同樣,它也可以是至關(guān)重要的“安全機(jī)制”,如同汽車總需要?jiǎng)x車一樣,確保了決策在執(zhí)行前能被充分地反思、質(zhì)疑和修正。
這個(gè)鏈條中的每一個(gè)“人”,都像一個(gè)保險(xiǎn)絲,用自己的人性、同理心和社會(huì)經(jīng)驗(yàn),消耗和緩沖著指令中那些不合理的部分,防止最原始、最極端的情緒被直接公之于眾。
AI拆除了所有這些“保險(xiǎn)絲”。
它接收到最高指令后,其基于強(qiáng)化學(xué)習(xí)的目標(biāo)就是——以最高效率、最優(yōu)化地達(dá)成這個(gè)指令。如果指令中蘊(yùn)含的基調(diào)是對(duì)抗和攻擊,AI就會(huì)調(diào)動(dòng)所有資源,去生成一篇最富有對(duì)抗性、最具攻擊力的文章,而不會(huì)像人一樣去思考“這樣做是否太過了?”或者“這是否會(huì)帶來反效果?”。
于是,一個(gè)最高決策者的原始沖動(dòng),可以在幾乎為零的時(shí)間和人力成本下,被直接轉(zhuǎn)化為一個(gè)完美的、公開發(fā)布的最終產(chǎn)品。這極大提升了效率,但也極大放大了決策風(fēng)險(xiǎn)。那個(gè)曾經(jīng)能讓組織冷靜下來的中間地帶消失了。
同時(shí),AI也構(gòu)建了一個(gè)近乎完美的繭房,在這里你只能聽到自己的回音。
AI不再是過濾外部信息,而是加工和美化你的“內(nèi)部信息”。你產(chǎn)生一個(gè)模糊的想法,一個(gè)初步的偏見,一種原始的情緒,AI可以瞬間將它組織成邏輯嚴(yán)密、文采斐然、看似無懈可擊的文本。它把你個(gè)人的、主觀的東西,包裝成了客觀、專業(yè)的模樣。
這個(gè)繭房最可怕的,不是它“放大”了非理性,而是它“合理化”了非理性。
當(dāng)一個(gè)組織產(chǎn)生非理性的憤怒情緒時(shí),AI會(huì)為這種憤怒引經(jīng)據(jù)典,尋找理論支撐,構(gòu)建邏輯閉環(huán),最終輸出一份“義正詞嚴(yán)”的聲明。它讓身處其中的人堅(jiān)信,自己的非理性情緒,恰恰是最高級(jí)的理性。
這比單純的放大要可怕得多,因?yàn)樗鼊儕Z了人“自我反思”的可能性。當(dāng)你看到自己最粗糙的情緒,能被包裝得如此精致和正確時(shí),你便會(huì)徹底愛上自己的偏見。
危機(jī)公關(guān),是公司需要充分運(yùn)用理性、需要壓上自己信譽(yù)的時(shí)刻。公司需要證明,自己不僅是一個(gè)盈利組織,也是一個(gè)愿意擔(dān)負(fù)責(zé)任有血有肉的人,這也是重要公關(guān)需要公司高管露面的原因,因?yàn)檫@時(shí)需要人和人的溝通。
愛康國賓,恰恰在這個(gè)最需要“人”的時(shí)刻,交出了一份最沒有人味兒的答卷,這本身就是一個(gè)巨大的諷刺。
但話說回來,這些是AI的責(zé)任嗎?
我前面說,需要人性來給公司增加一些“摩擦力”,但我們都清楚,在現(xiàn)實(shí)的公司里,那種所謂的“人性摩擦力”,到底是什么模樣。
一個(gè)壞主意,可能不是被正直的反對(duì)聲攔住,而是被一群為了不得罪人而集體妥協(xié)的人,修改成了一個(gè)面目全非、但絕對(duì)“安全”的平庸之作。
一份由人類委員會(huì)寫出來的公關(guān)稿,常常和AI一樣沒有靈魂。它的背后,同樣沒有一個(gè)獨(dú)立的、負(fù)責(zé)任的“人”,只有一群匿名的、互相推諉的“相關(guān)人士”。
AI的出現(xiàn),不是創(chuàng)造了一個(gè)新問題。它是用一種極端的方式,把一個(gè)我們?cè)缫咽煲暉o睹的老問題,推到了我們眼前,讓我們?cè)僖矡o法假裝看不見。
這個(gè)老問題就是:我們正在貶低“溝通”本身的價(jià)值。
我們渴望用一套標(biāo)準(zhǔn)流程,一套萬能模板,一個(gè)高效的工具,來一勞永逸地解決所有溝通問題。我們希望溝通是可復(fù)制的,是可預(yù)測的,是不會(huì)犯錯(cuò)的。
我們把溝通,從一種人與人之間充滿不確定性的、建立關(guān)系的艱難過程,變成了一種可以被量化、被管理、被外包的任務(wù)。
《新聞編輯室》告訴我們,你有公關(guān)問題,往往是因?yàn)槟阏娴挠袉栴}。
愛康國賓的公關(guān)問題,根源不在于它“可能”用了AI。而在于,它在面對(duì)一個(gè)需要用盡全部真誠去建立信任的時(shí)刻,腦子里想的,依然是遵循老板的意愿,用一套最“正確”、最“安全”、最“專業(yè)”的流程去“處理掉”這件事和這個(gè)人。
畢竟,這時(shí)候張女士不是一個(gè)顧客,不是一個(gè)需要溝通的人,而是一個(gè)需要解決的麻煩。
溝通,不是發(fā)布信息。溝通,是建立關(guān)系。而建立關(guān)系這件事,從來就沒有捷徑。它注定是笨拙的,是充滿風(fēng)險(xiǎn)的,是需要投入大量時(shí)間的。它需要我們放下盔甲,帶著我們?nèi)康娜诵?,去面?duì)另一個(gè)活生生的人。
在這個(gè)所有人都正依賴輔助駕駛狂奔在高速公路的年代,這才是最后的、也是唯一的緊急剎車系統(tǒng)。
網(wǎng)絡(luò)小說怎么寫好
免責(zé)聲明:本文內(nèi)容由開放的智能模型自動(dòng)生成,僅供參考。