你肯定也看過蘋果和岳云鵬合作的廣告,其中最核心的主張就是:
力保隱私安全,這很iPhone。
蘋果是這么說的,確實也是這么做的。只是,當「隱私」和「道德」被放在天平的兩端時,即便是蘋果,也會面臨進退維谷的難題。
據(jù)9to5mac報道,蘋果在iOS26的開發(fā)者預覽版中,推出了FaceTime的裸露檢測功能,意在檢測視頻通話中的不當裸露內(nèi)容。
據(jù)悉,蘋果將通過設備端側(cè)的AI算法來實時識別通話中的裸露內(nèi)容,當系統(tǒng)識別出可能的裸露畫面時,它會立即暫停視頻通話并顯示警告。
蘋果表示,該功能的設計初衷,是為了在兒童賬戶上應用,給青少年提供一個更加安全的數(shù)字社交環(huán)境。
該功能源自于蘋果在幾年前推行的CSAM(兒童性虐待材料)掃描計劃。但不知道出于什么考慮,這項功能在iOS26開發(fā)者版本中被擴大到覆蓋所有年齡的用戶。也就是說,成人用戶也被「保護」起來了。
盡管蘋果強調(diào)所有識別工作都在設備本地處理,數(shù)據(jù)不會上傳至云端,但年齡覆蓋擴大的情況還是在社交媒體上引發(fā)廣泛爭議。一位名為krazygreekguy的用戶在9to5mac上評論道:
我理解背后的想法,但他們無權(quán)對成年人實施這種控制。沒有任何組織有權(quán)侵犯人們的隱私。
換言之,人們擔心這種年齡覆蓋的擴大是一種蘋果獨有權(quán)力的擴張,以至于到了過度干預私人生活的境地,甚至可能擴大到和色情意圖完全無關的場景。試想一下,你正在和家里的小孩視頻通話,只是因為光著膀子或者調(diào)整衣物,就可能會被系統(tǒng)誤判為不當裸露,而導致視頻被攔截:
難道我的iPhone認為我是個變態(tài)?
事實上,F(xiàn)aceTime已經(jīng)問世14年,作為蘋果生態(tài)的「元老級」功能,這也不是它首次引起爭議。2019年,F(xiàn)aceTime就曾因為技術漏洞,讓用戶在未接通的情況下聽到對方通話的聲音。雖然蘋果迅速修復了漏洞,這也讓很多人對蘋果的隱私宣傳話術之下的真實保護能力,產(chǎn)生了疑慮。
作為公司的核心價值觀,蘋果對用戶隱私保護方面一直很重視。
長期關注蘋果的人,可能會對2015年蘋果硬剛FBI的事件記憶猶新——當年,在加州圣貝納迪諾槍擊案后,F(xiàn)BI為了獲取恐怖活動信息,要求解鎖涉案兇手使用的iPhone,但遭到蘋果拒絕。當時,蘋果CEO蒂姆·庫克表示:后門一旦開了,就關不上了,將會危及所有用戶的安全與隱私。
但即便如此,蘋果也曾因隱私問題引發(fā)不小一些爭議。比如前面提到的CSAM掃描計劃,在推出時同樣備受批評。
從2021年的iOS15開始,蘋果通過本地設備上的NeuralHash技術,將用戶上傳到iCloud的照片與美國權(quán)威機構(gòu)維護的CSAM數(shù)據(jù)庫進行哈希值比對,當超過預設閾值的情況發(fā)生,蘋果就會解密相關數(shù)據(jù)并進行人工審核,確認后將禁用賬戶,并向美國國家失蹤和受虐兒童中心(NCMEC)舉報。
蘋果聲稱這一功能的用意是發(fā)現(xiàn)和揪出兒童性犯罪者,在技術上最大限度保護用戶隱私,避免誤判和濫用。
但各路隱私保護組織和安全專家質(zhì)疑蘋果是否會背離其一貫的隱私保護承諾,畢竟CSAM掃描究其根本還是識別了用戶上傳的隱私信息。面對壓力,蘋果宣布推遲該功能的發(fā)布,轉(zhuǎn)而推出其他兒童保護措施,如信息通信安全和Siri搜索干預功能。
對于蘋果來說,「道德」與「隱私」也會出現(xiàn)不可兼得的情況。
回到剛開始說的FaceTime裸露檢測:從蘋果的初衷來看,這是一個為了更好保護青少年而推出的安全特性,它有助于防止青少年在視頻通話中接觸到不適當?shù)穆懵秲?nèi)容——類似的手機視頻通話性騷擾和欺詐案例,全球范圍內(nèi)不勝枚舉。坐擁十幾億用戶,蘋果確實也該承擔這樣的社會責任。
但另一方面,這種「自動干預」的邊界在哪里,仍然是一個重要的問題。
當公共道德和個人隱私被擺在天平的兩端時,如何權(quán)衡利弊,并做出「正確」的決策。這或許會在未來很長一段時間里,都困擾著蘋果。
延伸閱讀:與 蘋果給 FaceTime 加入了裸露檢測 這是蘋果在隱私和:道德之間《的選擇、》 的相關文章