許多人誤以為,人類學(xué)只是去“研究他者”的學(xué)問,是去尋找那些“遙遠(yuǎn)的”“奇特的”文化遺跡。但事實(shí)上,人類學(xué)從來都不是“落后”的代名詞。它并不局限于過去,而是面向未來;它研究的不是“奇觀”,而是“人類社會(huì)的深層邏輯”,尤其是在科技、媒體與全球化飛速發(fā)展的今天,人類學(xué)正在以前所未有的方式活躍在最前沿的時(shí)代現(xiàn)場,越來越多的人類學(xué)者投身到人工智能的研究中去。GenevieveBell是當(dāng)代非常重要的一位人類學(xué)家兼技術(shù)專家,她的工作跨越了人類學(xué)、設(shè)計(jì)、人工智能和未來技術(shù)發(fā)展等多個(gè)領(lǐng)域。她最廣為人知的身份是前Intel首席人類學(xué)家、現(xiàn)任澳大利亞國立大學(xué)(ANU)教授,并創(chuàng)辦了3AInstitute(Autonomy,AgencyandAssuranceInstitute),致力于人工智能倫理和新興技術(shù)治理。Bell堅(jiān)信:技術(shù)并不是中立的工具,而是嵌入文化、社會(huì)、歷史與權(quán)力關(guān)系中的產(chǎn)物。她強(qiáng)調(diào),理解人類如何使用和想象技術(shù),需要人類學(xué)的田野調(diào)查方法和文化洞察。英國劍橋大學(xué)的人類學(xué)家BethSingler,就研究“人工智能的宗教想象”:為什么人們會(huì)把AI神化?麻省理工學(xué)院(MIT)的人類學(xué)家StefanHelmreich,研究“AI語音識(shí)別中的性別與權(quán)力”:為什么語音助手多為女性聲音?這和技術(shù)背后的文化編碼有什么關(guān)系?法國社會(huì)科學(xué)高等研究院(EHESS)的人類學(xué)者DominiqueBoullier,則關(guān)注“算法社會(huì)中的人類行為重組”——當(dāng)社交媒體以推薦機(jī)制統(tǒng)攝注意力,我們的選擇真的還自由嗎?算法塑造了我們理解世界的方式,也重組了公共領(lǐng)域。美國俄勒岡州立大學(xué)人類學(xué)家章邵增提出從人類學(xué)的視野出發(fā)來革新大數(shù)據(jù)分析。在認(rèn)識(shí)論上,可以用考古學(xué)來重新定義大數(shù)據(jù),而在方法論上,人類學(xué)完備又嚴(yán)謹(jǐn)?shù)姆椒ㄊ谴髷?shù)據(jù)應(yīng)該借鑒的,能幫助重新認(rèn)識(shí)數(shù)據(jù)“真實(shí)性”問題。
7月12日,由“未來人類學(xué)家”項(xiàng)目組發(fā)起的2025線上講座,章邵增為大家?guī)砹恕叭绾翁嵘斯ぶ悄苤械娜恕萌祟悓W(xué)的方法參與設(shè)計(jì)機(jī)器學(xué)習(xí)算法模型”主題講座。章邵增分享了自己在過去幾年從事的一項(xiàng)跨學(xué)科研究,該研究項(xiàng)目源自一次偶然卻富有象征意義的跨學(xué)科交流。2019年初,章邵增與一位和他在同一所大學(xué)任教的計(jì)算機(jī)專業(yè)人工智能方向的教授在子女幼兒園家長會(huì)上相識(shí)。兩人雖屬不同學(xué)科背景,但在等待開會(huì)期間的閑談中,因?qū)θ斯ぶ悄艿赖聜惱韱栴}的共同關(guān)注而激發(fā)了合作契機(jī)。特別是在討論到2015年谷歌新出品的人工智能圖像識(shí)別系統(tǒng)將兩位美國非洲裔人士誤判為“大猩猩”的事件時(shí),雙方對人工智能的算法偏見問題產(chǎn)生強(qiáng)烈共鳴。一方面,計(jì)算機(jī)專業(yè)的研究者對該領(lǐng)域技術(shù)失誤深感遺憾;另一方面,人類學(xué)者也察覺該事件與自己學(xué)科對“人”與“類”的長期關(guān)注息息相關(guān)。如果人工智能是孩子們將要生活的未來社會(huì)的重要科技,那么作為父母就有責(zé)任一起去設(shè)計(jì)更好的人工智能、塑造更好的未來社會(huì)。
這次貌似偶然但富有啟發(fā)性的對話促成了一個(gè)跨學(xué)科研究項(xiàng)目的構(gòu)想。二人隨后聯(lián)合申請了美國國家科學(xué)基金會(huì)(NSF)旗下的“早期概念探索研究基金”(Early-ConceptGrantforExploratoryResearch,EAGER),旨在探索如何將兩個(gè)學(xué)科的理論知識(shí)和方法經(jīng)驗(yàn)納入人工智能的設(shè)計(jì)過程。項(xiàng)目自2020年正式啟動(dòng),為期三年,核心目標(biāo)在于開發(fā)更具人性化(humanized)的人工智能系統(tǒng)。值得注意的是,“humanizedAI”一詞最初并非來自研究設(shè)計(jì),而是源自項(xiàng)目后期用戶體驗(yàn)評估中的參與者反饋,反映出公眾對技術(shù)與人文融合的直觀期待。
項(xiàng)目團(tuán)隊(duì)由兩位主導(dǎo)教師(計(jì)算機(jī)科學(xué)與人類學(xué)背景)及多位研究生組成,形成了以跨學(xué)科合作為基礎(chǔ)的研究群體。在此框架下,本項(xiàng)目不僅聚焦技術(shù)方法的創(chuàng)新,也重視學(xué)科間話語的互通與方法論的共享,為人工智能研究引入社會(huì)科學(xué)特別是人類學(xué)的倫理關(guān)懷與知識(shí)結(jié)構(gòu)。項(xiàng)目期恰逢全球新冠疫情,盡管全球公共衛(wèi)生危機(jī)帶來了諸多限制,但由于此項(xiàng)研究主要依托于算法設(shè)計(jì)與遠(yuǎn)程合作,較之傳統(tǒng)需實(shí)地田野工作的民族志研究,此項(xiàng)目仍得以開展。事實(shí)上,研究的時(shí)機(jī)反而為跨學(xué)科線上協(xié)作提供了機(jī)會(huì)。
不過,項(xiàng)目初期并不輕松,雖然兩位主導(dǎo)教師(分別來自人類學(xué)與計(jì)算機(jī)科學(xué)領(lǐng)域)對合作抱有高度興趣,但兩學(xué)科在研究語言、范式與操作方式上的差異使得有效協(xié)作面臨一定挑戰(zhàn)。為克服這一障礙,研究團(tuán)隊(duì)制定了密集的協(xié)作節(jié)奏,從項(xiàng)目啟動(dòng)初期即以每兩周例會(huì)的形式推進(jìn)團(tuán)隊(duì)內(nèi)部溝通,并通過不斷討論將研究目標(biāo)細(xì)化為可操作的若干子任務(wù)。為進(jìn)一步強(qiáng)化方法論框架與跨學(xué)科整合,團(tuán)隊(duì)還組織了兩輪專家咨詢會(huì)議,邀請具有人類學(xué)與計(jì)算機(jī)雙重背景的研究人員作為顧問。例如,PaulDourish教授雖隸屬于計(jì)算機(jī)學(xué)院,但具有深厚的人類學(xué)素養(yǎng);MelissaCefkin博士則以人類學(xué)博士背景長期供職于高科技企業(yè),曾任日產(chǎn)自動(dòng)駕駛團(tuán)隊(duì)的首席科學(xué)家。這些專家的反饋對項(xiàng)目設(shè)計(jì)的理論深度與現(xiàn)實(shí)導(dǎo)向均產(chǎn)生了積極影響。
在方法論層面,研究團(tuán)隊(duì)對“算法”(algorithm)與“人工智能”(artificialintelligence)兩個(gè)核心概念的基礎(chǔ)結(jié)構(gòu)與歷史脈絡(luò)進(jìn)行了反思性澄清。盡管“人工智能”在當(dāng)下成為高度流行的術(shù)語,但許多計(jì)算機(jī)科學(xué)研究者更傾向于使用具體的技術(shù)術(shù)語,如“機(jī)器學(xué)習(xí)”(machinelearning)與“深度學(xué)習(xí)”(deeplearning),以避免概念過于寬泛所帶來的理解偏差。項(xiàng)目核心聚焦于機(jī)器學(xué)習(xí)模型的設(shè)計(jì)優(yōu)化,尤其是試圖將人類學(xué)中的倫理關(guān)注與歸納邏輯引入算法訓(xùn)練的全過程。研究團(tuán)隊(duì)指出,機(jī)器學(xué)習(xí)本質(zhì)上是通過不斷迭代數(shù)據(jù)輸入與輸出,對基礎(chǔ)模型進(jìn)行訓(xùn)練、校正與優(yōu)化的過程,這一過程與人類學(xué)民族志研究方法例如扎根理論(GroundedTheory)所采用的“資料驅(qū)動(dòng)、理論生成”邏輯在方法論原則上一致的。在機(jī)器學(xué)習(xí)中,數(shù)據(jù)被用以訓(xùn)練模型,通過不斷喂入新樣本,觀察系統(tǒng)輸出結(jié)果,并對算法進(jìn)行校正;而民族志研究亦是在田野中反復(fù)采集資料、歸納意義,并逐步建立概念和理論。這種共享的邏輯過程構(gòu)成了人類學(xué)與人工智能研究之間潛在而富有成效的方法論基礎(chǔ)和對話空間。
因此,此研究的一個(gè)基本出發(fā)點(diǎn)即在于:重新思考人類在算法建構(gòu)過程中的角色與能動(dòng)性,不再將人工智能視為獨(dú)立于社會(huì)文化的“黑箱技術(shù)”,而是主張通過方法論上的反思與協(xié)作,推進(jìn)更具科學(xué)嚴(yán)謹(jǐn)性和更符合社會(huì)現(xiàn)實(shí)的技術(shù)實(shí)踐。
為應(yīng)對機(jī)器學(xué)習(xí)模型在高不確定性情況下易于產(chǎn)生失誤的問題,研究者設(shè)計(jì)并實(shí)施了“放棄預(yù)測”(abstentionoption)機(jī)制。人工智能的發(fā)展是新一輪的自動(dòng)化,就是人類智力活動(dòng)的自動(dòng)化,所以,很自然地,傳統(tǒng)人工智能系統(tǒng)肯定是追求“算法必須輸出結(jié)果”。這個(gè)項(xiàng)目則反其道而行之,嘗試在模型中引入“無法判斷”的響應(yīng)選項(xiàng),使得系統(tǒng)在遭遇信息不足或邊緣個(gè)案時(shí),能夠承認(rèn)其判斷力的局限性,并將此類情況交由人工分析者處理。這一策略不僅體現(xiàn)出“human-in-the-loop”(人在回路)理念的深化,也將人工智能從一種封閉、權(quán)威的“黑箱”技術(shù),轉(zhuǎn)化為一個(gè)開放、可調(diào)的人機(jī)協(xié)作系統(tǒng)。研究者亦在算法界面(userinterface)設(shè)計(jì)上進(jìn)行了相應(yīng)的優(yōu)化,使操作者能夠在系統(tǒng)訓(xùn)練與決策過程中進(jìn)行人工干預(yù)與評估,從而增強(qiáng)用戶的控制力與信任感。
為了進(jìn)一步提升模型的社會(huì)適應(yīng)性與用戶接受度,研究者在中美兩地組織了基于在線平臺(tái)的用戶體驗(yàn)研究,探索不同文化語境下用戶對于人工智能系統(tǒng)的理解、偏好與倫理關(guān)切。這一過程不僅豐富了算法輸出的社會(huì)語義層面,也為后續(xù)提出的“公平性權(quán)重”調(diào)整策略提供了實(shí)踐基礎(chǔ)。該研究特別強(qiáng)調(diào),所謂“公平性”(fairness)并非一個(gè)單一、穩(wěn)定的技術(shù)參數(shù),而是一個(gè)價(jià)值多元的概念,其定義可能因哲學(xué)傳統(tǒng)、社會(huì)結(jié)構(gòu)與歷史經(jīng)驗(yàn)的不同而大相徑庭。因此,研究者并未對“公平性”進(jìn)行靜態(tài)定義,而是主張將其作為可變權(quán)重,由用戶根據(jù)自己的定義或應(yīng)用需求來調(diào)整公平性的權(quán)重。
在計(jì)算機(jī)科學(xué)領(lǐng)域,“human-in-the-loop”機(jī)制已成為一種流行的設(shè)計(jì)策略,但其在實(shí)踐中往往僅局限于后期的用戶測試階段。本項(xiàng)目試圖對這一策略進(jìn)行結(jié)構(gòu)性擴(kuò)展,將“人”在數(shù)據(jù)選取、算法建模、風(fēng)險(xiǎn)評估等多個(gè)核心階段中都凸顯出來:包括人工智能系統(tǒng)設(shè)計(jì)者的主觀位置,數(shù)據(jù)自帶的社會(huì)結(jié)構(gòu)性偏差,并賦予人可以解讀和操作機(jī)器學(xué)習(xí)算法的能力。
此外,研究過程中也揭示了跨學(xué)科合作的挑戰(zhàn)與潛能。如在與計(jì)算機(jī)科學(xué)同事的術(shù)語交流中,研究者注意到社會(huì)科學(xué)語境中的“個(gè)案”(case)在計(jì)算機(jī)領(lǐng)域常被稱作“樣本”(sample),而社會(huì)科學(xué)中的“樣本”一般指的是一個(gè)通過科學(xué)抽樣方法獲取的個(gè)案的集合。這種術(shù)語差異初期造成一定溝通障礙,但也促使合作過程中不斷澄清認(rèn)知邊界,推動(dòng)學(xué)科間的深度融合。在模型設(shè)計(jì)環(huán)節(jié),研究者進(jìn)一步嘗試將“公平性”作為可量化的權(quán)重指標(biāo)引入到算法結(jié)構(gòu)中。這意味著:當(dāng)模型遭遇高不確定性或潛在歧視風(fēng)險(xiǎn)的輸入時(shí),其判斷將自動(dòng)觸發(fā)審慎機(jī)制,降低決策置信度,或直接將個(gè)案交由人工干預(yù)。這一設(shè)計(jì)邏輯不僅提升了系統(tǒng)的倫理可控性,也回應(yīng)了技術(shù)—社會(huì)接口處的現(xiàn)實(shí)問題。
然而,任何對于公平的“參數(shù)化”嘗試都難以逃脫標(biāo)準(zhǔn)化與壓縮復(fù)雜性的風(fēng)險(xiǎn)。公正的多樣性在哲學(xué)、政治、社會(huì)和文化維度上均有不同表達(dá)方式。因此,作者提出:公平性的操作化應(yīng)最終交由具體的用戶群體來參與定義與評估,而不是由開發(fā)者單方面設(shè)定。該研究選取了兩個(gè)在機(jī)器學(xué)習(xí)領(lǐng)域中被廣泛使用的數(shù)據(jù)集——AdultDataset與COMPASDataset,并從人類學(xué)的角度對其歷史來源與社會(huì)語境進(jìn)行了系統(tǒng)性的批判性審視。這兩個(gè)數(shù)據(jù)集不僅在學(xué)術(shù)研究中頻繁出現(xiàn),也被廣泛用于人工智能系統(tǒng)的訓(xùn)練與基準(zhǔn)測試(benchmarking)之中。AdultDataset源自1994年美國人口普查,涵蓋佛羅里達(dá)州兩個(gè)縣的社會(huì)經(jīng)濟(jì)數(shù)據(jù),主要用于預(yù)測個(gè)體年收入是否超過5萬美元;而COMPASDataset則是一套用于刑事司法系統(tǒng)風(fēng)險(xiǎn)評估的問卷數(shù)據(jù),其核心用途是預(yù)測被釋放人員的再犯風(fēng)險(xiǎn)。
盡管這類標(biāo)準(zhǔn)數(shù)據(jù)集具有結(jié)構(gòu)化和易于重復(fù)使用的優(yōu)點(diǎn),但它們在內(nèi)容與設(shè)計(jì)上深嵌于特定歷史、文化和技術(shù)背景之中。例如,在COMPAS原始問卷中,存在如下問題:“Howhardisitforyoutofindajobaboveminimumwagecomparedtoothers?”該問題表面上看來具有中性、量化的特征,實(shí)則包含大量主觀性判斷,并受到地區(qū)、族群與社會(huì)結(jié)構(gòu)性因素的影響??紤]到數(shù)據(jù)采集發(fā)生在20世紀(jì)90年代的美國南部——一個(gè)長期處于種族與經(jīng)濟(jì)張力中的區(qū)域——該問卷極有可能在設(shè)計(jì)之初便已反映出種族偏見與結(jié)構(gòu)性不平等。
研究者將這些數(shù)據(jù)集視為“人造物”(humanartifacts),并借助科學(xué)技術(shù)研究(STS)中的路徑追蹤方法,對其形成過程進(jìn)行系統(tǒng)性重建。這種做法其實(shí)就是借鑒了民族志或考古學(xué)中對物質(zhì)文化的溯源分析,意在揭示已被編入數(shù)據(jù)的社會(huì)關(guān)系與政治隱喻,或曰編碼化的偏差(encodedbias)。進(jìn)一步地,該研究還指出,即便是被廣泛視為“客觀基準(zhǔn)”的benchmark數(shù)據(jù)集,在構(gòu)建與使用過程中亦充滿了歷史性、文化性與地域性的限制。研究者強(qiáng)調(diào),將這些數(shù)據(jù)未經(jīng)批判性審查地直接用于人工智能系統(tǒng)的設(shè)計(jì),極易造成結(jié)構(gòu)性偏差的復(fù)制甚至放大。
在與計(jì)算機(jī)科學(xué)領(lǐng)域的合作過程中,研究團(tuán)隊(duì)識(shí)別出算法在訓(xùn)練過程中反復(fù)出現(xiàn)的“困難個(gè)案”(hardcases)。例如,三位背景條件幾乎一致的受訪者,在收入預(yù)測模型中卻被分別判定為年收入高于或低于5萬美元,由此暴露出模型在邊界判斷上的不確定性。這類個(gè)案成為推動(dòng)機(jī)器學(xué)習(xí)模型引入“abstentionoption”(放棄決策選項(xiàng))的關(guān)鍵線索,即當(dāng)模型面對高度不確定的輸入時(shí),主動(dòng)選擇“無法預(yù)測”而非強(qiáng)行給出判斷。此策略不僅可降低系統(tǒng)性錯(cuò)誤風(fēng)險(xiǎn),也為人工智能與人類專家之間的任務(wù)協(xié)作提供了實(shí)際路徑。
基于上述分析,研究團(tuán)隊(duì)設(shè)計(jì)了一個(gè)具有操作性的用戶界面,使最終用戶可以在“公平性”(fairness)與“預(yù)測精度”之間進(jìn)行調(diào)節(jié)選擇。早期版本允許用戶通過滑桿在不同精度或權(quán)重間自由設(shè)定,但實(shí)驗(yàn)室的用戶測試結(jié)果顯示分檔設(shè)定更具實(shí)用性。因此,系統(tǒng)后續(xù)采用了分級調(diào)整機(jī)制,如“高公平性”“中等公平性”等,以便適用于如銀行貸款評估等特定場景。這一設(shè)計(jì)顯著打破了傳統(tǒng)人工智能系統(tǒng)的“黑箱”結(jié)構(gòu),將模型參數(shù)與結(jié)果可視化,并賦予用戶一定的干預(yù)權(quán)限。最終的跨文化用戶測試在中國與美國同步進(jìn)行,用戶反饋普遍認(rèn)為系統(tǒng)具備更高的透明性與可控性,尤其在面對社會(huì)敏感議題(如種族、公平分配等)時(shí)更具可靠性。
綜上所述,該研究通過數(shù)據(jù)考古、批判性路徑追蹤、模型可解釋性設(shè)計(jì)與人類干預(yù)機(jī)制的融合實(shí)踐,展示了人類學(xué)方法在人工智能設(shè)計(jì)與倫理提升方面的探索和創(chuàng)新。
講座討論環(huán)節(jié)有多位學(xué)者和同學(xué)積極地參與,包括黃瑜老師(中央民族大學(xué))、熊志穎老師(湖北民族大學(xué))。
黃瑜圍繞人工智能領(lǐng)域中的benchmarkingdataset(基準(zhǔn)數(shù)據(jù)集)提出了一個(gè)非常重要的問題。她指出,當(dāng)前人工智能研究廣泛采用的一種標(biāo)準(zhǔn)做法是依賴于“benchmarking”的模型來訓(xùn)練和評估AI系統(tǒng),而這種模型本質(zhì)上來源于應(yīng)用科學(xué)的傳統(tǒng),其主要目標(biāo)是提高系統(tǒng)在具體應(yīng)用場景中的預(yù)測準(zhǔn)確性和效率(efficiency),而忽略了基礎(chǔ)科學(xué)中所強(qiáng)調(diào)的價(jià)值維度,如公平性、公正性等問題。她進(jìn)一步指出,benchmarking方法的歷史起源,實(shí)際上與美國的商業(yè)和軍事系統(tǒng)密切相關(guān),比如用于評估一個(gè)人是否符合信用卡申請條件等。這種模式強(qiáng)調(diào)數(shù)據(jù)的覆蓋范圍和操作效率,但并不關(guān)心決策是否具有社會(huì)倫理或價(jià)值正義的基礎(chǔ)。她提到的相關(guān)著作《秩序社會(huì)》(OrderedSociety),也從社會(huì)學(xué)視角批評了當(dāng)下AI系統(tǒng)在信息結(jié)構(gòu)化與管理中如何隱含了某種權(quán)力邏輯。這些系統(tǒng)在不斷預(yù)測與排序中,事實(shí)上在塑造我們所生活的“秩序”,而這個(gè)秩序并不總是中立或公正的。
章邵增首先肯定了benchmark(基準(zhǔn)測試)在AI發(fā)展早期的合理性——它曾是推動(dòng)人工智能標(biāo)準(zhǔn)化、可比性的重要手段,也被視為技術(shù)進(jìn)步的象征。但隨著AI技術(shù)的深入發(fā)展,越來越多的研究者開始意識(shí)到,這些被當(dāng)作“標(biāo)準(zhǔn)尺子”的benchmarkdataset并非中立、普遍適用,而是帶有特定歷史、文化和政治偏見的“局部工具”。章邵增指出,這些數(shù)據(jù)集其實(shí)是“人的行為遺跡”(atraceofhumanbehavior),即由人類歷史、社會(huì)行為所生產(chǎn),因此自然攜帶特定群體、文化、權(quán)力結(jié)構(gòu)的偏見。這種偏見在現(xiàn)實(shí)中表現(xiàn)為不同族群的語言、思維、邏輯被“標(biāo)準(zhǔn)化”地優(yōu)劣排序,從而涉及倫理風(fēng)險(xiǎn)。以大語言模型(LLM)為例,AI在訓(xùn)練中可能更傾向模仿白人中產(chǎn)階級英語語法、表達(dá)風(fēng)格,忽略黑人英語、移民英語、非主流口音等,這反映了AI系統(tǒng)背后對于“最佳表達(dá)”的默認(rèn)偏見。章邵增指出,這種偏見最終可能滑向某種“新型優(yōu)生學(xué)”(eugenicism)的邏輯——認(rèn)為某些人的語言、邏輯、智力更值得學(xué)習(xí)和復(fù)制。章邵增坦言,面對“什么是最好的公平性”這個(gè)問題,哪怕在人類學(xué)和計(jì)算機(jī)科學(xué)交叉團(tuán)隊(duì)中也難有定論。因此,他們在項(xiàng)目中采取一種“懶人方法”:讓未來的用戶群體參與定義AI系統(tǒng)中何為“公平”。這背后反映的是對社會(huì)結(jié)構(gòu)復(fù)雜性的尊重——公平的標(biāo)準(zhǔn)不能脫離現(xiàn)實(shí)語境、階層差異、文化背景。最后,章老師強(qiáng)調(diào),解決AI中的公平性與倫理問題,不能靠計(jì)算機(jī)科學(xué)或人類學(xué)單一學(xué)科,而需要跨學(xué)科合作。這是一個(gè)既有學(xué)術(shù)研究意義,也有現(xiàn)實(shí)社會(huì)意義的方向。他鼓勵(lì)更多人文學(xué)科的研究者積極參與AI的設(shè)計(jì)討論,強(qiáng)調(diào)這不僅是學(xué)術(shù)興趣,更是道義上的責(zé)任。
接下來,熊志穎從文化概念的反思出發(fā),提出以下問題和思考:傳統(tǒng)人類學(xué)對“文化”概念的靜態(tài)理解是否仍適用于當(dāng)代社會(huì)?他質(zhì)疑美國人類學(xué)中那種將“文化”視為具有典型性、同質(zhì)性、相對靜態(tài)系統(tǒng)的做法,在當(dāng)代社會(huì)快速變化、多元交融的背景下是否仍具解釋力。他還提出,面對人工智能等新興科技帶來的文化變動(dòng),我們是否需要更動(dòng)態(tài)、復(fù)雜的文化分析框架?
對此,章邵增強(qiáng)調(diào),人類學(xué)的方法不僅適用于傳統(tǒng)研究對象(如亞馬遜雨林的部族技藝),也可以用來研究“我們自身社會(huì)中的技術(shù)實(shí)踐”,比如AI的設(shè)計(jì)與使用。他認(rèn)可熊志穎的批判,指出美國人類學(xué)中“文化”概念的形成確實(shí)深受19世紀(jì)德國人類學(xué)與民俗學(xué)的影響——強(qiáng)調(diào)文化的類型化、同質(zhì)性與靜態(tài)性。然而,隨著社會(huì)不斷變化與交融,這種概念已經(jīng)難以覆蓋現(xiàn)實(shí)。尤其在人工智能研究中,文化變化的速度之快,使得傳統(tǒng)追求“文化典型性”的研究取向顯得不合時(shí)宜。他呼吁擺脫對靜態(tài)文化模型的執(zhí)念。以他自己的研究為例,在中美兩國進(jìn)行的AI用戶測試中,反饋結(jié)果出人意料的相似——這說明AI作為新技術(shù),在兩國都尚屬“新事物”,人們的反應(yīng)在一定程度上趨同。不過也觀察到一些細(xì)微差異,比如:中國用戶更積極,美國男性相對更保守,而女性則更開放。他指出,這種現(xiàn)象說明,即便在同一社會(huì)中也存在顯著的異質(zhì)性(如性別差異)。他充分肯定熊志穎對文化概念的反思,并鼓勵(lì)在研究新興技術(shù)與跨文化現(xiàn)象時(shí),保持文化概念的**開放性、靈活性與批判性應(yīng)用,而不是拘泥于“典型性”“靜態(tài)性”等過時(shí)框架。
(“未來人類學(xué)家”夏令營是由一群熱愛及樂于分享人類學(xué)知識(shí)和方法的年輕人組織和籌辦的系列科普教育活動(dòng)。該項(xiàng)目由青年人類學(xué)者王希言發(fā)起,其后得到了許多知名學(xué)者的支持和幫助。“未來人類學(xué)家”還將持續(xù)推出系列講座和夏令營等公共活動(dòng)。)
幻想言情:推薦《教授你老婆活了千年》,她等待千年,只為他一人