<cite id="n1d7t"><strike id="n1d7t"></strike></cite>
<cite id="n1d7t"><video id="n1d7t"></video></cite>
<var id="n1d7t"><video id="n1d7t"><listing id="n1d7t"></listing></video></var>
<var id="n1d7t"></var>
<var id="n1d7t"><video id="n1d7t"><thead id="n1d7t"></thead></video></var>
<cite id="n1d7t"><video id="n1d7t"></video></cite>
<cite id="n1d7t"><video id="n1d7t"></video></cite>

數據孿生:世界上的另一個“我”?

段偉文 原創 | 2019-05-10 10:36 | 收藏 | 投票 編輯推薦
關鍵字:數據孿生 

  隨著智能社會的發展,數據智能的應用日益廣泛,其基礎是能夠對數據進行程序化、自動化處理而獲得知識與做出決策的智能算法。最常見的智能算法是內容推薦算法,而內容推薦的基礎是通過數據的收集和挖掘,對事物和人加以區分。

  區分事物最基本的方法是樹狀分類和標注。樹狀分類一般是建立在公共與專業知識之上的樹狀劃分系統,具有靜態、結構化和專業性等特征,如商品類型、教育背景、職稱職位等。但一般而言,不論從自然科學還是從社會科學知識出發,對各種自然和社會事物的樹狀分類在邏輯上很難完備。以生物學中的物種分類為例,很多動植物的分類存在歧義。

  標注又稱大眾分類法,源于人們在日常生活中運用某一屬性或特征,對人和事物做出的臨時性區分,如“開寶馬車的”“背LV 包的”等。標注方法往往是經驗性的,取決于動態的場景。故可以說標注是動態的分類,而分類是靜態的標簽。

  隨著大數據的出現,大量的和多維度的各種數據都可以以很低的成本用作標注,這使得數據的擁有者可以利用由大量數據標注組成的標簽體系描述事物與人。在內容推薦等商業智能的應用中,標注所構建的標簽體系既可用于描繪產品和服務等內容屬性,也可用于描述用戶即所謂的用戶畫像。用于用戶畫像的數據不僅包括性別、年齡、住址、教育背景等結構化的靜態數據,還包括位置、搜索、點贊、評論、分享、關注、播放時長等體現用戶行為特征的動態數據。

  值得指出的是,盡管各種智能算法貌似客觀,但不論是分類還是標注都會受到算法設計和數據分析的主導者的價值取向的影響,即便是所謂用數據說話也往往負載著相關主體的價值選擇。在各種形式的陳述和表達中,語詞和數據的選取往往帶有相關主體的價值預設和偏見。在餐館的菜譜上,為什么商家稱水煮魚為水煮魚而不是水煮豆芽菜或更客觀的水煮豆芽菜和魚? 反觀數據標注及由其所形成的用戶畫像,數據智能的分析者“斷數識人”或對人進行分類,顯然服務于其特定目的。

  評價型社會與智能化生活的發展,將使得各種數據集與數據畫像成為人的第二身體,既是在生命意義上的,也是在社會意義上的。通過各種生命和行為數據的精確采集、建模與分析,每一個個體可以在個人層面上得到刻畫和定義,個體由此投射為一種虛擬身體或數據孿生。也就是說,人們可以根據人的行為數據而不是人的行為本身研究其特征。

  隨著各種人的行為數據的累積,可以運用相關性發現等數據智能方法,揭示出有意義的差異性和相關性等特征。例如,通過對大學生的飯卡打開水的數據的分析,可以發現打開水多的學生成績好的比較多,很少打開水的學生可能患有孤獨癥或游戲成癮。

  人的數據孿生意味著基于數據智能的身體既是透明的又必然是共享的。從身體到行為的數據化形成了一種由數據界定的透明的身體,而要解讀每個人的透明的身體,必須以數據共享為前提。以人的生命醫學數據為例,只有在既了解每個個體的數據又掌握了所有個體的數據時,才可能找到每個個體數據的確切內涵,才能為每個個體開出特定的治療方案,而這一切沒有數據共享是難以想象的。

  從價值和倫理反思的維度來看,數據畫像或數據孿生非但不能等同于主體,而且在很大程度上是智能算法對人進行非人格化計算的產物,是一種將人作為計算與算計對象的“數字種性系統”(Digital Caste System)或“算法分揀程序”。后者使人聯想到通過多維數據標注所形成的人的數據畫像,人如同郵政地址一樣變成了編碼的集合。

  通過智能算法,數據智能可以自動高效地“斷數識人”或對人進行分類,進而對相關人群進行更具針對性的內容推薦、目標管理乃至行為引導與控制。由此,作為智能算法計算對象的主體的能動性受到了雙重的挑戰。

  一方面,智能算法對主體的數據分析僭越了主體的對其個體性的認同,剝奪了主體的個體化權力。為了解釋事物何以成為個體,法國當代哲學家吉爾伯特•西蒙棟(Gilbert Simondon)曾提出“個體化”(Individualization)的概念,即主體可以在各種由人和物構成的異質網絡中的角色擔當而成為某種個體。在不同的個體化過程中,主體的能動性使其不僅在個體化過程中具有一定的主導性,而且這種主導性使得特定的個體化并不排斥更多個體化的可能。

  反觀基于智能算法的數據畫像,被計算主體不僅對其數據畫像或數據孿生的內容及其所意味的刻板印象一無所知,更不了解數據分析者的意圖以及因此可能受到的行為引導和操控。有鑒數據畫像的過程中被描繪主體的能動性的缺席,數據孿生中所寄居的并非被描繪主體的心靈,而是非人格化的“機器之心”或居于其背后的操控者的他者之心,所以甚至可以說,所謂的數據孿生實質上是數據幽靈或數據僵尸。

  另一方面,智能算法在精細的信息顆粒度層面對主體的數據標注與畫像已然將其轉化為無限多維的數據集,主體的個體性隨之被消解為算法上可區分的特征數據。當代哲學家德勒茲(Gilles Deleuze)將此個體被信息技術消解的結果稱為“分格”(Dividuals),并將這種基于對個體的精細化信息治理的社會稱為“管控社會”。在他看來,在以往的社會中,盡管在職場、學校和家庭等具體場所,人們的行為會因為受到關注而被規訓,但依然存在一些免受管控的空間。而在管控社會中,管控不再置于具體的場景,而更多地基于由代碼組成的數字語言——它們不僅決定了人們能否獲得信息,并且使人置身于一種無處不在的、持續運轉的網絡之中,形同巨大的篩子上排列得錯落有致的篩孔。

  比利時媒體理論家安托瓦內特•魯夫羅伊(Antoinette Rouvroy)對德勒茲所預見的基于數字實在論(Digital Realism)和數據行為主義(Data-behaviourism)的算法治理術(Algorithmic Governmentality)進行了反思。她指出,在數據化的超精致社會中,新自由主義所謂的方法論的個人主義已經被指數化所取代,個體僅僅將其自身視為某種超量化的事物,從其與他人的表現的關系中界定自身。由此導致的具有顛覆性的問題是,一旦這種建立在所謂算法理性之上的治理得逞其志,個體因而被消解為絕對客觀,同時也必然是絕對獨斷的數據幽靈之后,當代社會基于個體的權衡、慎思與協作的社會知識的生產何以可能?

  透過德勒茲對個體被消解為分格的管控社會的預見及其“實現”,其對尼采在《權力意志》和《道德譜系》中的權力意志的探討顯得意味深長。在《尼采與哲學》一書中,德勒茲對尼采的權力意志作了深入的解讀:力是所能,權力意志是所愿。權力意志既存在于能動和支配的力中,也存在于反動和服從的力中,能動力和反動力在起源的時候就存在著區別并在起源中共存。主動追求權力就是能動,能動力具有占有、征服和支配等特征,力圖通過開拓環境來強加和創造形式,是一種轉換的力量或酒神的力量,能動力肯定自己和自己的差異,并把差異變為享樂與肯定的對象。反動力是否定意志或虛無主義,它拒絕生命的最基本生存條件,是一種虛無意志和反生命的意志,反動力即便在服從的時候也局限著能動力,將種種限制和不公平的約束強加于能動力。

  由此,反觀智能治理術下個體消解為分格一旦成為一種存在論趨勢,作為智能算法計算對象的主體將不再是能動的主體,其個體性可能為智能算法這種反動力所制約和塑造,主體的欲望和意志很可能受制于對數據驅動行為的純粹適應。個體被多維的數據分格消解于無形,遑論作為個體的主體對其生活形式的反思平衡或參與審議式對話與商談。

  面對個體被消解為分格的智能治理術及其反動力,必須透過對能動性的檢視引入一種使得能動力得以恢復的政治倫理策略。如果將智能治理術對個體生命、存在及其能動力的限制視為葛蘭西式的霸權,那么主體在數據智能這一生活形式下的政治倫理策略的基本原則就在于對此霸權的非對抗性反制,即纏斗(agonism)。

  何謂纏斗? 當代政治學家墨菲(Chantal Mouffe)指出,每一種秩序都是政治性的,其建立有賴于霸權實踐,而每一個秩序的霸權實踐都會受到反霸權實踐的挑戰。霸權與反霸權實踐預設了對抗的不可根除性與無限延伸性,雙方對立的本質與其說是出于敵對的根本性對抗(Antagonism),毋寧說實乃非敵對的纏斗。參與霸權與反霸權實踐的雙方是對手(Adversaries)而不是敵人,兩者雖相互沖突卻皆認同依然屬于共同的政治聯合體。

  從非對抗性的纏斗這一基本的原則出發,應對智能治理術的基本倫理策略是對智能算法及其權力施以倫理審計和爭勝性策略。所謂智能算法的倫理審計的基本思路,是從對智能算法應用及其權力實施中顯見或嚴重的不當后果出發,反過來檢視智能算法的設計和應用中存在的倫理上的不恰當性。

  其中,智能算法的倫理審計主要包括兩個層面:其一為后果分析,即對于對智能算法應用中出現的各種負面的后果進行認真的分析和審視。例如,在內容推薦算法中,時常出現的反復推薦、負面誘導、偏見放大、信息繭房、過濾氣泡等現象,要研究和辨析其中的問題、危害及肇因。

  其二為價值揭示,即從相關主體的能動性出發,運用行動者網絡分析方法,對相關群體和利害關系人在智能算法的運用中的主觀意圖、價值取向、利益與風險分擔等展開系統深入的分析,使其中存在的偏見、歧視、對自主權和隱私權等權利的侵害等價值沖突和利益沖突得以充分的披露。

  爭勝性策略則主要包括價值糾偏、倫理引導和倫理增強等層面。價值糾偏分為價值制衡與爭勝性設計兩個相互關聯的環節。價值制衡就是在價值揭示的基礎上,運用反思平衡、風險效益比較等方法重新權衡價值的合理性,使得智能算法在應用中所呈現出的具體的價值和倫理上的不當性得到具體而有針對性的價值制衡。爭勝性設計則是價值制衡的落實機制。

  由此,“價值揭示-價值制衡-爭勝性設計”的循環成為環環相扣的最基本的倫理審計和爭勝性策略模式。

  在倫理實踐中,這一模式的啟動往往是由社會輿論關注程度較高的危害性事件觸發的。以滴滴順風車司機侵害女乘客事件為例,首先可以從價值上去揭示平臺的責任:平臺為何將順風車這一共享交通軟件變成一個社交軟件,與此相關的利害關系人有哪些,是否表明平臺為了商業利益而犧牲女乘客的隱私與安全? 其次,從價值制衡出發充分考慮乘客等價值主體在共享交通中的安全性這一關鍵價值得以凸顯。最后,通過平臺軟件的改進,從設計層面扭轉平臺運行中出現的價值與倫理上的不當性。事件發生后,“滴滴”平臺暫停了順風車服務,并通過增設聯系人、報警按鈕以及全程錄音等方式對平臺軟件的設計做了一些改進。

  但價值制衡是否得到了落實,還有待對應用后果在價值與倫理上的恰當性的再檢視,其后續的發展更將引入新一輪的“價值揭示- 價值制衡-爭勝性設計”。例如,如何處理好全程錄音與保護用戶的隱私權等問題,有可能通過一些特定的事件演變為倫理審計和爭勝性策略的關注焦點。

  此外,智能化的倫理引導和倫理增強等也可能成為重要的爭勝性策略,其要義是在計算機說服技術的基礎上,通過智能化的勸導和助推,對個體行為進行倫理上的引導,甚至借助智能化的道德矯正,提升主體的道德水準。

  但使問題變得尤為復雜的是,一方面,在倫理引導與倫理增強的過程中,數據智能等機器智能作為一種非人格化的權力,會不會與個體的自主性和主體的能動性發生沖突? 另一方面,根據什么標準,可以由誰對誰實施倫理引導和倫理增強?

個人簡介
中國社會科學院哲學所研究員,中國社會科學院科學技術和社會研究中心主任
每日關注 更多
段偉文 的日志歸檔
贊助商廣告
澳洲快乐十分开奖记录