欧美成人A片免费|日韩无码一级av|一级黄色大片在线播放|黄片视频在线观看无码|亚洲精品成人无码影视|婷婷五月天视频网站|日韩三级AV在线播放|姓爱av在线婷婷春色五月天|真人全黃色录像免费特黄片|日本无码黄在线观看下载

  • +1

AI社會(huì)學(xué)|至此,一個(gè)算法客觀的時(shí)代過(guò)去了

沈虹
2020-12-02 18:14
澎湃研究所 >
聽(tīng)全文
字號(hào)

十年前,網(wǎng)紅伊萊·帕里澤(Eli Fariser)請(qǐng)他居住在紐約的朋友斯考特(Scott)和丹尼爾(Daniel)分別打開(kāi)自己的谷歌首頁(yè),搜索“埃及”這個(gè)地名。彼時(shí),埃及正爆發(fā)1977年以來(lái)最大的民眾示威,要求總統(tǒng)穆巴拉克下臺(tái)。帕里澤驚奇地發(fā)現(xiàn),同為居住在曼哈頓的白人男性,谷歌對(duì)斯考特和丹尼爾所展現(xiàn)的搜索結(jié)果截然不同:斯考特的結(jié)果里滿(mǎn)是有關(guān)“埃及革命”的實(shí)時(shí)新聞,風(fēng)起云涌,硝煙四起;丹尼爾的首頁(yè)里則是埃及的駱駝、金字塔、夕陽(yáng)晚景,一片歲月靜好。

圖片來(lái)源:Eli Fariser: Beware Online Filter Bubble, TED talk, 2011

斯考特和丹尼爾的經(jīng)歷并非獨(dú)有。事實(shí)上,為了使用戶(hù)更長(zhǎng)時(shí)間地停留在平臺(tái)之上,近十年來(lái)互聯(lián)網(wǎng)內(nèi)容分發(fā)平臺(tái)的“推薦算法” (recommendation algorithms)愈演愈烈,各大網(wǎng)絡(luò)公司為了迎合用戶(hù)喜好,往往會(huì)基于過(guò)往行為數(shù)據(jù),選擇性地推薦每個(gè)用戶(hù)最感興趣的內(nèi)容。帕里澤用了一個(gè)形象的比喻來(lái)說(shuō)明現(xiàn)代網(wǎng)絡(luò)經(jīng)過(guò)算法設(shè)置之后展現(xiàn)在我們面前的圖景:“過(guò)濾氣泡” (The Filter Bubble)——在網(wǎng)絡(luò)高度發(fā)達(dá)的今天,每一個(gè)人都生活在一個(gè)私人的、經(jīng)由算法過(guò)濾的信息氣泡里。

譬如,谷歌的個(gè)性化搜索服務(wù)無(wú)時(shí)無(wú)刻不在根據(jù)多達(dá)57個(gè)的變量(包括地址、網(wǎng)址,瀏覽器種類(lèi)等等)來(lái)為用戶(hù)們定制他們專(zhuān)屬的搜索結(jié)果—— 斯考特和丹尼爾截然不同的搜索結(jié)果就是個(gè)性化算法的產(chǎn)物。臉書(shū)的信息流(news feed)則同樣精確地為用戶(hù)們推送算法認(rèn)為“你此刻最感興趣”的社交信息——比如, 政治傾向偏左的帕里澤就發(fā)現(xiàn)他很少能見(jiàn)到保守派朋友的臉書(shū)分享。

我國(guó)頭條派的興起則將這一內(nèi)容推薦算法推演到了另一個(gè)極致。你喜歡花花草草,我就給你更多的花花草草;你喜歡內(nèi)涵段子,我就給你更多的內(nèi)涵段子。頭條大佬張一鳴如是說(shuō)—— “媒體是要有價(jià)值觀的,它要教育人、輸出主張,這個(gè)我們不提倡。因?yàn)槲覀儾皇敲襟w,我們更關(guān)注信息的吞吐量和信息的多元”。

“算法沒(méi)有價(jià)值觀”—— 只如實(shí)反映用戶(hù)個(gè)人的好惡。近十年來(lái),算法的“客觀中立性”幾乎是所有互聯(lián)網(wǎng)內(nèi)容分發(fā)平臺(tái)面對(duì)監(jiān)管和社會(huì)批評(píng)的尚方寶劍。即使面對(duì)2016年美國(guó)大選的風(fēng)起云涌、各種干涉選舉、傳播虛假信息的指控,臉書(shū)大佬馬克?扎克伯格仍敢對(duì)媒體嘴硬道:“我們是科技公司,不是傳媒公司,我們不對(duì)平臺(tái)上出現(xiàn)的內(nèi)容負(fù)責(zé)”??萍贾皇且环N工具, 而工具是無(wú)辜的。

這就像人和槍的比喻。一個(gè)人拿槍殺了人,你能怪槍嗎?

扎克伯格也許不讀科技社會(huì)學(xué)。他不知道類(lèi)似的比喻已經(jīng)是科技社會(huì)學(xué)里重復(fù)了一千遍的老梗。法國(guó)哲學(xué)家布魯?諾拉圖(Bruno Latour)就曾以此來(lái)說(shuō)明人和科技之間的互動(dòng)關(guān)系。一個(gè)人拿一把槍殺了人,那么是“槍殺人”,還是“人殺人”呢?學(xué)界曾為此爭(zhēng)論不休。技術(shù)中立派如扎克伯格會(huì)支持后者——槍只是工具,人才是真兇 ——科技本身不會(huì)作惡。拉圖則說(shuō),這是錯(cuò)誤的。他認(rèn)為,槍并非一種客觀的物體,而是在與持槍者的互動(dòng)中將殺人這件事實(shí)現(xiàn)的。當(dāng)一個(gè)人手上有一把槍?zhuān)⒂盟鼇?lái)殺人時(shí),這個(gè)人才變成“兇手”,這把槍也同時(shí)變成了“兇器”。在這個(gè)過(guò)程中,槍械和人是在互相改變的?!皻⑷恕边@一行為,既不只是一個(gè)人殺人意圖的結(jié)果,也不只是一把槍開(kāi)火的結(jié)果,而是兩者聯(lián)結(jié)成的行動(dòng)網(wǎng)絡(luò)的共同結(jié)果。

從這個(gè)角度來(lái)說(shuō),Technology is not a tool but a set of relations——技術(shù)并不僅僅是工具,而是一系列“關(guān)系”的集合。因此,也從來(lái)沒(méi)有過(guò)客觀中立和無(wú)價(jià)值觀的科技,科技在與社會(huì)關(guān)系的互動(dòng)中生成進(jìn)化,也永遠(yuǎn)背負(fù)當(dāng)時(shí)當(dāng)?shù)厣鐣?huì)關(guān)系的烙印。

事實(shí)上,早在2014年,面對(duì)算法對(duì)人類(lèi)知識(shí)文化的全方位殖民,康奈爾大學(xué)的傳播學(xué)者塔勒頓·吉萊斯皮(Tarleton Gillespie)就曾對(duì)算法的客觀性提出系統(tǒng)性的質(zhì)疑。在這篇名為“算法的相關(guān)性”(The Relevance of Algorithms)的短文里,吉萊斯皮梳理了“公共算法” (public relevance algorithms)在現(xiàn)代信息生態(tài)系統(tǒng)里的六大面向,每一種都可能對(duì)政治產(chǎn)生毀滅性的影響。

其中至關(guān)重要的一點(diǎn),是“算法自詡的客觀性” ——相較于人類(lèi)編輯可能存在的情感、政治和社會(huì)的喜好和偏見(jiàn),算法被平臺(tái)們?cè)S諾為“客觀”和“中立”的。因此,當(dāng)內(nèi)容分發(fā)平臺(tái)全面使用算法接管之前由人類(lèi)編輯負(fù)責(zé)的部分時(shí),所有曾經(jīng)用來(lái)約束信息分發(fā)的道德、法律、社會(huì)契約被自動(dòng)架空了。誠(chéng)實(shí)、客觀、公正、可靠……這些西方新聞業(yè)在上個(gè)世紀(jì)前期經(jīng)由一系列社會(huì)運(yùn)動(dòng)與自我反思與大眾達(dá)成的(短暫且不完美)共識(shí)變成了虛無(wú)縹緲的空中樓閣。畢竟,我們?cè)趺茨芤笠欢驯涞挠?jì)算機(jī)程序“誠(chéng)實(shí)、客觀、公正、可靠”呢?

在帕里澤看來(lái),號(hào)稱(chēng)客觀中立的算法恰恰是最危險(xiǎn)的。他在這本出版于2011年的暢銷(xiāo)書(shū)《過(guò)濾氣泡》里(《The filter bubble: How the new personalized web is changing what we read and how we think》 )細(xì)梳理了“算法濾泡” 帶給現(xiàn)代社會(huì)的四大問(wèn)題:

第一,推薦算法為你推送的是根據(jù)你的個(gè)人喜好和點(diǎn)擊習(xí)慣而精心調(diào)整的“個(gè)性化信息”—— 作為用戶(hù),你失去了與其他信息接觸的渠道。隨著互聯(lián)網(wǎng)平臺(tái)逐步壟斷現(xiàn)代信息社會(huì)的入口,你的信息世界會(huì)越來(lái)越狹隘和偏頗。

第二,推薦算法同時(shí)會(huì)調(diào)整你的社會(huì)關(guān)系。譬如,臉書(shū)會(huì)自動(dòng)推薦你和意氣相投的人和團(tuán)體互動(dòng)。和你世界觀人生觀價(jià)值觀不同的人群會(huì)漸漸從你的社交網(wǎng)絡(luò)消失,你的社會(huì)關(guān)系會(huì)變得同質(zhì)化。

第三,推薦算法有侵犯隱私的危險(xiǎn)。搜索引擎和社交網(wǎng)絡(luò)自動(dòng)收集和分析你的每一次點(diǎn)擊和在每一條信息上停留的時(shí)間,生成用戶(hù)畫(huà)像。他們可能比你媽更了解你,而你將面臨無(wú)可遁形的危險(xiǎn)。

第四,也是最可怕的,在整個(gè)過(guò)程中,用戶(hù)沒(méi)有說(shuō)“不”的權(quán)力。硅谷新貴們相信“用戶(hù)需求”是可以被制造、被培育出來(lái)的?;蛘?,更確切地說(shuō),他們覺(jué)得自己比用戶(hù)更了解用戶(hù)——你說(shuō)你想讀莎士比亞,也許你真正想看的是一千零一遍的《甄嬛傳》?正如喬布斯所說(shuō):“用戶(hù)不知道他們想要什么......我們的工作就是告訴用戶(hù)他們需要什么”(“People don’t know what they want until you show it to them … Our job is to figure out what they’re going to want before they do.” )。

如果帕里澤在2011年提出算法的“過(guò)濾氣泡”僅僅是在一小批知識(shí)界引起反響,那么在十年后的今天,反思內(nèi)容推薦算法所造成的后果已經(jīng)成為大半個(gè)美國(guó)的共識(shí)。2016年特朗普意外贏得大選,比任何時(shí)刻更讓人們震驚于美國(guó)社會(huì)的撕裂以及號(hào)稱(chēng)“客觀”和“去價(jià)值觀”的平臺(tái)算法對(duì)此的推波助瀾。有學(xué)者指出,由于互聯(lián)網(wǎng)公司將用戶(hù)在平臺(tái)停留時(shí)長(zhǎng)作為首要KPI,算法常常會(huì)被設(shè)計(jì)成首先推送“博人眼球”的極端化言論。換言之,算法是有價(jià)值觀的,此時(shí)此地,它的價(jià)值觀是平臺(tái)利潤(rùn)。谷歌、臉書(shū)、推特因此相繼成為美國(guó)國(guó)會(huì)聽(tīng)證會(huì)的常客。連奈飛(Netflix)也乘熱打鐵地推出對(duì)社交網(wǎng)絡(luò)進(jìn)行系統(tǒng)性批判的爆款短片《The Social Dilemma》。

公共政策學(xué)者更是明確指出:內(nèi)容分發(fā)平臺(tái)自詡為“科技公司”而非“傳媒機(jī)構(gòu)”一方面是在取悅科技投資者,另一方面則是在逃避監(jiān)管。學(xué)者們認(rèn)為,平臺(tái)們用來(lái)逃避“傳媒機(jī)構(gòu)”定義的幾大借口統(tǒng)統(tǒng)都站不住腳。比如,平臺(tái)們號(hào)稱(chēng)自己不生產(chǎn)內(nèi)容,因而不是傳媒公司;而歷史上大批傳媒公司同時(shí)兼顧內(nèi)容生產(chǎn)和內(nèi)容分發(fā),更別提臉書(shū)和谷歌日漸將各大內(nèi)容生產(chǎn)平臺(tái)收入囊中了。

再比如,平臺(tái)們號(hào)稱(chēng)自己不使用“人類(lèi)編輯”,因而不屬于“傳媒”之列,可平臺(tái)算法和用戶(hù)合作分發(fā)內(nèi)容的機(jī)制在傳統(tǒng)的媒體機(jī)構(gòu)里也屢見(jiàn)不鮮,而臉書(shū)等也仍舊雇傭大批人類(lèi)合同工來(lái)定期清理其社交平臺(tái)的違禁信息。

當(dāng)然,更重要的是,內(nèi)容分發(fā)平臺(tái)(如谷歌、臉書(shū))的收入絕大部分來(lái)自于廣告 —— 而這是傳媒機(jī)構(gòu)一個(gè)標(biāo)志性的特色。

十年前,臉書(shū)大佬扎克伯格面對(duì)已然過(guò)氣的傳統(tǒng)媒體不屑一顧, 一派硅谷新貴教育前浪們的自信滿(mǎn)滿(mǎn):“對(duì)用戶(hù)來(lái)說(shuō),一只死在前院的松鼠也許比此刻非洲的戰(zhàn)火連天更為重要” (A squirrel dying in front of your house may be more relevant to your interests right now than people dying in Africa)。

十年后,面對(duì)干預(yù)大選、傳播虛假信息,分裂社會(huì)的指控,扎克伯格在國(guó)會(huì)面前吞吞吐吐?!拔覀儗?duì)用戶(hù)在臉書(shū)上分享的內(nèi)容負(fù)有責(zé)任嗎?”此刻的他也不得不承認(rèn):“我相信這個(gè)問(wèn)題的答案是:是的?!薄?/p>

另一位推特大佬杰克?多爾西(Jack Dorsey)則與時(shí)俱進(jìn)。2020年,推特全面修改內(nèi)容管理?xiàng)l例,最顯眼的轉(zhuǎn)變是它在特朗普幾乎每一句質(zhì)疑選票的推特下都打上“此條可能與正式消息不符”的鋼印。

另一邊,面對(duì)內(nèi)涵段子引發(fā)的爭(zhēng)議,張一鳴也不得不重新修改自己對(duì)算法的定義 —— “產(chǎn)品走錯(cuò)了路,出現(xiàn)了與社會(huì)主義核心價(jià)值觀不符的內(nèi)容,沒(méi)有貫徹好輿論導(dǎo)向,接受處罰,所有責(zé)任在我” 。

也許正如上個(gè)世紀(jì)初的西方新聞業(yè)一樣,新的監(jiān)管準(zhǔn)則和道德需求會(huì)圍繞內(nèi)容推薦算法持續(xù)發(fā)酵;新的社會(huì)契約也會(huì)再次形成。扎克伯格和張一鳴們,相應(yīng)地,也必須在承擔(dān)“算法責(zé)任”的基礎(chǔ)上做出調(diào)整。

至此,太平洋兩岸,一個(gè)算法客觀的時(shí)代過(guò)去了。

-------

參考文獻(xiàn):

【1】Pariser, Eli. (2011). The filter bubble: How the new personalized web is changing what we read and how we think. Penguin, 2011.

【2】《對(duì)話(huà)張一鳴:世界不是只有你和你的對(duì)手》,財(cái)經(jīng),2016年12月14日

【3】Latour, B. (1994). On Technical Mediation. Common Knowledge. Fall Vol.3, no 2. pp. 32-33.

【4】Gillespie, T. (2014). The relevance of algorithms. Media technologies: Essays on communication, materiality, and society, 167(2014), 167.

【5】Napoli, P., & Caplan, R. (2017). Why media companies insist they're not media companies, why they're wrong, and why it matters. First Monday.

【6】Transcript of Zuckerberg’s appearance before the House committee. https://www.washingtonpost.com/news/the-switch/wp/2018/04/11/transcript-of-zuckerbergs-appearance-before-house-committee/

【7】張一鳴發(fā)公開(kāi)信致歉:永久關(guān)停內(nèi)涵段子,產(chǎn)品走錯(cuò)了路。 https://tech.sina.com.cn/i/2018-04-11/doc-ifyuwqez8677545.shtml

----- 

作者沈虹,畢業(yè)于美國(guó)伊利諾伊大學(xué)香檳分校傳播學(xué)系,現(xiàn)任職于美國(guó)卡內(nèi)基梅隆大學(xué)。她用社會(huì)學(xué)的方法研究新興科技。

    責(zé)任編輯:單雪菱
    校對(duì):欒夢(mèng)
    澎湃新聞報(bào)料:021-962866
    澎湃新聞,未經(jīng)授權(quán)不得轉(zhuǎn)載
            查看更多

            掃碼下載澎湃新聞客戶(hù)端

            滬ICP備14003370號(hào)

            滬公網(wǎng)安備31010602000299號(hào)

            互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006

            增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116

            ? 2014-2026 上海東方報(bào)業(yè)有限公司