- +1
科技世代與人類(lèi)未來(lái)丨智能革命與人類(lèi)深度智能化
【論壇第8期話(huà)題】智能革命與人類(lèi)深度智能化
“科技世代與人類(lèi)未來(lái)”論壇第八期聚焦“智能革命與人類(lèi)深度智能化”主題,以北南聯(lián)袂、京滬對(duì)話(huà)的方式對(duì)談智能革命在人類(lèi)生命、行為、認(rèn)知和情感等層面可能帶來(lái)的深度影響。段偉文研究員在《智能化數(shù)據(jù)解析社會(huì)的政治倫理考量》指出在數(shù)據(jù)驅(qū)動(dòng)的智能解析社會(huì),智能算法實(shí)施的是基于預(yù)見(jiàn)的干預(yù)或可能性政治,應(yīng)從主體能動(dòng)性出發(fā),賦予人們相應(yīng)的技術(shù)能力與自主性權(quán)利,進(jìn)而從“生命-智能-社會(huì)復(fù)合體”的維度,審視智能革命與人類(lèi)社會(huì)深度智能化的前景。劉永謀教授在《智能革命與機(jī)器烏托邦》中提出,隨著智能技術(shù)在治理領(lǐng)域的推進(jìn),存在著“電子圓形監(jiān)獄”降臨的風(fēng)險(xiǎn),應(yīng)該認(rèn)真研究、積極應(yīng)對(duì),避免社會(huì)滑入“AI機(jī)器烏托邦”;楊慶峰教授在《智能革命與人類(lèi)記憶》指出,把記憶理解為認(rèn)知和情感產(chǎn)生的前提條件能夠使得我們看清人工智能的發(fā)展,具備記憶的人工智能體具備了一種可能性,能夠突破技術(shù)奇點(diǎn),走向強(qiáng)人工智能;閆宏秀教授的《用信任解碼人工智能倫理》一文從信任在人工智能中的產(chǎn)生、表征及其構(gòu)成等為切入點(diǎn),以人類(lèi)對(duì)倫理學(xué)的信任、人類(lèi)對(duì)人工智能的信任、人工智能自身的信任度、人工智能系統(tǒng)中各個(gè)代理間的信任等四個(gè)要素開(kāi)啟人工智能倫理構(gòu)成要素之徑,以有效監(jiān)督的信任為前提審視人與人工智能的合作,確保人工智能向善。
智能化數(shù)據(jù)解析社會(huì)的政治倫理考量
段偉文(中國(guó)社會(huì)科學(xué)院)
近年來(lái),人工智能應(yīng)用的熱點(diǎn)是數(shù)據(jù)智能,其主要背景是世界的數(shù)據(jù)化。所謂世界的數(shù)據(jù)化,簡(jiǎn)單地講就是:世界就是數(shù)據(jù),數(shù)據(jù)就是世界。什么是數(shù)據(jù)?英文中的數(shù)據(jù)一詞是data,但其內(nèi)涵不僅與數(shù)字或科學(xué)觀測(cè)有關(guān),更是對(duì)世界的記錄。當(dāng)初傅統(tǒng)先在譯杜威的《確定性的尋求》時(shí),將data翻譯為素材。當(dāng)前,我們所說(shuō)的大數(shù)據(jù)和數(shù)據(jù)智能中的數(shù)據(jù)的含義就是素材,更確切地講是電子化的素材,比方說(shuō)報(bào)告的錄音、錄像等。有些素材的元數(shù)據(jù)是可以量化和結(jié)構(gòu)化的,這些數(shù)據(jù)起到了測(cè)量世界和人的行為過(guò)程的作用。近年來(lái),由于素材或數(shù)據(jù)存儲(chǔ)與處理的成本不斷降低,我們能夠把很多東西記錄下來(lái),雖然記錄的時(shí)候有各種各樣的目的,一旦記錄下來(lái)以后就可以變成素材而用于別的用途,如可作為其他主題的數(shù)據(jù)挖掘之用。值得指出的是,當(dāng)我們講“世界就是數(shù)據(jù)”和“數(shù)據(jù)就是世界”時(shí),應(yīng)該看到所謂的世界的數(shù)據(jù)化并不是抽象的,用數(shù)據(jù)呈現(xiàn)世界和人的行為的方式取決于具體的記錄、傳感、測(cè)量和分析技術(shù),而任何方式都會(huì)突出與強(qiáng)化世界與人的行為的某些方面而忽視與弱化另一些方面。
數(shù)據(jù)智能和智能算法的應(yīng)用是現(xiàn)代社會(huì)治理與個(gè)人治理日益量化的最新表現(xiàn),這一趨勢(shì)與發(fā)端于17世紀(jì)的“政治算術(shù)”、始于19世紀(jì)的“控制革命”密切相關(guān),其新近的發(fā)展正在導(dǎo)致“解析社會(huì)”的來(lái)臨。首先,所謂政治算術(shù)可以追溯至17世紀(jì)剛興起的統(tǒng)計(jì)學(xué)的社會(huì)應(yīng)用。當(dāng)時(shí),統(tǒng)計(jì)學(xué)的社會(huì)應(yīng)用的倡導(dǎo)者將統(tǒng)計(jì)學(xué)稱(chēng)為“政治算術(shù)”,當(dāng)時(shí)的哲學(xué)家和古典經(jīng)濟(jì)學(xué)家威廉·配第還專(zhuān)門(mén)寫(xiě)了本題為《政治算術(shù)》的小冊(cè)子,以強(qiáng)調(diào)統(tǒng)計(jì)數(shù)字對(duì)于政治具有至關(guān)重要的作用。其次,使政治算術(shù)的理念得以普遍推行的則是被稱(chēng)為“控制革命”的信息技術(shù)的發(fā)展。20世紀(jì)80年代,信息技術(shù)史家貝尼格(James R. Beniger)在《控制革命》一書(shū)中指出,19世紀(jì)以來(lái),信息技術(shù)的發(fā)展實(shí)質(zhì)上是為了克服由城市化和大工業(yè)生產(chǎn)所帶來(lái)的控制的危機(jī)而形成的一系列控制革命。
20世紀(jì)的最后30年間,伴隨著對(duì)以工業(yè)化為特征的現(xiàn)代化的弊端的反思,微電子、個(gè)人計(jì)算機(jī)、網(wǎng)絡(luò)和移動(dòng)通信等信息通信技術(shù)的發(fā)展為信息化開(kāi)辟了道路,其間不僅涌現(xiàn)出后工業(yè)社會(huì)和第三次浪潮等社會(huì)理論與未來(lái)學(xué)思潮,而且還由反主流文化孕育出為虛擬空間奠基的賽博文化,其結(jié)果導(dǎo)致了20世紀(jì)末具有虛擬性、匿名性和多主體交互性的網(wǎng)絡(luò)空間的崛起。但這種貌似個(gè)體可以通過(guò)虛擬的網(wǎng)絡(luò)空間擺脫現(xiàn)實(shí)社會(huì)制約的幻象很快就破滅了。隨著谷歌搜索對(duì)百科全書(shū)檢索式的雅虎等早期門(mén)戶(hù)網(wǎng)站的超越以及Web2.0和網(wǎng)絡(luò)社交新媒體的發(fā)展,用戶(hù)網(wǎng)絡(luò)活動(dòng)所生成的內(nèi)容即UGC(User-generated content)不僅使網(wǎng)絡(luò)為用戶(hù)數(shù)據(jù)所驅(qū)動(dòng),而且這些數(shù)據(jù)反過(guò)來(lái)成為人們的數(shù)據(jù)足跡。隨著移動(dòng)互聯(lián)網(wǎng)、網(wǎng)絡(luò)社交媒體、智能手機(jī)、可穿戴設(shè)備等信息技術(shù)的發(fā)展和各種數(shù)據(jù)的指數(shù)化增長(zhǎng),對(duì)人的線(xiàn)上和線(xiàn)下行為數(shù)據(jù)的搜集和分析則可能使每個(gè)人成為被追蹤、觀測(cè)、分析的對(duì)象,數(shù)據(jù)的掌握者由此可對(duì)數(shù)據(jù)進(jìn)行認(rèn)知計(jì)算,借助一定的算法對(duì)數(shù)據(jù)主體展開(kāi)行為評(píng)分和內(nèi)容推薦,從而對(duì)人的行為進(jìn)行評(píng)判、引導(dǎo)和干預(yù)。
不論是運(yùn)用數(shù)據(jù)表征或干預(yù)世界和人的行為,還是運(yùn)用各種可穿戴設(shè)備對(duì)數(shù)據(jù)采集與分析對(duì)他人或自己的生活進(jìn)行量化自我等管理與治理,都預(yù)示著一個(gè)全新的社會(huì)———解析社會(huì)或數(shù)據(jù)解析社會(huì)的來(lái)臨。數(shù)據(jù)解析社會(huì)這種新的社會(huì)形態(tài)是革命性的。一方面,數(shù)據(jù)所扮演的角色如同13世紀(jì)時(shí)出現(xiàn)的透鏡,如果說(shuō)透鏡所制造的望遠(yuǎn)鏡和顯微鏡讓宇宙和微觀世界得以清晰地觀測(cè)與呈現(xiàn),如今“數(shù)據(jù)透鏡”則使人的行為得到量化的記錄與透視;另一方面,就像17世紀(jì)笛卡爾發(fā)明解析幾何使得自然界的結(jié)構(gòu)與規(guī)律得以探究一樣,數(shù)據(jù)分析與智能算法的應(yīng)用正在使人的行為規(guī)律得到洞察和解析。
不論數(shù)據(jù)解析社會(huì)的構(gòu)建如何展開(kāi),智能算法對(duì)人們生活的影響已無(wú)處不在。從企業(yè)對(duì)員工的評(píng)價(jià)、人事簡(jiǎn)歷自動(dòng)篩選、商業(yè)信用評(píng)分到區(qū)域犯罪預(yù)測(cè)、城市警力分布、自我健康管理,數(shù)據(jù)分析與智能算法在人們生活中涉及的各種評(píng)價(jià)、篩選和決策中日漸扮演著舉足輕重的角色,我們業(yè)已步入由算法規(guī)制生活和引導(dǎo)人的行為的算法生活時(shí)代。政府和企業(yè)為了各種目的在其管理和運(yùn)營(yíng)中引入了很多智能算法,這些算法在執(zhí)行中會(huì)形成各種影響人的生活的算法權(quán)力。這種算法權(quán)力很容易遭到濫用,甚至?xí)l(fā)展為所謂的算法霸權(quán)。首先,姑且不提算法可能存在的黑箱問(wèn)題(不透明、不易解釋等),供機(jī)器學(xué)習(xí)的數(shù)據(jù),如大量罪犯行為數(shù)據(jù)本身是由人記錄和處理的,本身就帶有人的各種偏見(jiàn)(如種族偏見(jiàn)、社區(qū)偏見(jiàn)等),在此基礎(chǔ)上所進(jìn)行的算法決策很容易使這些偏見(jiàn)放大。其次,智能算法往往只考慮到某些特定的視角而缺乏整體性的思考。其三,智能算法中存在的不合理之處往往缺乏反饋與糾正的渠道,如果不能引入受到算法權(quán)力傷害或不公正對(duì)待的人能夠及時(shí)參與的反饋糾錯(cuò)機(jī)制,算法的主導(dǎo)者很難主動(dòng)發(fā)現(xiàn)問(wèn)題并加以反思和修正。
進(jìn)一步而言,智能算法的應(yīng)用建立在一種基于預(yù)見(jiàn)的可能性而采取控制行動(dòng)的政治邏輯之上,我們可以稱(chēng)之為可能性的政治。在斯皮爾格導(dǎo)演的電影《少數(shù)派報(bào)告》中對(duì)未實(shí)施的犯罪的阻止甚至懲罰雖然不一定發(fā)生,但數(shù)據(jù)分析和智能算法的控制者顯然會(huì)用它們來(lái)預(yù)測(cè)、引導(dǎo)或阻止人的行為,不論其方式是柔性的計(jì)算機(jī)說(shuō)服技術(shù)或智能化助推,還是剛性的簡(jiǎn)歷篩選和對(duì)行動(dòng)自由的限制,都體現(xiàn)了某種宰制性的權(quán)力或霸權(quán)。以所謂人的數(shù)據(jù)畫(huà)像為例,雖然人的數(shù)據(jù)畫(huà)像如同人的“數(shù)據(jù)孿生兄弟”,但其本身是沒(méi)有主體性和能動(dòng)性的,而只是體現(xiàn)了數(shù)據(jù)分析與智能算法的掌控者對(duì)數(shù)據(jù)畫(huà)像的對(duì)象的主體性或能動(dòng)性的猜測(cè),其中所折射的是他人的主體性、能動(dòng)性或意向性。因此,數(shù)據(jù)孿生兄弟實(shí)際上是缺失心靈的數(shù)據(jù)僵尸。
由此,要克服數(shù)據(jù)分析與智能算法的數(shù)據(jù)霸權(quán)與算法權(quán)力,應(yīng)該從主體的能動(dòng)性構(gòu)建出發(fā),使人的主體性、能動(dòng)性或意向性免于被數(shù)據(jù)僵尸所取代的命運(yùn)。這就要求我們通過(guò)與數(shù)據(jù)霸權(quán)與算法權(quán)力的纏斗尋求人的能動(dòng)性與算法權(quán)力關(guān)系的再平衡:始終從使用者或人的角度去評(píng)判智能算法的合理性;智能算法應(yīng)發(fā)揮普遍性賦能作用,使每個(gè)人的能力增強(qiáng),權(quán)利也得到相應(yīng)擴(kuò)充;人與算法要建立起一種伙伴關(guān)系,即,使智能算法成為陪伴人、幫助人的伴侶技術(shù)。
最后,值得指出的是,智能原本源自生命與社會(huì),生命、智能與社會(huì)共同構(gòu)成了日益復(fù)雜的生命-智能-社會(huì)復(fù)合體。從“生命-智能-社會(huì)復(fù)合體”這一分析框架出發(fā),有助于總體把握智能革命以及人類(lèi)社會(huì)深度智能化的前景:人工智能體將以擬主體的形式整合到生命 - 智能 - 社會(huì)復(fù)合體之中,泛主體社會(huì)或泛智能體社會(huì)即將來(lái)臨。當(dāng)我們面對(duì)陪伴機(jī)器人、智能音箱以及層出不窮的智能體或泛主體時(shí),將會(huì)越來(lái)越多地思考它們是什么樣的擬主體,又具有什么意義上的能動(dòng)性。
原載于《山東科技大學(xué)學(xué)報(bào)》2019年第1期。
智能革命與機(jī)器烏托邦
劉永謀(中國(guó)人民大學(xué))
智能革命與技術(shù)治理的關(guān)系是一個(gè)大題目。智能革命已經(jīng)到來(lái),這個(gè)提法是站得住腳的。學(xué)界提出的各種“革命”太多,就工業(yè)革命而言,有人都提到第六次工業(yè)革命了。實(shí)際上,“革命”不過(guò)是一個(gè)隱喻,能不能成立并不重要,重要的是提出這個(gè)“革命”要表達(dá)什么,是否有價(jià)值。顯然,智能革命會(huì)大力推動(dòng)整個(gè)社會(huì)技術(shù)治理的程度和水平,同時(shí)會(huì)導(dǎo)致社會(huì)風(fēng)險(xiǎn)。智能革命社會(huì)風(fēng)險(xiǎn)包括運(yùn)用智能技術(shù)的智能治理風(fēng)險(xiǎn),不是科學(xué)技術(shù)本身的問(wèn)題,根本上是政治、制度和實(shí)踐問(wèn)題。關(guān)于這個(gè)問(wèn)題,技術(shù)哲學(xué)荷蘭學(xué)派如佛貝克等人力推的道德物化的角度很有啟發(fā)性,但道德物化處理的問(wèn)題過(guò)于細(xì)節(jié),大的問(wèn)題還是要借助制度安排來(lái)應(yīng)對(duì)。
智能革命和AI技術(shù)對(duì)社會(huì)公共治理會(huì)有什么樣的影響?對(duì)此問(wèn)題,大家都是基于智能革命和AI技術(shù)充分發(fā)展的遠(yuǎn)景來(lái)回答的。答案存在兩種相反的極端態(tài)度:一種是樂(lè)觀主義的,像成素梅教授那樣,認(rèn)為以后可能出現(xiàn)一個(gè)“AI理想國(guó)”;還有一種是悲觀主義的,可以稱(chēng)之為“AI機(jī)器烏托邦”。這里先討論一下悲觀的想法,過(guò)后再講樂(lè)觀的想法。
很多人都討論過(guò)物聯(lián)網(wǎng)和大數(shù)據(jù)對(duì)于技術(shù)治理的推動(dòng)作用。家用的小米機(jī)器人,它要在家掃地,當(dāng)然要搜集和分析房間的信息,也就是說(shuō),AI應(yīng)用離不開(kāi)物聯(lián)網(wǎng)和大數(shù)據(jù),如果后兩者對(duì)技術(shù)治理有推動(dòng),那么AI對(duì)技術(shù)治理的推動(dòng)就不言而喻了。
悲觀主義者總是擔(dān)憂(yōu)智能治理和AI治理:智能革命時(shí)代,電子圓形監(jiān)獄(electronic panopticon)會(huì)不會(huì)到來(lái)?大家研究信息哲學(xué),都知道邊沁和??绿岢龅膱A形監(jiān)獄理論,以及后來(lái)流行的電子圓形監(jiān)獄概念。用圓形監(jiān)獄理論分析物聯(lián)網(wǎng)的結(jié)構(gòu)與功能,會(huì)發(fā)現(xiàn)物聯(lián)網(wǎng)會(huì)偏好極權(quán)控制,因而本底上是會(huì)侵犯人的隱私的。在具體意象上講,就是小說(shuō)《1984》中無(wú)處不在的電幕,對(duì)所有人進(jìn)行監(jiān)視。這主要考慮的是物聯(lián)網(wǎng)隱私問(wèn)題,到了AI技術(shù)和智能革命的時(shí)代,這就不光是一個(gè)隱私問(wèn)題,除了監(jiān)視,機(jī)器人當(dāng)然是可以訴諸實(shí)際行動(dòng)的,比如對(duì)人進(jìn)行拘押。機(jī)器人收集和行動(dòng)的能力如果擴(kuò)展到社會(huì)公共事物和政治領(lǐng)域的時(shí)候,會(huì)產(chǎn)生比電子圓形監(jiān)獄更強(qiáng)的負(fù)面效應(yīng)。換句話(huà)說(shuō),到了智能革命時(shí)代,電子圓形監(jiān)獄才可能成為真正的監(jiān)獄:從監(jiān)視、審判到改造可以一體化完成。也就是說(shuō),電子圓形監(jiān)獄會(huì)不會(huì)成為機(jī)器烏托邦?這就是當(dāng)今敵托邦科幻文藝的一個(gè)大類(lèi),即“AI恐怖文藝”所要抨擊的景象,在好萊塢電影《終結(jié)者》系列中得到最著名的呈現(xiàn):機(jī)器人對(duì)所有人的牢獄統(tǒng)治。
當(dāng)然,所謂隱私是社會(huì)建構(gòu)的,是歷史變化的,是有地方性的。為什么當(dāng)代中國(guó)人越來(lái)越講隱私,但同時(shí)很多人在朋友圈曬自己的私密生活?這說(shuō)明沒(méi)有普遍的一致的隱私,隱私觀是很不同的。在中國(guó)古代,人們是缺少隱私觀念的,或者說(shuō)隱私觀念是很不同的。古人講,不發(fā)人陰私,這不是說(shuō)尊重人權(quán),而是說(shuō)要做君子。中國(guó)古代最高權(quán)力者皇帝是沒(méi)有隱私的,他的一舉一動(dòng)都在《起居注》中記載得清清楚楚。舊式大家族中人們同樣沒(méi)有隱私,年輕人要早晚向父母請(qǐng)安,什么事情宗族都會(huì)知道、要干預(yù)。隱私與人權(quán)有關(guān),中國(guó)傳統(tǒng)是沒(méi)有這個(gè)概念的。奇怪的是,沒(méi)有隱私,數(shù)千年來(lái)中國(guó)社會(huì)治理和社會(huì)生活大體運(yùn)行得也很平穩(wěn)。實(shí)際上隱私觀在中國(guó)就是隨著ICT技術(shù)和網(wǎng)絡(luò)興起傳到中國(guó)來(lái)的,在80年代都很少有中國(guó)人講究隱私。隨著物聯(lián)網(wǎng)和大數(shù)據(jù)技術(shù)的推進(jìn),中國(guó)人還在形成中的隱私觀很快會(huì)發(fā)生改變,比如很多人現(xiàn)在出門(mén)在“去哪兒”APP上定房間、安排行程,把個(gè)人信息讓商家知道,覺(jué)得很方便。
隱私社會(huì)建構(gòu)論實(shí)際上并沒(méi)有否定物聯(lián)網(wǎng)偏好極權(quán)的觀點(diǎn)。隱私觀的改變,從某種意義上說(shuō)是對(duì)技術(shù)發(fā)展的屈服。然而到了智能革命時(shí)代,極權(quán)的觸角可能伸到的地方不再僅僅是看,而是會(huì)有具體的行動(dòng)、對(duì)肉體和思想的嚴(yán)格控制。如果電子圓形監(jiān)獄在社會(huì)上廣泛建成的時(shí)候,這就是所謂的最壞的智能治理社會(huì),即“機(jī)器烏托邦”就會(huì)到來(lái)。也就是說(shuō), AI技術(shù)是有可能催生機(jī)器烏托邦的。
機(jī)器烏托邦會(huì)是什么樣的?通過(guò)對(duì)批評(píng)既有的技術(shù)治理、智能治理以及AI在社會(huì)公共領(lǐng)域應(yīng)用的各種思想文獻(xiàn)來(lái)進(jìn)行分析,可以得出它的基本意象。當(dāng)代西方的科幻小說(shuō)有個(gè)很重要的特點(diǎn),即樂(lè)觀主義情緒很少,并且基本上都與對(duì)智能革命的想象有關(guān)系。這樣一種想象在西方是很流行的,它所勾勒出來(lái)的未來(lái)社會(huì)是一架完整、嚴(yán)密和智能的大機(jī)器:由于 AI技術(shù)的廣泛應(yīng)用,每個(gè)社會(huì)成員都是這個(gè)智能機(jī)器上的一個(gè)小智能零件,而且是可以隨時(shí)更換的零件,和鋼鐵制造的零件沒(méi)有差別,這就是“AI機(jī)器烏托邦”。以好萊塢為代表的科幻影視,對(duì)此有各種各樣的刻畫(huà)。
從批評(píng)的文獻(xiàn)、文藝和影視作品中,可以歸納出AI機(jī)器烏托邦的四個(gè)主要特點(diǎn)。第一個(gè)是AI機(jī)械化,即把人、物、社會(huì)所有都看成純粹機(jī)械或智能機(jī)器,對(duì)所有的一切要事無(wú)巨細(xì)地進(jìn)行智能測(cè)量,包括人的思想情感,可以還原成心理學(xué)和物理學(xué)的事實(shí)以此來(lái)進(jìn)行測(cè)量。第二個(gè)是AI效率化,也就是說(shuō),AI機(jī)器烏托邦它核心的價(jià)值主張是效率,智能要講求效率,科學(xué)技術(shù)是最有效率的,沒(méi)有效率的東西比如文化、文學(xué)和藝術(shù)都是可以取消。AI機(jī)器烏托邦社會(huì)運(yùn)行的目標(biāo)就是科學(xué)技術(shù)越來(lái)越發(fā)達(dá),物質(zhì)越來(lái)越豐富,人類(lèi)文明不斷地?cái)U(kuò)展,要擴(kuò)展到整個(gè)地球,擴(kuò)展到月球,擴(kuò)展到火星。第三是 AI總體化,也就是說(shuō)整個(gè)社會(huì)是一個(gè)智能總體,按照建基于物聯(lián)網(wǎng)、大數(shù)據(jù)、云計(jì)算和AI等智能技術(shù)之上的社會(huì)規(guī)劃藍(lán)圖來(lái)運(yùn)轉(zhuǎn)。所有國(guó)家政黨、社會(huì)制度、風(fēng)俗習(xí)慣以及個(gè)人生活全面被改造,沒(méi)有人能夠逃脫總體化的智能控制。第四是AI極權(quán)化,AI機(jī)器烏托邦是反對(duì)民主和自由的,認(rèn)為民主和自由沒(méi)有效率,支持的是由智能專(zhuān)家、控制論專(zhuān)家掌握國(guó)家大權(quán),公開(kāi)實(shí)現(xiàn)等級(jí)制度,然后以數(shù)字、智能和控制論的方式殘酷地統(tǒng)治社會(huì)。
用AI技術(shù)對(duì)社會(huì)進(jìn)行公共治理是不是就必然會(huì)導(dǎo)致機(jī)器烏托邦呢?不一定,因?yàn)樗械募夹g(shù)治理包括智能治理可以有很多不同的模式。一種是激進(jìn)的,整個(gè)社會(huì)要打亂重新按照智能藍(lán)圖來(lái)建構(gòu);另一種是溫和的,在現(xiàn)有的基礎(chǔ)上進(jìn)行改良,而溫和派之間也有很大差別,所以歷史上是有很多不同的技術(shù)治理模式。
對(duì)AI機(jī)器烏托邦意象的總結(jié)有何教益?西方對(duì)智能治理、AI治理的批評(píng),我們并不完全贊同,但是從理論上考慮 AI機(jī)器烏托邦的危險(xiǎn)或風(fēng)險(xiǎn)是很有必要的。在歷史上并沒(méi)有真正出現(xiàn)過(guò)AI機(jī)器烏托邦,它還只是在人們恐懼的想象中,但是從理論上說(shuō)它還是可能出現(xiàn)的,因此要避免極端的AI機(jī)器烏托邦的出現(xiàn)。上述AI機(jī)器烏托邦意象的四種特征,是要在AI技術(shù)、智能技術(shù)應(yīng)用于社會(huì)公共治理的過(guò)程中極力避免的,當(dāng)然這是非常復(fù)雜的問(wèn)題。這里有一些初步的思考,比如要避免AI總體化,必須要避免封閉性智能社會(huì),實(shí)際上封閉性在網(wǎng)絡(luò)社會(huì)是很難完全做到的;比如避免AI機(jī)械化,涉及社會(huì)主流觀念尤其是科學(xué)觀的改變,一百年前主流的科學(xué)觀是機(jī)械主義的,現(xiàn)在并不如此;比如避免AI極權(quán)化,關(guān)鍵是選擇適當(dāng)?shù)闹悄苤卫砟J?,不一定和自由民主相沖突。奧爾森指出,技術(shù)治理在21世紀(jì)有“軟”化的趨勢(shì),不像以前那么“硬”了。比如,要避免AI經(jīng)濟(jì)至上的觀點(diǎn),社會(huì)局部的規(guī)劃要服從更高制度的安排,智能治理不能成為惟一或最高的治理安排,而應(yīng)該是作為一種局部的工具??傊?,智能革命的到來(lái)加大了AI機(jī)器烏托邦的風(fēng)險(xiǎn),因此必須考慮制度設(shè)計(jì)與應(yīng)對(duì),這個(gè)問(wèn)題從根本上說(shuō)不是技術(shù)問(wèn)題,而是政治問(wèn)題。
原載于《山東科技大學(xué)學(xué)報(bào)》2019年第1期。
智能革命與人類(lèi)記憶
楊慶峰(復(fù)旦大學(xué))
對(duì)人工智能的討論需要放置到人與技術(shù)的關(guān)系框架中進(jìn)行。首先要做的是對(duì)人與技術(shù)的關(guān)系框架進(jìn)行反思。傳統(tǒng)的觀點(diǎn)是“工具論”,即把包括人工智能在內(nèi)的技術(shù)當(dāng)做一種工具或者對(duì)象,用來(lái)解決問(wèn)題或者處理一些其他的事情,這種人與工具形成非常固定的模式,成為我們分析人與技術(shù)關(guān)系的主導(dǎo)模式?!肮ぞ哒摗蹦J奖澈笫且粋€(gè)主體、客體分離的理論基礎(chǔ)。這種傳統(tǒng)模式后來(lái)受到了很多哲學(xué)家的嚴(yán)厲批判,如海德格爾、芬伯格等人對(duì)這一觀點(diǎn)進(jìn)行了很深入的批判。海德格爾在批判的基礎(chǔ)上提出了現(xiàn)象學(xué)的模式,而芬伯格把政治維度和社會(huì)因素加進(jìn)去了。他們的批判導(dǎo)致了另外一種關(guān)系模式“居中說(shuō)”(人在世界之中、人在技術(shù)之中),這為本文“旋渦論”的提出奠定了理論前提。
旋渦論,即人在技術(shù)的漩渦之中。從詞源學(xué)角度看,旋渦的英文是volution,依次詞根會(huì)出現(xiàn)三個(gè)變形詞:convolution、evolution和revolution。這三個(gè)詞恰好可以用來(lái)描述與人工智能有關(guān)的過(guò)程或狀態(tài)。Convolution是卷積或卷繞,可以用來(lái)描述人工智能內(nèi)部的算法機(jī)制,比如卷積神經(jīng)網(wǎng)絡(luò)算法(CNN)用來(lái)圖像識(shí)別。Evolution是進(jìn)化,可以用來(lái)描述智能本身是進(jìn)化的過(guò)程。Revolution則是革命或旋轉(zhuǎn),可以用來(lái)描述智能本身是革命的過(guò)程,如技術(shù)奇點(diǎn)。所以“旋渦論”能夠很好地描述人與智能機(jī)器的關(guān)系,又能夠描述智能的內(nèi)在機(jī)制,更重要的是有助于我們?cè)谌伺c智能技術(shù)的漩渦當(dāng)中反思如何在進(jìn)化與革命之間保持自身并構(gòu)建其自由關(guān)系。
從記憶哲學(xué)分析人工智能是本文采用的一個(gè)新角度。人類(lèi)記憶不是宏大的生存層面的東西,而是人類(lèi)學(xué)里非常重要的一個(gè)規(guī)定性。在哲學(xué)人類(lèi)學(xué)當(dāng)中,康德提出了五感實(shí)際上就隱含著一種記憶的概念,只不過(guò)在他的哲學(xué)人類(lèi)學(xué)當(dāng)中多談到的是五感知覺(jué)[1],對(duì)記憶也談到了,“將過(guò)去有意地視覺(jué)化的能力是記憶能力,把某物作為將來(lái)視覺(jué)化的能力是預(yù)見(jiàn)能力?!?span style="color:#95a5a6;">[2]但只是蜻蜓點(diǎn)水,一筆帶過(guò)。
那么何為記憶?從傳統(tǒng)哲學(xué)角度看,存在著四種理解路徑。第一種構(gòu)成路徑,即把記憶當(dāng)做靈魂實(shí)體的構(gòu)成部分,討論記憶是在人理性的層面當(dāng)中還是感性層面當(dāng)中。第二種是能力路徑,即把人類(lèi)記憶的解釋當(dāng)做一種精神性的或者靈魂性的能力,比如說(shuō)人類(lèi)具有一種回想能力。第三種是狀態(tài)路徑,即把記憶看做是意識(shí)或者心理狀態(tài)之一。這種觀點(diǎn)持續(xù)的時(shí)間非常長(zhǎng),一直持續(xù)到20世紀(jì)。心理學(xué)家普遍認(rèn)為記憶是心理狀態(tài),和感知、情緒是相并列的狀態(tài)。對(duì)這種心理學(xué)的理解后來(lái)胡塞爾、伽達(dá)默爾都提出批判。第四種是行為路徑,即把記憶看做是意識(shí)行為。比如說(shuō)構(gòu)造過(guò)去對(duì)象的一種行為,或者說(shuō)使得過(guò)去當(dāng)下化的這樣一種行為。哲學(xué)觀點(diǎn)的一個(gè)顯著特征是將記憶看做是靈魂的特定屬性。
有一些心理學(xué)家提出一種新的理解叫“精神性的旅行”,用這種方式來(lái)解釋人類(lèi)的記憶。整個(gè)心理學(xué)的理解可以納入到哲學(xué)的第二層理解當(dāng)中,它屬于精神的一種能力。但是隨著神經(jīng)科學(xué)發(fā)展,哲學(xué)觀點(diǎn)受到了自然科學(xué)觀點(diǎn)的反駁。神經(jīng)科學(xué)則提出了記憶作為大腦信息過(guò)程(編碼、存儲(chǔ)和提取)的三階段理論。與記憶的維度相對(duì)的是“遺忘”,它實(shí)際上被看作是記憶的對(duì)立面,這是個(gè)通常的觀點(diǎn)。比如說(shuō)靈魂構(gòu)成的喪失或者記憶能力的喪失、狀態(tài)的失控,這時(shí)候就把遺忘看作是自然能力的喪失。這些觀點(diǎn)都是建立在物質(zhì)基礎(chǔ)之上。
要審視人工智能與人的關(guān)系,僅僅是傳統(tǒng)哲學(xué)和神經(jīng)科學(xué)中的記憶理論是不夠的,還需要新的理解。本文提出記憶作為條件的理論。這一理論源頭在于布倫塔諾和胡塞爾等人。在筆者看來(lái),記憶作為三種條件形式存在:認(rèn)知與情感的基礎(chǔ)條件、理解人類(lèi)自身的歷史條件和實(shí)現(xiàn)自我和他者認(rèn)同的條件。第一,記憶是認(rèn)知和情感產(chǎn)生的基礎(chǔ)條件。如果沒(méi)有了記憶這樣的基礎(chǔ)維度,實(shí)際上情感和認(rèn)知是不可能的。第二,記憶是理解人類(lèi)自身的歷史條件。這是關(guān)于一種人類(lèi)歷史的構(gòu)建,比如說(shuō)怎么去面對(duì)歷史,這時(shí)候就需要回憶把它構(gòu)建出來(lái)。第三,記憶是實(shí)現(xiàn)自我及其他人認(rèn)同的必要條件。這具體到個(gè)體來(lái)說(shuō)實(shí)際上是對(duì)自我的認(rèn)同。我們能夠知道我是誰(shuí),又通過(guò)怎么樣的方式去知道我是誰(shuí)。在這個(gè)過(guò)程當(dāng)中,傳統(tǒng)認(rèn)識(shí)論和知識(shí)論的學(xué)者認(rèn)為認(rèn)知起了非常重要的作用,但是記憶與回憶的作用不容忽視,回憶包括記憶實(shí)際上是另外一個(gè)不可忽視的條件,但在通常的哲學(xué)史當(dāng)中把記憶放在了認(rèn)知底下其作用完全被忽略掉。
當(dāng)采取記憶哲學(xué)維度去看,人工智能是進(jìn)化的過(guò)程還是革命的過(guò)程的問(wèn)題就可以獲得解答的可能性。從前面所提到的三個(gè)條件來(lái)看對(duì)這問(wèn)題就可以做一個(gè)有效回答。如果把記憶理解成信息的編碼、存儲(chǔ)、提取這樣一個(gè)過(guò)程,那么人工智能是無(wú)法從進(jìn)化突變到革命的,就沒(méi)有革命,只有一種進(jìn)化。但如果進(jìn)一步把記憶理解為認(rèn)知和情感產(chǎn)生的前提條件的話(huà),實(shí)際上就具備了一種可能性,就說(shuō)它能夠突破技術(shù)奇點(diǎn)。
更重要的是,記憶和回憶的關(guān)系問(wèn)題沒(méi)有受到重視,因?yàn)樘嗟睦斫鈴?qiáng)調(diào)記憶作為信息的編碼、存儲(chǔ)和提取過(guò)程了,以至于把回憶的維度給忽略掉?;貞浭侨祟?lèi)特有的一種現(xiàn)象。亞里士多德就指出來(lái)說(shuō)動(dòng)物和人可以擁有記憶,但是唯獨(dú)人才能擁有回憶。從他的觀點(diǎn)看,人工智能是不可能擁有回憶的,因?yàn)樗c動(dòng)物一樣,缺乏足夠強(qiáng)大的意向性。所以人們這時(shí)候就不用擔(dān)心它有一天會(huì)超越人。但是在筆者看來(lái),如果把回憶維度考慮進(jìn)去,這個(gè)問(wèn)題就有無(wú)限的可能性了。具有回憶能力意味著機(jī)器具有了重構(gòu)過(guò)去經(jīng)歷的能力,具有了重構(gòu)過(guò)去經(jīng)歷的可能性。換句話(huà)說(shuō),對(duì)人工智能機(jī)器而言,它具有經(jīng)歷,意味著它具有了過(guò)去的時(shí)間概念。這遠(yuǎn)遠(yuǎn)不同于只是信息保存和提取的記憶過(guò)程,而是能夠?qū)⑦^(guò)去當(dāng)下化的過(guò)程。最近人工智能學(xué)者阿爾伯特·艾如斯勒姆(Albert Ierusalem )也指出了人工智能可能會(huì)具有自身的經(jīng)歷?!盎诮?jīng)歷(experience),如果系統(tǒng)能夠在每一個(gè)環(huán)境中選擇正確的行動(dòng),這使得計(jì)劃變得不必要?!?span style="color:#95a5a6;">[3]人工智能能夠感知世界這已經(jīng)成為常態(tài),只是人工智能回憶自身的經(jīng)歷卻是一個(gè)具有挑戰(zhàn)的事情,不僅僅是關(guān)系到技術(shù)怎么去實(shí)現(xiàn),比如說(shuō)讓機(jī)器去回憶世界,更重要的是會(huì)涉及到人工智能的革命性突破。如果能夠?qū)崿F(xiàn)這點(diǎn)的話(huà)那么人工智能走向強(qiáng)人工智能會(huì)成為一個(gè)必然。
[1] 康德哲學(xué)人類(lèi)學(xué)著作中提到第一類(lèi)感覺(jué)包括觸覺(jué)(touch, tactus)、視覺(jué)(sight, visus )、聽(tīng)覺(jué)(hearing, auditus)第二類(lèi)感覺(jué)包括味覺(jué)(taste, gustus)、嗅覺(jué)(smell, olfactus),統(tǒng)稱(chēng)為五感。Immanuel Kant, Anthropology from a Pragmatic Point of View, Translated by Victor LyleDowdell, Revised and Edited by Hans H. Rudnick, Southern Illinois University Press, 1996:41.
[2] Ibid, 73.
[3] Albert Ierusalem, Catastrophic Important of Catastrophic Forgetting, https:// arxiv. Org/pdf/1808.07049.pdf, 11 [2018-10-9]
原載于《山東科技大學(xué)學(xué)報(bào)》2019年第1期。
用信任解碼人工智能倫理
閆宏秀(上海交通大學(xué))
人工智能倫理是人工智能未來(lái)發(fā)展的錨定樁。其包括對(duì)人工智能相關(guān)倫理問(wèn)題的批判性反思,對(duì)人工智能的倫理目標(biāo)厘清與界定,以及倫理自身效用等的審度。有效的人工智能倫理被視為推進(jìn)人工智能向善、確保人類(lèi)對(duì)其可控及不受傷害、確保人類(lèi)尊嚴(yán)與人類(lèi)福祉的一個(gè)重要保障,但人工智能倫理的構(gòu)建并非易事。關(guān)于倫理應(yīng)當(dāng)發(fā)揮何種作用、如何發(fā)揮作用、以何種倫理觀念為指導(dǎo)等的爭(zhēng)議一直不斷。如,就在2019年3月到4月之間,谷歌關(guān)于外部專(zhuān)家委員會(huì)(Advanced Technology External Advisory Council,簡(jiǎn)稱(chēng)ATEAC)的成立[1]、谷歌部分員工對(duì)外部專(zhuān)家委員會(huì)的抗議等[2]一系列事件就凸顯了人工智能對(duì)倫理的期待,以及人工智能倫理構(gòu)建所面臨的挑戰(zhàn)與問(wèn)題。特別是人工智能發(fā)展所呈現(xiàn)出的能動(dòng)性、自主性等技術(shù)特質(zhì),將主體與客體的邊界逐漸消融,將關(guān)于人對(duì)技術(shù)的信任、人與人之間的信任、人與技術(shù)之間的信任等置于了一種前所未有的場(chǎng)景之中。
一、信任:人工智能的一個(gè)核心問(wèn)題
關(guān)于人工智能倫理的研究,早在二十世紀(jì)六十年代,就已經(jīng)展開(kāi)。如,溫納(Nobert Wiener)在其關(guān)于自動(dòng)化的道德問(wèn)題和技術(shù)后果的探討中,揭示了機(jī)器的有效性與危險(xiǎn)性;[3]隨后,塞繆爾(Arthur L.Samuel)在《科學(xué)》發(fā)表文章,對(duì)維納所主張的機(jī)器具有原創(chuàng)性或具有意志進(jìn)行反駁,進(jìn)而指出機(jī)器不可能超越人類(lèi)智能,并認(rèn)為維納將機(jī)器類(lèi)比人類(lèi)奴隸是不恰當(dāng)?shù)摹?span style="color:#95a5a6;">[4]但近年來(lái),伴隨大數(shù)據(jù)、機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)等的發(fā)展,關(guān)于機(jī)器是否具有原創(chuàng)性或具有意志、人工智能是否能被視為道德主體、以及人工智能是否超越人類(lèi)的爭(zhēng)論日趨激烈。
這些爭(zhēng)論,究其本質(zhì)而言,是源自對(duì)人能夠控制技術(shù)并使其能為人類(lèi)服務(wù)這一問(wèn)題的反思。而上述反思至少直接指向了人類(lèi)對(duì)自身信任及對(duì)技術(shù)是否可信的兩個(gè)方面。簡(jiǎn)單地說(shuō),從人類(lèi)自身的角度來(lái)看,若人類(lèi)相信自己能夠有效地控制人工智能,那么,上述問(wèn)題也將迎刃而解;退一步講,從技術(shù)的角度來(lái)看,若人工智能技術(shù)自身是安全可靠那么,至少人工智能可以被視為是一項(xiàng)可信的技術(shù),而這種可信反過(guò)來(lái)也將大大推進(jìn)其的發(fā)展。[5]但若上述兩種信任缺失,則人工智能的未來(lái)發(fā)展也不容樂(lè)觀。因此,人工智能的信任度是人工智能技術(shù)發(fā)展中面臨的一個(gè)核心問(wèn)題。當(dāng)下,IBM就以“trusted AI”為其研究目標(biāo),積極致力于研究構(gòu)建和能夠使人類(lèi)信任的人工智能。與此同時(shí),人工智能的信任度也是人工智能倫理構(gòu)建中的一個(gè)核心問(wèn)題。
但事實(shí)是,迄今為止,上述兩個(gè)方面都是假設(shè)性的存在。如,從技術(shù)的維度來(lái)看,以基于人工智能系統(tǒng)的無(wú)人駕駛為例,就因其在技術(shù)方面的不穩(wěn)健性所引發(fā)的諸多問(wèn)題,遭遇到了質(zhì)疑。在這些質(zhì)疑中,也包括關(guān)于其的倫理質(zhì)疑;從關(guān)于人工智能倫理構(gòu)建的維度來(lái)看,雖然目前尚未形成統(tǒng)一的文本,但信任卻是與人工智能倫理相關(guān)的框架、原則、宣言等文件中的一個(gè)高頻詞。如:
2016年底,美國(guó)電子電氣工程學(xué)會(huì)(IEEE)在其所闡述的“倫理輔助性設(shè)計(jì)”(Ethically Aligned Design)中,將構(gòu)建人與人工智能系統(tǒng)間的正確的信任層級(jí)視為一個(gè)重要議題,并指出應(yīng)建立包括標(biāo)準(zhǔn)和規(guī)范主體在內(nèi)治理框架來(lái)監(jiān)督保證過(guò)程和事故調(diào)查過(guò)程,進(jìn)而促進(jìn)公眾對(duì)人工智能和自動(dòng)化系統(tǒng)信任的構(gòu)筑;[6]2017年7月,我國(guó)國(guó)務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》。其中,“促進(jìn)社會(huì)交往共享互信。促進(jìn)區(qū)塊鏈技術(shù)與人工智能的融合,建立新型社會(huì)信用體系,最大限度降低人際交往成本和風(fēng)險(xiǎn)”是一項(xiàng)重要的內(nèi)容;[7]2018年12月18日,歐盟委員會(huì)由52名來(lái)自多個(gè)領(lǐng)域的專(zhuān)家所組成的人工智能高級(jí)專(zhuān)家組起草了“可信任人工智能的倫理框架”(Draft Ethics Guidelines For Trustworthy AI);經(jīng)過(guò)幾個(gè)月的意見(jiàn)征詢(xún)后,于2019年4月18日,在其發(fā)布的《可信任人工智能的倫理框架》(Ethics Guidelines For Trustworthy AI)中,[8]將構(gòu)建可信任作為人工智能未來(lái)發(fā)展趨勢(shì);2019年2月,歐洲政策研究中心在其所發(fā)布的《人工智能:倫理,治理和政策的挑戰(zhàn)》”(Artificial Intelligence:Ethics, governance and policy challenges)中,認(rèn)為:在當(dāng)今社會(huì)中,人工智能的發(fā)展加速了信任的退化。因此,應(yīng)當(dāng)采取行動(dòng),以推進(jìn)負(fù)責(zé)任地和可信任地使用人工智能;[9]2019年6月,美國(guó)人工智能問(wèn)題特別委員會(huì)、國(guó)家科學(xué)技術(shù)委員會(huì)發(fā)布了《國(guó)家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃:2019更新版》( The National AI R&D Strategic Plan: 2019 Update),[10]構(gòu)建信任被列為人工智能未來(lái)發(fā)展的一項(xiàng)任務(wù);在我國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)于2019年6月所發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》中,“安全可控”為第五條原則,并指出:“人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實(shí)現(xiàn)可審核、可監(jiān)督、可追溯、可信賴(lài)?!?span style="color:#95a5a6;">[11]
綜上所述,在人工智能倫理的構(gòu)建中,信任被視為是人工智能發(fā)展的一個(gè)核心問(wèn)題。那么,是否可以用信任是解碼人工智能倫理呢?關(guān)于此,需要從信任在人工智能中產(chǎn)生、表征以及構(gòu)成等為切入點(diǎn)來(lái)進(jìn)行解析。
二、基于有效監(jiān)督的信任是人與人工智能合作的必要條件
人工智能的發(fā)展帶來(lái)了一種新型的人與技術(shù)關(guān)系。人類(lèi)對(duì)技術(shù)的依賴(lài)性越來(lái)越高,技術(shù)成為了人類(lèi)智能的陪伴,并在某些方面呈現(xiàn)出了超越人類(lèi)智能的趨勢(shì)。伴隨人工智能在人類(lèi)社會(huì)中的廣泛應(yīng)用,人類(lèi)與人工智能系統(tǒng)之間的合作日益加強(qiáng)。雖然存在沒(méi)有信任的合作,但人與人工智能的這種合作方式因人工智能對(duì)人本身以及人類(lèi)行為深度植入性和巨大影響而必須信任的介入。毫無(wú)疑問(wèn),信任的缺失,將影響人工智能所能產(chǎn)生的效應(yīng),但這種信任并非是盲目信任、濫用信任、錯(cuò)誤信任等非理性的信任方式。恰如皮埃羅·斯加魯菲(Piero Scaruffi)所示:“我并不害怕機(jī)器智能,我害怕的是人類(lèi)輕信機(jī)器?!?span style="color:#95a5a6;">[12]
技術(shù)是人類(lèi)在世的一種方式。人類(lèi)正是借助技術(shù)謀求自身的發(fā)展,離開(kāi)技術(shù),幾乎無(wú)法去探討人類(lèi)的發(fā)展。也正是在這種謀求的過(guò)程,人與技術(shù)之間信任關(guān)系伴隨人對(duì)技術(shù)的依賴(lài)而不斷被建構(gòu)起來(lái)。特別是當(dāng)今的人工智能,更是將人與技術(shù)之間的信任關(guān)系推向了一個(gè)新的高度。與此同時(shí),對(duì)二者之間信任關(guān)系的反思也與日俱增。如,以基于人工智能系統(tǒng)的決策為例。在當(dāng)下,人工智能系統(tǒng)為人類(lèi)的決策提供信息,甚或?qū)б祟?lèi)的決策。當(dāng)人類(lèi)借助、或者委托、或者授權(quán)人工智能進(jìn)行決策時(shí),一種信任就隨之而涌現(xiàn)出來(lái),且人對(duì)人工智能系統(tǒng)的信任度將影響決策。假設(shè)信任度的閾值為0-1。當(dāng)信任度為0,即人類(lèi)完全不信任人工智能時(shí),人類(lèi)所做出的決策與人工智能系統(tǒng)無(wú)關(guān)。但鑒于人工智能系統(tǒng)在當(dāng)今的深度植入,完全不信任的可能性已然不現(xiàn)實(shí);當(dāng)信任度為1,即人類(lèi)完全信任人工智能時(shí),則人工智能系統(tǒng)所輸出的決策就直接等同于人類(lèi)所做出的決策。與上述情況類(lèi)似,鑒于當(dāng)下人工智能在技術(shù)方面所存在的不穩(wěn)健性,如自動(dòng)駕駛所存在的隱患等,完全信任也同樣不可取。
杰夫·拉爾森(Jeff Larson)等人就曾對(duì)基于機(jī)器學(xué)習(xí)而進(jìn)行累犯預(yù)測(cè)的軟件——替代性制裁的懲罰性罪犯管理量表(Correctional Offender Management Profiling for Alternative Sanctions,簡(jiǎn)稱(chēng)COMPAS)的有效性展開(kāi)剖析。[13]從COMPAS所做出的預(yù)測(cè)來(lái)看,黑人被告比白人被告更可能被錯(cuò)誤地認(rèn)為是成為累犯的風(fēng)險(xiǎn)更高,而白人被告比黑人被告則更有可能錯(cuò)誤地標(biāo)記為低風(fēng)險(xiǎn)的累犯。但事實(shí)上,關(guān)于黑人被告的累犯預(yù)測(cè)是高于現(xiàn)實(shí)的,而關(guān)于白人的累犯預(yù)測(cè)則是低于現(xiàn)實(shí)的。在未來(lái)兩年中,白人被告累犯被誤判為低風(fēng)險(xiǎn)的是黑人被告累犯的幾乎兩倍(48%比28%)。[14]即,依據(jù)該軟件所做出的預(yù)測(cè),與現(xiàn)實(shí)并非完全吻合,因此,應(yīng)當(dāng)審慎地對(duì)待COMPAS輸出的結(jié)果。但這種質(zhì)疑事實(shí)上并非意味著對(duì)COMPAS的完全不信任,而是旨在探究怎樣的人與技術(shù)信任才可以有效的方式確保人工智能向善,對(duì)人類(lèi)不造成傷害。
信任是一個(gè)動(dòng)態(tài)的交互過(guò)程。就人與技術(shù)的合作而言,信任是人對(duì)技術(shù)心理的預(yù)期與技術(shù)自身的效能一種混合交互。就人際間信任而言,無(wú)監(jiān)督的信任是其最高層級(jí),是委托人對(duì)受托人的完全信任。但就人與技術(shù)的信任而言,恰恰需要的是有監(jiān)督的信任。如果說(shuō)傳統(tǒng)意義上的人與技術(shù)之間的信任,可以逐步還原到人與人之間的信任,進(jìn)而可以借助人際間的信任來(lái)確保人與技術(shù)之間的信任。但就人與人工智能系統(tǒng)而言,由于人工智能系統(tǒng)的能動(dòng)性與自主性等所帶來(lái)的某種不可解釋性、不透明性、不可追溯性等,上述還原越來(lái)越難,因此,人與人工智能的合作必須基于有效監(jiān)督的信任。但該如何用信任解碼人工智能倫理呢?關(guān)于此的解答,首先需要從倫理學(xué)的視角來(lái)厘清人工智能信任的構(gòu)成要素。
三、人工智能信任的構(gòu)成要素:基于倫理視角的解析
歐盟委員會(huì)從技術(shù)和倫理兩個(gè)維度解析了何為“可信任人工智能”;IBM所提出的“Trusted AI”意味著值得信任是人類(lèi)對(duì)人工智能技術(shù)所給予的期望。毫無(wú)疑問(wèn),可信任(信任度,值得信人)是信任的一種表征,是人工智能信任的一個(gè)重要維度。莫瑞奧薩瑞·塔迪歐(Mariarosaria Taddeo)曾指出:“信任和電子信任被以如下三種方式予以界定:(1)作為可信任性的一種蓋然性的評(píng)估;(2)作為一種基于倫理規(guī)范的關(guān)系;(3)作為一種行動(dòng)者的態(tài)度。”[15]因此,就人工智能的信任而言,至少應(yīng)與如下三個(gè)方面相關(guān):與人相關(guān),因?yàn)閷?duì)人工智能的信任發(fā)端于人;與社會(huì)環(huán)境相關(guān)。良好的信任社會(huì)體系與信任社會(huì)制度將為人工智能的信任提供良好的存在語(yǔ)境;與技術(shù)相關(guān),如技術(shù)過(guò)程(如算法的透明性與可靠性等)、技術(shù)目的、技術(shù)的性能與效應(yīng)等諸如此類(lèi)的技術(shù)要素,是人工智能信任的必備要素。因此,人工智能的信任應(yīng)包括人、技術(shù)與環(huán)境等。
從倫理學(xué)的視角來(lái)看,人工智能的信任首先需要構(gòu)建的是人類(lèi)對(duì)倫理學(xué)的信任。長(zhǎng)期以來(lái),在技術(shù)的發(fā)展歷程中,倫理學(xué)主要基于外部的視角,以批判式的反思方式出場(chǎng),因此,出現(xiàn)了倫理學(xué)被視為落后于技術(shù)發(fā)展的追思。近年來(lái),伴隨倫理學(xué)以進(jìn)入技術(shù)內(nèi)部的方式而開(kāi)啟倫理對(duì)技術(shù)的引領(lǐng)與規(guī)范功能時(shí),負(fù)責(zé)任的創(chuàng)新、負(fù)責(zé)任的人工智能等詞匯進(jìn)入到了技術(shù)界。即便如何,在人工智能的倫理構(gòu)建之中,技術(shù)界關(guān)于倫理的功能和效應(yīng)也眾說(shuō)紛紜。其中,不乏對(duì)倫理的質(zhì)疑。但若缺乏人類(lèi)對(duì)倫理學(xué)的信任,則人工智能倫理構(gòu)建的意義也有待商榷。因此,需要通過(guò)構(gòu)建人類(lèi)對(duì)倫理學(xué)的信任來(lái)夯實(shí)人工智能倫理的構(gòu)建基礎(chǔ),進(jìn)入以倫理促進(jìn)人工智能能夠謀求人類(lèi)福祉。
其次,構(gòu)建人類(lèi)對(duì)人工智能的信任。信任是一種信念,一種態(tài)度意向性?!安荒芙⑿湃危貏e是最終用戶(hù)的信任,惠及所有利益相關(guān)方的個(gè)人數(shù)據(jù)生態(tài)系統(tǒng)就將永遠(yuǎn)不會(huì)存在。”[16]同樣地,公眾對(duì)人工智能的信任將為人工智能的發(fā)展提供有力的支撐。正是基于此,在美國(guó)的“國(guó)家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃:2019更新版”中,明確指出:美國(guó)必須培養(yǎng)公眾對(duì)人工智能技術(shù)的信任和信心,在技術(shù)的應(yīng)用中,應(yīng)保護(hù)公民自由、隱私和美國(guó)價(jià)值觀,從而讓美國(guó)人民充分意識(shí)到人工智能技術(shù)的潛力。
再者,人工智能自身信任度的構(gòu)建,即人工智能自身的可信任問(wèn)題。人類(lèi)對(duì)技術(shù)的信任,需要技術(shù)的性能作為其值得信任的背景。人工智能自身的技術(shù)信任度應(yīng)當(dāng)是人工智能發(fā)展的應(yīng)有之義??v觀近年來(lái)關(guān)于人工智能發(fā)展的戰(zhàn)略與規(guī)劃,這一主題一直備受關(guān)注。關(guān)于此的闡述,從內(nèi)容上看,包括關(guān)于人工智能信任的重要性、構(gòu)建途徑、評(píng)判標(biāo)準(zhǔn)等。如:在美國(guó)電子電氣工程學(xué)會(huì)關(guān)于“倫理輔助性設(shè)計(jì)”中,將人工智能系統(tǒng)的透明性等視為構(gòu)建用戶(hù)對(duì)人工智能系統(tǒng)信任的一個(gè)重要關(guān)節(jié)點(diǎn);歐盟委員會(huì)的《可信任人工智能的倫理框架》,將人類(lèi)自治原則、避免傷害原則、公平原則、可解釋性原則等作為構(gòu)建人工智能可信度的基礎(chǔ)原則,將人的能動(dòng)性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會(huì)福祉、問(wèn)責(zé)機(jī)制等視為可信任人工智能需要滿(mǎn)足的條件;美國(guó)最新版的國(guó)家人工智能戰(zhàn)略則進(jìn)一步強(qiáng)調(diào)了發(fā)展人工智能信任度的重要性,并將確保人工智能系統(tǒng)的安全作為其戰(zhàn)略之一。
最后,構(gòu)建人工智能系統(tǒng)中各個(gè)代理間的信任。在人工智能系統(tǒng)中,無(wú)論是關(guān)于一個(gè)問(wèn)題的解決,還是關(guān)于一個(gè)整體目標(biāo)的實(shí)現(xiàn)等,都需要各個(gè)代理之間的協(xié)作與合作。近年來(lái),關(guān)于多代理系統(tǒng)(Multi-Agent System)的研究是人工智能研究的熱點(diǎn)之一,特別是關(guān)于其體系結(jié)構(gòu)和協(xié)調(diào)機(jī)制的研究是其核心研究論域。借鑒信任在人際之間的協(xié)作與合作中所具有的效用,同樣,人工智能系統(tǒng)各個(gè)代理間的信任是人工智能信任的一個(gè)不可或缺的一部分。對(duì)其的構(gòu)建是提升人工智能性能的一個(gè)有力保障,更是開(kāi)啟人工智能倫理構(gòu)建的一把鑰匙。
圖1所展現(xiàn)的四個(gè)構(gòu)成要素,主要是基于人作為倫理主體的視角,從內(nèi)部和外部?jī)蓚€(gè)方面展開(kāi)的橫向解讀。其中,內(nèi)部信任意指人類(lèi)自身的信任問(wèn)題,包括人類(lèi)對(duì)倫理學(xué)的信任和人類(lèi)對(duì)人工智能的信任;外部信任意指技術(shù)的信任,包括人工智能自身的信任度和人工智能系統(tǒng)中各個(gè)代理間的信任,且這些要素之間存在交集與交互。與此同時(shí),基于倫理學(xué)的視角,關(guān)于信任的解讀,還需要從縱向的維度來(lái)展開(kāi),因?yàn)樾湃瓮瑫r(shí)也是一個(gè)動(dòng)態(tài)的交互過(guò)程。從微觀的視角來(lái)看,這種動(dòng)態(tài)性表現(xiàn)為:上述四種信任各自的形成是動(dòng)態(tài)的,且這四種信任彼此互相影響;從宏觀的視角來(lái)看,這種動(dòng)態(tài)性表現(xiàn)為在人工智能倫理原則與人工智能系統(tǒng)的之間的開(kāi)放性、適應(yīng)性與交互性中,信任被不斷地建構(gòu)。而這恰恰與人工智能系統(tǒng)發(fā)展的動(dòng)態(tài)性相吻合,與倫理學(xué)應(yīng)當(dāng)是對(duì)技術(shù)發(fā)展的有效應(yīng)對(duì)與前瞻性反思的主旨相契合。但這種動(dòng)態(tài)性并非意指?jìng)惱韺?duì)技術(shù)的讓步,而是在堅(jiān)守倫理基本原則基礎(chǔ)上的動(dòng)態(tài)調(diào)適,以及技術(shù)需要以合乎倫理的方式而發(fā)展,即,技術(shù)依據(jù)倫理基本原則而調(diào)整其發(fā)展。
四、小結(jié)
尼克拉斯·盧曼(Niklas Luhmann)曾將信任視為社會(huì)生活的一個(gè)基本方面,認(rèn)為:信任的缺席甚至將阻止他或她早晨起床,[17]同樣地,過(guò)渡的信任、錯(cuò)誤的信任與盲目的信任也將帶來(lái)風(fēng)險(xiǎn)。在不久的將來(lái),人工智能將是我們社會(huì)生活的一個(gè)基本方面,人工智能的缺席將使得人類(lèi)日常生活的運(yùn)作遭遇困境。同理,人工智能的過(guò)渡泛濫與盲目增長(zhǎng)也將使得人類(lèi)日常生活的運(yùn)作遭遇困境。人工智能倫理的缺席將使得人類(lèi)的尊嚴(yán)恰恰正是由人工智能的發(fā)展而遭遇挑戰(zhàn),人類(lèi)的福祉也恰恰是因此而得不到保障;同理,無(wú)效的或不當(dāng)?shù)娜斯ぶ悄軅惱硪矔?huì)造就上述結(jié)果。
面對(duì)智能時(shí)代的到來(lái),借助信任,調(diào)節(jié)人與人工智能的合作關(guān)系,助推人類(lèi)社會(huì)的發(fā)展。從人類(lèi)對(duì)倫理學(xué)的信任、人類(lèi)對(duì)人工智能的信任、人工智能自身的信任度、人工智能系統(tǒng)中各個(gè)代理間的信任等四個(gè)方面開(kāi)啟人工智能倫理的構(gòu)建。但這種信任如奧諾拉·奧尼爾(Onora Sylvia O'Neill)所言:我們所期望的,并不是像小孩一樣盲目地去信任,而是要有良好的判斷能力。為了判斷別人說(shuō)的話(huà),做的事是否值得信任,我們需要有足夠的訊息和辨別的手段。為了做到合理的信任,我們不僅需要辨別出哪些說(shuō)法或行為值得去信任,也需要去思考關(guān)于它們的合理性。[18]因此,以有效監(jiān)督的信任為前提,審視人與人工智能的合作,以合勢(shì)的人工智能倫理,為人工智能的發(fā)展塑造理性的氛圍,進(jìn)而化解人工智能的不確定性,夯實(shí)智能社會(huì)的基本架構(gòu),確保人工智能向善。
[1] Will Knight .Google appoints an “AI council” to head off controversy, but it proves controversial [EB/OL]. https://www.technologyreview.com/s/613203/google-appoints-an-ai-council-to-head-off-controversy-but-it-proves-controversial /.
[2] Will Knight.Google employees are lining up to trash Google’s AI ethics council [EB/OL]. https://www.technologyreview.com/s/613253/googles-ai-council-faces-blowback-over-a-conservative-member/.
[3] Nobert Wiener.Some Moral and Technical Consequences of Automation. Science, 1960:131(3410):1355-1358.
[4] Arthur L.Samuel.Some Moral and Technical Consequences of Automation—A Refutation. Science, 1960:132(3429), 741–742.
[5] https://www.research.ibm.com/artificial-intelligence/trusted-ai/.
[6] IEEE. Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, First Edition[EB/OL]. https://ethicsinaction.ieee.org/.
[7] 國(guó)務(wù)院.新一代人工智能發(fā)展規(guī)劃[EB/OL].http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
[8] European Commission. Draft Ethics Guidelines for Trustworthy [EB/OL].https://ec.europa.eu/digital-single-market/en/news/draft-ethics-guidelines-trustworthy-ai.
[9] Andrea Renda.Artificial Intelligence: Ethics, governance and policy challenges[EB/OL] .https://www.ceps.eu/system/files/AI_TFR.pdf.
[10] National Science &Technology Council. The National AI R&D Strategic Plan: 2019 Update[EB/OL] .https://www.nitrd.gov/pubs/National-AI-RD-Strategy-2019.pdf.
[11] 國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì):新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能[EB/OL]. http://www.most.gov.cn/kjbgz/201906/t20190617_147107.htm
[12] [美] 皮埃羅·斯加魯菲(Piero Scaruffi).智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問(wèn)題[M]. 任莉,張建宇 譯.北京:人民郵電出版社,2017:168.
[13] Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin.How We Analyzed the COMPAS Recidivism Algorithm[EB/OL].https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.
[14] Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin.How We Analyzed the COMPAS Recidivism Algorithm[EB/OL].https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm.
[15] Mariarosaria Taddeo . Defining Trust and E-trust: From Old Theories to New Problems[EB/OL]. https://www.academia.edu/1505535/.
[16] 托馬斯·哈喬諾,大衛(wèi)·舍瑞爾,阿萊克斯·彭特蘭.信任與數(shù)據(jù):身份與數(shù)據(jù)共享的創(chuàng)新框架[M].陳浩 譯.北京:經(jīng)濟(jì)科學(xué)出版社.2018:139.
[17] Niklas Luhmann. Trust and Power [M]. Cambridge: Polity Press. 2017:5.
[18] 奧妮爾(O'Neill, Onora), 信任的力量[M].閆欣 譯.重慶:重慶出版社 2017:60.
原載于《人工智能》2019年第4期。





- 報(bào)料熱線(xiàn): 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116
? 2014-2026 上海東方報(bào)業(yè)有限公司




