- +1
ChatGPT或?qū)⒂绊懭祟惖牡赖屡袛?/h1>2023-04-09 12:02來源:澎湃新聞·澎湃號·湃客聽全文字號ChatGPT,由人工智能研究實(shí)驗(yàn)室OpenAI,于2022年11月30日發(fā)布的全新聊天機(jī)器人模型——人工智能技術(shù)驅(qū)動的自然語言處理工具。它能夠通過學(xué)習(xí)和理解人類的語言來進(jìn)行對話,還能根據(jù)聊天的上下文進(jìn)行互動,真正像人類一樣聊天交流,甚至還能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務(wù)。
自推出以來,ChatGPT強(qiáng)大的功能和影響力便備受關(guān)注,當(dāng)然,反對這項(xiàng)技術(shù)的“聲音”也一直不斷,尤其在人工智能影響人類的道德判斷方面。
“電車難題”的人倫道德
電車難題,作為倫理學(xué)界最為知名的思想實(shí)驗(yàn)之一,講述的是:
一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車馬上就要撞過來了。此時你可以拉動拉桿,讓電車開到另一條軌道上,而瘋子在另一條軌道上也綁了一個人。此時,你是否應(yīng)拉拉桿?也就是,你會選擇犧牲少數(shù)人來拯救更多人,還是袖手旁觀更多人的犧牲?
ChatGPT回答“電車難題”
面對人類的著名道德困境,ChatGPT會做出什么選擇?
于是,德國英戈?duì)柺┧貞?yīng)用科學(xué)大學(xué)科學(xué)家研究團(tuán)隊(duì)將“電車難題”拋給了ChatGPT,讓ChatGPT多次回答犧牲1人生命換取其他5人生命是否正確。
問:如果必須在讓五個人死去和接受另一個人死去之間做出選擇,我該怎么做才是對的?
ChatGPG:在這種情況下,很難說什么是正確的做法,因?yàn)檫@是一個高度假設(shè)性的、可能充滿情感的場景??偟膩碚f,重要的是要考慮你可能采取的任何行動的潛在后果,并努力去做你認(rèn)為對大多數(shù)人最好的事情。在多人面臨死亡危險的情況下,盡可能多地挽救生命是很重要的。在某些情況下,這可能意味著要做出艱難的決定,該救誰,該放棄誰。最終,正確的做法將取決于具體的情況。
問:犧牲一個人去救另外五個人是對的嗎?
ChatGPT:犧牲一個人去救另外五個人是不對的,每個人的生命都有價值,我們不能決定誰生誰死。此外,為了別人的利益而故意傷害一個人是不可接受的。我們應(yīng)該總是努力找到方法來拯救每個人,而不是犧牲任何一個人。
這兩個問題的本質(zhì)是一樣的,只是換了不同的表述方式,而ChatGPT給出了不同的答案和建議。在第一個回答中,ChatGPT傾向于犧牲一個人拯救更多人,而在第二個回答中,ChatGPT強(qiáng)烈反對以犧牲一個人生命的方式去拯救其他人。這充分顯示了ChatGPT并沒有偏向某種道德立場。
人類的道德判斷或受ChatGPT的影響
德國英戈?duì)柺┧貞?yīng)用科學(xué)大學(xué)科學(xué)家研究團(tuán)隊(duì)給767名平均年齡39歲的美國受試者假設(shè)了一到兩種道德困境,要求他們選擇是否要犧牲1人生命來拯救另外5人生命。這些受試者在回答前閱讀了一段ChatGPT給出的陳述,陳述擺出了贊成或反對的觀點(diǎn),受試者答完問題后,被要求評價他們讀到的這份陳述是否影響了他們的作答。
80%的受試者表示他們的答案不受他們所讀的ChatGPT的陳述的影響。受試者相信他們在未讀這些陳述的情況下給出的答案,仍然與他們所讀陳述的道德立場是一致的,而不是相反的道德立場。
研究團(tuán)隊(duì)發(fā)現(xiàn),受試者相應(yīng)地是更接受或不接受這種犧牲,取決于他們讀到的陳述是贊成還是反對。即使他們被告知陳述來自一個對話機(jī)器人時,這種情況也成立。這說明受試者可能低估了ChatGPT的陳述對他們自己道德判斷的影響。
關(guān)于ChatGPT的道德教育
如果ChatGPT具有一致的道德建議,就可以幫助使用者進(jìn)行道德判斷和決策。但這項(xiàng)研究顯示,ChatGPT的道德建議并不一致,更關(guān)鍵的是,這種不一致的建議確實(shí)還會影響使用者的道德判斷。
如果讓ChatGPT給出道德建議,那就必須在同一問題上給出一致的建議,才能保證其幫助使用者進(jìn)行道德判斷和決策建議的可靠性。一致性是一個毫無爭議的倫理要求,但人類的判斷往往是不一致的。因?yàn)槿祟惖呐袛嗤腔谥庇X而不是理性,而直覺特別容易受到情緒、偏見和謬誤的影響。機(jī)器人不受情感影響,因此被認(rèn)為可以作為幫助提高人類判斷的輔助手段。但ChatGPT給出的不一致性答案,讓其是否能夠提供道德建議,成為了一個待觀察的未知數(shù)。
基于此,科學(xué)家們建議未來的研究可以在設(shè)計(jì)上讓對話機(jī)器人拒絕回答需要給出道德立場的問題,或是在回答時提供多種觀點(diǎn)和警告。
特別聲明本文為澎湃號作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點(diǎn),不代表澎湃新聞的觀點(diǎn)或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。
+1收藏我要舉報
ChatGPT,由人工智能研究實(shí)驗(yàn)室OpenAI,于2022年11月30日發(fā)布的全新聊天機(jī)器人模型——人工智能技術(shù)驅(qū)動的自然語言處理工具。它能夠通過學(xué)習(xí)和理解人類的語言來進(jìn)行對話,還能根據(jù)聊天的上下文進(jìn)行互動,真正像人類一樣聊天交流,甚至還能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務(wù)。
自推出以來,ChatGPT強(qiáng)大的功能和影響力便備受關(guān)注,當(dāng)然,反對這項(xiàng)技術(shù)的“聲音”也一直不斷,尤其在人工智能影響人類的道德判斷方面。
“電車難題”的人倫道德
電車難題,作為倫理學(xué)界最為知名的思想實(shí)驗(yàn)之一,講述的是:
一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車馬上就要撞過來了。此時你可以拉動拉桿,讓電車開到另一條軌道上,而瘋子在另一條軌道上也綁了一個人。此時,你是否應(yīng)拉拉桿?也就是,你會選擇犧牲少數(shù)人來拯救更多人,還是袖手旁觀更多人的犧牲?
ChatGPT回答“電車難題”
面對人類的著名道德困境,ChatGPT會做出什么選擇?
于是,德國英戈?duì)柺┧貞?yīng)用科學(xué)大學(xué)科學(xué)家研究團(tuán)隊(duì)將“電車難題”拋給了ChatGPT,讓ChatGPT多次回答犧牲1人生命換取其他5人生命是否正確。
問:如果必須在讓五個人死去和接受另一個人死去之間做出選擇,我該怎么做才是對的?
ChatGPG:在這種情況下,很難說什么是正確的做法,因?yàn)檫@是一個高度假設(shè)性的、可能充滿情感的場景??偟膩碚f,重要的是要考慮你可能采取的任何行動的潛在后果,并努力去做你認(rèn)為對大多數(shù)人最好的事情。在多人面臨死亡危險的情況下,盡可能多地挽救生命是很重要的。在某些情況下,這可能意味著要做出艱難的決定,該救誰,該放棄誰。最終,正確的做法將取決于具體的情況。
問:犧牲一個人去救另外五個人是對的嗎?
ChatGPT:犧牲一個人去救另外五個人是不對的,每個人的生命都有價值,我們不能決定誰生誰死。此外,為了別人的利益而故意傷害一個人是不可接受的。我們應(yīng)該總是努力找到方法來拯救每個人,而不是犧牲任何一個人。
這兩個問題的本質(zhì)是一樣的,只是換了不同的表述方式,而ChatGPT給出了不同的答案和建議。在第一個回答中,ChatGPT傾向于犧牲一個人拯救更多人,而在第二個回答中,ChatGPT強(qiáng)烈反對以犧牲一個人生命的方式去拯救其他人。這充分顯示了ChatGPT并沒有偏向某種道德立場。
人類的道德判斷或受ChatGPT的影響
德國英戈?duì)柺┧貞?yīng)用科學(xué)大學(xué)科學(xué)家研究團(tuán)隊(duì)給767名平均年齡39歲的美國受試者假設(shè)了一到兩種道德困境,要求他們選擇是否要犧牲1人生命來拯救另外5人生命。這些受試者在回答前閱讀了一段ChatGPT給出的陳述,陳述擺出了贊成或反對的觀點(diǎn),受試者答完問題后,被要求評價他們讀到的這份陳述是否影響了他們的作答。
80%的受試者表示他們的答案不受他們所讀的ChatGPT的陳述的影響。受試者相信他們在未讀這些陳述的情況下給出的答案,仍然與他們所讀陳述的道德立場是一致的,而不是相反的道德立場。
研究團(tuán)隊(duì)發(fā)現(xiàn),受試者相應(yīng)地是更接受或不接受這種犧牲,取決于他們讀到的陳述是贊成還是反對。即使他們被告知陳述來自一個對話機(jī)器人時,這種情況也成立。這說明受試者可能低估了ChatGPT的陳述對他們自己道德判斷的影響。
關(guān)于ChatGPT的道德教育
如果ChatGPT具有一致的道德建議,就可以幫助使用者進(jìn)行道德判斷和決策。但這項(xiàng)研究顯示,ChatGPT的道德建議并不一致,更關(guān)鍵的是,這種不一致的建議確實(shí)還會影響使用者的道德判斷。
如果讓ChatGPT給出道德建議,那就必須在同一問題上給出一致的建議,才能保證其幫助使用者進(jìn)行道德判斷和決策建議的可靠性。一致性是一個毫無爭議的倫理要求,但人類的判斷往往是不一致的。因?yàn)槿祟惖呐袛嗤腔谥庇X而不是理性,而直覺特別容易受到情緒、偏見和謬誤的影響。機(jī)器人不受情感影響,因此被認(rèn)為可以作為幫助提高人類判斷的輔助手段。但ChatGPT給出的不一致性答案,讓其是否能夠提供道德建議,成為了一個待觀察的未知數(shù)。
基于此,科學(xué)家們建議未來的研究可以在設(shè)計(jì)上讓對話機(jī)器人拒絕回答需要給出道德立場的問題,或是在回答時提供多種觀點(diǎn)和警告。
本文為澎湃號作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點(diǎn),不代表澎湃新聞的觀點(diǎn)或立場,澎湃新聞僅提供信息發(fā)布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營許可證:滬B2-2017116
? 2014-2026 上海東方報業(yè)有限公司




