开心六月综合激情婷婷|欧美精品成人动漫二区|国产中文字幕综合色|亚洲人在线成视频

    1. 
      
        <b id="zqfy3"><legend id="zqfy3"><fieldset id="zqfy3"></fieldset></legend></b>
          <ul id="zqfy3"></ul>
          <blockquote id="zqfy3"><strong id="zqfy3"><dfn id="zqfy3"></dfn></strong></blockquote>
          <blockquote id="zqfy3"><legend id="zqfy3"></legend></blockquote>
          打開APP
          userphoto
          未登錄

          開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

          開通VIP
          讓AI做決策,我們的社會(huì)準(zhǔn)備好了嗎?

          隨著技術(shù)的加速發(fā)展,人工智能(AI)在決策過程中發(fā)揮著越來越重要的作用。人類越來越依賴算法來處理信息、推薦某些行為,甚至代表他們采取行動(dòng)。


          但是,如果真的讓 AI 幫助、甚至代替我們來做決策,尤其是涉及主觀的、道德倫理相關(guān)的決策,你能接受嗎?

          近日,一個(gè)來自廣島大學(xué)的研究小組探究了人類對引入人工智能決策的反應(yīng)。具體來說,他們通過研究人類與自動(dòng)駕駛汽車的互動(dòng),探討了一個(gè)問題:“社會(huì)準(zhǔn)備好接受人工智能道德決策了嗎?”


          該團(tuán)隊(duì)于 2022 年 5 月 6 日在 Journal of Behavioral and Experimental Economics 上發(fā)表了他們的發(fā)現(xiàn)。

          在第一個(gè)實(shí)驗(yàn)中,研究人員向 529 名人類受試者展示了駕駛員可能面臨的道德困境。在研究人員創(chuàng)建的場景中,汽車駕駛員必須決定是將汽車撞向一群人還是另一群人,而且碰撞是不可避免的。也就是說,事故將對一組人造成嚴(yán)重傷害,但會(huì)挽救另一組人的生命。

          實(shí)驗(yàn)中的人類受試者必須對汽車駕駛員的決定進(jìn)行評(píng)分,駕駛員有可能是人類,也有可能是人工智能。以此,研究人員旨在衡量人們可能對人工智能道德決策產(chǎn)生的偏見。

          (來源:廣島大學(xué))

          在他們的第二個(gè)實(shí)驗(yàn)中,563 名人類受試者回答了研究人員提出的一些相關(guān)問題,以確定人們對AI在成為社會(huì)的一部分后,對人工智能倫理決策有何反應(yīng)。

          在這個(gè)實(shí)驗(yàn)中,有兩種情況。其中一個(gè)涉及一個(gè)假設(shè)的政府,該政府已經(jīng)決定允許自動(dòng)駕駛汽車做出道德決定;另一個(gè)場景允許受試者“投票”是否允許自動(dòng)駕駛汽車做出道德決定。在這兩種情況下,受試者都可以選擇支持或反對技術(shù)做出的決定。

          第二個(gè)實(shí)驗(yàn)旨在測試將人工智能引入社會(huì)的兩種替代方式的效果。

          研究人員觀察到,當(dāng)受試者被要求評(píng)估人類或人工智能駕駛員的道德決定時(shí),他們對兩者都沒有明確的偏好。然而,當(dāng)受試者被問及是否應(yīng)該允許人工智能在道路上做出道德決定的明確意見時(shí),受試者對人工智能駕駛的汽車有更強(qiáng)烈的意見。

          (來源:jonesday)

          研究人員認(rèn)為,這兩個(gè)結(jié)果之間的差異是由兩種因素共同造成的。

          第一個(gè)要素是,很多人認(rèn)為整個(gè)社會(huì)不希望人工智能做與倫理道德相關(guān)的決策,因此當(dāng)被問及對此事的看法時(shí),他們會(huì)被自己的觀念所影響。

          “事實(shí)上,當(dāng)參與者被明確要求將他們的答案與社會(huì)的答案區(qū)分開來時(shí),人工智能和人類司機(jī)之間的差異就會(huì)消失?!睆V島大學(xué)人文社會(huì)科學(xué)研究生院助理教授 Johann Caro-Burnett 說。

          第二個(gè)要素是,在將這項(xiàng)新技術(shù)引入社會(huì)時(shí),是否允許討論該相關(guān)話題的結(jié)果,因國家而異?!霸谌藗冃湃握碛袕?qiáng)大政府機(jī)構(gòu)的地區(qū),信息和決策權(quán)有助于受試者評(píng)估人工智能道德決策的方式。相比之下,在人們不信任政府且制度薄弱的地區(qū),決策能力惡化了受試者評(píng)估人工智能道德決策的方式。”Caro-Burnett 說。

          我們發(fā)現(xiàn),社會(huì)對 AI 道德決策存在恐懼。然而,這種恐懼的根源并不是個(gè)人所固有的。事實(shí)上,這種對人工智能的拒絕來自個(gè)人認(rèn)為是社會(huì)的看法。廣島大學(xué)人文社會(huì)科學(xué)研究生院教授 Shinji Kaneko 說。


          圖 | 平均而言,人們對 AI 駕駛員的道德決策的評(píng)價(jià)與人類駕駛員的評(píng)價(jià)沒有區(qū)別。但是,人們并不想讓人工智能在路上做出道德決定(來源:廣島大學(xué))

          因此,當(dāng)沒有被明確詢問時(shí),人們不會(huì)表現(xiàn)出任何對人工智能道德決策有偏見的跡象。然而,當(dāng)被明確詢問時(shí),人們表現(xiàn)出對人工智能的厭惡。此外,在增加了關(guān)于該主題的討論和信息的情況下,人工智能的接受度在發(fā)達(dá)國家有所提高,而在發(fā)展中國家則惡化。

          研究人員認(rèn)為,這種對新技術(shù)的拒絕,主要是由于個(gè)人對社會(huì)意見的信念,很可能適用于其他機(jī)器和機(jī)器人?!耙虼?,重要的是要確定個(gè)人偏好如何匯總為一種社會(huì)偏好。此外,正如我們的結(jié)果所表明的那樣,這類結(jié)論在各國之間也必須有所不同。”Kaneko 說。

          參考資料:
          https://www.hiroshima-u.ac.jp/en/news/71302
          https://linkinghub.elsevier.com/retrieve/pii/S2214804322000556

          點(diǎn)這里關(guān)注我??記得標(biāo)星~

          熱門視頻推薦

          本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點(diǎn)擊舉報(bào)
          打開APP,閱讀全文并永久保存 查看更多類似文章
          猜你喜歡
          類似文章
          若把性命托付給人工智能,它應(yīng)該遵守人類的道德嗎?
          人工智能對道德倫理問題提出重大挑戰(zhàn)
          全球人工智能發(fā)展趨勢及挑戰(zhàn)
          人工智能會(huì)協(xié)助人類還是取代人類?
          AI倫理與隱私保護(hù):探討人工智能的道德邊界
          人工智能(AI)的武器化,為何研制俄羅斯研制多年,沒在烏克蘭進(jìn)行實(shí)戰(zhàn)?
          更多類似文章 >>
          生活服務(wù)
          分享 收藏 導(dǎo)長圖 關(guān)注 下載文章
          綁定賬號(hào)成功
          后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
          如果VIP功能使用有故障,
          可點(diǎn)擊這里聯(lián)系客服!

          聯(lián)系客服