機械人倫理學

維基百科,自由的百科全書

機械人倫理學(英語:Robot ethics)是有關機械人倫理學。它是以人類為責任主體,研究如何開發和應用機械人的倫理學。[1]屬於應用倫理學機械人學的交叉領域。[2]

發展[編輯]

機械人倫理學的起源可以追溯至艾薩克·阿西莫夫提出的「機械人三定律」,其表述以機械人作為責任主體[3]。2000年代以後,各領域研究人員開始以人類作為責任主體,探討機械人倫理學。術語「機械人倫理學」(英語:Roboethics)於2002年左右被提出。[4]

2004年,在日本福岡市舉行世界機械人會議(International Robot Fair)上發表了《世界機械人宣言》,期望下一代機械人成為人類的夥伴,並為人類的身心健康和構築安全社會做出新貢獻。[5][6]2005年IEEE機械人和自動控制協會英語IEEE Robotics and Automation Society成立了機械人倫理技術委員會。[7]

2016年,英國標準協會(BSI)發佈了《機械人和機器系統的倫理設計和應用指南》,指南開篇聲明:不應設計用於傷害甚至殺死人類的機械人;人,而非機械人,為責任主體。[8]2016年起,IEEE開始推出《人工智能設計的倫理準則》(Ethically Aligned Design),鼓勵技術人員在設計開發人工智能和自動化系統時優先考慮道德因素。[9][10]2017年,歐洲議會呼籲制定「機械人法」,其中要求為機械人的研發和應用制定道德框架,並為機械人的所作所為確定責任主體。[11]

案例[編輯]

殺手機械人[編輯]

軍用機械人中的致命性自主武器(亦稱「殺手機械人」)存在着倫理問題。[12]此類武器會在沒有人類干預的情況下選中並攻擊目標,人類無法控制和判斷其武器使用和武力傷害。[13]

紅十字國際委員會提出要在三個主要方面限制此類武器[13]

  • 對不可預測的自主武器系統應予以明令禁止
  • 應禁止使用自主武器系統攻擊人類
  • 對於未被禁止的自主武器系統,其設計和使用應受到規制

2014年起,《特定常規武器公約》開始就限制致命性自主武器展開討論。[14]2021年,關於限制致命性自主武器的提議在聯合國遭包括美國、俄羅斯、英國、印度在內的多國反對,未能達成共識。[15][16]

服務機械人[編輯]

有的服務機械人被做成寵物型或者類人型並用於社交領域,例如用於自閉症治療或者老年人陪護。對於這類型的機械人是否為道德主體英語Moral agency,目前沒有明確的答案。[3]

機械人公民身份[編輯]

2017年,沙特阿拉伯授予「女性」機械人索菲亞公民身份,引發了機械人倫理學的相關爭議。有網友指出,機械人索菲亞因沒有監護人,某種意義上甚至比沙特女性享有更多的權利。[17]李開復評論稱其「絲毫沒有人性,人的理解、愛心、創造力」[18]楊立昆斥該機械人為「扯淡」和營銷產物[19]

自動駕駛汽車[編輯]

2018年在美國亞利桑那州坦佩市優步無人駕駛汽車撞死了行人伊萊恩·赫茲伯格英語Death of Elaine Herzberg,成為首宗自動駕駛車輛撞死行人事件。事後引發了關於自動駕駛倫理、道德和法律的討論:事故負責人應為測試部門、自動駕駛系統設計部門、還是傳感器供應商[20]?當面對無法規避的碰撞而要選擇傷害對象時,自動駕駛系統會陷入更嚴峻的倫理困境,例如汽車應該優先保護乘員的生命還是行人的生命;選擇優先撞擊帶頭戴的摩托車手還是不戴頭盔的;是否選擇保護更多的性命等等[21]

參見[編輯]

參考[編輯]

  1. ^ 閆坤如. 机器人伦理学:机器的伦理学还是人的伦理学?. 東北大學學報. [2023-03-07]. (原始內容存檔於2023-03-07). 
  2. ^ Robot Ethics. IEEE Robotics and Automation Society. [2023-03-07]. (原始內容存檔於2023-03-07). 
  3. ^ 3.0 3.1 The Ethical Landscape of Robotics. IEEE Robotics & Automation Magazine. 2011. doi:10.1109/MRA.2011.940275. 
  4. ^ The EURON Roboethics Roadmap. IEEE-RAS international conference on humanoid robots. 2006. doi:10.1109/ICHR.2006.321337. 
  5. ^ 世界首届机器人会议通过《世界机器人宣言》. 新浪網. 新華網. 2004-02-26 [2023-03-07]. (原始內容存檔於2023-03-07). 
  6. ^ World Robot Declaration. kyodonews. [2023-03-07]. (原始內容存檔於2023-03-07). 
  7. ^ IEEE-RAS Technical Committee (TC) on Roboethics. [2023-03-07]. (原始內容存檔於2023-03-07). 
  8. ^ Do no harm, don't discriminate: official guidance issued on robot ethics. 衛報. 2016-09-18 [2023-03-07]. (原始內容存檔於2023-04-11). 
  9. ^ IEEE Ethically Aligned Design Document Elevates the Importance of Ethics in the Development of Artificial Intelligence (AI) and Autonomous Systems (AS). businesswire. IEEE. 2016-12-13 [2023-03-07]. (原始內容存檔於2023-03-07). 
  10. ^ 第2版《人工智能设计的伦理准则》白皮书推出. 科學網. 2017-12-22 [2023-03-07]. (原始內容存檔於2023-03-07). 
  11. ^ European parliament calls for robot law, rejects robot tax. 路透社. 2017-02-16 [2023-03-07]. (原始內容存檔於2023-03-15). 
  12. ^ 联合国与致命自主武器系统. 聯合國教科文組織. 2022-04-21. 
  13. ^ 13.0 13.1 红十字国际委员会关于自主武器系统的立场. 紅十字國際委員會. 2021-05-12 [2023-03-07]. (原始內容存檔於2023-03-07). 
  14. ^ Background on LAWS in the CCW. 聯合國. [2023-03-07]. (原始內容存檔於2023-04-05). 
  15. ^ UN talks fail to open negotiations on ‘killer robots’. 半島電視台. 2021-12-18 [2023-03-07]. (原始內容存檔於2023-03-07). 
  16. ^ UN talks to ban ‘slaughterbots’ collapsed — here’s why that matters. CNBC. 2021-12-22 [2023-03-07]. (原始內容存檔於2023-03-25). 
  17. ^ Saudi Arabia grants robot citizenship. DW. 2017-10-28 [2023-03-07]. (原始內容存檔於2023-03-07). 
  18. ^ 沙特授予机器人公民身份,是对人类最大的羞辱和误导. 搜狐. 創新工場. 2017-10-29 [2023-03-07]. (原始內容存檔於2023-03-07). 
  19. ^ 杨立昆怒怼机器人索菲娅:AI硬加人类意识是揠苗助长. 中新網. 北京青年報. 2018-01-08 [2023-03-07]. (原始內容存檔於2023-03-07). 
  20. ^ 规范人工智能:伦理问题在自动驾驶领域最为突出. 新浪網. 科技日報. 2021-09-30 [2023-03-07]. (原始內容存檔於2023-03-07). 
  21. ^ Tomas Hauer. Importance and limitations of AI ethics in contemporary society. Nature. [2023-03-07]. (原始內容存檔於2023-03-07). 

參考書目[編輯]

  • Patrick Lin; Keith Abney; George A. Bekey. Robot ethics : the ethical and social implications of robotics. Cambridge, Mass.: MIT Press. 2014. ISBN 026252600X. 
  • 帕特里克·林; 凱斯·阿布尼; 喬治·A.貝基. 机器人伦理学. 人民郵電出版社. 2021. ISBN 9787115561749. (中譯本)

外部連結[編輯]