科幻網1月18日訊(朱曦薇) 據外媒報道,來自印度班加羅爾國際信息技術研究所的兩位研究人員提出一個觀點,如果想讓人工智能擁有人類的道德倫理觀念,就必須教它像人類一樣進化出道德倫理觀念。
論文題為“人工智能和自我意識”,描述一種被稱為“彈性身份”的方法。研究人員表示,通過這種方法,人工智能可能學會獲得更大的主動控制感,同時了解如何避免“附帶損害”。
簡而言之,研究人員建議,通過教人工智能在道德上與人類更加一致,讓它學會何時為自己優化,何時為群體利益優化。
根據論文所述,我們的自我意識并不局限于我們身體的界限,而是經常擴展到我們環境中的其他物體和概念。這形成了社會身份的基礎,建立一種歸屬感和忠誠感。同時,研究人員描述一種利他主義和自私行為之間的平衡,在這種平衡中,行為主體能夠理解道德上的細微差別。
不幸的是,道德是無法計算的。幾千年來,人類一直試圖理清每個人在文明社會中的正確行為方式,而現代社會缺乏烏托邦式國家,我們仍在尋找最終答案。至于人工智能模型到底應該具有什么樣的“彈性”措施,這更像是一個哲學問題,而不是科學問題。
所以,我們真的希望人工智能能夠以人類的方式學習倫理道德觀念嗎?要知道,我們的社會倫理觀點是在無數次戰爭的炮火中鍛造出來的。而且,教會人工智能我們的倫理道德觀念,然后訓練它像我們一樣進化,聽起來像是科幻電影中人工智能統治人類的前兆。