<table id="ej5zp"></table>

  • 展會信息港展會大全

    西方學界人工智能倫理風險防范研究
    來源:互聯網   發布日期:2022-04-09 09:54:20   瀏覽:3120次  

    導讀:智能化革命正在深刻地影響和塑造著人類的生產、生活方式與社會文明發展形態。如何應對人工智能技術發展和應用帶來的倫理問題及挑戰,成為智能化時代全人類需要面對的重大課題。國際學術界對新技術可能引發的各種倫理問題以及防范等進行了諸多研究,值得我們...

    智能化革命正在深刻地影響和塑造著人類的生產、生活方式與社會文明發展形態。如何應對人工智能技術發展和應用帶來的倫理問題及挑戰,成為智能化時代全人類需要面對的重大課題。國際學術界對新技術可能引發的各種倫理問題以及防范等進行了諸多研究,值得我們關注。

    對機器能否成為道德主體的看法

    人工智能顯然超出了傳統工具的范疇,具有學習能力,能做決策,并根據環境變化調整行為,進而產生相應的倫理后果。因此,該如何確定或定義人工智能在人類社會中的身份和地位,其能否成為道德主體或法律主體,為自身行為承擔責任或獲得激勵?國外學界認為,對這些問題的探討最終還是要還原到何為自我意識、自由意志的問題。從1956年圖靈(A. M. Turing)提出“圖靈測試”設想開始到塞爾(J. R. Searle)的“中文屋”思想實驗,再到德雷福斯(H.Dreyfus)的《計算機仍然不能做什么:人工理性批判》等思想成果,早期的人工智能先驅們基于人工智能的本質,及其與人類智能的區別等視角普遍認為,人工智能不具有類人的意識。

    西方學界人工智能倫理風險防范研究

    近年來,隨著以人工智能為代表的新技術指數級的發展,自主性的機器能否成為主體,成為繞不開的話題。其中,大部分學者認為機器智能依賴的是算法程序,很難衍生出像人一樣的自我意識和自由意志,因而很難成為道德主體。他們認為人的心靈(mind)是由兩個部分構成的,通過形式邏輯、自然因果律等認識、把握、改造對象世界的計算意識,通過對象性活動和交往活動確證主體世界本質與意義的社會情感意識,機器表現出來的自主意識只是對人類計算智能的模擬。如博登(M. Boben)認為人類很難設計出通用人工智能,因為人工智能只專注于智能理性而忽略了社會情感智能,沒有智慧(wisdom)。齊澤克強調不應該將計算機想象成人的大腦模型,要將人的大腦想象成“血肉構造的計算機”,而人腦是無法完全還原為計算機構造模型的。但是,一些未來學家認為機器在未來將衍生出不同于人類的意識和超出人類的智能,而一旦出現超級人工智能,人類將很難與其溝通,也很難使其遵守人類的道德規則。如庫茲韋爾(Ray Kurzweil)于2005年提出“技術奇點”論,認為在未來人的主體性將受到機器的挑戰。安德森(Michael Anderson)夫婦編著了“機器倫理”(Machine Ethics)一書,開啟了以機器作為責任主體的機器倫理學研究進路。隨著人工智能技術指數級的發展,機器在未來能否突破因果律的限制,衍生出能動意識,需要理論持續的跟進。

    西方學者關于機器能否成為道德主體的論爭,引發了我們重新關注和審視人工智能趨勢下“什么是人”“我們該如何對待人”“技術的本質和限度是什么”等問題的思考。

    人工智能產生的道德倫理風險

    人工智能技術自發展伊始就與人有著千絲萬縷的聯系,早在1950年,美國控制論創始人維納(Norbert Wiener)就認為機器人技術會從善還是作惡充滿不確定性,但機器人將代替人類從事工作,或許會造成人腦的“貶值”。西方學者對人工智能可能產生的道德倫理風險,進行了較為深入系統的研究和探索。

    第一,對人工智能技術導致勞動者失業,形成新的社會不公、技術鴻溝等問題的探討。不少西方學者認為人工智能造成大量失業、社會貧富差距增大等風險。如赫拉利(Yuval Harari)認為隨著技術的進化,大多數人因自身工作會被人工智能替代而淪為“無用階級”,只有少數掌握技術和資源的精英階層會進化成超級人類,社會階層固化、極化。對如何更好地保障人的生存發展權利,休斯(James Hughes)等學者提出通過稅收和財富公共所有權建立全面基本收入制度,以應對智能技術造成的失業和社會不公。

    第二,對人工智能技術不確定性倫理風險問題的辯論。“究竟誰應該對機器行為承擔責任”成為日益嚴峻的責任倫理問題。一些學者主張設計者、制造者、編程者和使用者應對機器人的社會后果進行控制監督,強調機器人工程師的倫理責任。另外一些學者主張以道德嵌入的方式來設計算法,使機器成為內置倫理系統的道德體,以防范人工智能在設計和應用階段產生的倫理風險。2009年,美國學者瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)在合著的《道德機器:教導機器人分辨是非》一書中,對如何設計道德機器做了較為系統的分析。然而,道德算法面臨價值選擇與沖突。人類社會存在多種道德規范和倫理原則,各體系間難以通約,以何種道德規范設計算法成為問題。此外,設計者的倫理訴求也非一元,在設計道德機器時如何進行價值取舍同樣成為問題;诖,一些學者如布賴森(J. Bryson)等就如何進行價值排序、解決價值沖突、尋求普遍倫理共識作為設計道德機器的理論框架進行了探討,他們普遍將機器對人類無害且友善作為首要的倫理原則。

    第三,對人工智能技術濫觴突破傳統人類道德倫理界限的擔憂。除了上述問題,一些學者對下述問題表達了擔憂。人對智能技術的過度依賴,容易導致技術霸權和技術奴役,造成社會不確定性風險和危機;護理機器人的應用存在物化老人、幼兒,弱化或侵犯其尊嚴、自由、隱私等風險;自主作戰機器人的應用存在打破國際社會法律與規約,增大引發地區性沖突與戰爭可能性以及大規模殺傷的風險。

    人工智能倫理風險防范思路

    針對人工智能可能引發的各種倫理問題,西方學者普遍認為應該從機器倫理價值導向設計、行業標準設定以及立法等多途徑防范和規避人工智能倫理風險。

    在國際學術界有較大影響力的是自上而下的道德編碼和自下而上的道德學習的機器設計思路。前者主張將人類社會的道德規則以程序編碼的方式嵌入算法中,使機器能夠通過計算和推理進行道德決策。后者認為人類的道德行為是在具體道德情景、與他人的互動中習得的,因而無須預先編碼,讓機器通過道德案例觀察、與其他道德體互動學習等成為道德行動者。

    這兩種設計各有局限,前者存在選擇何種倫理價值嵌入以及如何應對復雜道德場景的問題,后者存在沒有倫理指導系統,僅憑機器學習,輸入機器的道德敏感數據會得出何種結果的問題?伎茽柌瘢∕ark Coeckelbergh)認為,當前的機器學習實質上是一種統計學加工過程,因而機器很難被訓練成完全的道德行動者,他主張從人機互動的關系進路設計道德機器。

    通過行業標準設定防范和規避人工智能倫理風險的對策。近年來,歐洲機器人研究網絡(EURON),美國國家航空航天局(NASA)和國家科學基金會、韓國貿易、工業和能源部等從國家層面對人工智能倫理研究進行指導。一些行業協會如英國標準協會(BSI)頒布了《機器人和機器系統的倫理設計和應用指南》,美國電氣與電子工程師協會(IEEE)提出“合乎倫理設計”(EAD)規范等,以應對因設計者認知偏好引發的算法歧視、社會不公等問題。

    通過制度規范化解人工智能倫理風險的做法。2021年4月,歐盟委員會通過了《人工智能法》立法提案,對人工智能的功能和用途等要素做了不可接受的風險、高風險、有限風險和低風險等層級區分,并提出了明確、具體的對應分類治理和監管體系。

    國際學術界對“合乎倫理設計”的道德機器可行性探索,為我們開發設計可信賴的人工智能提供了方法論的指引。在疫情難以預料的當下和未來,人類命運休戚與共,加速人工智能與各領域的深度融合,使世界形成一個泛智能化的地球村已是大勢所趨。因此,擱置爭議,尋求全球共識,設計具有最大公約數的道德機器,共同抵御未來的不確定性風險非常必要、迫切并將成為可能。但這些學者將研究重心集中于如何規避技術風險,忽視了人文價值缺失在技術應用中的極化倫理風險。為了解決這些問題,我們應始終堅持以人民為中心的科技發展規律,在技術的發展和應用中始終將維護人的尊嚴,呵護人的價值作為根本目標和前置條件。

    贊助本站

    人工智能實驗室
    AiLab云推薦
    展開
    Copyright © 2010-2022 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港
    18禁无遮拦无码国产在线播放

    <table id="ej5zp"></table>