<table id="ej5zp"></table>

  • 展會信息港展會大全

    我們需要將人工智能與人類大腦和偏見脫鉤
    來源:互聯網   發布日期:2022-02-07 10:49:26   瀏覽:18695次  

    導讀:我們可能需要擺脫人類思維的局限性 1956年夏天,10名科學家在達特茅斯學院會面,并發明了人工智能。來自數學、工程、心理學、經濟學和政治學等領域的研究人員聚集在一起,看看人工智能能否如此準確地描述學習和人類思維,以便用機器復制。僅僅十年后,這些科...

    我們可能需要擺脫人類思維的局限性

    我們需要將人工智能與人類大腦和偏見脫鉤

    1956年夏天,10名科學家在達特茅斯學院會面,并發明了人工智能。來自數學、工程、心理學、經濟學和政治學等領域的研究人員聚集在一起,看看人工智能能否如此準確地描述學習和人類思維,以便用機器復制。僅僅十年后,這些科學家為機器人學、自然語言處理和計算機視覺的戲劇性突破做出了貢獻。

    盡管自那以后已經過去了很多時間,但機器人學、自然語言處理和計算機視覺仍然是迄今為止最熱門的研究領域之一?梢哉f,我們專注于教人工智能像人一樣移動,像人一樣說話,像人一樣看。

    這樣做的理由很清楚:有了人工智能,我們希望機器可以像人一樣行為、閱讀法律合同或購買東西等任務。我們希望這些任務比人類更快、更安全、更徹底地完成。這樣,當機器承擔我們生活中無聊的任務時,人類將有更多的時間進行有趣的活動。

    然而,研究人員越來越認識到,人工智能在模仿人類思維時,可能會遺傳人類偏見。這個問題體現在亞馬遜的招聘算法和美國政府的COMPAS算法中,前者以歧視婦女而聞名,后者不成比例地懲罰黑人。無數其他例子進一步說明了人工智能中的偏見問題。

    在這兩種情況下,問題都始于一個有缺陷的數據集。亞馬遜的大多數員工都是男性,許多被監禁的人都是黑人。盡管這些統計數據是普遍存在的文化偏見的結果,但該算法無法知道這一點。相反,它得出結論,它應該復制它提供的數據,這加劇了數據中包含的偏見。

    手動修復可以消除這些偏見,但它們帶有風險。如果不正確實施,善意的修復可能會使一些偏見變得更糟,甚至引入新的偏見。然而,人工智能算法的最新發展使這些偏見越來越不重要。工程師應該接受這些新發現。新方法限制了偏見污染結果的風險,無論是來自數據集還是工程師本身。此外,新興技術意味著工程師自己需要減少對人工智能的干擾,消除更無聊和重復的任務。

    當人類知識成為王者時

    想象一下以下場景:您有一組來自不同行各業的人,跟蹤他們是否感染了新冠病毒。無論是醫生、護士還是藥劑師,人類都輸入了COVID/無COVID標簽。醫療保健提供商可能有興趣預測新條目是否可能已經感染了新冠病毒。

    監督機器學習在解決此類問題時非常有用。算法可以吸收所有數據,并開始了解不同的變量,如一個人的職業、總收入、家庭狀況、種族或郵政編碼,如何影響他們是否感染了疾玻例如,該算法可以估計三名來自紐約孩子的拉丁裔護士已經感染新冠病毒的可能性。因此,她的疫苗接種日期或保險費可能會被調整,以便通過有效分配有限的資源來拯救更多生命。

    我們需要將人工智能與人類大腦和偏見脫鉤

    這個過程乍一看聽起來非常有用,但有陷阱。例如,醫療保健提供商可能給數據點貼錯了標簽,導致數據集錯誤,并最終導致不可靠的結論。這種類型的錯誤在上述就業市場和監禁系統中尤其具有破壞性。

    監督機器學習似乎是解決許多問題的理想方法。但人類太參與數據制作過程了,以至于無法使其成為靈丹妙藥。在一個仍然遭受種族和性別不平等的世界里,人類偏見普遍存在,具有破壞性。依賴如此多的人類參與的人工智能總是有納入這些偏見的風險。

    當數據是王者時

    幸運的是,還有另一種解決方案可以拋開人造標簽,只處理至少在某種程度上客觀的數據。在COVID預測器的例子中,消除人造COVID/無COVID標簽可能是有意義的。首先,由于人為錯誤,數據可能是錯誤的。另一個主要問題是數據可能不完整。社會經濟地位較低的人獲得診斷資源的機會往往較少,這意味著他們可能已經感染了新冠病毒,但從未檢測呈陽性。這種缺失可能會使數據集傾斜。

    因此,為了使結果對保險公司或疫苗供應商來說更可靠,消除標簽可能是有用的,F在,一個不受監督的機器學習模型將進行集群,例如按郵政編碼或個人職業進行集群。這樣,一個人可以得到幾個不同的組。然后,模型可以輕松地為其中一個組分配一個新條目。

    之后,您可以將這些分組數據與其他更可靠的數據相匹配,如地理區域或專業內的超額死亡率。這樣,人們就有可能知道某人是否感染了新冠病毒,無論有些人可能比其他人更容易獲得檢測。

    當然,這仍然需要一些手工工作,因為數據科學家需要將分組數據與超額死亡率數據匹配起來。盡管如此,對保險公司或疫苗供應商來說,結果可能要可靠得多。

    送機器去賞金狩獵

    同樣,這一切都很好,但你仍然把固定疫苗數據或保險單留給過程另一端的人。就疫苗而言,負責人可能會決定稍后為有色人種接種疫苗,因為他們往往較少使用醫療保健系統,從而降低醫院生病時超車的可能性。不用說,這將是一項基于種族主義假設的不公平政策。

    讓決策權由機器決定可以幫助規避決策者根深蒂固的偏見。這是強化學習背后的概念。您提供的數據集與以前相同,沒有人造標簽,因為它們可能會扭曲結果。您還向它提供了一些關于保險單或疫苗如何工作的信息。最后,您選擇幾個關鍵目標,如不過度使用醫院資源、社會公平等。

    在強化學習中,如果機器找到符合關鍵目標的保險單或疫苗日期,它將獲得獎勵。通過對數據集的培訓,它找到了優化這些目標的政策或疫苗日期。

    這一進程進一步消除了人工數據輸入或決策的必要性。雖然它仍然遠非完美,但這種模式不僅可以更快、更容易地做出重要決定,還可以更公平、更自由地擺脫人類偏見。

    我們需要將人工智能與人類大腦和偏見脫鉤

    進一步減少人類偏見

    任何數據科學家都會告訴你,并非所有機器學習模型無論是監督的、非監督的還是強化的都非常適合每個問題。例如,保險公司可能希望獲得一個人是否感染了新冠病毒的概率,但希望自己制定保單。這改變了問題,使強化學習變得不合適。

    幸運的是,即使對模型的選擇有限,也有幾種常見的做法在很大程度上有助于實現公正的結果。這些大多根植于數據集。

    首先,當您有理由懷疑特定數據點可能受到現有不平等的不當影響時,盲目不可靠的數據是明智的。例如,由于我們知道COVID/無COVID標簽可能出于各種原因不準確,將其排除在外可能會導致更準確的結果。

    然而,這種策略不應該與令人眼花繚亂的敏感數據相混淆。例如,人們可以選擇盲目種族數據,以避免歧視。然而,這可能弊大于利,因為機器可能會學習一些郵政編碼和保險單的知識。在許多情況下,郵政編碼與種族密切相關。結果是,一名來自紐約的拉丁裔護士和一名來自俄亥俄州的白人護士,他們擁有原本相同的數據,最終可能會獲得不同的保險單,這最終可能會不公平。

    為了確保這種情況不會發生,你可以為比賽數據添加權重。機器學習模型可能會很快得出結論,拉丁裔人感染新冠病毒的頻率更高。因此,它可能會要求這部分人口提供更高的保險費,以補償這一風險。通過給予拉丁裔比白人稍微好一點的體重,我們可以賠償,以至于拉丁裔和一名白人護士最終確實得到了相同的保險單。

    然而,人們應該謹慎使用加權方法,因為它很容易為小組傾斜結果。例如,想象一下,在我們的新冠病毒數據集中,只有少數美洲原住民。碰巧,所有這些美洲原住民碰巧都是出租車司機。該模型可能在數據集的其他地方就出租車司機及其最佳醫療保險得出了一些結論。如果對美洲原住民的重量被夸大了,那么新的美洲原住民最終可能會獲得出租車司機的政策,盡管他們可能有不同的職業。

    手動消除不完美模型中的偏見極其棘手,需要大量的測試、常識和人類體面。此外,這只是一個臨時解決方案。從長遠來看,我們應該放下人類的干預和隨之而來的偏見。相反,我們應該接受這樣一個事實,即如果機器獨自一人,有正確的目標,它們就不會像人類那么可怕和不公平。

    以人為本的人工智能很棒,但我們不應該忘記人類有缺陷

    讓人工智能像人一樣移動、說話和思考是一個光榮的目標。但人類也說和想可怕的事情,特別是對弱勢群體。讓一組人類數據科學家過濾掉人類偏見和無知的所有來源是一項太大的任務,特別是如果團隊本身不夠多樣化的話。

    另一方面,機器并沒有在一個種族和經濟差異的社會中成長起來。他們只是拿任何可用的數據,并做任何他們應該做的事情。當然,如果數據集不好或有缺陷的人類干預太多,它們可能會產生不良產出。但數據集中的許多缺陷可以通過更好的模型來彌補。

    在這個時候,人工智能是強大的,但仍然經常帶有人類偏見。以人為本的人工智能不會消失,因為人工智能可以奪走人類之手的平凡任務太多。但我們不應該忘記,如果我們離開機器去做他們的事情,我們通?梢匀〉酶玫慕Y果。

    贊助本站

    人工智能實驗室
    AiLab云推薦
    展開
    Copyright © 2010-2022 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態 | 免責聲明 | 隱私條款 | 工作機會 | 展會港
    18禁无遮拦无码国产在线播放

    <table id="ej5zp"></table>