您的位置: 首頁 >互聯(lián)網 >

人工智能可以幫助人類應對許多挑戰(zhàn) 但同時也會帶來挑戰(zhàn)

2022-07-17 08:10:00 編輯:丁星姬 來源:
導讀 我們知道AI有偏見。我們知道這很復雜。我們了解到,AI始終可能會或可能不會得出公平和道德的結論。但是很明顯,無論如何,AI都會發(fā)生。...

我們知道AI有偏見。我們知道這很復雜。我們了解到,AI始終可能會或可能不會得出公平和道德的結論。但是很明顯,無論如何,AI都會發(fā)生。

物理學家斯蒂芬·霍金(Stephen Hawking)說,人工智能是一個主要問題。他評論說:“成功創(chuàng)建有效的AI可能是我們文明歷史上最大的事件?;蜃顗牡那闆r。”

因此,問題是:我們是否在這項技術的軟性方面花費了足夠的時間和精力?

隨著政府和企業(yè)尋求AI,熱像儀和掃描儀等技術來解決市民和工作場所的安全問題,有關AI道德規(guī)范的問題現在特別重要。此類對話通常圍繞AI公平性,預期用途,潛在濫用,隱私隱患,工人流離失所和產品準確性展開。

復雜性使得很難驗證公平性。

人工智能的一個被吹捧的好處是它可以消除人為的偏見,從而可以做出更“公平的決定”。但是經驗證明,AI的努力并非始終如愿以償。

2014年,亞馬遜開始嘗試使用AI進行招聘。它使用其軟件開發(fā)人員的內部數據庫訓練了一個AI系統(tǒng),其中大多數是男性。該系統(tǒng)通過過濾掉女性候選人來做出回應。而且,在2018年,亞馬遜表示將取消招聘工具。

挑戰(zhàn)可能是AI是如此復雜,以至于開發(fā)人員不知道AI是如何得出結論的。這可能會使人們更難驗證AI是否已達成“公平”或“道德”決定。

預期的使用和潛在的濫用需要認真考慮。

基本前提是AI應該做好。什么時候不好?當其預期用途改變時。Google可能是最明顯的例子,說明為什么定義預期用途很重要。

2018年,谷歌贏得了國防部(DoD)的一項重要合同,以分析無人機的視頻鏡頭。但是一些Google員工不想參加戰(zhàn)爭。3,000多名員工給公司首席執(zhí)行官簽署了一封信,敦促他放棄該項目。Google領導層做出回應,決定不續(xù)約(合同生效)政府合同,并發(fā)布有關它將支持和不支持的AI使用類型的指南。

最近,Clearview AI成為有關潛在濫用的對話的一部分。該公司為執(zhí)法部門提供面部識別技術。它可以捕獲圖像并找到被拍照者的公開信息,據報道這些信息來自Facebook,YouTube和其他網站。這樣可以提供有關人的很多信息,包括他們的當前位置。

從執(zhí)法角度來看,此舉的目的是抓捕罪犯。這是一種積極的預期用途–對人類有益。但是一旦擁有了該功能,您如何控制和監(jiān)視它?因為如果該技術可以用來識別罪犯,那么掠奪者可以使用該解決方案來識別和定位婦女或兒童。


免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!

精彩推薦

圖文推薦

點擊排行

2016-2022 All Rights Reserved.平安財經網.復制必究 聯(lián)系QQ280 715 8082   備案號:閩ICP備19027007號-6

本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網 版權歸原作者所有。