2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。
人工智能無處不在。移動地圖通過交通為我們提供路線,算法現(xiàn)在可以駕駛汽車,虛擬助手可以幫助我們在工作和生活之間平穩(wěn)切換,而智能代碼則可以使我們的下一首新歌呈現(xiàn)。
但是,人工智能也可能被證明是危險的。特斯拉首席執(zhí)行官埃隆·馬斯克(Elon Musk)曾警告說,有偏見,不受監(jiān)督和不受監(jiān)管的AI可能是“我們作為文明面臨的最大風險”。相反,AI專家擔心自動化系統(tǒng)可能會吸收人類程序員的偏見。而且,當將偏見編碼到支持AI的算法中時,將幾乎無法消除。
AI偏見的例子是豐富的:在2015年7月的谷歌照片的AI系統(tǒng)標記黑人大猩猩 ; CNET在2018年3月報道說,亞馬遜和谷歌的智能設備似乎難以理解口音 ; 2018年10月,亞馬遜破壞了以人工智能為動力的工作招聘工具,該工具似乎歧視婦女; 2019年5月,聯(lián)合國教育,科學及文化組織(UNESCO)的一份報告發(fā)現(xiàn),人工智能個人助理可以強化有害的性別定型觀念。
為了更好地理解AI的治理方式,以及如何防止人類的偏見改變我們每天依賴的自動化系統(tǒng),CNET與位于舊金山的Salesforce AI專家Kathy Baxter和Richard Socher進行了交談。Baxter說,調節(jié)技術可能具有挑戰(zhàn)性,并且該過程將需要細微差別。
她說,該行業(yè)正在努力開發(fā)“負責任的,值得關注的,值得關注的,可以保護人權的人工智能”。“我們確保[該程序]不侵犯這些人權。它還必須透明。它必須能夠向最終用戶解釋它在做什么,并為他們提供機會做出明智的選擇。它。”
Baxter說,Salesforce和其他技術公司正在針對AI數(shù)據(jù)模型中使用的數(shù)據(jù)標準制定跨行業(yè)指南。“我們將顯示模型中使用的因素,例如年齡,種族,性別。如果您使用的是受保護的數(shù)據(jù)類別之一,我們將升旗。
2016-2022 All Rights Reserved.平安財經(jīng)網(wǎng).復制必究 聯(lián)系QQ280 715 8082 備案號:閩ICP備19027007號-6
本站除標明“本站原創(chuàng)”外所有信息均轉載自互聯(lián)網(wǎng) 版權歸原作者所有。