2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。
一種使用面部識(shí)別來(lái)識(shí)別目標(biāo)的智能水槍正在幫助突出人工智能(AI)的一些新出現(xiàn)的人權(quán)問(wèn)題——隨著新技術(shù)在我們的日常生活中越來(lái)越普遍,這一領(lǐng)域的研究正在上升。
英國(guó)萊斯特德蒙特福特大學(xué)計(jì)算和社會(huì)責(zé)任中心主任貝恩德·斯塔赫爾教授說(shuō):“現(xiàn)在做人工智能研究人員是非常困難的,不知道這些算法對(duì)倫理的影響。
“我們不僅必須更好地了解這些技術(shù)能做什么,而且還必須了解它們將如何在社會(huì)和整個(gè)世界發(fā)揮作用。
他領(lǐng)導(dǎo)了一個(gè)名為SHERPA的項(xiàng)目,該項(xiàng)目試圖解決一些圍繞智能信息系統(tǒng)的倫理問(wèn)題,這些系統(tǒng)使用機(jī)器學(xué)習(xí)、人工智能的一種形式和其他算法來(lái)分析大數(shù)據(jù)集。
智能水槍是為了突出算法中的偏見(jiàn)如何導(dǎo)致歧視和不公平待遇而發(fā)明的。 由一位藝術(shù)家為SHERPA建造,水槍可以被編程來(lái)選擇它的目標(biāo)。
Stahl教授說(shuō):“我們的藝術(shù)家制造了一個(gè)帶有人臉識(shí)別功能的水槍,這樣它只會(huì)向女性噴射水,或者可以改變它來(lái)識(shí)別一個(gè)人或某個(gè)年齡的人?!?這個(gè)想法是讓人們思考這種技術(shù)能做什么。
雖然向人們噴水似乎是無(wú)害的樂(lè)趣,但問(wèn)題是什么都不是。 人工智能已經(jīng)被用來(lái)識(shí)別社交媒體上的面孔,回答像Alexa和Siri這樣的數(shù)字家庭助理的問(wèn)題,并在消費(fèi)者在線購(gòu)物時(shí)為他們推薦產(chǎn)品。
它還被用來(lái)幫助對(duì)罪犯重新犯的風(fēng)險(xiǎn)作出判斷,甚至查明可能犯下暴力罪行的人。 保險(xiǎn)公司和稅務(wù)當(dāng)局正在使用它來(lái)幫助偵查欺詐行為,銀行已經(jīng)求助于人工智能來(lái)幫助處理貸款申請(qǐng),甚至在邊境檢查站對(duì)其進(jìn)行了審判。
在過(guò)去的一年里,Stahl教授和他的同事匯編了10個(gè)案例研究,在這些案例研究中,他們對(duì)這些技術(shù)在一些部門的影響進(jìn)行了實(shí)證分析。 其中包括智能城市使用人工智能、保險(xiǎn)業(yè)、教育、醫(yī)療、農(nóng)業(yè)和政府使用人工智能。
Stahl教授說(shuō):“有些非常引人注目的事情跨越了各個(gè)領(lǐng)域,比如隱私、數(shù)據(jù)保護(hù)和網(wǎng)絡(luò)安全。 “人工智能還在為工作權(quán)利帶來(lái)新的挑戰(zhàn),如果算法可以占用人們的工作,或者自由選舉的權(quán)利,如果它可以被用來(lái)干涉民主進(jìn)程,就像我們?cè)趧蚍治鲋锌吹降哪菢印?/p>
也許人工智能最有爭(zhēng)議的新興用途之一是預(yù)測(cè)警務(wù),在那里,算法被訓(xùn)練在歷史數(shù)據(jù)集,以確定罪犯行為和特征的模式。 然后,這可以用來(lái)預(yù)測(cè)未來(lái)可能參與罪的地區(qū)、團(tuán)體甚至個(gè)人。 類似的技術(shù)已經(jīng)在美國(guó)和英國(guó)的一些地區(qū)進(jìn)行了試驗(yàn)。
但這些算法也可以學(xué)習(xí)數(shù)據(jù)集中已經(jīng)存在的偏差。 如果警察數(shù)據(jù)庫(kù)顯示,主要是青年黑人男子因某種罪而被捕,這可能不能公平地反映罪犯的實(shí)際情況,而是反映了一支部隊(duì)的歷史種族主義。 使用大赦講授的這類數(shù)據(jù)可能會(huì)加劇種族主義和其他形式的歧視等問(wèn)題。
Stahl教授說(shuō):“這些算法的透明度也是一個(gè)問(wèn)題。” “這些算法對(duì)數(shù)據(jù)進(jìn)行統(tǒng)計(jì)分類,使人們幾乎不可能看到這種情況到底是如何發(fā)生的。 這就提出了一些重要的問(wèn)題,例如,如果法律制度開(kāi)始依賴不透明的“黑匣子”人工智能算法來(lái)告知判刑決定或?qū)δ橙擞凶锏呐袥Q,它們?nèi)绾文軌虮3止胶凸?/p>
該項(xiàng)目的下一步將是研究可用于解決其中一些問(wèn)題的潛在干預(yù)措施。 它將研究哪些指導(dǎo)方針可以幫助確保人工智能研究人員在他們的算法中建立公平性,在那里新的法律可以指導(dǎo)他們的使用,以及監(jiān)管機(jī)構(gòu)是否可以控制技術(shù)的負(fù)面方面。
但荷蘭特溫特大學(xué)(University of Twente)研究技術(shù)哲學(xué)的菲利普?布萊(Philip Brey)教授表示,許多政府和監(jiān)管機(jī)構(gòu)面臨的問(wèn)題之一是,像人工智能這樣的新技術(shù)的快速變化。
他說(shuō):“今天的大多數(shù)人都不了解這項(xiàng)技術(shù),因?yàn)樗浅?fù)雜、不透明和快速移動(dòng)。 “因此,很難預(yù)測(cè)和評(píng)估對(duì)社會(huì)的影響,并對(duì)此采取適當(dāng)?shù)谋O(jiān)管和立法對(duì)策。 政策通常大大落后“。
布萊教授是SIENNA項(xiàng)目的協(xié)調(diào)員,該項(xiàng)目正在為一系列新興技術(shù)制定建議和行為守則,包括人類基因組學(xué)、人類增強(qiáng)、人工智能和機(jī)器人技術(shù)。
Brey教授說(shuō):“當(dāng)然,信息技術(shù)已經(jīng)通過(guò)互聯(lián)網(wǎng)和我們使用的移動(dòng)設(shè)備對(duì)隱私產(chǎn)生了重大影響,但人工智能能夠?qū)⒉煌愋偷男畔⒔Y(jié)合起來(lái),并以一種從根本上揭示人們的新信息和洞察力的方式挖掘它們。 “它可以非常迅速和有效地做到這一點(diǎn)。
人工智能技術(shù)正在為實(shí)時(shí)分析人們的行為、情緒以及推斷關(guān)于他們的心理狀態(tài)或意圖的細(xì)節(jié)的能力打開(kāi)大門。
“這是以前不可能的,”布雷教授說(shuō)。 “那么,你對(duì)這些信息的處理引起了對(duì)隱私的新的關(guān)注?!?/p>
國(guó)家統(tǒng)計(jì)所小組正在舉辦講習(xí)班、與專家進(jìn)行協(xié)商和進(jìn)行民意調(diào)查,以查明11個(gè)國(guó)家公民的關(guān)切。 他們現(xiàn)在正準(zhǔn)備擬訂一套建議,使那些與人工智能和其他技術(shù)合作的人能夠在設(shè)計(jì)階段成為確保道德和人權(quán)考慮的標(biāo)準(zhǔn)。
Stahl教授說(shuō),公眾對(duì)這項(xiàng)技術(shù)可能如何影響他們的這種更廣泛的理解可能對(duì)人工智能的長(zhǎng)期生存至關(guān)重要。
他說(shuō):“如果我們沒(méi)有正確的道德規(guī)范,那么人們就會(huì)拒絕使用它,這將摧毀任何技術(shù)進(jìn)步?!?/p>
2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082 備案號(hào):閩ICP備19027007號(hào)-6
本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。