您的位置: 首頁(yè) >科技 >

人工智能是否提供突破性的解決方案

2022-06-22 20:27:40 編輯:成嫻彩 來(lái)源:
導(dǎo)讀 7月1日至3日,Maxim Fedorov主持了由Skoltech主辦的關(guān)于AI透明度,健壯性和可持續(xù)性的首屆Trustedy AI在線會(huì)議。Maxim,您認(rèn)為人類已

7月1日至3日,Maxim Fedorov主持了由Skoltech主辦的關(guān)于AI透明度,健壯性和可持續(xù)性的首屆Trustedy AI在線會(huì)議。

Maxim,您認(rèn)為人類已經(jīng)需要開始為存在于人工智能(AI)技術(shù)決定下的數(shù)字世界中的現(xiàn)有模型建立新的哲學(xué)模型嗎?

今天的技術(shù)與過(guò)去的技術(shù)之間的根本區(qū)別在于,它們對(duì)社會(huì)具有某種“鏡子”。照著這面鏡子,我們需要回答一些哲學(xué)問(wèn)題。在工業(yè)化和生產(chǎn)自動(dòng)化時(shí)代,人是生產(chǎn)力。如今,人們不再需要生產(chǎn)使用的技術(shù)。例如,創(chuàng)新的汽車裝配廠幾乎沒(méi)有人在地板上,所有工作都由機(jī)器人完成。制造過(guò)程如下所示:載有零部件的無(wú)人駕駛機(jī)器人列車進(jìn)入裝配車間,最后一輛成品車問(wèn)世。這稱為離散制造-按順序組裝有限的一組元素,這是機(jī)器人非常有效地管理的任務(wù)。由于自動(dòng)化制造設(shè)備通常只需要有限數(shù)量的人類專家,因此人們正逐漸被傳統(tǒng)的經(jīng)濟(jì)結(jié)構(gòu)所淘汰。那么,為什么我們需要制造業(yè)的人才呢?過(guò)去,我們可以通過(guò)賺錢或消費(fèi)或?yàn)樗藙?chuàng)造就業(yè)機(jī)會(huì)來(lái)證明我們的存在,但是現(xiàn)在這不再是必須的。數(shù)字化已使技術(shù)成為全球力量,

在上一屆達(dá)沃斯世界經(jīng)濟(jì)論壇上,關(guān)于AI數(shù)字獨(dú)裁統(tǒng)治的威脅進(jìn)行了很多討論。在可預(yù)見(jiàn)的將來(lái),這種威脅有多真實(shí)?

人工智能沒(méi)有內(nèi)在的邪惡。技術(shù)本身在道德上是中立的。是人們決定將其用于善惡。

談到AI專政是一種誤導(dǎo)。實(shí)際上,技術(shù)沒(méi)有主觀性,也沒(méi)有“ I”。人工智能基本上是結(jié)構(gòu)化的代碼和硬件。數(shù)字技術(shù)只是一種工具。他們也沒(méi)有任何“神秘”。

我作為該領(lǐng)域的專家認(rèn)為,人工智能目前是信息和通信技術(shù)(ICT)的一個(gè)分支。而且,AI甚至沒(méi)有“生活”在單獨(dú)的計(jì)算機(jī)中。對(duì)于業(yè)內(nèi)人士而言,人工智能是一整套技術(shù),這些技術(shù)組合在一起構(gòu)成了所謂的“弱”人工智能。

我們夸大了AI重要性的泡沫,并錯(cuò)誤地賦予該技術(shù)堆棧以主觀性。在很大程度上,這是由未經(jīng)技術(shù)教育的記者完成的。他們討論了一個(gè)實(shí)際上不存在的實(shí)體,從而引起了AI的流行模因,它是終結(jié)者或仁慈的超級(jí)生物。這都是童話。實(shí)際上,我們擁有一套用于構(gòu)建有效系統(tǒng)的技術(shù)解決方案,這些系統(tǒng)允許基于大數(shù)據(jù)快速做出決策。

各個(gè)高層委員會(huì)都在討論“強(qiáng)大的”人工智能,這種人工智能將在50至100年后才會(huì)出現(xiàn)(如果有的話)。問(wèn)題是,當(dāng)我們談?wù)摬淮嬖谇也痪脤⒉淮嬖诘耐{時(shí),我們會(huì)錯(cuò)過(guò)一些實(shí)際威脅。我們需要了解什么是人工智能,并制定清晰的道德規(guī)范和規(guī)則守則,以確保價(jià)值,同時(shí)避免傷害。

引起轟動(dòng)的威脅是現(xiàn)代社會(huì)的一種趨勢(shì)。我們提出了一個(gè)可以滿足人們想象力的問(wèn)題,并開始將其炸毀。例如,我們目前正以抗擊為借口破壞世界各地的經(jīng)濟(jì)。我們忘記的是,經(jīng)濟(jì)對(duì)預(yù)期壽命有直接影響,這意味著我們正在搶奪許多人的生命。根據(jù)情緒做出決定會(huì)導(dǎo)致危險(xiǎn)的過(guò)度行為。

正如哲學(xué)家尤瓦爾·諾亞·哈拉里(Yuval Noah Harari)所說(shuō),如今,數(shù)以百萬(wàn)計(jì)的人相信Google,Netflix,亞馬遜和阿里巴巴的算法,向他們指示應(yīng)該閱讀,觀看和購(gòu)買的內(nèi)容。人們正在失去對(duì)生活的控制,這很可怕。

是的,存在人類意識(shí)可能被“機(jī)器人化”并失去創(chuàng)造力的危險(xiǎn)。我們今天所做的許多事情都受到算法的影響。例如,即使建議的路線不是最佳路線,駕駛員也要聽其坐式導(dǎo)航儀,而不是依靠自己的判斷。收到消息后,我們感到不得不做出回應(yīng)。我們變得更加算法化。但是決定我們的規(guī)則和愿望的最終是算法的創(chuàng)建者,而不是算法本身。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。