關(guān)于人工智能的變革威力,人們提出了很多大膽的設(shè)想。但我們也有必要聽聽一些嚴(yán)重警告。上月,微軟研究院(MicrosoftResearch)首席研究員凱特?克勞福德(KateCrawford)警告稱,如果被威權(quán)政府濫用,威力與日俱增的人工智能可能會(huì)釀成一場“法西斯夢”。
克勞福德在SXSW科技大會(huì)上表示:“就在我們看到人工智能的發(fā)展速度呈階梯型上升時(shí),其他一些事情也在發(fā)生:極端民族主義、右翼威權(quán)主義和法西斯主義崛起?!?/p>
她表示,人工智能可能帶來龐大的數(shù)據(jù)登記冊、針對特定人口群體、濫用預(yù)測型警務(wù)以及操縱政治信仰。
克勞福德并不是唯一對強(qiáng)大的新技術(shù)被錯(cuò)誤使用(有時(shí)以意想不到的方式)感到擔(dān)憂的人。英國政府首席科學(xué)顧問馬克?沃爾波特(MarkWalport)警告稱,在醫(yī)學(xué)和法律等涉及細(xì)膩人類判斷的領(lǐng)域不假思索地使用人工智能,可能帶來破壞性結(jié)果,并侵蝕公眾對這項(xiàng)技術(shù)的信任。
盡管人工智能有增強(qiáng)人類判斷的潛力,但它也可能帶來有害的偏見,并產(chǎn)生一種錯(cuò)誤的客觀感覺。他在《連線》(Wired)雜志的一篇文章中寫道:“機(jī)器學(xué)習(xí)可能會(huì)內(nèi)部化在量刑或醫(yī)療歷史中存在的所有隱性偏見,并通過它們的算法外部化?!?/p>
就像一直以來的情況那樣,識別危險(xiǎn)仍然要比化解危險(xiǎn)容易得多。沒有底線的政權(quán)永遠(yuǎn)不會(huì)遵守限制人工智能使用的規(guī)定。然而,即便在正常運(yùn)轉(zhuǎn)的基于法律的民主國家,框定適當(dāng)?shù)幕貞?yīng)也很棘手。將人工智能可以做出的積極貢獻(xiàn)最大化,同時(shí)將其有害后果降至最低,將是我們這個(gè)時(shí)代最艱巨的公共政策挑戰(zhàn)之一。
2016年度報(bào)告
金沙江創(chuàng)投羅斌:垂直領(lǐng)域直播大有可為
羅斌:2017年會(huì)出現(xiàn)真正的網(wǎng)紅電商平臺,靠幾個(gè)網(wǎng)紅做電商的公司很難持久,但網(wǎng)紅電商平臺未來將有發(fā)展空間。
首先,人工智能技術(shù)很難理解,其用途往往帶有神秘色彩。找到尚未被行業(yè)挖走、且不存在其他利益沖突的獨(dú)立專家也變得越來越難。
受到該領(lǐng)域類似商業(yè)軍備競賽的競爭的推動(dòng),大型科技公司一直在爭奪人工智能領(lǐng)域很多最優(yōu)秀的學(xué)術(shù)專家。因此,很多領(lǐng)先研究位于私營部門,而非公共部門。
值得肯定的是,一些領(lǐng)先科技公司認(rèn)識到了透明的必要性,盡管有些姍姍來遲。還有一連串倡議鼓勵(lì)對人工智能展開更多政策研究和公開辯論。
特斯拉汽車(TeslaMotors)創(chuàng)始人埃隆?馬斯克(ElonMusk)幫助創(chuàng)建了非盈利研究機(jī)構(gòu)OpenAI,致力于以安全方式開發(fā)人工智能。
亞馬遜(Amazon)、Facebook、谷歌(Google)DeepMind、IBM、微軟(Microsoft)和蘋果(Apple)也聯(lián)合發(fā)起PartnershiponAI,以啟動(dòng)更多有關(guān)該技術(shù)實(shí)際應(yīng)用的公開討論。
谷歌DeepMind聯(lián)合創(chuàng)始人、PartnershiponAI聯(lián)合主席穆斯塔法?蘇萊曼(MustafaSuleyman)表示,人工智能可以在應(yīng)對我們這個(gè)時(shí)代一些最大挑戰(zhàn)方面發(fā)揮變革性作用。但他認(rèn)為,人工智能的發(fā)展速度超過我們理解和控制這些系統(tǒng)的集體能力。因此,領(lǐng)先人工智能公司必須在對自己問責(zé)方面發(fā)揮更具創(chuàng)新和更主動(dòng)的作用。為此,這家總部位于倫敦的公司正在嘗試可驗(yàn)證的數(shù)據(jù)審計(jì),并將很快宣布一個(gè)道德委員會(huì)的構(gòu)成,該委員會(huì)將審查該公司的所有活動(dòng)。
但蘇萊曼指出,我們的社會(huì)還必須設(shè)計(jì)更好的框架,指導(dǎo)這些技術(shù)為集體利益服務(wù)。他在接受英國《金融時(shí)報(bào)》TechTonic播客的采訪時(shí)表示:“我們必須能夠控制這些系統(tǒng),使他們在我們希望的時(shí)間做我們想做的事,而不會(huì)自說自話?!?/p>
一些觀察人士表示,做到這點(diǎn)的最佳方法是調(diào)整我們的法律制度,確保人工智能系統(tǒng)可以向公眾“解釋”。從原則上說,這聽上去很簡單,但實(shí)際做起來可能極為復(fù)雜。
布魯塞爾自由大學(xué)(FreeUniversityofBrussels)法律和科技學(xué)教授米雷列?希爾德布蘭特(MireilleHildebrandt)表示,人工智能的危險(xiǎn)之一是我們變得過度依賴我們并不完全理解的“不用腦子的智慧”。她認(rèn)為,這些算法的目的和影響必須是可測試而且在法庭上是可爭論的。她表示:“如果你無法有意義地解釋你的系統(tǒng)的決定,那么你就不能制造它們?!?/p>
我們將需要更多的人類智慧來應(yīng)對人工智能挑戰(zhàn)。
中研網(wǎng)是中國領(lǐng)先的綜合經(jīng)濟(jì)門戶,聚焦產(chǎn)業(yè)、科技、創(chuàng)新等研究領(lǐng)域,致力于為中高端人士提供最具權(quán)威性的產(chǎn)業(yè)資訊。每天對全球產(chǎn)業(yè)經(jīng)濟(jì)新聞進(jìn)行及時(shí)追蹤報(bào)道,并對熱點(diǎn)行業(yè)專題探討及深入評析。以獨(dú)到的專業(yè)視角,全力打造中國權(quán)威的經(jīng)濟(jì)研究、決策支持平臺!
廣告、內(nèi)容合作請點(diǎn)這里:
尋求報(bào)道 ??相關(guān)閱讀
【版權(quán)及免責(zé)聲明】凡注明"轉(zhuǎn)載來源"的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多的信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé)。中研網(wǎng)倡導(dǎo)尊重與保護(hù)知識產(chǎn)權(quán),如發(fā)現(xiàn)本站文章存在內(nèi)容、版權(quán)或其它問題,
煩請聯(lián)系:jsb@chinairn.com、0755-23619058,我們將及時(shí)溝通與處理。
精彩推薦
圖片資訊
行業(yè)研究院
中國新款冰箱節(jié)能市場投資策略及前景預(yù)測研究
冰箱能效將大幅升級,而消費(fèi)者則直接從中受益?!都矣秒?/p>
隨著國內(nèi)經(jīng)濟(jì)的發(fā)展,生態(tài)板市場發(fā)展面臨巨大機(jī)遇和挑戰(zhàn)
上海市酒店行業(yè)市場調(diào)研及投資戰(zhàn)略咨詢
在八十年代中期之前,上海飯店業(yè)的發(fā)展較為緩慢,截止19