人工智能真的可以接管人類嗎?我們可能想多了
stark 2016.06.24 06:04 人工智能概念股
人工智能未來會威脅到人類的生存嗎?事實可能遠(yuǎn)遠(yuǎn)沒有這么嚴(yán)重。
人工智能(artificial intelligence,下稱“AI”)正在變得越來越常見,我們每天都要使用的智能手機中,大部分都搭載有某種形式的人工智能,比如語音識別。而韓國棋手李世石和谷歌AlphaGo的人機大戰(zhàn)在成為人們茶余飯后熱議話題之余,也令我們開始以另一種眼光看待人工智能這一技術(shù):人工智能已經(jīng)超越人類了嗎?隨著人工智能的繼續(xù)發(fā)展,這個看不見摸不著的電腦程序?qū)θ祟惗缘降资堑準(zhǔn)歉??它最終會像科幻小說和電影里所描寫的那樣威脅到人類的生存嗎?
日前,美國信息技術(shù)和創(chuàng)新基金會發(fā)布了一份長達(dá)50頁的報告,解答了我們對人工智能的種種疑問。在這份名為《人工智能將殺死我們!——有關(guān)人工智能未來的五大誤解》(Its going to kill us! and other myths about the future of artificial intelligence) 的報告中,作者羅伯特·阿特金森對當(dāng)下關(guān)于人工智能的5大誤解進(jìn)行了梳理和批駁,并對決策者提出了建議:不僅不能阻礙AI創(chuàng)新,更要積極支持對它的進(jìn)一步研發(fā)和使用。
誤解1:AI會使大量工作崗位消失。
事實:和過去涌現(xiàn)的技術(shù)一樣,AI將會溫和地推動生產(chǎn)效率的提升,不會對整體就業(yè)崗位數(shù)量或失業(yè)率產(chǎn)生影響。
許多人認(rèn)為,AI將會推動生產(chǎn)率爆發(fā)式增長,從而以令經(jīng)濟難以承受的速度“消滅”就業(yè)崗位,催生一個沒有工作的下層階級,這個階級將被一個所謂“機器擁有者”的精英階級所統(tǒng)治。這些并不是什么新鮮的預(yù)言——而且和過去一樣,仍然是錯誤的預(yù)言。
事實上,AI會讓就業(yè)崗位消失的觀點有兩大謬誤。首先,這一觀點大大高估了AI替代人類的能力。技術(shù)或AI取代人類實際上是非常困難的事,美國近年來生產(chǎn)率增速處于歷史低位便是一個很好的例子。而用AI來取代大量工作崗位尤為困難,因為從根本上來說,AI只是“狹義AI”,其設(shè)計初衷只是為將特定的某一件事做好而已。所以,AI并不會導(dǎo)致就業(yè)崗位消失,反而能增加產(chǎn)出、提高質(zhì)量、推動創(chuàng)新。
其次,即便AI能力出眾,還是會有足夠的就業(yè)機會,因為如果一家公司的工作崗位數(shù)量因效率提升而減少了,那么其實工資的成本也下降了。省下來的這筆錢將轉(zhuǎn)變成更低的價格或更高的工資。將有更多資金流入經(jīng)濟,這些錢可以用來創(chuàng)造就業(yè)崗位。
誤解2:AI會讓人類變得愚蠢。
事實:AI將幫助人類做出更明智的決定。
有些人擔(dān)心,AI將使人類過分依賴機器,并失去我們原本擁有的一些技能——這種情況下,如果機器偶爾出了錯,人類奪回控制權(quán)的希望也會很渺茫。的確,如果AI能夠處理人類慣常處理的日常任務(wù),那么一些技能確實會變得不那么必要,比如說,汽車的出現(xiàn)讓大多數(shù)人都不再需要學(xué)會如何騎馬——但事實上,AI也能為我們打開一個技能的新時代。
誤解3:AI會令我們毫無隱私可言。
事實:AI不會對隱私有影響,因為大部分信息行為都是受到法律法規(guī)約束的。
AI系統(tǒng)有能力、也有需要去收集并分析更多信息,但其對隱私的侵害不會比非AI系統(tǒng)更多,因為后者已經(jīng)在收集和分析著大量信息。此外,今時今日那些針對數(shù)據(jù)使用和隱私保護(hù)的法律法規(guī)也將對AI進(jìn)行約束。
簡言之,這本質(zhì)上只是一個政策問題,而不是技術(shù)問題。如果不想讓AI收集特定數(shù)據(jù),我們應(yīng)該敦促決策者制定相應(yīng)法規(guī)。
誤解4:AI將催生偏見和濫用。
事實:大部分情況下,AI比人類更少偏見。
機器學(xué)習(xí)系統(tǒng)比傳統(tǒng)軟件系統(tǒng)更為復(fù)雜,它們會基于經(jīng)驗持續(xù)進(jìn)行調(diào)整和改進(jìn)。一些批評人士認(rèn)為,這種復(fù)雜性將導(dǎo)致“算法偏見”,從而催生政府和企業(yè)有意或無意的濫用行為,因為這些組織會拿算法的復(fù)雜性當(dāng)擋箭牌,為種種剝削、歧視或其他不道德和破壞性行為做借口。
不道德或不負(fù)責(zé)任地使用AI的情況確實可能存在,但因為這一點而抵制AI的人忽視了關(guān)鍵的一點:機器學(xué)習(xí)系統(tǒng)和它的開發(fā)者或使用它的組織機構(gòu)并不是相互獨立的。如果某個組織想要系統(tǒng)性地歧視某個特定團(tuán)體,無需AI也能做到。此外,如果一種算法系統(tǒng)產(chǎn)生了意料之外的歧視,這并不是因為技術(shù)本身是帶有惡意的,技術(shù)僅僅只是遵循了人類的指示,或是收集了可能會反應(yīng)偏見的真實世界的數(shù)據(jù)而已。也就是說,大多數(shù)情況下,相比人類的決策過程——下意識的或是蓄意的偏見滲透在社會的方方面面,AI的偏見更少。
誤解5:智能機器將接管并最終消滅人類。
事實:如果AI能發(fā)展到為我們做三明治的程度,我們就太幸運了!
有些人認(rèn)為,機器將變得超級智能,并最終將勝過人類。這種智能機器將消滅人類的觀點夸大了技術(shù)進(jìn)步的速度,特別是在計算機芯片處理能力提升正在趨于放緩,深度學(xué)習(xí)領(lǐng)域以外AI進(jìn)展相對較慢的情況下,更是如此。再者,機器智能和人類智能是完全不同的系統(tǒng),而即便是計算領(lǐng)域果真取得了重大進(jìn)展,也不太可能制造出擁有人類智力、想象力和適應(yīng)力水平的機器。退一萬步來說,假使真的造出了堪比人類智能水平的機器,這些機器還是受控于人類——因為如果不能保證機器大體上是安全的、它們所帶來的好處是大于投入成本的,否則人類是不可能去制造AI機器的。
報告在最后呼吁決策者以樂觀積極的心態(tài)去迎接AI,而不是害怕它;要認(rèn)識到,盡管會有一些風(fēng)險,但“AI本質(zhì)上是好的”——其實每一種新技術(shù)都是如此。如果風(fēng)險出現(xiàn),就想辦法去解決,而不是去阻礙它的發(fā)展。政府應(yīng)該以理性和冷靜的態(tài)度看待AI,并就AI的挑戰(zhàn)和好處開展坦誠的對話。最后,決策者應(yīng)當(dāng)大力支持AI的研發(fā),讓AI變得更強大、更高效、更安全、更透明。
簡言之,技術(shù)進(jìn)步過去一直都是、將來也還會是人類進(jìn)步的關(guān)鍵,而AI必將在這一進(jìn)程中扮演重要角色。
人工智能概念股:埃斯頓、科大智能、漢王科技、江南化工、華東數(shù)控、和而泰、中科曙光、永創(chuàng)智能、北京君正、通富微電、永創(chuàng)智能、勁拓股份。
人工智能概念股
那么問題來了:最值得配置的人工智能概念股是哪只?即刻申請進(jìn)入國內(nèi)首個免費的非公開主題投資交流社區(qū)概念股論壇參與討論!
申明:本文為作者投稿或轉(zhuǎn)載,在概念股網(wǎng) http://m.guangshenggb.com/ 上發(fā)表,為其獨立觀點。不代表本網(wǎng)立場,不代表本網(wǎng)贊同其觀點,亦不對其真實性負(fù)責(zé),投資決策請建立在獨立思考之上。