此外,意識必須能發(fā)揮一定重要功能才行,否則早就在進化過程中被淘汰了。這些功能也可以套用到人工智能身上。而在這方面,科幻作品同樣造成了誤導。無論是在小說還是電視節(jié)目中,意識對人工智能而言都像是一種詛咒。它們會刻意做出無法預測的行為,而這些行為往往對人類不利。但在現(xiàn)實世界中,這種反烏托邦式的情景其實不大可能出現(xiàn)。無論人工智能會造成何種風險,都不取決于它們是否具備獨立意識。恰恰相反,有意識的機器還能幫助我們應對人工智能技術(shù)帶來的沖擊。有專家表示,相比毫無想法的自動化技術(shù),他寧愿與這些有意識的機器共事。
AlphaGo與人類圍棋冠軍李世乭一決高下時,很多專家都在思索AlphaGo為何會按這種方式下圍棋。他們想要解釋并理解AlphaGo的動機和邏輯依據(jù)。這種情況對現(xiàn)代人工智能而言十分普遍,因為它們的決策并非由人類提前設(shè)定好,而是通過學習算法和用于訓練它們的數(shù)據(jù)集自發(fā)產(chǎn)生。由于無法參透這些人工智能,很多人擔心它們的決策可能有失公平、過于武斷?,F(xiàn)在已經(jīng)有了算法歧視的例子。如去年的一項調(diào)查發(fā)現(xiàn),佛羅里達法官和假釋官使用的一套算法存在種族歧視的情況,導致黑人罪犯被標注的累犯概率會高于實際情況,而白人罪犯則低于實際情況。
從明年開始,歐盟法律將給予歐盟居民“要求解釋權(quán)”。人們將有權(quán)要求相關(guān)人士解釋某個人工智能系統(tǒng)為何會做出某種決策。但這項新要求從技術(shù)上來說頗具挑戰(zhàn)性??紤]到目前神經(jīng)網(wǎng)絡(luò)的復雜程度,我們還很難參透人工智能做出決策的過程,更別提將這個過程翻譯成人類能理解的語言了。
如果我們弄不清楚人工智能為何會這么做,能否直接問問它們呢?我們可以為人工智能配備后設(shè)認知能力(metacognition),讓它們回顧自身行為,報告自己的內(nèi)部精神狀態(tài)。這種能力是意識的主要功能之一。神經(jīng)科學家在測試人或動物是否有意識時,尋找的便是這種能力。例如,自信作為后設(shè)認知的基本形式之一,意識體驗越清晰明了、自信水平便越高。如果大腦是在不知不覺中處理信息,我們便會對這些信息感覺不太確定;而如果我們清楚地意識到了某個刺激的存在,便會感覺自信許多,比如“我剛才肯定看見了紅色?!?/p>
新華社上海6月15日電 綜述:全球“大咖”縱論人工智能新方向 新華社記者劉石磊 王琳琳 隨著技術(shù)突破和應用推廣,人工智能發(fā)展進入一個新的爆發(fā)期
中國青年網(wǎng)北京3月17日電 自2017年以來,“人工智能”已經(jīng)連續(xù)兩年寫入政府工作報告。如何抓住歷史新機遇,搶占人工智能發(fā)展的制高點,成為兩會熱議的話題之一