這些問題不容忽視。一種解決辦法是,建議對人工智能技術(shù)的使用進行監(jiān)管。我認為通過一般法律來管理人工智能的使用是不現(xiàn)實的,這似乎有點像試圖通過立法來管理數(shù)學(xué)的使用。一個似乎正在被接受的辦法是,如果軟件做出了影響你的決定,那么你應(yīng)該有權(quán)知道這個決定是如何做出的,使用了哪些和你有關(guān)的數(shù)據(jù),標準是什么。我認為這比較合理。使人工智能可解釋化和透明化,是當今這一領(lǐng)域面臨的最大挑戰(zhàn)之一。
在某些情況下,人工智能決策可能直接事關(guān)生死,比如在戰(zhàn)場上使用人工智能系統(tǒng)。盡管目前還沒有證據(jù)表明這種“致命性自主武器”已經(jīng)被使用,但確實已經(jīng)具備了可能性。過去5年來,人工智能領(lǐng)域的科學(xué)家們積極行動,希望政府認識到這一問題的嚴重性并做出應(yīng)對。最近英國政府在一份報告中明確表示,永遠不給人工智能系統(tǒng)傷害人的權(quán)力。
人工智能只是一種技術(shù),就像任何技術(shù)一樣,可以用來造福人類,也可能帶來危害。條件反射式的立法,對于把控人工智能不太可能奏效。我們需要以負責和道德的方式使用人工智能,正如最近全球關(guān)于自主武器的討論取得進展一樣,國際社會需要應(yīng)對解決人工智能帶來的挑戰(zhàn)。
(作者為英國牛津大學(xué)計算機系主任邁克爾·伍爾德里奇)
中國青年網(wǎng)北京5月13日電(記者 陳琛)5月12日上午,清華大學(xué)主樓報告廳座無虛席,中國公共管理高端講壇啟動儀式暨首場報告會在這里舉行