因此,我們需要在場(chǎng),并主導(dǎo)決策。無(wú)論是在司法、大學(xué)招生,還是人事招聘系統(tǒng)中,都需要人類的判斷來(lái)理清數(shù)據(jù)中的偏見(jiàn),并嘗試做得更好。
作為人類,我們肩負(fù)著做出道德判斷的責(zé)任,因?yàn)檫@件事只有人類才能做。
Q:我們應(yīng)該對(duì)AI使用設(shè)置怎樣的道德邊界?哪些部分AI可以介入,哪些地方必須明確限制?
A
:我們應(yīng)該對(duì)AI的使用施加兩種限制。
第一,我們不能陷入“算法是價(jià)值中立的機(jī)器,可以絕對(duì)客觀地做出決定”的假設(shè)。我們不能將人類的道德判斷“外包”給AI。
第二,我們應(yīng)該認(rèn)識(shí)到,科技發(fā)展的方向,并非本來(lái)如此,而是由硅谷和其他地方的風(fēng)險(xiǎn)投資人為了自己的利益刻意引導(dǎo)的。
因此,我們需要進(jìn)行公開(kāi)討論,引導(dǎo)這些強(qiáng)大新工具的開(kāi)發(fā)目的。比如,如何讓它們促進(jìn)人類的工作,讓工人更具生產(chǎn)力,享受更高的工資,而不是試圖將一切自動(dòng)化,用AI取代工人。技術(shù)的發(fā)展方向,應(yīng)該為所有人一起深思熟慮過(guò)的公共利益服務(wù)。
Q:在人們對(duì)AI的所有擔(dān)憂中,您認(rèn)為最關(guān)鍵的問(wèn)題是什么?
A
:機(jī)器人會(huì)取代我們的工作嗎?大數(shù)據(jù)時(shí)代是否意味著我們不再有隱私?Deepfake這樣的工具和虛假信息的傳播會(huì)導(dǎo)致社會(huì)分化更加嚴(yán)重嗎?這些都是重要的隱患。