在實(shí)踐層面,機(jī)器倫理構(gòu)建的具體策略有三:其一是自上而下,即在智能體中預(yù)設(shè)一套可操作的倫理規(guī)范,如自動(dòng)駕駛汽車應(yīng)將撞車對他人造成的傷害降到最低。其二是自下而上,即讓智能體運(yùn)用反向強(qiáng)化學(xué)習(xí)等機(jī)器學(xué)習(xí)技術(shù)研究人類相關(guān)現(xiàn)實(shí)和模擬場景中的行為,使其樹立與人類相似的價(jià)值觀并付諸行動(dòng),如讓自動(dòng)駕駛汽車研究人類的駕駛行為。其三是人機(jī)交互,即讓智能體用自然語言解釋其決策,使人類能把握其復(fù)雜的邏輯并及時(shí)糾正其中可能存在的問題。但這些策略都有其顯見的困難:如何在量化和計(jì)算中準(zhǔn)確和不走樣地表達(dá)與定義倫理范疇?如何使智能體準(zhǔn)確地理解自然語言并與人進(jìn)行深度溝通?
鑒于機(jī)器倫理在實(shí)踐中的困難,人工智能體的倫理嵌入不能局限于智能體,而須將人的主導(dǎo)作用納入其中??尚械娜斯惱碇悄荏w或道德的智能機(jī)器的構(gòu)造應(yīng)該包括倫理調(diào)節(jié)器、倫理評估工具、人機(jī)接口和倫理督導(dǎo)者等四個(gè)環(huán)節(jié)。倫理調(diào)節(jié)器就是上述機(jī)器倫理程序和算法。倫理評估工具旨在對智能體是否應(yīng)該以及是否恰當(dāng)?shù)卮砹讼嚓P(guān)主體的倫理決策做出評估,并對機(jī)器倫理的道德理論(如效益論、道義論等)和倫理立場(如個(gè)性化立場、多數(shù)人立場、隨機(jī)性選擇等)等元倫理預(yù)設(shè)做出評價(jià)和選擇。人機(jī)接口旨在使人與智能體廣泛借助肢體語言、結(jié)構(gòu)化語言、簡單指令乃至神經(jīng)傳導(dǎo)信號加強(qiáng)相互溝通,使機(jī)器更有效地理解人的意圖,并對人的行為做出更好的預(yù)判。倫理督導(dǎo)者則旨在全盤考量相關(guān)倫理沖突、責(zé)任擔(dān)當(dāng)和權(quán)利訴求,致力于厘清由人類操控不當(dāng)或智能體自主抉擇不當(dāng)所造成的不良后果,進(jìn)而追溯相關(guān)責(zé)任,尋求修正措施。
對人類文明而言,人工智能將是一個(gè)好消息還是壞消息,最終取決于我們的倫理智慧。在中國推出新一代人工智能發(fā)展規(guī)劃的今天,我們更要悉心體味孕育了巧奪天工精神和天工開物情懷的中國思想,審天人之性,度萬物之勢,以探求人機(jī)和諧、文明通達(dá)之道。
(作者:段偉文,系中國社會科學(xué)院哲學(xué)所研究員)