據(jù)有關(guān)媒體報(bào)道,在谷歌研究自然語言處理的科學(xué)家 Daphne Luong 表示,正確地校準(zhǔn)標(biāo)簽對機(jī)器學(xué)習(xí)來說非常關(guān)鍵,有些數(shù)據(jù)集其實(shí)并不平衡,像維基百科上的數(shù)據(jù),“他”(He)出現(xiàn)的次數(shù)遠(yuǎn)比“她”(She)要多。
王金橋也著重強(qiáng)調(diào)了“數(shù)據(jù)的均衡”。就算對人來說,不同人秉持著不同的價(jià)值觀,但多聽多看多受教育可以讓人向良好的方向改進(jìn)。機(jī)器學(xué)習(xí)也是如此?!坝?xùn)練機(jī)器時(shí),要注重?cái)?shù)據(jù)的均衡,給它更多可靠的數(shù)據(jù)。研究團(tuán)隊(duì)成員具有多元的學(xué)術(shù)背景(如吸納更多社會學(xué)、心理學(xué)等領(lǐng)域?qū)W者加入)、性別、年齡、價(jià)值觀,也可以幫助機(jī)器學(xué)習(xí)更加均衡,減少機(jī)器出現(xiàn)偏見、謬誤甚至失控的可能?!蓖踅饦蛘f。
“機(jī)器學(xué)習(xí)的模型本身也要有一定的防攻擊能力,從技術(shù)上防止本身結(jié)構(gòu)設(shè)計(jì)的漏洞被攻擊,研究者可以使用各種數(shù)據(jù)攻擊機(jī)器,訓(xùn)練機(jī)器的反攻擊能力。”王金橋說。
作惡還是向善,是人類的選擇
1942年,阿西莫夫在短篇小說《環(huán)舞》中首次提出著名的機(jī)器人三定律:機(jī)器人不得傷害人類,或因不作為使人類受到傷害;除非違背第一定律,機(jī)器人必須服從人類的命令;除非違背第一及第二定律,機(jī)器人必須保護(hù)自己。半個(gè)多世紀(jì)過去,人工智能在大數(shù)據(jù)的加持下迎來爆發(fā)式發(fā)展。某些專用型人工智能把人類智能甩在身后,人們開始擔(dān)憂,機(jī)器傷害人類的那一天是不是不遠(yuǎn)了。
因此有一種看法很主流——人類訓(xùn)練有意識、有自我覺知的人工智能是不明智的。開個(gè)腦洞,機(jī)器一旦發(fā)展出自我意識,要反向攻擊人類,場面或許失控。
前段時(shí)間,據(jù)路透社報(bào)道,韓國科學(xué)技術(shù)院的人工智能研發(fā)中心正在研發(fā)適用于作戰(zhàn)指揮、目標(biāo)追蹤和無人水下交通等領(lǐng)域的人工智能技術(shù),希望在今年年底前研發(fā)出基于人工智能的導(dǎo)彈、潛艇和四軸飛行器。此事引發(fā)學(xué)術(shù)界的巨大震動,抗議紛至沓來,并最終以院長保證無意于“殺手機(jī)器人”的研發(fā)并重申人類尊嚴(yán)和倫理收場。在美國,以“不作惡”為綱的谷歌也因與國防部的合作協(xié)議涉及“Maven項(xiàng)目”被推上風(fēng)口浪尖,反對者普遍認(rèn)為,識別結(jié)果完全有可能被用于軍事用途,比如說精準(zhǔn)打擊。谷歌最終表示終結(jié)協(xié)議。
相較于輿論環(huán)境的憂心忡忡,研究者對“技術(shù)向善”普遍樂觀。他們認(rèn)為把AI和“殺人機(jī)器”聯(lián)系在一起,近乎“捧殺”,夸大AI能力之余,也引發(fā)不明真相的公眾恐慌,無益于人工智能的發(fā)展環(huán)境。
“很多人提到AI總是一驚一乍,把AI說成超人。我相信人工智能是能解決問題的,但大家的期待也要在合理范圍內(nèi)。人和機(jī)器各有優(yōu)勢,技術(shù)會服務(wù)于特定場景,但也不需要把AI捧上天。”接受科技日報(bào)記者采訪時(shí),思必馳北京研發(fā)院院長初敏博士忍不住“抱怨”了一下??磥怼拔覀冃枰鯓拥腁I”這一題,大家都還沒有答案。
美媒稱,通過一些著眼未來的倡議,中國正悄悄在西方國家越來越多地撤出的一些領(lǐng)域發(fā)展自己的力量。人工智能(AI)就是中國帶來重大全球性影響的一個(gè)領(lǐng)域
這是6月29日在日本愛知縣豐田元町工廠拍攝的即將下線的豐田氫燃料電池車MIRAI。只排放水的豐田氫燃料電池車MIRAI被稱為“終極環(huán)保車”,2014年底面市以來備受關(guān)注