近期,一則關(guān)于AI反詐的視頻引起了廣泛關(guān)注。視頻中,一位母親正與自稱(chēng)在外地求學(xué)的女兒視頻聊天,女兒央求增加生活費(fèi)。正當(dāng)母親心生憐憫,準(zhǔn)備轉(zhuǎn)賬時(shí),真正的女兒走進(jìn)家門(mén),揭穿了視頻那端的“假女兒”。這一幕引發(fā)了眾多網(wǎng)友共鳴,他們分享了自己遭遇的聲音或容貌被精確模仿的騙案經(jīng)歷。
AI換臉和擬聲技術(shù)已變得日益普及且易于操作,僅需少量的聲音、圖片素材,配合特定軟件,就能迅速生成“AI克隆”內(nèi)容。不幸的是,這種技術(shù)正被某些不法分子利用,進(jìn)行包括金融詐騙在內(nèi)的多種違法活動(dòng)。例如,騙子冒充“網(wǎng)店客服”或“營(yíng)銷(xiāo)推廣”人員,收集受害者的語(yǔ)音、語(yǔ)句乃至面部信息,然后利用AI技術(shù)合成虛假音頻、視頻,模仿受害者的聲音或形象,以獲取信任并誘導(dǎo)其親友進(jìn)行資金轉(zhuǎn)賬。
對(duì)此,國(guó)家金融監(jiān)督管理總局金融消費(fèi)者權(quán)益保護(hù)局新近發(fā)布風(fēng)險(xiǎn)提示,明確指出AI換臉擬聲詐騙作為一種新型電信網(wǎng)絡(luò)詐騙手段,需引起公眾警惕。該提示揭示了詐騙者常用的手段,即通過(guò)偽造音頻、視頻或圖像來(lái)模擬受害者或其親朋好友,進(jìn)行詐騙。
專(zhuān)家警告,未經(jīng)許可使用他人信息進(jìn)行換臉擬聲創(chuàng)作,觸及多重法律風(fēng)險(xiǎn)。他們呼吁加強(qiáng)相關(guān)法律建設(shè),加大執(zhí)法力度,同時(shí)以包容審慎的態(tài)度確保技術(shù)發(fā)展與安全并行不悖。
AI換臉和擬聲技術(shù)的使用門(mén)檻極低,網(wǎng)絡(luò)上充斥著各種教程和工具,使得任何人都能輕松掌握。例如,通過(guò)簡(jiǎn)單的在線(xiàn)工具,只需提供一段語(yǔ)音樣本,就能快速?gòu)?fù)制出極其相似的聲音。AI換臉技術(shù)也同樣發(fā)達(dá),能夠在視頻中無(wú)縫替換面孔,甚至達(dá)到實(shí)時(shí)換臉的效果,且操作簡(jiǎn)便,即便是技術(shù)新手也能迅速上手。
值得注意的是,市面上還出現(xiàn)了明碼標(biāo)價(jià)銷(xiāo)售AI換臉軟件的情況,賣(mài)家通常很少詢(xún)問(wèn)購(gòu)買(mǎi)目的。這些軟件不僅價(jià)格各異,有的還包含有引發(fā)道德?tīng)?zhēng)議的功能,如所謂的“AI去衣”。盡管一些賣(mài)家強(qiáng)調(diào)他們的產(chǎn)品僅供娛樂(lè)或正面用途,但這些技術(shù)的濫用風(fēng)險(xiǎn)不容忽視。
專(zhuān)家們強(qiáng)調(diào),面對(duì)AI換臉擬聲技術(shù)可能帶來(lái)的法律和倫理挑戰(zhàn),必須盡快確立使用規(guī)范,并提高個(gè)人對(duì)這類(lèi)技術(shù)詐騙的防范意識(shí)。同時(shí),建議公眾謹(jǐn)慎對(duì)待個(gè)人聲音、圖像信息的網(wǎng)絡(luò)分享,以防成為不法分子的作案素材。在享受技術(shù)便利的同時(shí),也要學(xué)會(huì)識(shí)別潛在的風(fēng)險(xiǎn),采取措施保護(hù)自身安全。
隨著人工智能技術(shù)的不斷進(jìn)步,網(wǎng)絡(luò)上利用AI技術(shù)“克隆”他人容貌、聲音的現(xiàn)象日益普遍,由此引發(fā)的糾紛也日漸增多
2024-06-15 12:32:43花十元就能讓照片開(kāi)口說(shuō)話(huà)