觀察下面這張圖片,你認為這是真實拍攝的還是AI生成的?看著有些可疑,比如汽車車門和堆疊的樣子像是拼接起來的。那么下面這兩張呢?如果不仔細查證,可能難以相信:它們全都是拍攝的真實照片。
十月底開始,西班牙瓦倫西亞地區(qū)經歷特大暴雨,一天的降雨量相當于一年,還持續(xù)不斷。瓦倫西亞地區(qū)的街道有很多斜坡,這么大的水量足以讓汽車浮起來,并沿著斜坡一路往下。當洪水退去后,就出現了最初的照片中的景象。
面對這些照片時,許多人的反應是:這肯定是AI做的,假新聞。也不能說這些人不講理,確實曾經被騙過。之前美國佛羅里達州被颶風襲擊時,一張穿救生衣的小女孩在救生艇上抱著小狗流淚的圖片橫掃了社交網絡。這張圖比上面的暴雨圖更顯“AI味”,從手指細節(jié)到身體姿勢都有種說不出的怪異。原帖主并不知道這張圖來自何處,只是表達了對受災人民的同情?,F在平臺已經補充了背景信息,強調這是一張生成的圖片而非真實拍攝的照片。
雖然懷疑精神在某些情況下幫助平臺迅速反應并補充警告,但在另一場災難中卻不再奏效。畢竟,AI生成的圖像越來越真假難辨。一次次有人用AI圖博眼球,最終變成了大型“狼來了”現場。
在評價AI生成的圖片或視頻時,是否足夠寫實一直是最重要的標準之一。這對模型提出了很多挑戰(zhàn):是否掌握自然語言規(guī)則?是否理解常識和現實世界的規(guī)律?能否理解上下文信息并呈現出來?這是對模型能力的考驗,也是反映技術力的有效指標。
一開始,大家為AI能夠生成逼真的圖像而興奮,但后來越來越多的“開局一張圖,剩下全靠編”的新聞出現,而且越來越難以分辨。六月時,社交媒體上出現了西安發(fā)生特大爆炸的消息,時間地點俱全。但西安警方核實后發(fā)現并無此事。這條消息是由一家MCN機構發(fā)布的。主犯交代自己利用了AI工具,給定提示詞后,工具會自動抓取相關文章并生成幾百到上千字的文本。最高峰時一天能生成4000至7000條信息,幾乎不需要人工參與,專門挑民生相關、熱度高的話題和事件。研究表明,消極、負面、激發(fā)情緒的信息更容易抓住人的注意力。騙子的日均收入高達1萬元,這讓閱讀、轉發(fā)和評論這種假消息的用戶感到氣憤。
假照片不僅騙過了所有人的眼睛,還造成了市場恐慌。去年五月,一張五角大樓發(fā)生爆炸的照片迅速流傳。由于發(fā)布在美國股市開盤時間,許多投資相關的網站和社媒賬戶轉發(fā),導致標準普爾500指數下跌0.3%,黃金和美國國債價格小漲。最后轄區(qū)消防部門辟謠才平息事態(tài)。
太依賴“眼見為實”不僅會傷害感情還會傷害錢包,于是出現了反向操作:一律打成AI。這樣做的一個原因是躲開平臺推送。Meta明確表示要高舉AI大旗,扎克伯格認為有必要專門加一個版塊給AI生成或輔助生成的內容。Meta旗下有Facebook和Instagram兩個重要內容平臺,在前者上,AI生成內容越來越多見,因為激勵政策很誘人:每個超過1000贊的帖子最高可獲10美元曝光獎勵。如果堅定執(zhí)行“一律打成AI”的路線,有效打擊假消息傳播,倒逼平臺不再推流量、給補貼,也許是個可行的方法。沒有買賣就沒有傷害。
然而,這種真假難辨的情況可能會讓真正的傷害消失在互聯網的信息海洋中。互聯網觀察基金會IWF報告稱,過去六個月里,人工智能制作的非法內容數量已超過前一年總量。這些非法內容包括AI生成的兒童色情圖片、視頻;融合明星名人的Deepfake視頻;生成的兒童性虐待裸照等。很多AI生成的內容過于逼真,工作人員難以確定假圖中是否有真人,是否真的有兒童遭到虐待需要介入。非營利組織IWF只能收集證據并與平臺交涉要求刪除,真正有能力進行深入調查的只有警方和其他執(zhí)法人員。當海量生成照片需要處理且無法辨別時,“一律打成AI”會導致真照片混雜其中,錯過干預機會。
類似地,當“狼來了”的游戲不斷擴大,真正反映險情的消息被安上“AI做的吧”標簽,從而錯過最佳施救時間也是一種惡果。從“眼前為實”到“眼見不再為實”的過程中,消失的是網上沖浪時的信任。出于自我保護和減少謠言散布,一律打成AI的確是一種有效策略。但一切都不值得相信的世界,會更好嗎?
人工智能(AI)不再是遙不可及的未來設想,它正以驚人的速度滲透各行各業(yè),重塑就業(yè)領域的面貌。這一技術在極大提升效率與生產力的同時,也對特定類型的工作崗位構成了挑戰(zhàn)
2024-06-21 11:46:21什么工作會最先被AI取代Perplexity在2022年12月啟動,是早期投入使用的生成式搜索引擎之一,也被稱作回答引擎。
2024-06-05 13:50:44Perplexity更新!AI搜索的下一步