最近蘋果iOS 26測試版的一個新功能在數(shù)碼圈里引起了不小的討論——FaceTime的裸露檢測功能開始應(yīng)用于成年人。這個原本為保護(hù)兒童設(shè)計的功能,現(xiàn)在可能會意外地暫停成人的視頻通話。雖然這聽起來有些令人哭笑不得,但實際上這是蘋果在隱私保護(hù)和用戶體驗之間的一次大膽嘗試。
蘋果早就在兒童賬戶上試水過類似的保護(hù)機(jī)制,比如在“照片”共享相冊中自動模糊裸露內(nèi)容,或者通過設(shè)備端算法監(jiān)測不當(dāng)信息。這次iOS 26的更新則將類似的技術(shù)應(yīng)用到了FaceTime視頻通話中。通過本地AI實時識別畫面,一旦系統(tǒng)判斷有裸露行為,就會立即暫停視頻和音頻,并彈出提示讓用戶選擇是否恢復(fù)或結(jié)束通話。所有處理都在設(shè)備本地完成,不會上傳到云端,體現(xiàn)了蘋果一貫強(qiáng)調(diào)的隱私保護(hù)理念。
不過,目前測試版中出現(xiàn)了不少誤判情況。例如,有人只是脫個外套、調(diào)整衣領(lǐng),甚至光著膀子在家和孩子視頻,結(jié)果FaceTime直接凍屏了。這種體驗確實有點尷尬。但這些可能是測試版的小bug,或者是算法敏感度還沒調(diào)整到最優(yōu)狀態(tài)。從技術(shù)角度看,這類實時檢測功能本身難度不小,需要兼顧準(zhǔn)確率和響應(yīng)速度,還要避免過度干預(yù)正常使用。蘋果在這方面已經(jīng)做了不少努力,比如采用端到端加密、本地數(shù)據(jù)處理等方式,盡可能減少隱私風(fēng)險。
說到隱私,蘋果這些年一直在堅持保護(hù)用戶隱私。從拒絕為FBI解鎖iPhone,到iCloud數(shù)據(jù)加密、CSAM掃描計劃的謹(jǐn)慎推進(jìn),蘋果試圖找到“用戶隱私”和“社會責(zé)任”之間的平衡點。這次FaceTime功能的擴(kuò)大化嘗試也是類似邏輯的延伸——初衷是為了保護(hù)未成年人,但在實際應(yīng)用中難免會遇到各種現(xiàn)實問題。好在蘋果一向重視用戶反饋,相信正式版中會有更精準(zhǔn)的算法和更靈活的選項。