
圖片來源:The Conversation
隨着人工智能生成的虛假色情內容在網絡上激增,加拿大警方警告家長和青少年必須加強數字安全措施,以防個人照片被盜用和篡改。
據本地英文媒體CP24報道:阿省互聯網兒童剝削小組(ICE Unit)警長奧格爾(Mark Auger)表示,越來越多兒童與青少年發現自己的 AI 偽造色情照在網上流傳,其中許多影像來自他們在社交媒體上公開分享的照片。他敦促家長提醒孩子將社交媒體設為私密,僅接受現實生活中認識的人為好友。
“當你點下 ‘接受’ 的那一刻,就像讓陌生人走進你的家。”奧格爾在接受採訪時說。他強調,任何公開可見的影像都可能被下載、操縱,並轉化為性化內容。
上周,奧格爾所在部門指控一名 17 歲卡爾加里男生,罪名包括製作及散布兒童性虐待材料。警方稱,他利用人工智能技術生成多名本地高中女生的性暗示圖像,並在社交媒體上分享。受害者身份與在讀學校均未披露,被告身份也受《青少年刑事司法法》保護。
調查在卡爾加里警方協助下完成。奧格爾提醒青少年儘量避免在聊天時頻繁切換平台,因為某些加密應用缺乏完善的舉報機制,使調查難度倍增。
他坦言,執法機構正面臨前所未有的技術挑戰:“AI 的能力正以超過我們適應、監控和監管速度的方式迅速擴張。”
卡爾加里的案件並非孤例。加拿大各地陸續出現青少年利用 AI 製作同學色情深偽圖的事件,包括溫尼伯及安大略省圭爾夫等地,但部分案件最終未被起訴。
網絡兒童性虐待監察組織——互聯網觀察基金會的一份報告顯示,AI 生成兒童性虐待材料的數量在一年間急劇上升:從 2024 年上半年的 2 條增至 2025 年同期的近 1300 條。
隨着案件增加,如何界定罪名、如何在法庭處理加害者成為新的法律難題。奧格爾警長指出,警方會依具體情況選擇合適的指控,尤其取決於涉案影像是否被用作威脅或勒索。“一旦這些材料被當作武器使用,就會構成可起訴罪行。”
卡爾頓大學(Carleton University)犯罪學者卡萊安女士(Lara Karaian)則提醒,司法系統需要確保應對方式與罪行性質相稱。雖然 AI 生成的深偽色情屬於非自願影像,但她指出,這與實際的性侵拍攝並不等同,法院應謹慎適用兒童性虐待相關法條。
她將當前的情況比作早期“性短信”現象。加拿大 2015 年實施的聯邦法規已將未經同意傳播私密影像列為犯罪,也為處理未成年人之間的影像分享提供法律依據。她認為,這項法規同樣可適用於 AI 性化影像案件,而不必一律套用更嚴厲的兒童性虐待罪名。
卡萊安強調,嚴厲刑罰如性罪犯登記與 DNA 採集命令對青少年影響深遠,“在某些 AI 偽造色情案件中,這類指控可能過度沉重,法院必須謹慎區分情節輕重。”

