
經過三年調查,加拿大四位隱私專員聯合認定,深受歡迎的 ChatGPT 背後的人工智能公司,在未經適當同意的情況下,收集了“大量”加拿大人的個人信息。
調查結果背景文件顯示,OpenAI 在收集信息時“未能採取足夠的防護措施,防止這些信息用於訓練其模型”。這些數據可能包括個人健康狀況、政治觀點以及兒童信息等敏感內容。
報告指出,OpenAI 未能為這些數據收集取得有效同意,已違反加拿大隱私法律,導致“許多用戶”對自己的信息被用於訓練聊天機器人一事毫不知情。
阿爾伯塔省隱私專員 Diane McLeod 在周三的新聞發布會上表示:“所有設計和部署人工智能的科技公司都應明白,他們有責任依法保障用戶隱私。”
她補充道:“本次調查揭示了隱私保護史上最大挑戰之一。科技變革,尤其是 AI 領域發展極快,個人信息被收集的方式已遠超我們制定隱私法時的預期。”
McLeod 此次與魁北克省和 BC 省的同行,以及聯邦隱私專員辦公室一同公布調查結果。四地監管機構於 2023 年啟動對 OpenAI 隱私做法的調查,起因是一宗未公開的投訴,指控 ChatGPT 在使用過程中收集並使用了個人信息且未獲同意。
加拿大有聯邦隱私法,而阿省、BC 省與魁省就個人信息處理也有各自法律。各專員據此分別對投訴展開評估。
四家機構一致認為投訴“成立”。聯邦隱私專員裁定,由於 OpenAI 已經或將要落實一系列整改措施,可“顯著降低 ChatGPT 模型開發和部署過程中,個人信息收集、使用和披露相關的殘餘風險”,因此案件“有條件解決”。
BC 省和阿省專員則認為,因 OpenAI 違反兩省同意規定,投訴尚未完全解決,但也指出該公司已承諾加強合規。魁省隱私專員則認定,在個人權利和問責方面投訴“有條件解決”,但同意問題仍未完全消除。

BC 省隱私專員 Michael Harvey 表示,調查結果顯示“世界上最流行、應用最廣泛的 AI 應用程序之一的實際運作方式,與我們的隱私法及其背後原則之間存在根本脫節”。
他表示:“這凸顯出,要讓 AI 創新可信賴、蓬勃發展,我們還有很長的路要走。不僅創新者需要變化,我們的法律也必須更新。”
不過,加拿大隱私專員 Philippe Dufresne 指出,鑑於 OpenAI 已承諾並部分落實整改,加拿大用戶目前使用 ChatGPT 應該可以放心。
Dufresne 說:“公司已經採取措施,限制用於訓練模型的信息範圍,並設置了一些(數據)保留機制,使其更貼近用戶需求。公司還將採取更多措施,讓加拿大用戶更清楚了解情況,並以雙語方式溝通。”他補充道:“我們會持續監督上述承諾,定期獲取報告。如果公司未落實,我們會採取相應措施。”


