預設用戶資料訓練AI 私隱署函LinkedIn
文章日期:2024年10月4日

【明報專訊】隨着人工智能(AI)愈趨普及,引發的私隱問題備受關注。個人資料私隱專員公署昨表示,留意到職場社交媒體平台「領英」(LinkedIn)最近更新私隱政策,預設用戶同意其個人資料被用作訓練生成式AI模型創作內容,表示關注並已去信了解。上述變動早前引起英國資訊專員辦公室(ICO)關注,LinkedIn其後暫緩在英國和歐盟等地實施新做法。

LinkedIn指用戶可選擇退出

LinkedIn回覆本報時未回應會否暫緩變更,稱有定期全球評估做法,以確保用戶有權限控制其資訊。該平台稱相信用戶應有權限控制其資料,故容許選擇退出訓練AI模型,而平台一直使用某種形式的自動化,並清晰讓用戶選擇其資料如何被用,又稱現實是許多人尋求協助撰寫履歷初稿或求職信息,用戶希望在職業生涯取得優勢,而平台的生成式AI能提供協助。

私隱公署昨稱,LinkedIn更新私隱政策在其他司法管轄區引起資料保障機構關注,而其預設用戶同意資料用作訓練AI模型,公署關注是否正確反映用戶意願。私隱專員鍾麗玲提醒用戶應留意私隱政策更新並了解內容,以決定是否同意。

使用平台生成式AI

仍會使用用戶個人資料

公署稱若LinkedIn用戶不願意授權個人資料被用,可前往帳戶設定中的「資料隱私」,然後選擇「用資料改進生成式AI」,關閉「使用我的資料訓練內容創作AI模型」以撤銷權限。

LinkedIn資料顯示,用戶可拒絕其個人資料和內容未來用於培訓AI模型,但不影響已進行的訓練。用戶使用生成式AI功能時,平台仍會使用其資料,例如使用個人檔案寫作建議時,系統會利用個人資料的相關數據產生文本內容。

方保僑:一般隱去可辨身分數據

香港資訊科技商會榮譽會長方保僑說,大數據或AI模型需用數據訓練,現時不少平台均採取預設默許(opt-out)的私隱政策,預設用戶同意資料用作訓練。他說數據平台一般會隱去可辨識身分的數據,但仍引起私隱關注,故提供退出選項。

他提醒即使用戶拒絕個人資料被用作訓練AI模型,但在使用生成式AI功能時,模型仍會使用其資料產生內容,故市民不應在平台或向模型分享敏感或機密資料,免資料外泄。