專訪│使用聊天機械人有個人資料外洩風險 私隱專員公署教你十招自保

更新時間:08:00 2023-09-13
發佈時間:08:00 2023-09-13

人工智能(AI)聊天機械人「ChatGPT」近日大行其道,但市民使用時亦要慎防私隱外洩。個人資料私隱專員鍾麗玲接受《星島》專訪時表示,「ChatGPT」其實是一個大型的言語模型,儲存大量數據,當市民問一些問題,需要提供自己或其他人的個人資料,「ChatGPT」會根據其演算法,將今次的個人資料提供予下一個用戶,增加私隱外洩的風險,有見及此,個人資料私隱專員公署特別推出「使用AI聊天機械人『自保』十招」宣傳單張,希望透過懶人包及圖表的方式,為市民提供自保貼士。

「ChatGPT」AI聊天機械人 建基於大型語言模型的程式

鍾麗玲表示,生成式人工智能(AI)的工具及平台,可讓用戶生成各種新穎的內容,例如語音、文字、代碼、影片、圖像及其他數據,像「ChatGPT」的AI聊天機械人,建基於大型語言模型的程式,能夠根據用戶所輸入的文字生成自然的文字回應。鍾以生活常見的情況舉例,「如市民到銀行開戶口,可能會問ChatGPT邊間銀行最優惠?就這樣,市民不知不覺間可能會輸入一些個人資料;其他例子,如進行一些調查,市民亦可能會輸入個人及他人的資料,到下一位市民向「ChatGPT」詢問同樣問題,資料就有機會因此外洩。」

去年6月至今年5月期間 有超過10萬個ChatGPT用戶的資料外洩

事實上,根據外電報道,去年6月至今年5月期間,便有超過10萬個ChatGPT用戶的資料外洩,其中以亞太區中招情況最嚴重,達41,000個,大部份因接觸帶有竊密的惡意程式而被盜取資料,結果在不同暗網遭放售。另外,本港警方上月亦首次發現騙徒利用人工智能(AI)換臉程式,即坊間所指「深度偽造(Deepfake)」技術,在網上申請貸款,最少20次試圖冒認已報失身份證的市民,瞞騙人臉識別系統以完成網上申請程序,當中有一次成功,騙取7萬元。

鍾麗玲強調,其實人工智能亦涉及道德風險,資料顯示,AI人臉辨識辨別有色人種的錯誤率較白人高,過去便曾發生有黑人被拉錯人事件,無辜坐了6天的監禁 ,可見人工智能有利亦有弊,私隱專員公署於2021年8月亦曾發布人工智能道德標準指引,涉及3個數據基本價值,及7個道德標準原則,如行為監督、問責性、透明度及私隱保障,全是國際性原則。

與聊天機械人互動時要留意甚麼?如何安全使用?

個人資料私隱專員公署亦因應AI聊天機械人,推出自保十招宣傳單張, 鍾麗玲稱,公署會以懶人包及圖表的方式,令市民更容易吸收,單張內容包括登記前用戶要留意甚麼,與聊天機械人互動時要留意甚麼,如何安全使用?未使用前要了解應用程式有關私隱的政策,如何收集資料,如何處理你的資料,使用時不要給予太多個人資料,有需要時才向應用程式提供,亦不要給予其他人的個人資料,若發現有問題,可要求程式糾正及移除。

記者:鄭華坤

---

《星島頭條》APP經已推出最新版本,請立即更新,瀏覽更精彩內容:https://bit.ly/3yLrgYZ