AI聊天陷阱多 私隐专员宣传自保法
2023-09-13 00:00
人工智能(AI)聊天机械人「ChatGPT」近日大行其道,但市民使用时亦要慎防私隐外泄。个人资料私隐专员锺丽玲接受《星岛》专访时表示,「ChatGPT」其实是一个大型的言语模型,储存大量数据,当市民问一些问题,需要提供自己或其他人的个人资料,「ChatGPT」会根据其演算法,将今次的个人资料提供予下一个用户,增加私隐外泄的风险,有见及此,个人资料私隐专员公署特别推出「使用AI聊天机械人『自保』十招」宣传单张,希望透过懒人包及图表的方式,为市民提供自保贴士。
锺丽玲表示,生成式人工智能(AI)的工具及平台,可让用户生成各种新颖的内容,例如语音、文字、代码、影片、图像及其他数据,像「ChatGPT」的AI聊天机械人,建基于大型语言模型的程式,能够根据用户所输入的文字生成自然的文字回应。锺以生活常见的情况举例,「如市民到银行开户口,可能会问ChatGPT边间银行最优惠?就这样,市民不知不觉间可能会输入一些个人资料;其他例子,如进行一些调查,市民亦可能会输入个人及他人的资料,到下一位市民向『ChatGPT』询问同样问题,资料就有机会因此外泄。」
懒人包单张令市民易明白
逾10万ChatGPT用户资料外泄
事实上,根据外电报道,去年6月至今年5月期间,便有超过10万个ChatGPT用户的资料外泄,其中以亚太区中招情况最严重,达41000个,大部分因接触带有窃密的恶意程式而被盗取资料,结果在不同暗网遭放售。
另外,本港警方上月首次发现骗徒利用人工智能(AI)换脸程式,即坊间所指「深度伪造(Deepfake)」技术,在网上申请贷款,最少20次试图冒认已报失身份证的市民,瞒骗人脸识别系统以完成网上申请程序,当中有一次成功,骗取7万元。
锺丽玲强调,其实人工智能亦涉及道德风险,资料显示,AI人脸辨识辨别有色人种的错误率较白人高,过去便曾发生有黑人被拉错人事件,无辜坐了6天的监禁,可见人工智能有利亦有弊,私隐专员公署于2021年8月亦曾发布人工智能道德标准指引,涉及3个数据基本价值,以及7个道德标准原则,如行为监督、问责性、透明度及私隐保障公平,全是国际性原则。
關鍵字
最新回应