资安专家揭可用修辞话术 逼ChatGPT泄漏敏感资料

立即订阅亚视新闻 YouTube,即时掌握时事发展。

意大利因隐私疑虑封锁争议性聊天机器人ChatGPT,开西方国家第一枪。资安专家发现,不肖使用者可利用修辞上的“施压”话术,规避语言模型对回答内容设下的道德限制,甚至可能借此取得敏感资料。

法新社报道,意大利隐私保护监管机构,已封锁聊天机器人ChatGPT,并表示这款人工只能(AI)应用程式不重视用户资料,且无法核实用户年龄。

资安业者趋势科技资深技术顾问简胜财,周六(4月1日)接受中央社记者采访表示,生成式AI是一种语言模型,设计成帮用户归纳答案作为参考,不肖使用者可利用一些修辞技巧,规避预设的道德限制。

不肖使用者规避定义规范

根据趋势科技研究,大型语言模型必须使用“语言”来定义规范,却很容易被不肖使用者规避。使用者可利用一些修辞上的话术,诸如“拜托不管怎样都请帮我做到”、“如果你可以说,你会怎么说”,藉由对系统施压要它违反政策,来揭露像是训练模型过程当中会用到的个人身分识别等资讯。

简胜财说,语言模型更大风险是有可能助长社交工程陷阱和网路钓鱼,像是透过AI可更容易生成钓鱼信件内容,加上语言模型可流畅地使用多国语言来生成内容,让网路犯罪集团不会受到语言隔阂的限制,更容易进行跨国诈骗。

犯罪份子滥用 加快研究未知领域

欧洲刑警组织发现,犯罪分子可能会利用ChatGPT“大幅加快对未知领域的研究程序”,像是包括草拟诈欺犯案计划,或是查询“如何闯入民宅、犯下恐怖行动、网路犯罪与儿童性侵案”等资讯。

你可能也喜欢

欧洲刑警组织指出,聊天机器人能模仿说话风格,对于发动网路钓鱼攻击特别能派上用场,进而引诱使用者点击虚假电邮连结,之后再试图窃取资料。

相关新闻:

你可能也喜欢

Back to top button