AI惹麻烦谁来买单? 保险公司纷纷划清界限

立即订阅亚视新闻 YouTube,即时掌握时事发展。

随着企业加速引入人工智能(AI)技术,其带来的潜在风险也在悄然累积。然而,本应在风险管理中起到关键作用的保险业,面对这些新兴风险,却显得谨慎甚至退缩。

据英国媒体报道,由于AI技术可能引发数十亿美元的索赔,全球多家大型保险公司正采取措施,将与人工智能相关的风险排除在标准企业保单保障范围之外,以避免可能的巨额赔付。

美国国际集团(AIG)、Great American 和 WR Berkley 等保险巨头,已向美国监管机构提交申请,寻求批准在企业保单中加入免责条款,以明确排除因部署聊天机器人或其他人工智能工具所引发的责任。

AI缺陷或引发庞大连锁索赔

这一动作被视为保险业在面对人工智能风险时态度出现明显转向。许多保险公司担忧,AI系统的运作机制高度不透明,犹如“黑箱”般难以追踪,一旦出现错误,责任归属将变得复杂。更关键的是,若某款人工智能模型出现缺陷,可能会引发数量庞大的连锁索赔,形成足以冲击整个行业的“系统性与集中性风险”。

促使保险业态度转变的原因之一,是人工智能“幻觉”或系统错误所造成的成本,已经从理论风险变成真实事件。过去一年陆续出现多起案例,包括加拿大航空因聊天机器人捏造折扣信息”而被裁定须赔偿乘客;谷歌的AI搜索功能提供错误内容,也因此遭索赔高达1亿1000万美元(约4亿5600万令吉)。这些事件让业界意识到AI失误带来的风险正在快速放大。

AI风险难预测 保险公司无力应对

保险公司之所以开始“避而远之”,是因为AI问题太难预测,也可能造成巨额损失。Mosaic 欧洲区负责人伯特伦就说,很多AI模型就像“黑箱”,根本看不清它怎么做决定,因此难以评估风险。他们公司只愿意保一些较简单、可控的AI软件,像ChatGPT这种大模型一概拒保。

根据安永网络风险负责人卡里尼奇(Kevin Kalinich)的分析,虽然保险业尚能承受单一公司因AI错误而导致的数亿美元损失,但真正令人忧虑的是,当同一AI服务源头出现缺陷后,会同时触发大量索赔案件,并形成高度关联的系统性风险,使保险公司无力应对。

苏黎世保险首席讯息员陈立明(Ericson Chan)进一步指出,AI风险横跨模型开发、系统训练到终端应用,责任界定困难,且其市场影响具有潜在的指数型扩散效应。

因此难以评估风险,保险公司只愿意保一些较简单、可控的AI软件,像ChatGPT这种大模型一概拒保。(示意图:Canva)

排除所有与AI的相关责任

保险业的应对措施已开始浮现。根据提交给监管机构的文件显示,WR Berkley递交的免责条款异常宽泛,意在排除所有与“任何形式的实际或声称使用”人工智能相关的责任。AIG也向监管机构强调,生成式AI是一项广泛应用的技术,其潜在索赔风险“存在随时间增加的趋势”。

这些动作出现的同时,全球各地与人工智能有关的风险事件也接连上演。除了先前提到的案例外,英国工程公司Arup 2024年也因遭遇“深度伪造骗局”而蒙受巨额损失,骗子利用高层主管的数码仿真影像,在视讯会议中冒充本人下达转账指令,最终让公司被骗走高达2500万美元(约1亿零353万令吉)。

然而,随着保险公司纷纷申请在保单中排除AI相关责任,这类过去可能被列入“科技错误与疏漏险”范围的风险,如今正逐渐暴露在无保障的空窗地带。

保险公司试图推折中方案

随着市场对人工智能风险保障的需求增加,部分保险公司开始尝试推出折中方案,但相关保障普遍受限且附带严格条件。

例如,QBE推出的与欧盟《人工智能法案》相关罚款背书虽提供一定层面的保护,但据一家大型经纪商透露,该背书仅允许赔付最高为整体保额2.5%的AI相关罚款。

总部设于苏黎世的Chubb在与经纪商磋商后,愿意为部分人工智能相关风险提供保障,但明确不涵盖“大范围AI事件”,也就是同一模型故障同时波及多名客户的情况。

Stewarts 律所保险纠纷团队负责人马克(Aaron Le Marquer)警告,当AI导致的损失量大幅攀升时,保险公司很可能在法庭上挑战索赔。只有出现一次真正的大型系统性事件,保险公司才会明确指出,这类事件并不属于其承保范围。

相关新闻:

你可能也喜欢

Back to top button Vote Mrs Popularity 2026