易生成错误信息 AI法律研究工具可靠程度引担忧
立即订阅亚视新闻 YouTube,即时掌握时事发展。
小
中
大
美国斯坦福大学和耶鲁大学的研究人员近期展开的研究表明,当前用于法律研究的人工智能(AI)工具存在一定问题。这项名为“无幻觉?”的研究旨在评估律师使用的不同AI工具有多可靠,并探讨这些工具在法律研究中产生虚假信息——被称为“幻觉”的风险。
新华社报导,AI技术迅猛发展,执业律师越来越依赖AI工具来辅助他们。然而,斯坦福大学网站上发布的研究指出,使用大型语言模型的AI工具容易生成错误信息,这给法律实践带来潜在风险。研究发现,尽管一些AI工具的制造商声称他们已解决了这个问题,但研究结果显示这些说法往往过于乐观。
热门AI工具 错误率高达三成
该研究测试了由LexisNexis和汤森路透推出的热门AI工具,结果显示它们的错误率在17%至33%之间。这些错误主要表现为AI工具引用不存在的法律规则或误解法律先例,从而导致所谓的“幻觉”。
研究还引用了先前的研究数据,截至2024年1月,美国前100家最大的律师事务所中,至少有41家已经在他们的实践中使用了AI技术。尽管AI工具的使用日益普遍,研究报告的作者呼吁律师在使用这些工具时要谨慎,必须监督和验证AI生成的讯息。
研究人员强调,AI工具提供商需要诚实面对其产品的准确水平,并提供充分的证据证明他们的工具准确可靠。他们建议律师在利用AI工具时保持高度警惕,避免完全依赖AI生成的资料,确保法律研究精确可靠。
AI在各个领域的应用不断扩展,在法律研究中的潜力和挑战也逐渐显现。这项研究无疑为法律界敲响了警钟,提醒律师在享受技术便利的同时,也要时刻警惕技术可能带来的误导,确保每一个法律决策的准确无误。