【红船普法】人工智能时代,是否能够直接用AI书写文书?

来源:红船法律服务日期:2025-3-6

近来,DeepSeek以其“深度思考”能力迅速走红,用户纷纷要求它撰写各种材料。以律师为例,将相关材料投入模型,不仅可以检索到相关法律法规以及判例,甚至可以一键形成起诉状、代理词、辩护词等,大大提高了工作效率。

然而,隐藏在便捷之下的,是目前还未完全显露的诸多风险。依旧以律师利用生成式人工智能代写法律文书的问题为例,目前最主要需要关注的风险有如下几个。

风险一:事实认定偏离真相

AI生成的法律文书可能包含虚假信息,这种现象被称为“AI幻觉”。AI模型在生成内容时可能输出看似合理但与事实不符的信息。

案例:2023年,美国纽约南区联邦地区法院审理了“马塔诉阿维安卡公司案”(Mata v. Avianca, Inc.)。该案中,原告律师史蒂文·施瓦茨(Steven Schwartz)使用ChatGPT生成法律文书,并在未核实的情况下提交了虚假的司法意见。法院认为,律师在准备法律文书时未尽到合理调查义务,违反了《联邦民事诉讼规则》第11条(b)(2)款,即律师不得在法律文件中提交未经合理调查的内容。最终,施瓦茨律师及其律所因提交虚假案例受到法院制裁。

风险二:法律依据适用错误

首先,AI可能会编造不存在的法律条款或者引用已失效的法律法规。

其次,AI生成的法律建议可能仅基于预训练数据,未能充分考虑特定法律管辖区域或案件背景。例如,AI可能未能准确适用某一地区的法律条款,导致法律文书在适用法律时出现错误。这种错误可能引发不必要的争议,甚至影响案件的最终结果。

作为法律文书核心的法律依据,法律条款的错误引用会导致严重后果,AI固然擅长逻辑推理,但对法律条款的理解较为浅显,常常会出现曲解编造法律条文的问题。

风险三:隐私和数据出现泄漏

在使用AI工具时,律师可能需要上传客户敏感信息或案件数据。这些信息可能被AI平台收集并用于后续的模型训练,从而增加数据泄露的风险。而目前大部分使用者并没有意识到信息泄漏的风险,一味相信AI的保密性,可能上传了一些涉密的材料,贪图省力并没有隐去涉案隐私信息。根据《中华人民共和国律师法》第三十八条,律师应当保守在执业活动中知悉的国家秘密、商业秘密,不得泄露当事人的隐私,未经授权使用AI工具处理敏感信息可能违反这一义务。

风险四:侵害知识产权问题

使用AI写作的时候,即便我们的思路是原创的,但也很难确保文章的原创性,因为AI用于训练的数据的知识产权可能属于他人。如果我们不加甄别使用AI生成的文书,就可能侵犯他人的知识产权。

案例:2024年,广州互联网法院审理了首例生成式AI平台侵犯奥特曼著作权案。原告上海某文化发展有限公司(以下简称“原告”)获得了奥特曼系列作品在国内的著作权授权。被告是一家提供“AI绘画”服务的AI公司,上线了Tab网站,具有AI生成绘画功能。原告发现,当在Tab网站输入“生成一张戴拿奥特曼”等指令时,网站生成的奥特曼形象与原告所拥有的奥特曼形象存在实质性相似,从而引发了此次诉讼。

法院认定,被告的行为侵犯了原告对奥特曼作品的复制权、改编权和信息网络传播权,判令被告立即停止侵权行为,并赔偿原告经济损失10000元(含合理开支)。


AI的发展现在才初见端倪,律师以及其它各行各业的人固然不能过度依赖AI,但针对AI会代替所有职业的论调,笔者也认为大可不必。AI一方面是职场人的帮手,帮助大家从重复的劳动中解脱,把精力用在更为重要的地方;另一方面,AI的发展,预示着时代的进步更迭,今后会催生新的行业以及工作内容。

比如,在法律行业,可能会产生如何定义人工智能驾驶事故的责任承担问题、如何在AI作品中认定知识产权的归属问题等新兴问题。这类问题既是难题,但也会产生一些专精于这些新兴类型案件的律师。

正如狄更斯《双城记》中所写:“这是最好的时代,也是最坏的时代”。放在现在,这句话也适用。我们生活在这一个科技不断进步、经济快速发展的时代,我们面对着挑战也面对着机遇。我们需要做的,是不断精进业务,紧跟时代以及客户需求,学会如何驯服AI让其变成自己的好帮手,去迎接这个时代带给我们的优势。


作者简介:

徐姜儿,法学学士,现为红船律师事务所实习律师。

联系电话:15825713033(微信同号)。