在基于GPT-3.5的ChatGPT于去年11月30日横空出世不久后,新版本的GPT-4在3月14日再度来袭。与前一版本相比,这款迭代版新模型的准确度更高,专业性更强。尤其引发法律界关注的是,其在模拟美国律师执业资格考试中成绩优异,表现甚至远超人类应试者水平:GPT-4不仅能轻松应试客观选择题(MBE)与简单题(MEE),更可熟练运用法条在给定的实践情境与事实关系内通过主观能力测试(MPT)。种种事实表明,法律业界甚至是现代法治自身已然深陷于智能科技所带来的宏大变局之中。当现实的冲击和挑战日益临近时,法律职业共同体中的各方角色显然是需要及时认识并做出必要应对的。
大型语言模型确可替代初级法律工作
必须承认,以ChatGPT为代表的大型语言模型的确具备处理初级法律事务的现实可能性。这是因为法律作为一种强语言学科,其概念厘定、逻辑推导、价值判断等的达成,通常依附于强语言活动及其背后的语言力量,而ChatGPT大模型──这个以自然语言为交互方式的通用语言处理平台──恰恰在语义理解和文本生成上极富有优势。换言之,大数据、大算力、强算法的技术耦合不仅是某种暴力美学系统主义的全新呈现,更可基于对海量法律文本的大规模学习,在诸多法律实务场景中熟练使用“法言法语”。这过程中,包括制定法律条文、司法判例、法学教材、法理著作、民商事合同以及公司章程等规范性素材都能成为其知识训练、对话重组、情境学习以及表达修正的“饲喂”语料,进而为算力、算法的“大力出奇迹”创造必要条件。
姑且不继续深论ChatGPT的技术机制,当下的人工智能的确在可形式化、可表征化的数据处理方面有着人类无法比拟的强大能力,并且其优势正在以几何速度持续扩大。这种表征机制一定程度上也可解释人工智能与法律思维之间为何具有较强的表面相似性,以及机器学习与法律推理是“异曲同工”可比照的。例如,针对特殊法律场景建构符合法律知识图谱的人工神经网络模型可模拟人类经验实现归纳与类比推理,并抽出一般性的适用规则;而在更早之前,符号主义的编程法就已经开启了对“大前提─小前提─结论”这一经典三段论演绎推理的模仿拟制。众所周知,世界两大法系也即普通法与大陆法分别强调并推崇“归纳”和“演绎”的重要性。
总体来看,ChatGPT展现出的语言语法能力、逻辑推导能力乃至语境创造能力均是前所未有的。置于法律应用领域,其对于法律从业人员的语言组织,对于法律素材的归集和整合,都能造成冲击并形成重大突破。也由此,ChatGPT的问世将大规模替代法律职业共同体的诸多初级服务工作(以案头内容为主)的担忧则不无道理。比较典型的法律应用场景包括但不限于:通过提问的方式推进条款查找与法律查明;结合争端类型梳理法律关系;给定事实要件求证法律效果;撰写及审核各类法律文书等等。
法律职业群体的基本定力
在法律职业被人工智能逐步取代的叙事和焦虑下,法律人群体如何找寻确定性?以及更抽象且哲学性的,人工智能究竟是赋能性质的抑或是导致人类的自我罢黜?暂且抛开法律专业不谈,当中引发争议的核心原因莫过于,ChatGPT深刻地“侵入”了语言领域,而语言恰巧反映出人类的本质。当人类的自主性或称主体性要害史无前例地被击中并招致危机时,一系列哲学式的追问则不可避免:
首先是关于ChatGPT无法达至哪些法律专业领域或场景?如前述,由于现时人工智能技术过度依赖语言及推理的表征机制,其底座原理是概率,以至于难以对诸如直觉或经验性知识等人类特有的非表征语言系统与非形式化知识做出负责任的决断。该局限在法律视域内,则生动地体现在霍姆斯大法官于《普通法》开篇的经典论断中:“法律的生命不是逻辑,而是经验……一个时代为人们感受到的需求、主流道德和政治理论、对公共政策的直觉……在决定赖以治理人们的规则方面的作用都比三段论推理大得多。”在该意义上,普通法社会中的法律职业群体似乎较大陆法系而言受人工智能发展的消极影响较小。
诚然,问题的关键仍在于,真实法律实践情境中的实质性事项,例如法律行为涉及的躬行式的判断力与价值排序选择、直觉与想像力、主动去伪存真的批判性思维、融贯性的学理分析(德沃金语)等主观因素,依然仰赖于法律职业人士的经验能动。对此,人工智能短板明显,相信这是优秀法律人的基本定力所在。
其次是关于以人类中心主义的立场做出对技术的“反击”。应当无比确定的是,人类中心主义秉持人工智能是人造物的这一“元命题”,即便在局部领域,机器实现了主从关系的倒置或称反客为主,但人的本体地位不可动摇,增进人类福祉必须是技术进步的首要原则与社会共识。某种程度上,人类不会自我罢黜建基于伦理,也即人的尊严与道德能力不仅反应了社会公众的理想预期与价值观念,更关注主体能否自我反省与评价,以及能否进行负责任、具有正义感、共情力、同理心的“属人”决断,这是机器所无能为力的。
更进一步,聚焦法律与相关公共政策本身,其始终附有极强的意识形态属性与政治立场考量(比如在此前富有争议的没有本地执业资格的海外律师能否参与本地国安案件的问题),甚至承担起神圣的、维系世俗社会信仰的角色。该领域如若遭遇机器的贸然干预与冒进介入,大概率是不能被法律人的决策者和监管者所允许的。一个最新且经典的例证是:3月16日,美国版权局发布法规第202部分,明确宣示通过ChatGPT、Midjourney等人工智能自动生成的作品,不受版权法的保护。当然,这背后涉及复杂的著作权法律关系与法理问题,如版权主体的认定,不同法域的版权法律文化对于“独创性”、“可作品性”的理解等等,但可以看到,法律人透过设计制度规范向技术发起“反击”已然开启。
承认技术现实,乐观心态并积极拥抱变化
现代性的吊诡在于,它是一个前进与没落同时并行的时代。在技术塑造法律与法律驯化技术的二元博弈逻辑之外,法律从业者主动拥抱变化无疑更值得鼓励。此前,美国哥伦比亚法院在作出判决时承认使用ChatGPT,由此诞生了“全球首份使用ChatGPT完成的裁决书”。该院法官加西亚坦言,启用ChatGPT生成判决书文本的初衷仅仅是为了节约时间,而不是由机器替代法官完成负责任的法律裁断。既然技术于法律实务中已是既成事实,那么当下更适宜的思考恐怕是,如何把握人机交互决策,以及如何在高度数字化的法律程式中融入更多“人的因素”和“人的秉性”。至少,在人始终是最终决策者、把关者的前提下,定义为工具的ChatGPT是能够用于协助人类进行事实问题的认知和法律效果的辅助求证,从而提升法律效率。新型人机关系是合作面向的,法律职业者充当的是机器的发问者或称引导者,能否通过多轮对话让ChatGPT最大程度地理解并服务于特定的法律任务,实际上仍取决于人类的经验判断、业务认知、需求把握等先验的专业技能。
囿于文章篇幅,笔者尝试援引美国联邦第二巡回上诉法院在“世达律师事务所案”中的论述作结,即“在审阅法律文件的过程中,当一个人承担的任务本来就可以完全由机器来完成,那么这种工作本身不构成法律业务”。毕竟浪漫的法律理想主义者们始终相信,人工智能取代的只是让人类变成机器的那部分工作,机器可以把法律从业者们从重复性、模块化的任务中解放出来,使人类充分应用同理心、正义感、直觉、灵感、想像力等高级思维来做出推理和判断。
作者分别为香港城市大学法律学院公法与人权论坛研究员、法学博士;深圳市高新技术产业协会智库专家