
在生成式人工智能(GenAI)全面渗透专业服务业的当下,新加坡再次走在了制度规范的前列。2026年3月6日,新加坡律政部(MinLaw)在“共同塑造新加坡法律的未来”大会上,正式发布了备受瞩目的《法律行业生成式人工智能使用指南》。该指南不仅为私人执业律师、企业法务及法律科技开发者划定了明确的“执业红线”,更针对“AI幻觉”、数据泄露等痛点给出了实操解法。
划定三大核心红线:人类律师的“绝对责任”
指南虽然是非强制性文件,但为法律科技的合规应用提供了标准化参考。其核心围绕三大原则展开,明确了在AI时代,人类律师的“兜底”作用不可动摇:职业道德与最终责任(Professional Ethics):AI可以代劳,但不能代为担责。律师必须对所有AI生成的法律工作成果承担最终责任。针对法庭提交文件、法律意见书等“高风险任务”,签字律师必须亲自审查并验证AI的输出结果。绝对的保密性(Confidentiality):严禁将客户的敏感数据“喂”给公共AI大模型。法律从业者必须高度警惕不同GenAI模型在数据处理、云端存储环节的潜在违约风险,筑牢客户隐私防线。服务透明度(Transparency):赋予客户知情权。如果律师在案件处理中大量使用了生成式AI,且这种使用直接影响了法律服务的计费成本,或涉及非常规的数据处理方式,律师应主动在客户协议中进行披露。
直击技术暗礁:如何防范“AI幻觉”与偏见?
针对业界最担忧的“AI幻觉”(即生成错误或虚构案例)导致律师翻车的现象,指南给出了一套务实的**“分级审查与锚定机制”**:技术锚定(Grounding):建议律师不要让AI在庞杂的底层训练数据中“自由发挥”,而是应主动向AI提供特定的权威参考文档(如特定法条、既往判例),将其回答“锚定”在已知事实上,从而大幅降低幻觉概率。分级审查机制:指南建议根据案件风险匹配人类的监督力度。对于高风险的法律文书,必须进行逐字核查与交叉测试(规避算法历史偏见);而对于会议记录、案件进度更新等常规文书,采用抽样检查即可。
官方定调:重塑律师的核心竞争力
在发布会上,新加坡律政部兼内政部第二部长唐振辉(Edwin Tong)的发言引发了行业强烈共鸣。他指出,研究显示,有44%的法律工作可被AI自动化,而且做得更快、更好,且效率远超人类。但他同时强调,这并非行业的末日,而是转型的契机:“AI在可预见的未来不会取代人类律师,但是,善用AI的律师,一定会取代那些拒绝使用AI的律师。”唐振辉呼吁法律人必须重新思考自身的定位,加倍投入到AI无法复制的核心能力上:“AI无法与客户建立真正的信任,无法在复杂人性中做出道德判断,更无法带着同理心与智慧去为当事人辩护。这些,才是未来律师无可取代的护城河。”
信息来源 | 编辑:甬江知道团队 微信: yongjiangzhidao
