查看原文
其他

ChatGPT的创新与挑战

北大法宝 2023-03-22

作者 | 尚博文,北京大学法学院博士研究生
感谢作者授权推送



充分开发和利用AI的潜在价值,才是对人与AI孰为工具、孰为主体的最好回应
目 次:1. ChatGPT不是“炒概念”2. ChatGPT是“创新”3. ChatGPT在法学领域的应用场景4. ChatGPT所带来挑战:过程与结果的错配5. 应对ChatGPT的挑战:伦理、法律与科技创新的关系6. 学术圈的ChatGPT应用


OpenAI公司研发的ChatGPT颇有“未来已来”之感。从工业革命中的科技蓬勃发展,到人工智能会替代工作乃至取代人类的诘问,再到科幻电影《流浪地球2》中人工智能MOSS的“穿越”解读,对AI的探索贯穿着人类科技之树枝繁叶茂的全过程。人与机器的主客关系、法律和伦理如何及时回应新兴科技,是科技进步中的永恒命题。

诸多媒体将ChatGPT作为访谈对象予以采访,这是一种直观感受AI、侧面了解科技成果背后技术原理的立体化研究方法。有赖于机器学习、神经网络以及Transformer模型的多种技术模型积累,ChatGPT的模型训练利用了基于人类反馈数据的系统,其自然语言理解和作品生成能力大大提升。ChatGPT到底是“炒概念”还是“创新”?ChatGPT在法学领域有哪些应用空间?从法律和伦理视角来看,ChatGPT带来的挑战与规制逻辑是什么?



1.ChatGPT不是“炒概念”


资本市场需要“炒概念”,而人类需要人工智能。ChatGPT的确很热,相比某些资本市场的炒作术语、热词而言,以ChatGPT为代表的AI是值得社会科学进行深入研究的问题。ChatGPT的成功,不仅在于其第一次以零门槛、AI平民化方式所带来的热度与话题,关键在于从GPT-1、InstructGPT再到ChatGPT,OpenAI公司八年来推陈出新的探索,及其扎实的底层技术支撑。

许多人声称ChatGPT会犯错、会“胡编乱造”。有鉴于AlphaGo出道之初遭受的批评,相比对其生成内容出现错误、无法溯源的批评而言,讨论AI的未来发展空间与可能影响更加有意义。借用木遥博士的一段话:“当你抱怨 ChatGPT 鬼话连篇满嘴跑火车的时候,这可能有点像你看到一只猴子在沙滩上用石头写下1+1=3。它确实算错了,但这不是重点。它有一天会算对的。”[1]



2.ChatGPT是“创新”


ChatGPT的学习与输出过程和人类所谓“创新”过程高度相似。人工智能不仅是“人造的”(Artificial),还意味着AI进行机器学习的过程是类人、模拟人的。自孩童时期起,我们创造新知识的途径就是“模仿”:吟诗作赋的前提是肚中要有“墨水”,中华传统手艺中师徒相授的基础是“看”,新制度和新规则的可行性前提大多是比较法的学习研究,以上种种,体现出“模仿”在创新过程中的核心作用。除了少数天纵奇才、或是“拍脑袋”式的创新外,大多数创新过程无非是倾注汗水去攀登巨人的肩膀,并在此之上踏出微小的一步通过模仿去确定拟议对象的边界,人类的想象力与创造力方能由此建立。以人类撰写论文摘要为例,大多数初学者的方法是学习数十篇知名论文的摘要,观察并模仿其中共通的逻辑与行文,进而形成自己的摘要写作方法,而ChatGPT的学习过程也是如此,且其效果拔群。西北大学的Catherine Gao等学者的研究发现,ChatGPT撰写的医学研究摘要顺利通过了论文原创度检查,人类审稿人无法准确区分摘要的执笔者是机器还是人类。[2]被喂养了45TB的训练数据,其输出内容更像是John Locke所说的“归私(Appropriate)”,即将新观点从自然所赋予之状态移出,用机器心智和机器身体的行动来改造自然材料对ChatGPT创新性的典型批评仍然源自其准确度,Ted Chiang将ChatGPT比作“网络上的一个模糊的JPEG文件(Blurry JPEG)”,认为ChatGPT“有损压缩”的特征创造了其能够理解材料的假象。[3]事实上,虽然ChatGPT并未基于真实的数学、经济学知识得出结论,而是源自对给定材料中正确路径的无数次推测与模拟,但这种拟制何尝不是对事物之间因果关系的创新?毕竟,比起传统搜索引擎、网络爬虫的简单索引和复述,能提供新观点、新结论、新思路的人工智能,才是便于人类在此之上加工创造、提升人类世界福祉的工具



3. ChatGPT在法学领域的应用场景


某个特定模型的极限,并非是对话式人工智能的极限,需要参考文献来源、内容准确度提升,这些都可以通过完善AI应用的场景设定、调整对AI的训练方式来实现。同样,直接将这个版本的ChatGPT应用于正式的法律文书写作和法院判决当然是不可取的,因为其开发之初的设计方向就未将严谨性与准确性作为核心特征。

以ChatGPT为代表的通用性人工智能,在法学领域的未来应用空间极为宽广。在法院审判过程中,哥伦比亚卡塔赫纳区巡回法院的法官Juan Manuel Padilla Garcia已经在判决中加入了AI生成文本,用其增加说理依据。[4]需要注意,尽管这听起来很赛博朋克,但细读法官的判决原文,AI此时生成文本的目的绝不是要取代法官的决定。该法官是将ChatGPT作为其验证与论证的工具,判决结果早已由法官确定。未来,AI将会在法院的科学证据判断、大样本案例参照等方面取得更大突破。[5]而在法律服务中,AI在基础的法律检索与研究工作中做得更出色,“不能因为机械效率高就用勺子挖运河”,法律服务将会走向更加精细化和定制化,部分岗位也将被法律工程师等新角色替代



4. ChatGPT所带来挑战:过程与结果的错

 

所谓“当时只道是寻常”,就如同人类无法同时拥有青春和对青春的感受一样,以ChatGPT为代表的AI对现行法律带来的冲击与挑战,本质上是过程与结果的错配问题。科林格里奇提出并以其名字命名的困境(Collingridge Dilemma)很好地解释了这种错配关系,即新兴科技学技术的风险在其发展前期难以识别,虽可以对其进行控制却不知如何对其控制;而技术发展成熟后的控制要点逐渐明显,但由于技术在社会中根深蒂固,却已经很难对其进行控制。普林斯顿大学的计算机科学教授在对聊天机器人进行基本信息测试后所说的,“除非你已经知道答案,否则你无法判断它是错的” [6],亦是这种错配关系在AI问答的微观层面体现。原以为所谓新技术发展“日新月异”只是一种比喻,但近日谷歌抢先发布名为“Bard”的AI,微软宣布将ChatGPT接入Bing搜索引擎表明,数字时代这种过程与结果的错配挑战只会日益加剧。



5. 应对ChatGPT的挑战:伦理、法律与科技创新的关系


面对这一挑战,我们需要做的是回归到伦理、法律与科技创新之间的关系中进行思考。在法律与科技创新的关系层面,需要以更为谨慎、审慎的态度调整,避免在技术尚未成熟之时对其进行过多干预[7]最终压制和扼杀新技术的发展。更进一步,还需要明确何种原则是法律维护并必须坚守的底线红线(如人的主体性),何种现行规则是成熟AI能够内化和介入的土壤,何种内在价值应实在法和社会伦理不懈追求

在伦理与科技创新的关系层面,科技伦理的目的在于“以道驭术”,为法律而所不能为,为AI科技划定柔性的发展边界。一切社会关系都是人的关系,科技伦理亦莫能外,良性科技伦理的实现关键在于科技从业者、科技审查者的伦理。这其中,一方面是贯穿事前阶段的技术评估(Technology Assessment),由多元主体构成的技术专家“对权力诉说真理”(Speaking Truth to Power),注重在科技研发之初的应用场景选取时的伦理论证;另一方面,以事后事后阶段性、持续动态的伦理审查作为新兴技术的“控制阀”,增强对科技及时纠偏、中断和逆转的调控性。



6. 学术圈的ChatGPT应用

 

未来已来,以ChatGPT为代表的通用型人工智能介入社会生活已成定局,将会不可避免出现在科研、写作、绘画等多领域。直接关闭相关市场是最便捷、最自然的选择,如知名学术期刊Science直接禁止稿件使用ChatGPT生成文本。[8]但一味地严防死守、以事前禁止使用的方式规制ChatGPT将收效甚微。采取这种方式,学术出版机构将面临建立有效的人工智能生成内容检测工具的压力。相较而言,Nature明确指出无法阻止ChatGPT进入学术圈,转而对其应用场景与规制边界进行探索,[9]是一条可取的道路。

在对新兴科技的规制选择、以及版权法等问题之外,我们还应该思考的是,如果AI能够满足切身经历、想法或创意控制(Personal Experiences, Thoughts, or Creative Control)等成为论文作者的关键因素,并在将来能够满足学术论文在社会中的核心价值(传播知识与发现),以出版机构的规则来限制其作者身份是否有足够的正当性?毕竟,在保证人类主体性完整的前提下,最大程度开发和利用AI的潜在价值,才是对人与AI孰为工具、孰为主体的最好回应

“人的行动逻辑是人特有的心智结构的产物”。[10]对于ChatGPT的创新性,我们需要担忧和进一步讨论的是其大范围应用后对人类“模仿”过程的替代、乃至对人类决策的替代。无论AI的创新过程与人类多么相似,其所提供的解决方案永远是被人类主动选择的对象,而不能代替人进行“选择”。倘若AI为人类提供了充分的决策选择,但人类已不再掌握创造这些决策的原始材料,那时的AI将会和Asimov小说“The Last Question”中Multivac的回路一样,无法被人类完全掌握,最终由AI喊出那句响彻宇宙的“LET THERE BE LIGHT”。


参考文献:[1] 木遥:《ChatGPT 引爆全网热议!如果当它是“聊天机器人”,那你可就错了》,https://mp.weixin.qq.com/s/8d5zN9GyfeiwmyuRXGPwfA。[2] https://www.biorxiv.org/content/10.1101/2022.12.23.521610v1.article-info[3] Ted Chiang, ChatGPT Is a Blurry JPEG of the Web, https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web。[4] https://www.vice.com/en/article/k7bdmv/judge-used-chatgpt-to-make-court-decision?fbclid=PAAaZWRtswcGHg74QphuhMM5G969MloEeNGtm2OuuR7mVWdR8mgT5UJWWEM7U。[5] 陈育超:《ChatGPT来袭,法律人真的要失业了吗?》,https://mp.weixin.qq.com/s/w0SqPhOdSEypEp148BIYkQ。[6] Maximiliana Wynne,Disinformation in the Age of ChatGPT,转引自许可:《ChatGPT时代的虚假信息》,https://mp.weixin.qq.com/s/LdDJ4FZD7k09mGNMfGTc1A。[7] 赵精武:《“元宇宙”安全风险的法律规制路径:从假想式规制到过程风险预防》,《上海大学学报》(社会科学版),2022年第5期。[8] H. HOLDEN THORP, ChatGPT is fun, but not an author, https://www.science.org/doi/10.1126/science.adg7879。[9] Chris Stokel-Walker & Richard Van Noorden, What ChatGPT and generative AI mean for science, https://www.nature.com/articles/d41586-023-00340-6。[10] 朱海就:《ChatGPT为什么不能代替人》,https://mp.weixin.qq.com/s/UHmAdn68S2y6n_2nFT-b3A。



-END-



责任编辑 | 吴晓婧

审核人员 | 张文硕 

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。

往期精彩回顾

北大法宝参与国家重点研发计划“立法公众意见综合分析与法律条文智能审查技术研究”

法宝重磅 | ChatGPT来了,法宝人工智能研究院告诉你真相

讲座预告 | ChatGPT对法律人工智能研发和立法的影响

ChatGPT来袭,法律人真的要失业了吗?

专访ChatGPT:2023涉外律师高度关注的十个问题,我给出了高质量回答

对话ChatGPT,人工智能如何能成为论文作者?

雷磊:司法人工智能能否实现司法公正?

法宝应用 | 人工智能应用于地方立法的现实困境与应然路径

人工智能辅助科学立法的应用研究


点击下方公众号名片

获取更多信息


点击「在看」,就是鼓励

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存