查看原文
其他

OpenAI公布保障AI安全的六大方法,回应数据安全质疑!

关注数据安全 数据安全域 2024-01-09

4月6日凌晨,Open AI在官网发布了ChatGPT安全方法(Our approach to AI safety),以确保安全、可靠地为全球用户提供ChatGPT服务。
当前,ChatGPT的安全问题受到了全球很多国家的高度关注。比如意大利直接禁用ChatGPT,随后欧洲多数国家也开始关注ChatGPT是否侵犯数据隐私。使得生成式AI的数据安全成为热门话题。
而Open AI在这时间节点发布相关安全方法,这对其未来发展以及对整个AIGC行业都起到了关键性的保护作用。

在发布的安全方法中,OpenAI从六个方面出发,来考虑系统的安全问题:构建安全、可靠的AI产品,从实践中学习、优化、改善,保护儿童,尊重隐私,提高生成数据准确性,持续的研究和参与。
01构建越来越安全的人工智能系统


在发布任何新系统之前,OpenAI表示会进行严格的测试,聘请外部专家进行反馈,通过人工反馈的强化学习等技术来改善模型的行为,并建立广泛的安全和监控系统。例如,在最新模型GPT-4完成培训后,花了6个多月的时间在整个组织中工作,以使其在公开发布之前更安全、更一致。OpenAI认为,强大的人工智能系统应该接受严格的安全评估,需要进行监管以确保此类做法得到采纳,积极与政府就此类监管的最佳形式进行接触。


02从现实世界的使用中学习,以改进保障措施


OpenAI表示在部署之前,他们努力防止可预见的风险,但在实验室中所能学到的是有限的。尽管进行了广泛的研究和测试,但无法预测人们使用其技术的所有有益方式,也无法预测人们滥用其技术的所有方式。


他们会谨慎地、逐步地向不断扩大的人群发布新的人工智能系统,并在吸取教训的基础上不断改进。通过他们的服务和API提供最强大的模型,以便开发人员可以将这项技术直接构建到他们的应用程序中。这使他们能够监测滥用情况并对其采取行动,并不断建立缓解措施,以应对人们滥用其系统的真实方式,而不仅仅是关于滥用可能是什么样子的理论。


OpenAI认为社会必须有时间更新和调整,以适应日益强大的人工智能,每个受这项技术影响的人都应该对人工智能的进一步发展有重要发言权。


03保护儿童


OpenAI表示安全工作的一个关键重点是保护儿童。要求年满18岁或13岁以上的人必须获得父母批准才能使用其的人工智能工具,并正在研究验证选项。不允许他们的技术被用于生成仇恨、骚扰、暴力或成人内容等类别。与GPT-3.5相比,其最新模型GPT-4响应不允许内容请求的可能性降低了82%,他们已经建立了一个强大的系统来监控滥用情况。现在,ChatGPT-Plus用户可以使用GPT-4,OpenAI希望随着时间的推移,更多的人可以使用它,最大限度地减少我们的模型生成伤害儿童的内容的可能性。例如,当用户试图将儿童性虐待材料上传到我们的图像工具时,我们会阻止并向国家失踪和被剥削儿童中心报告。

他们还与非营利组织Khan Academy等开发人员合作,构建了一个人工智能辅助系统,既可以作为学生的虚拟导师,也可以作为教师的课堂助理,为他们的用例量身定制安全缓解措施。还在开发一些功能,允许开发人员为模型输出设置更严格的标准,以更好地支持想要这些功能的开发人员和用户。


04尊重隐私


其大型语言模型是在广泛的文本语料库上进行训练的,其中包括公开可用的内容、授权内容和由人类评审员生成的内容。OpenAI表示不使用数据来销售其服务、广告或建立人们的档案,他们使用数据来使其模型对人们更有帮助。例如,ChatGPT通过对人们与它的对话进行进一步的培训来改进。


虽然OpenAI的一些培训数据包括公共互联网上的个人信息,但他们希望其模型了解世界,而不是个人。因此,OpenAI表示努力在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并响应个人从其系统中删除其个人信息的要求。这些步骤最大限度地减少了模型可能生成包含私人个人信息的响应的可能性。


05提高事实准确性


今天的大型语言模型基于他们之前看到的模式来预测下一系列单词,包括用户提供的文本输入。在某些情况下,下一个最有可能的词在事实上可能并不准确。提高事实准确性是OpenAI和许多其他人工智能开发人员的一个重要关注点,他们正在取得进展。通过利用用户对被标记为不正确的ChatGPT输出的反馈作为主要数据来源,提高了GPT-4的事实准确性。GPT-4产生真实内容的可能性比GPT-3.5高40%。

当用户注册使用该工具时,OpenAI表示努力做到尽可能透明,因为ChatGPT可能并不总是准确的。要进一步降低幻觉的可能性,并教育公众了解这些人工智能工具的当前局限性,还有很多工作要做。


06持续的研究和参与


OpenAI认为,解决人工智能安全问题的一种实用方法是投入更多的时间和资源来研究有效的缓解措施和调整技术,并针对现实世界中的滥用进行测试。还认为,提高人工智能的安全性和能力应该齐头并进。其最好的安全工作来自于与最有能力的车型合作,因为它们更善于遵循用户的指示,更容易驾驶或“引导”。将越来越谨慎地创建和部署更有能力的模型,并将随着人工智能系统的发展继续加强安全预防措施。


OpenAI认为等了6个多月才部署GPT-4,是以便更好地了解其功能、好处和风险,但有时可能需要更长的时间来提高人工智能系统的安全性。因此,在政策制定者和人工智能提供商需要确保人工智能的开发和部署在全球范围内得到有效管理,需要技术和制度创新并为此做出贡献。


解决安全问题还需要广泛的辩论、实验和参与,包括人工智能系统行为的界限。OpenAI已经并将继续促进利益相关者之间的合作和公开对话,以创建一个安全的人工智能生态系统。




了解更多可点击“阅读全文”查看原文内容

本文翻译由数据安全与隐私计算提供,仅供参考;版权归属原作者,分享仅供学习参考,如有不当,请联系我们处理。


END
往期推荐01网络安全领域最有潜力年轻公司都有谁?2023 RSAC 创新沙盒10强公布02下一个是谁?ChatGPT持续引发数据泄露风波!03四部门:关于开展网络安全服务认证工作的实施意见

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存