2023年4月6日凌晨,Open AI在官网发布了一篇文章《Our approach to AI safety》,以确保安全、可靠地为全球用户提供ChatGPT服务。
OpenAI 发布 ChatGPT 安全方法,为生成式 AI 的数据安全问题提供了关键的保护和稳定军心的作用。近来,全球多数国家高度关注 ChatGPT 的安全问题。其中,意大利直接禁用了 ChatGPT,欧洲多数国家也开始纷纷重视 ChatGPT 是否存在数据隐私侵犯的问题。
在这个关键时刻,OpenAI 的安全方法发布对于 ChatGPT 未来发展以及整个 AIGC 行业都至关重要。以下是官方发布的六项内容:
Open AI表示,在发布任何新系统之前,会进行严格的测试。聘请外部专家提供反馈,通过人工反馈强化学习等技术改进模型的行为,并构建广泛的安全和监控系统。
例如,Open AI的最新模型GPT-4完成训练后,它们花了6个多月的时间在整个组织内开展工作,以使其在公开发布之前更安全、更一致。
Open AI认为,强大的人工智能系统应该接受严格的安全评估。需要监管以确保采用此类做法,Open AI将积极与政府合作,以制定此类监管的最佳框架。
Open AI正在努力在部署前预防可预见的风险,但是,在实验室中可以学到的东西是有限的。尽管进行了广泛的研究和测试,也无法预测人们滥用技术的所有方式。
Open AI通过自己的服务和API,提供最强大的模型,以便开发人员可以将这项技术直接构建到他们的应用程序中。这可以使得Open AI能够监控滥用行为并采取行动,并不断构建缓解措施以响应人们滥用我们系统的真实方式——而不仅仅是关于滥用行为可能是什么样子的理论。
随着全球用户使用的深入,这促使Open AI需要制定更细致、周全的对策来应对各种可能出现的危险。
现实世界的使用也促使Open AI制定了越来越细致的政策来应对对人们构成真正风险的行为,至关重要的是,Open AI认为社会必须有时间来更新和适应能力越来越强的人工智能,并且每个受到这项技术影响的人都应该对人工智能如何进一步发展有重要的发言权。与没有使用这些工具的第一手经验相比,迭代部署帮助我们更有效地将各种利益相关者带入有关采用 AI 技术的对话中。
保护儿童的安全一直是Open AI工作的重点之一。Open AI要求人们必须年满 18 岁,或在父母同意的情况下年满13岁才能使用该工具,并正在研究验证选项。
Open AI不允许其技术用于生成仇恨、骚扰、暴力或成人内容等。与 GPT-3.5 相比,最新的模型 GPT-4 响应禁止内容请求的可能性降低了 82%,并且Open AI已经建立了一个强大的系统来监控滥用情况。GPT-4 现在可供 ChatGPT Plus 订阅者使用,Open AI希望随着时间的推移让更多人可以使用它。
Open AI已经尽量减少我们的模型生成伤害儿童内容的可能性。例如,当用户试图将儿童性虐待材料上传到我们的图像工具时,我们会阻止并将其报告给国家失踪与受虐儿童中心。
Open AI的大型语言模型是在广泛的文本语料库上训练的,其中包括公开可用的内容、许可内容和人工审阅者生成的内容。Open AI不使用数据来销售服务、做广告或建立人们的档案。
虽然Open AI的一些训练数据包括可在公共互联网上获得的个人信息。但只是希望大语言模型了解世界,而不是了解个人。因此,Open AI努力在可行的情况下,从训练数据集中删除个人信息,微调模型以拒绝对私人个人信息的请求,并对个人提出的从我们的系统中删除其个人信息的请求做出响应。这些步骤最大限度地减少了我们的模型可能生成包含私人个人信息的响应的可能性。
大型语言模型根据之前的训练模式预测下一个单词、句子或长文。但在某些情况下,可能会出现数据不准确的情况。
提高事实准确性是 OpenAI 和许多其他 AI 开发人员关注的重点。通过利用用户对被标记为不正确的主要数据源的 ChatGPT 输出的反馈,提高了 GPT-4 的事实准确性。GPT-4 产生事实内容的可能性比 GPT-3.5 高 40%。当用户注册使用该工具时,Open AI表示将努力做到尽可能透明,因为 ChatGPT 可能并不总是准确的,要进一步降低产生幻觉的可能性并让公众了解这些人工智能工具的当前局限性,还有很多工作要做。
OpenAI认为,解决AI安全问题的实际方法是投入更多时间和资源来研究有效的缓解和对齐技术,并测试它们在现实世界中的滥用情况。重要的是,Open AI还认为,提高人工智能的安全性和能力应该齐头并进,它们将越来越谨慎地创建和部署功能更强大的模型,并将随着人工智能系统的发展继续加强安全预防措施。
虽然OpenAI等了6个多月才部署GPT-4以更好地了解其功能、优势和风险,但有时可能需要比这更长的时间来提高AI系统的安全性。
因此,政策制定者和 AI 供应商需要确保AI的开发和部署在全球范围内得到有效管理,这样就没有人会为了取得成功而偷工减料。这是一项艰巨的挑战,需要技术和制度创新,但OpenAI尽最大努力去改善。解决安全问题还需要广泛的辩论、实验和参与,包括人工智能系统行为的界限。Open AI已经并将继续促进利益相关者之间的合作和公开对话,以创建一个安全的人工智能生态系统。
文章内容来源:Open AI官网
Call Us, Write Us, Or Knock On Our Door. We are here to help. Thanks for contacting us!
如需任何协助,请随时联系Sinokap团队,我们始终致力于为您提供高效、专业的支持。
感谢您与我们联系!