做好准备:超智能人工智能即将来临。
OpenAI的首席执行官Sam Altman、OpenAI总裁Greg Brockman和OpenAI首席科学家Ilya Sutskever合著的一篇博文警告称,发展人工智能需要严格的监管以防止潜在的灾难性情景。
“现在是开始思考超智能人工智能治理的好时机,”Altman表示,他承认未来的人工智能系统在能力上可能远远超过通用人工智能。他说:“根据我们目前的观察,可以想象在未来十年内,人工智能系统将在大多数领域超越专家水平,并进行与今天最大的企业相当的生产活动。”
三位作者在文章中回应了Altman在最近向美国国会作证时提出的担忧,并概述了他们认为对于战略未来规划至关重要的三个要点。
“起点”
首先,OpenAI认为必须在控制和创新之间取得平衡,并推动达成一项社会协议,“既能确保安全,又能帮助这些系统与社会的顺利融合。”
其次,他们提倡设立一个“国际机构”,负责进行系统检查、执行审核、遵守安全标准的测试、以及制定部署和安全限制措施。他们将这一想法与国际原子能机构进行了类比,并提出了全球人工智能监管机构的构想。
最后,他们强调了“技术能力”对于维护对超智能的控制和确保其“安全”至关重要。具体涵盖了什么内容,即使对于OpenAI来说也还不清楚,但文章警告说不要对技术实施繁琐的监管措施,比如针对低于超智能水平的技术进行许可和审核。
总之,这个想法是将超智能与其训练者的意图保持一致,防止“爆炸情景”发生,即人工智能能力的快速、不受控制的爆发超过人类的控制能力。
OpenAI还警告称,未受控制地发展人工智能模型可能对未来社会造成灾难性影响。该领域的其他专家已经提出类似的担忧,从人工智能之父到AI公司创始人,甚至是过去参与GPT LLM培训的OpenAI员工。对于AI治理和监管的积极应对这一紧急呼吁已引起全球监管机构的关注。
“安全”超智能的挑战
OpenAI认为,一旦解决了这些问题,人工智能的潜力就可以更自由地为善被利用:“这项技术可以改善我们的社会,每个人使用这些新工具的创造能力肯定会令我们惊叹不已。”他们说。
作者还解释说,该领域目前正在以加快的速度发展,并且这种情况不会改变。博文中写道:“要阻止它需要类似全球监控体制的东西,但即使如此也不能保证会奏效。”
尽管面临这些挑战,OpenAI的领导层仍致力于探索“如何确保实现对超智能的技术能力以保持安全?”目前世界还没有答案,但绝对需要一个答案——而这个答案ChatGPT无法提供。