OpenAI 创建了一个新团队来应对“超智能”人工智能系统
人工智能(AI)聊天机器人ChatGPT背后的公司表示,将组建一个团队来控制和管理超级智能AI系统的风险。
在其博客上的7月5日公告中,OpenAI表示,将创建这个新团队来“引导和控制比我们聪明得多的AI系统”。
这家非营利组织表示,它相信超级智能将是“人类有史以来最具影响力的技术”,并能够解决许多问题,尽管存在风险。
“超级智能的巨大力量也可能非常危险,可能导致人类的失能甚至灭绝。”
该公司表示,它相信超级智能有望在本十年内出现。
它表示将把已经获得的计算能力的20%用于这个努力,并旨在创建一个“与人类水平相当”的自动对齐研究员。理论上,这个自动研究员将帮助团队管理超级智能的安全,并使其与“人类意图”相一致。
该公司将其首席科学家Ilya Sutskever和研究实验室的对齐负责人Jan Leike任命为该努力的共同领导者。它向机器学习研究人员和工程师发出了加入团队的公开呼吁。
相关: OpenAI暂停ChatGPT的Bing功能,因用户跳过付费墙
在世界各国政府考虑对AI系统的开发、部署和使用进行管控措施之际,OpenAI发布了这一公告。
欧洲联盟的监管机构在AI监管方面取得了最大的进展。6月14日,欧洲议会通过了《欧盟AI法案》,该法案要求像ChatGPT这样的工具披露所有由AI生成的内容,以及其他措施。
该法案在实施前需要进行进一步讨论。尽管如此,它引发了AI开发人员对其可能对创新产生的影响的强烈抗议。
今年5月,OpenAI首席执行官Sam Altman前往布鲁塞尔与欧盟监管机构讨论过度监管的潜在负面影响。
美国的立法者也提出了《国家AI委员会法案》,以建立一个机构来决定该国的AI政策。美国的监管机构对监管这项技术的意愿也表达得很直接。
6月30日,参议员迈克尔·贝内特起草了一封致主要科技公司的信件,包括OpenAI在内,敦促标记AI生成的内容。
杂志: BitCulture:Solana上的艺术品、AI音乐、播客+书评