认为人工智能工具不会收集你的数据吗?再猜猜看
生成人工智能的飞速发展已经在用户导向的产品(如OpenAI的ChatGPT、Dall-E和Lensa)中造成了真正的技术轰动。但是,这些项目所带来的隐私风险似乎被用户忽视或者被置于黑暗中,这一现象与用户友好的人工智能的繁荣相伴而生。
然而,在这场炒作的中间,国际政府和主要科技人物开始发出警报。由于隐私和安全问题,意大利刚刚对ChatGPT实施了临时禁令,这可能会激发德国实施类似的封锁。在私营部门,包括埃隆·马斯克和史蒂夫·沃兹尼亚克在内的数百名人工智能研究人员和技术领袖签署了一封公开信,敦促暂停GPT-4范围之外的人工智能发展的六个月。
尽管迅速采取行动以试图控制不负责任的人工智能开发是值得称赞的,但人工智能对数据隐私和安全构成的威胁的更广泛的形势超越了一个模型或开发者。虽然没有人想要破坏人工智能的范式转变能力,但现在必须直面其缺点,以避免后果变得灾难性。
人工智能的数据隐私风暴
虽然很容易说OpenAI和其他大型科技驱动的人工智能项目完全负责人工智能的数据隐私问题,但是在它进入主流之前,这个主题就已经被提出了。关于人工智能数据隐私的丑闻在ChatGPT的打击之前就已经发生了——只是大多数情况下发生在公众不知情的情况下。
就在去年,Clearview AI是一家基于人工智能的面部识别公司,据报道被数千个政府和执法机构使用,但公众了解有限,在美国被禁止向私营企业销售面部识别技术。Clearview还因其非法面部识别数据库在英国被罚款940万美元。谁说Midjourney或其他面向消费者的视觉人工智能项目不能用于类似的目的?
面部识别技术公司Clearview AI已经确认了我的面部信息在他们的数据库中。我给他们发了一张头像照片,他们回复了这些图片,以及他们获取图片的链接,包括一个名为“Insta Stalker”的网站。 pic.twitter.com/ff5ajAFlg0
— Thomas Daigle (@thomasdaigle) June 9, 2020
问题是它们已经被使用了。最近一系列涉及色情和虚假新闻的深度伪造丑闻,是通过消费级人工智能产品制造的,这进一步加剧了保护用户免受恶意人工智能使用的紧迫性。它将数字模仿的假设概念变成了对普通人和有影响的公众人物的真正威胁。
相关文章: 伊丽莎白·沃伦希望警察在2024年出现在你的门口
生成人工智能模型基本上依赖于新的和现有的数据来构建和增强它们的功能和可用性。这也是ChatGPT如此令人印象深刻的原因之一。也就是说,依赖新数据输入的模型需要获取数据的某个地方,其中一部分不可避免地包括使用它的人的个人数据。如果中央实体、政府或黑客掌握了大量数据,那么这些数据很容易被误用。
那么,在综合监管的范围有限且对于人工智能发展存在不同意见的情况下,现在使用这些产品的公司和用户可以做些什么呢?
公司和用户可以做什么
事实上,现在政府和其他开发者对人工智能发出警报,表明了对Web2应用和加密货币监管的缓慢步伐的进展。但是,引起警报并不等同于监管,因此在没有引起恐慌的情况下保持紧迫感是必要的,以在为时已晚之前创建有效的监管。
意大利对ChatGPT的禁令并不是政府对人工智能采取的第一步行动。欧盟和巴西都通过法案制裁某些类型的人工智能使用和开发。同样,生成人工智能进行数据泄露的问题已经引发了加拿大政府的早期立法行动。
人工智能数据泄露的问题相当严重,甚至OpenAI不得不采取行动。如果你几周前打开了ChatGPT,你可能会注意到聊天历史记录功能被关闭了。由于存在严重的隐私问题,OpenAI暂时关闭了该功能,其中包括陌生人的提示和支付信息被公开。
相关文章: 如果人工智能试图破坏你的加密,不要感到惊讶
虽然OpenAI有效地扑灭了这场火,但很难相信由Web2巨头主导AI伦理团队的程序会预先做正确的事情。
在行业层面上,更注重联邦机器学习的AI开发策略也将提高数据隐私。联邦学习是一种协作式AI技术,可以在没有任何人访问数据的情况下训练AI模型,利用多个独立源使用自己的数据集训练算法。
在用户端,成为一个AI鲁迪特并放弃使用任何这些程序是不必要的,很快也将不可能。但是,有办法更加聪明地选择在日常生活中授权使用哪种生成性AI。对于将AI产品纳入其运营的公司和小企业来说,警惕您向算法提供什么数据更为重要。
你使用免费产品时,你的个人数据仍然是产品的永恒说法仍然适用于AI。记住这一点可能会让你重新考虑你花时间做哪些AI项目,以及你实际上用它做什么。如果你参加了每一个将你的照片发送给不可信的AI驱动网站的社交媒体趋势,请考虑跳过它。
ChatGPT在推出仅两个月后就达到了1亿用户,这是一个令人震惊的数字,清楚地表明我们的数字未来将利用AI。但尽管有这些数字,AI还不普及。监管机构和公司应该利用这一点,积极地创建负责任和安全的AI开发框架,而不是在项目变得无法控制之后追赶它。就目前而言,生成性AI的发展在保护和进步之间没有平衡,但仍有时间找到正确的路径,确保用户信息和隐私始终处于前沿。