抗议者聚集在 OpenAI 办公室外,反对军事人工智能和通用人工智能(AGI)

据VentureBeat 2月12日报道,周一晚上,数十名抗议者在 OpenAI 办公室外聚集,当员工下班离开时,他们集会抗议该公司开发人工智能。



此次示威活动是由两个团体 —— “暂停人工智能”(Pause AI) 和 “拒绝 AGI”(No AGI) —— 组织的,他们公开呼吁 OpenAI 的工程师停止开发像 ChatGPT 这样的先进人工智能系统。


从一开始,这个集体的信息就很清楚:停止开发可能导致机器超越人类智能的人工智能,即通用人工智能(AGI),并且不再与任何军方有关联。


该事件部分是作为对 OpenAI 上个月删除使用政策中禁止将人工智能用于军事目的的语言的回应而组织的。在修改使用政策几天后,有报道称 OpenAI 将五角大楼作为客户。


“在 [2 月 12 日],我们将要求 OpenAI 结束与五角大楼的关系,并不再接受任何军方客户,”事件描述中写道。“如果他们的道德和安全界限可以因方便而被修改,那么他们就是不可信任的。”


VentureBeat 采访了两位抗议组织者,以了解他们希望通过示威活动实现什么目标,以及从每个组织的角度来看成功会是什么样子。


“No AGI 的目标是增加人们对我们根本不应该首先构建 AGI 的认识,”No AGI 负责人 Sam Kirchener 告诉 VentureBeat。“相反,我们应该关注诸如整个大脑仿真之类的事物,使人类的思维始终处于智能的前沿。”


Pause AI(美国)的首席组织者 Holly Elmore 告诉 VentureBeat,她的团队希望“全球在 AGI 的前沿开发上暂停,直到安全为止。”她补充说:“如果他们结束与军方的关系,我会非常高兴。那似乎是一个非常重要的界限。”


对人工智能发展的不信任正在增长


此次抗议活动发生在公众对人工智能伦理影响的公开讨论处于关键时刻。OpenAI 决定修改其使用政策并与五角大楼合作引发了有关人工智能军事化及其潜在后果的辩论。


抗议者的担忧主要根源于通用人工智能的概念 —— 一种可以执行人类可以执行的任何智力任务,但速度和规模可能是难以理解的。担忧不仅仅是关于失业或战争自主性的,而是关于社会权力动态和决策的根本改变。


“如果我们构建了 AGI,存在一种风险,即在 AGI 世界后,我们将失去很多来自所谓的心理威胁的含义,即 AGI 为所有人做所有事。人们将不需要工作。在我们当前的社会中,人们从工作中得到了很多意义,”Kirchener 告诉 VentureBeat。


“自我治理对这些公司来说是不够的,他们确实需要外部监管,”Elmore 补充说,强调 OpenAI 经常撤回他们所做承诺的情况。“六月份,Sam Altman 自夸董事会可以解雇他,然后到了十一月,他们不能解雇他。现在我们在使用政策 [和军事合同] 上也看到了类似的情况……如果这些政策不实际限制 OpenAI 做任何他们想做的事情,那么这些政策有什么意义。”


虽然 “暂停人工智能”(Pause AI) 和 “拒绝 AGI”(No AGI)都有一个共同的目标,即停止 AGI,但他们的方法却有所不同。Pause AI 如果可以安全地开发,他们愿意接受 AGI 的概念,而 No AGI 则坚决反对其创建,强调潜在的心理威胁和对人类生活意义的损失。


两个团体都表示,这可能不是他们最后一次的抗议活动。


其他关心人工智能风险的人可以通过他们的网站和社交媒体参与其中。但目前硅谷仍在向未知的人工智能未来进发。


来源:VentureBeat 作者:Michael Nuñez


编辑:瓷瓷

(声明:请读者严格遵守所在地法律法规,本文不代表任何投资建议)

本文来源:元宇宙头条 文章作者:元宇宙头条
收藏
举报
元宇宙头条
累计发布内容523篇 累计总热度10万+
523篇 10万+
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪
FTX 后院起火,Binance 釜底抽薪

元宇宙头条现已开放专栏入驻,详情请见入驻指南: #

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表元宇宙头条观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

评论 共0条
默认
|
点赞
说点什么吧
相关文章
您需要登录后才可以回帖 立即登录