与核战同样危险 专家们警告:AI恐灭绝人类 (图)

发表:2023年05月31日

30日,一群业界高管与专家提出警告,全球领导人应该致力于降低人工智能(AI)技术带来之 “ 人类灭绝 ” 的风险。

根据法新社报导指出,包括了阿特曼(Sam Altman)在内的数十位专家们连署一份简短的声明。该声明表示,应对AI所带来的人类灭绝风险,应该要列为 “ 与应对疫情及核战同层级的全球优先要务 ”。而阿特曼的公司即是OpenAI研发了ChatGPT聊天机器人。

2023年2月7日,OpenAI 首席执行官阿特曼(Sam Altman)在华盛顿雷德蒙德的 Microsoft宣布为Bing集成ChatGPT的主题演讲中发表讲话。(图片来源:Jason Redmond/AFP via Getty Images)
2023年2月7日,OpenAI 首席执行官阿特曼(Sam Altman)在华盛顿雷德蒙德的 Microsoft宣布为Bing集成ChatGPT的主题演讲中发表讲话。(图片来源:Jason Redmond/AFP via Getty Images)

ChatGPT能够依据简短的指令来编写文章、诗歌与对话,所以在去年底就一炮而红。该程式的巨大成功已经吸引了AI领域数十亿美元之投资,不过批评者与业界人士皆发出了警告。

常见的忧心包括聊天机器人可能会导致假消息充斥网络,且带有偏见的算法将可能会产出种族主义的内容,甚至AI驱动的自动化亦也可能摧毁整个产业等。

公布于非营利组织 “ 人工智能安全中心 ”(Center for AI Safety,CAIS)网页上的这份最新声明中,并没有详细说明了AI可能带来之潜在生存威胁。

CAIS表示,此份 “ 言简意赅的声明 ” 旨于开启对于AI技术风险之讨论。

在声明中有数名签署人,其中包括被称是 “ 人工智能教父 ” 的辛顿(Geoffrey Hinton),他在过去也曾经提出类似的警告。

他们最大的忧心就是所谓的 “ 通用人工智能 ”(Artificial General Intelligence,AGI)之崛起,亦即具备人类认知能力的人工智能。

他们害怕,人类将会失去对于这些超智慧机器之掌控权。专家曾经警告称,这可能会对物种及地球造成灾难性的后果。

声明的连署人之中,也包括来自于AI领先企业谷歌(Google)与微软(Microsoft)的专家。

早在两个月之前,亿万富豪马斯克(Elon Musk)与其他数百名专家也曾发表了一封公开信,他们呼吁在确定安全无虞之前,应该暂缓AI的研发工作。

然而,马斯克的信却引来广泛批评。有人则认为,信中关于社会与文明崩溃的警告太过夸大了。

阿特曼赴美国国会听证    AI应制定规范

17日,美国国会正针对监管AI寻求共识,而OpenAI的执行长阿特曼第一次赴国会听证,在面对议员提出关于AI影响选举、就业与过度集中在少数企业之问题,他呼吁应该成立一个专责机构来加强规范。

OpenAI在去年底推出了聊天机器人ChatGPT,在两个月活跃用户竟然破亿,使得外界对加速控管AI之呼声高涨,近期美国政府与国会也对立法监管AI进行研议,这是阿特曼首次赴国会听证,而被视为两党议员就此议题来寻求共识的重要一步。

阿特曼在听证会中建议美国政府应考虑实施3项计划,也就是成立新的机构批准AI模型、应建立一套安全准则规范AI的模型、要有独立专家学者来对AI模型进行审核。

甚至他支持设立一个国际组织来为AI制定标准,而举出管制核武已经有前例。

据《华尔街日报》指出,阿特曼于15日已经与两党大约60名众议员私下会晤,此外,《华盛顿邮报》援引不具名国会议员助理的消息表示,17日下午阿特曼与国会负责人工智能议题成员进行一场简报会议。