松下5209和pqtk10哪个好?破坏力堪比切尔诺贝利:人工智能失控究竟有多可怕?
财联社4月11日讯(编辑 马兰)人工智能的快速发展掀起了全球对技术的狂热追逐,然而在许多专家眼里,变化发生得太快可能会对世界造成灾难性的影响。
根据美国斯坦福大学的一份年度报告,接受调查的人工智能领域研究人员中,很多人承认人工智能将变成人类社会的分水岭,但其中36%的专家认为这项技术带来的影响未必是积极的。
人类造物超越人类?
报告中指出,随着创建和部署生成式人工智能的门槛大幅降低,人工智能的伦理问题将变得更加明显。因为初创企业和大公司都在竞争开发自己的模型,这意味着这项技术不再由一小群参与者控制,这让监管也变得更加困难。
而谷歌和微软“军备竞赛”式的竞争,也让这个行业进入更加高速的发展车道。在另一方面,这也代表着不愿尝试的公司或个人将被人工智能行业迅速丢下,这样一来,所有人都被裹挟向前,别无选择。
在斯坦福大学的调查中,57%的研究人员赞同,以目前的发展速度,大量研究正在从生成人工智能转向创造通用的人工智能(AGI)。业界认为AGI的出现需要50年或数百年,而一些人则质疑是否存在真正的AGI。
可怕的猜测在于,一个真正AGI很可能伴随着人类失去对技术发展的控制。AGI本身可以准确模仿甚至超越人脑能力。作为人类的创造物,人工智能反而获得超越人类的智慧,这在58%的受访问研究人员心中是一个巨大的问题。
另一场“切尔诺贝利”
加州大学巴克莱分校的计算机科学教授Stuart Russell警告,不受约束的人工智能可能会带来切尔诺贝利式的灾难。Russell数十年来一直是人工智能领域的领军人物,但他也是与马斯克联合呼吁暂停开发人工智能的名人之一。
他强调,人工智能发布者必须保证其开发的系统可以安全运行,并证明该模型符合相应的规定。就好像是建造一座核电站,建设者必须向政府证明其安全性:其不会在地震中泄漏,也不会像切尔诺贝利那样爆炸。
Russell认为创建新的人工智能模型与生产客机和建造核电站一样,只要出现一点小问题,就会对世界产生灾难性影响。
此外,专家们还很紧迫的担忧是,人工智能当前的研究过于关注商业化和实现目标,而牺牲了听取不同研究领域见解的时间和精力,这可能不利于解决人工智能伦理问题。
本文来自投稿,不代表性价比网立场,如若转载,请注明出处:https://xjb.yiqirom.com/7002.html