在人类价值观基础上发展人工智能

2019年03月27日 14:48 来源:中国社会科学网-中国社会科学报 作者:闫勇

  近年来,随着计算机科技的不断发展,人工智能(AI)显示出越来越强大的能力。那么,在人工智能技术获得空前发展的当下,人类应该如何正确对其进行开发和管控?学者们对此进行了分析和探讨。

  现有人工智能功能单一

  英国皇家国际事务研究所助理研究员詹妮弗·朱·斯科特(Jennifer Zhu Scott)在该研究所官网撰文表示,当下已经得到应用的人工智能技术实际上是“一般人工智能”。这种“一般人工智能”还无法完全与人类智能相提并论。斯科特认为,作为地球上第一种高级智慧生物,人类在理解自己的大脑方面,仍然是新手。人类大脑的生理功能至今仍是个谜。想要构建一种人工计算体系结构并让其执行人类能够完成的所有任务,这在物理上是不可能的,在经济上也没有必要。

  在斯科特看来,目前人类面临的情况还称不上“非常危险”。首先,尽管人类已经开发出许多不同领域的“一般人工智能”来模仿人类的表现,但如果不能执行人类能完成的每一项任务,“一般人工智能”就可能永远不会发展成一种无法与人类区分开的、类人的、有自我意识的机器人。其次,如今大多数有用的人工智能技术仍然是所谓的“单领域优化器”。它们擅长执行特定的任务,但在其他领域往往毫无用处。这些“单领域优化器”能够提供即时的经济价值,因此最有可能被开发和投入应用。从中短期看,这样的人工智能技术将在商业上占据主导地位。

 警惕人工智能产生自我思维

  斯科特认为,人们暂且不用担心科幻电影中的那种高智能类人机器人,但是人类目前已经无法完全理解自己开发的人工智能技术,这是一种危险的趋势。强大的单一人工智能软件如AlphaGo,确实是“人造的”,但它们与人类相去甚远。据报道,2017年谷歌人工智能还创造了人类无法理解的语言。在评估未来可能发生的情况时,人们应考虑到,未来人工智能可能不会那么“一般”,而是多种“超级”智能的组合或连接。

  在斯科特看来,这种人工合成的超级智能具有强大力量。更加令人不安的是,人们无法知晓它的意图。对于这样一种超级智能而言,提高自身性能是轻而易举的。但对于人类来说,提高自身的脑力是一个缓慢且富有挑战性的过程。斯科特表示,类人机器人将占领我们的世界,这种担忧既肤浅且具有误导性。人们必须做好准备应对的真正威胁是,人工合成的超级智能与以自我为中心的人性相结合。人类始终追求自我永存,这就是关于来世和追求长生不老的故事几乎存在于每一种文化中的原因。一旦人工智能拥有了人类的这种自我中心思维,人类将十分危险。因此,人类在开发人工智能技术时,必须负责任地充分评估其对人类的影响。可以明确的是,人类在推动人工智能与以自我为中心的人性相结合方面,既存在巨大动机,也将具备相应的技术能力。然而,这种与人性相结合的超级人工智能到底是什么样子,将在什么时候出现,以及这种致命的结合将带来怎样的力量,是现在的人们无法预料的。

  美国加州大学计算机科学教授、剑桥大学生存风险研究中心研究员斯图尔特·拉塞尔(Stuart Russell)认为,如果不充分研究人工智能技术发展的后果并对其实施监管,那么这种不受约束的技术发展可能会非常危险。拉塞尔呼吁,计算机科学家需要修改他们的研究目标,确保人类的价值观和发展目标仍然是人工智能技术发展的核心。此外,需要对计算机专业的学生加强相关培训,使其以谨慎的态度对待人工智能技术发展。

   记者 闫勇