趋势网(微博|微信)讯:
金正恩:朝鲜半岛核战争一触即发 19岁孤儿被骗到郑州4天没吃没喝 兰州交大情侣楼梯间发生不雅行为 受王宝强资助孩子父亲发声 吴柳芳为占用公共资源致歉
在过去的大约十年里,人工智能领域获得了许多惊人的成绩。但是,正如一些新兴技术所面临的问题,这个新世界会不会带来什么不好的方面?在今年美国科学促进会上,这成为了电脑科学家和伦理学家讨论的主题。
这场信息技术革命对于经济的影响是毋庸置疑的。从私人电脑开始进入职场以来,生产效率就获得了显著的提高。但是与此同时出现了一个生产率与就业之间传统联系的解偶联。不像在过去的几年,获得的益处并没有被社会中的许多人,甚至是绝大多数人感受到。这就是MosheVardi讲话中的中心内容。
作为莱斯大学计算机工程的一名教授,Vardi说自从工业革命后,科技的发展对就业方面就成了威胁,这一点你只需要从马在交通工具中的角色变化就能看出来。但是在过去,这些工作只被做特定工作的机器完成,比如织棉。现在,Vardi说,我们现在面临着一种可能,机器在几乎所有方面都超过了人类。
Vardi提出了一种可能,我们对自动化和人工智能的过度依赖对经济的影响正如罗马人对奴隶的依赖。他说,“我们的经济体系可以应对劳动力参与率低于25%的境况吗?低于50%?”他指出,古罗马的解决方式就是将面包和马戏团或者生活作为军团。
根据耶鲁大学伦理学家WendellWallach所说,正如科林格里奇困境,在科技根深蒂固之前就能超越这个问题是非常重要的。Wallach在他的演讲中探讨了机器人道德这个主题,并呼吁机器人领域花一部分研究基金来用于研究科技的伦理,法律和社会问题(ELSI),这跟基因组学领域是用一样的方式。(从人类基因组开始以来一直到今天,国家人类基因组研究所获取了联邦授权,拨出5%的预算用于ELSI研究。)
“我们需要以协调的方式介入塑造新兴技术来防止它们成为棘手的问题。”Wallach如是说。自动驾驶汽车给了我们一个很好的例证:在最近的几个月里,自动驾驶汽车引起了许多讨论,并形成了“有轨汽车难题”。这是一种机动的小林丸,即机动汽车遇到问题并面对着不好的结果---比如撞击了一群幼儿却保护了占领者或者撞一棵树保护了婴儿并杀死了占领者。
Wallach认为这是一个罕见的问题,并且没有明显的合乎道德的答案。他说:“驾驶不是一个绝对的道德活动,而是一个社会练习。”当一个问题烦扰了许多人,没有任何一个我们曾经挑战过的行业专家可以在数月内给出可行的解决办法。大多数人告诉我们传感器技术还需要十年甚至更久来解决“我们避免的事物是一个挤满婴儿的巴士还是一辆拖拉机”这个问题。
Wallach告诉听众,伦理学家和社会理论家应嵌入设计团队。而且研究人员和工程师也应该考虑一下,当他们设计的系统出现了问题,谁应该对此负责?
在沙漠里一条重要的线路就是需要一个发展自主武器系统的禁令,去年我们就呼吁过。Wallach说:“机器一定不能做任何有可能导致人类死亡的决定。”具体指的是人工智能或机器人编程,以选择在战场上自己的目标。(跟上文提到的自动驾驶小车有轨驾驶的问题刚刚相反。)
Wallach说,机器编程杀人是不合法的。机器是不可预测的,是不能被完全控制的,如果可能的话责任归属也是很棘手的。他们会破坏基本的道德原则,即人(个人或者集体)的代理人对于行动负责并给出解释,而且自主武器战场正在经历着现实的风险,即从战争实践中,去除掉任何人类的碎片。
Wallach认为值得鼓励的是,在这个人工智能社会,这种想法流传很广,正确地认识到社会将要寻找潜在的Miles Dysons。