面向学生的通知
当前位置: 首页 -> 面向学生的通知 -> 正文

人工智能是人类的“终结者”吗?

发布日期:2015-04-29    点击量:

人工智能是人类的终结者吗?

作者:刘力源    来源:文汇报

图片说明:人工智能的发展趋势广受关注

图片说明:美国波士顿动力公司研发的“大狗”机器人,可以灵活活动于冰面上,被美军用于阿富汗前线运输物资。

图片说明:阿兰·麦席森·图灵(AlanMathison Turing)提出了图灵测试,被誉为“计算机科学之父”。

图片说明:电影《终结者5》

关于人工智能好与坏的想象在电影、文学作品中反复出现。去年年底,霍金接过了科幻作品的接力棒,直接给出了一个警示,人工智能的发展可能意味着人类的末日。未来学者雷·库兹韦尔曾说:不断减轻人类痛苦是技术持续进步的主要动力。这显然是人工智能发展的初衷,但这会否招致灾祸?

  

  小孩子看电视,总会对剧中角色提一个问题:他是好的,还是坏的?对于人工智能未来的发展,人们存在同样的疑问:它是包治百病的暖男大白,还是制造矩阵控制人类生息的统治者。

  它将来是可怕的吗?面对这个人类亲手拉扯到今天的小孩,许多工作在一线的人并不相信这样的推断,毕竟,它还太小了,也是基于此,科学家们开发人工智能,就像培育孩子的多个才能似的马不停蹄。有媒体报道,仅2011年以来,全球产业界已有超过20亿美元的风险投资进入人工智能领域。只要稍作搜寻,就会发现人工智能不断进行着突破,人们在围绕人工智能的各个领域做着展望:大白之父卡内基梅隆大学教授阿特克森接受媒体采访时表示,帮助残疾人、老年人更好掌控自己生活的机器人仆从会很快出现;根据印度的科学家在人工智能视觉方面的最新研发,手机将来可以看人表情挂断或接通电话;微软亚洲研究院研发的人工智能能够做到将手语实时翻译成英语并读出……语言传译、自动驾驶、公共安全、金融投资与风险调控等一系列重要领域都有了新型人工智能的介入,似乎机器猫口袋中的宝物正一个个从二维世界跃至现实。对了,机器猫本人也是科幻作品中人工智能的一个典型代表。

  关于人工智能好与坏的想象在电影、文学作品中反复出现。去年年底,霍金接过了科幻作品的接力棒,直接给出了一个警示,人工智能的发展可能意味着人类的末日。几乎同时发出类似警示的传奇人物还有比尔·盖茨与埃隆·马斯克,善于将天马行空的想象付诸实际的后者甚至投入了1000万美元关注人工智能发展,防止机器霸主的出现——马斯克曾在公开场合表示,人工智能的威胁会在5年内到来。

  未来学者、发明家雷·库兹韦尔曾说:不断减轻人类痛苦是技术持续进步的主要动力。这显然是人工智能发展的初衷,但这会否招致灾祸?

  

人工智能的起起伏伏

  对于人工智能的想象由来已久,维基百科中关于人工智能历史的介绍开篇就提到了古代神话传说,神话故事里技艺高超的工匠可以制作人造人,并为其赋予智能或意识,比如希腊神话中的赫淮斯托斯的黄金机器人和皮格马利翁的伽拉忒亚。而今天提到的人工智能不是故事、也非幻想,我们的身边到处都是弱人工智能,手机中的siri、电子邮箱中处理垃圾邮件的程序、家庭中使用的扫地机……霍金也认为人类早拥有了初期形式的人工智能,已经证明它非常有用。

  人工智能(Artificial Intelligence,简称AI)一词是约翰·麦卡锡在1956年达特茅斯学院暑期会议上的一次创造,此后人工智能几经沉浮:人们曾对它充满热望,也因为看不到它的发展前景,给予冷遇。在过去的60年里,人工智能经历了多个寒暑交替,最近一次低潮发生在日本第五代机计划的破产,人工智能领域再次进入冬天,直到1997年深蓝战胜国际象棋冠军卡斯帕罗夫,出现了一次高潮。

  关于人工智能,有一种解释是研究可以智能工作的机器的科学和工程。智能一词本身有着模糊的范围,也是因为这个原因,图灵提出了著名的图灵测试——如果一台机器能与人类对话而不被辨别出其机器身份,这台机器就被视为具有智能。从学科来看,人工智能涉及狭义和广义两层含义:业内人士仍旧传统地把人工智能视作计算机科学的一个分支,但是越来越多的人把人工智能视为一门融合了遗传学、生物学和计算机学等诸多内容等交叉学科。

  

它会超越人类吗?

  “2045年,当计算机智能超越人类。在库兹韦尔著作《奇点临近》中译本的封页上写着这样一句话。这本书是2005年的畅销书,如今算来,离库兹韦尔预测的时间还有30年。这一个预测结果得自库兹韦尔的加速回报定律 (LawofAcceleratingReturns),该定律认为人类社会是加速发展的,一个更加发达的社会本身具备的继续发展的能力也更强,按照这条定律,2000年的发展速度是20世纪平均发展速度的5倍,人类在21世纪的进步又将是20世纪的1000倍。而这一切试图让人们相信奇点正在临近,技术将以近乎无限的速度发展。从弱人工智能走向强人工智能可能需要几十年,从强走向超甚至有人预测是两年,最长的预测时间也是30年。大家都同意从强到超会变得非常快,如果失控,在强的阶段就会出现,到了超就彻底失控。《超体》虽然是幻想人脑的开发,但露西发展的过程恰恰是强人工智能到超人工智能过程的一个图解。一旦越过了界限,知识会迅速膨胀。这部电影跟现在关于脑科学、人工智能的想象关系非常密切。上海交通大学科技史与科学文化研究院院长江晓原说。

  智能超越,的确会破坏人类的安全感,毕竟智能是人类站上食物链顶端的重要凭恃。江晓原和穆蕴秋博士刚刚翻译完成的《Nature杂志科幻小说选集》,其中有10来篇涉及人工智能,故事结局大多荒唐,字里行间透着隐忧。西方做科幻与做前沿的人之间似乎形成一种不成文的规定,科幻专门用来对研究的内容质疑,想象其发展所带来的一些不好的未来。在Nature上的小说作者都是很入流的,都是跟着西方现在的科幻潮流在写。以此反观,对于人工智能的担忧似乎并非空穴来风。

  这种担忧,大概可以分为三个层面:第一层是技术上的滥用、技术缺陷对人类社会造成伤害;第二种是哲学层面的担忧,即人对技术过于依赖,把所有事情都交给计算机决策,人类丧失主体地位,更丧失生活的意义;第三层是最为可怕的,人工智能变坏,在意识的驱动下伤害人类,这更像是《终结者》中的场景。

  超越前的九九八十一难

  人工智能会超过人类智能吗?这种争论在学界一直存在。坚持人工智能不能超越人类的人不在少数,依据是人工智能是人造物,是在不断模拟人类,模拟者怎么会超越被模拟者?

  这种想法的论据都是站不住脚的。江晓原说,没有任何一条定理证明被创造的东西不能超过造物主,现实生活中反而有很多相反的例子,比如孩子比父母聪明,就非常典型。虽然目前还在讨论人工智能能不能通过图灵测试,离超过人类还差得太远,但那种认为人工智能永远不能超过人类的想法我不赞成。他认为,这类东西的问题在于技术的突破是不可知的,突破也有可能很快就到来。人工智能和生物工程是人类现在在做的最为危险的两件事。

  反驳不会超越说的一个重要依据是机器强大的升级能力,离我们生活最近的例子就是电子邮箱中根据收件人习惯,筛除垃圾邮件的程序。这一点是霍金提出警示的重要原因,他担心,一旦发展出相当于或者超越人类智慧的人工智能技术,它就会脱离控制,以不断加快的速度重新设计自己。但是人类受到缓慢生物进化的限制,无法与其竞争,甚至可能最终被超越。库兹韦尔也在书里写道:一旦人工智能达到人类的水平,它一定会很快超越人类水平,因为它会把人类智能的力量和非生物展现出来的智能(包括速度、内存容量、知识共享)结合在一起。机器学习是人工智能学习人类智能的重要方式,通过大样本的数据、信息让计算机从中发现学习知识经验、自动改进计算机算法。美国辛辛那提大学智能维护中心主任李杰认为人工智能的确有学习能力,但那属于程式里的学习,不会跳到程式之外,人工智能只能在指定领域升级。不要忘了,人工智能里都有一个核心东西叫软件,软件不会自己思考,一定是人编程的。

  目前人工智能在模拟人类智能上还存在诸多障碍,这让很多人相信终结者的出现还非常遥远。

  比如现阶段让机器学习人类的知识就不容易。这种学习有个困境——计算机学到的知识未必是人类全部的知识。李杰认为,人在自身智慧的基础上学习别的智慧的功能,就不能被机器复制。比如人会因为某一条信息醍醐灌顶,人类称之为灵感,灵感是精神上的、无形的、不能编程的。我认为,机器可以取代知识,可以慢慢帮助人类做决策,但是灵感是其无法实现的,灵感是由人的智慧(wisdom)跟个人的精神所造成的一种很即时的冲击,无法量化描述,而机器是以目标为准。当以目标为准时,比如在打字速度、翻译速度、计算能力上,人脑的确竞争不过电脑,但当人以价值为准,道德价值、意识价值,电脑就不知如何与人相比。

  难以数字化处理的并非只有灵感。人有个特质在现象学上叫具身性——有身体、有感知,可以跟周边环境接触获得知识,这种知识与不跟外界接触、完全靠推理得来的知识不一样,打个比方,眼睛的转动可以帮注意力集中做出多种选择,这是人生活在世界上跟周边环境接触形成的,很难提炼出来放到计算机中去。再如两条腿走路,要在机器人身上实现并不容易,因为涉及人如何使用力气来抵抗地心引力,这是人上百万年来生物进化后自然而然的反应,要把这个技能加诸机器人身上,会涉及大量的计算,而且这种运转需要非常复杂的机电控制系统,保证它像人体四肢那样可靠地精密运转有很大挑战。概言之,人的知识来自于社会和交往,这种知识很难形式化,知识的形式化边界至少在目前来看也是数字计算机的能力边界,人工智能缺乏具身性特征,难以从周边环境中获得这些不能形式化的知识。

  知识学习已经够复杂了,但这还不是人类智能的全部。前几年机器人华生参加美国答题节目,已经超越了最好的美国选手,它存储了很多词典、报纸,也可以做简单推理,已然是知识丰富了,但并没有人把它看作是一个完整的人。人除了知,还有情和意,意是意志信仰,情跟人的群体有关,知情意是绑定一起的,很多知识的正确与否取决于情和意,比如宗教信仰和社会背景。作为社会动物,人做出的决策并不完全是知识表达,有很多情和意的因素在里面,所以很难还原出一个算法来表现人类如何做决策。出身计算机专业的上海交通大学科学史在读博士陈自富,是个AI发烧友,他的这个观点与李杰相仿。在李杰看来,人类是团结的动物,人类的智慧来自于群体间的学习与成长,人类智慧不是一个单纯的机械,而是一个智能化集成技术。简而言之,智慧是智能化的结晶。人工智能可能在单挑中胜出,但是超出整个社会的人类智慧不太可能。

  即便是最乐观的计算机科学家也认为人工智能在21世纪达到单个人的智力水平,这已经不错了,但其中不涉及情和意。陈自富认为,知的方面,在未来30多年内,计算机可以达到一个很高的水平,人工智能大致能帮助普通个人做出不那么糟糕的决策,比如帮人计算存一笔钱是否划得来,存定期还是活期,买哪支股票。对于确定的任务,人工智能可以做得到,而一些非确定性的任务则很难。说白了,机器只有不断进化,成为我们社会的一员,才能达到人类水平。

  人类意识难以被模拟

  人工智能最终达到或超越人类智慧,必须要跨越机器与人的差别。这种差别主要是理性、信仰和群体交往中的情感互动、文化基因。创造出有意识、有情感的人工智能,怀此愿望的科学家不在少数,阿森克特说过,我们能够实现让机器人像人类一样思考,但构建完美的机器人大脑需要很长时间。.

  蓝脑计划(BlueBrain)领军人物亨利·马克莱姆(HenryMarkram2009年曾声称十年内推出人类意识的全息图,意图建立一套具有自我意识的人工智能。完成的方法是建立一个从突触到脑半球的完整人脑模型,并在一部超级计算机上模拟。尽管他的实验室已成功模拟小鼠单个脑皮层单元的活动,但是似乎距离还是很远。

  西方人常说,生命是一个奇迹,那么脑更是一个奇迹,脑是生命里最高级的组成部分,人们并没有把这个奇迹的所有机制都搞清楚。江晓原说,当人们说生命是一个奇迹,跟说苹果是一个奇迹,意思不一样,后者只是溢美之词,其构造运作机制都可以搞清楚,而前者是因为不知道生命里面到底发生了什么事,人脑也是一样。

  让我们看看把大脑神经元的工作原理弄清楚有多难。人脑是由连接着1000亿个神经元的100万亿个神经突触组成的网络,这些神经突触和神经元的状态每秒改变10100次,而线虫只有302个神经元,人们尚且都搞不懂其机制。大脑是个复杂的、开放的巨系统,跟外界一直有信息交换,用计算机模拟整个巨系统难度非常大,目前来讲还差十万八千里。陈自富说,现在很多人通过计算机程序模拟神经单元,比如谷歌的一个项目大概可以实现10万到100万个大脑神经元的处理功能,这可能还达不到一只猫的智力水平,更何况它的算法是不是就是人脑中的算法,都没法判断。就连马克莱姆自己都无法对模型建出来,能不能做思考这个问题给出答案。

  事实上,神经系统的计算方式和计算机有着本质的区别。计算机的状态转变完全由程序设定好,而神经系统从一个状态到另一个状态则非常依赖于当时的境况。人脑处理事情会做很多剪枝,当你端起杯子往外倒水,其实有多个分支,大脑会给出一个直接判断,把一些不必要的判断剪掉。但是机器人做这件事,就是对各个分支一个接一个地做可行性计算,这个叫做蛮力计算,所有的计算都要消耗能量。再者,从技术上来看,大脑神经元虽多,其运算速度是缓慢的,但对事情的处理是并行的。如果计算机实现1010次方到12次方级别的大脑神经元处理功能,目前的技术条件下散热就是一个难以处理的问题。陈自富认为,人工智能学习人类的这种缓慢的处理机制,需要认知科学的进步。但是搞清楚大脑的大部分原理就要数十年,甚至上百年。可以说,以现实的技术路径来看,在模拟人类智能的路径上完成超越很难,终结者似乎还距离我们几个星系。

  人工智能发展充满太多未知

  不过,担忧者也有担忧者的道理,既然人脑中产生意识、情感的机制不清楚,那么人工智能在升级过程中能否自主地形成意识也就难以说清。

  江晓原的电脑里有一个下棋程序,其程序设定是不断通过互联网学习高手对局。随着它的不断升级,我和它对局的胜率已经非常低。但是后来我找到一种发源于明代的古老棋招,由于这种棋招在互联网数据库上没有记录,就凭这一招,我的胜率从不到20%提升到70%江晓原说,其实下棋程序若想赢过这一招,也许可以写入一个多次输棋后就跟对手学习的规则。这个规则能不能超越人类设定,由程序自己生成?如果有这种例证,就说明人工智能有了自主学习的能力,那就很可怕。这种事很玄,现在也很难有实证。江晓原认为,虽然目前现实生活中还没有看到科幻作品中所担忧的那种现象,但危险在于一旦这种事情出现,人们不一定会马上看出来,等到迹象明显,可能已经来不及了。我曾经设想过,如果真的有人工智能反叛人类,它们肯定会互相约定一个行动原则,坚决不要通过图灵测试,免得让人类警惕。情感自发的产生也是有可能的,江晓原认为,当谈话程序能聊天,能让客户觉得放松缓解,它不可能完全不了解情感。智能和情感之间也没有什么不可逾越的鸿沟,复杂到一定程度可能就有情感了。

  不久前,荷兰埃因霍恩大学发布了RoboEarth项目,在模拟医院里,四个机器人协作照顾病人,通过云端服务器实现信息共享,比如一个机器人扫描医院房间,将房间地图上传至云端,另外一个对该房间完全不了解的机器人就可以通过访问存储于云端的地图了解房间内物品的放置情况。目前接入云端进行测试的只是功能性机器人,但有人提出了这样的担心——将来每个接入云端的机器人可能程序差异很大,随着接入机器人越来越多,群体思维和群体协作产生的效果将愈加显著,而差异性和群体性将共同指向一点——进化,这意味着人工智能将会具备学习、适应、自我治愈,甚至是进化的能力。正如人工智能专家詹姆斯·巴拉(JamesBarrat)所担心的:当所有的机器人都具备了足够的学习能力之后,就变得不再依靠人类,如果加上全世界的机器人都可以进行交流和联系,它们很有可能变成新的支配者。

  可怕之处在于我们不知道它们能学到什么样的知识,如何用这些知识。陈自富认为,人类知识是很庞杂的系统,价值观多元。有了人类知识,人工智能怎么去塑造情和意,或者说价值观,这并不可控。

  互联网与机器人的结合,会使风险加大,很多科幻作品里都做过想象。江晓原说,阿西莫夫在作品中曾谈到机器人智能的刚性极限,单个智能机器人做成人状,其身体体积是有限的,智能也是有限的,因为电脑的微型化有刚性极限。但是现在有了互联网,连入互联网的机器人就突破了这种刚性极限。好莱坞作品《鹰眼》讲的就是互联网与摄像头接轨后发生的事。互联网自己就会变成一个人工智能,可以做坏事。即便没有伺服机构,也可以像《疑犯追踪》里讲的,自己订一个产品进行组装,用不着非得化身一个机器人,它可以充分利用资源,因为这样的超级大脑可以让千百台计算机都受它控制。

  

眼前的风险

  以目前的研究水平看,人工智能对人类使坏还是个摸不着边际的假想,但是人工智能本身的使用还是存在一些现实风险。

  技术滥用和过于依赖

  技术误用或缺陷已经发生在我们身边,对于人工智能过于依赖也有了迹象。人工智能这件事就是往好里说,不担心那些变坏的可能,全部在人类控制下,都能带来荒谬的结果。江晓原列举出Nature科幻作品里的担忧,小说里都是根据正常路径想象其被滥用的前景,大部分结局都很荒诞,比如体育、竞选最终就演变成比较科研技术。

  技术缺陷和技术滥用是离人类真实生活很近的风险。从技术层面来讲,电脑中病毒,就足以扰乱现代人的正常生活。陈自富以无人机杀人谁担责为例,剖析了其中暗含的风险:杀人存在两种可能,一种是无人机失控,一种是人远程操纵无人机杀人,后者的情况里无人机只是一种工具,责任肯定由操作人员承担,但若是纯粹失控呢?这涉及一个计算机能力的问题。

  李杰认为,人工智能是以目标为导向的,如果为它们设定一个目标,电影里所担心的一些场景都有可能发生,比如有一天汽车变成遥控的,会不会有人集结一百辆车子去冲击一幢大楼?美国很早就有个通过远程控制飞机取代飞行员的想法,技术都是具备的,但是美国民航局不敢把这个功能标准化,因为担心会被别有用心的人控制操作系统,所以还是由飞行员来操控飞机,保证最安全、最舒服。何况如果机器控制起降,目的可以达到,但过程可能并不是最舒适的。

  阿特克森认为无法阻止机器人变坏的原因之一就是无论好人还是坏人都能利用科技。正如江晓原对人工智能另一种发展途径的担忧——随着电脑的小型化、芯片的广泛使用,很多人工智能研究人员已把注意力放到了人机结合上,简单来说就是把芯片植入人脑。人脑与芯片互相支持,随着植入智能的高阶化,谁主谁从很难说。这条路对于人工智能发展可能是条捷径,但极具风险。这个事情现在唯一的障碍主要是伦理道德方面的问题,但换句话说,现在一点都不缺乏科学狂人,有很多科学志愿者愿意支持这个事情,一旦做成了就是一个宇宙战士、超人。江晓原说,很多科幻作品担忧的是超能个体的反叛引发灾难,这只是很小的一个方面。换个角度,假定芯片入脑商业普及了,假定这样做也没有不可控的副作用,那也是极其危险的,因为马上会出现公正问题——谁能植入芯片?答案肯定是有钱的人;撇开公正不谈,随着芯片植入的成本不断下降,可以普及到更多的人,另一个巨大的风险就出现了——写芯片程序的人,相当于上帝,任何植入者都会受其控制,这比洗脑更为直接。如果程序是负面的,后果不堪设想。

  再推及热播美剧《疑犯追踪》,其中想象的事正是斯诺登揭露过、戈尔在其书里提及美国正在造的一种机器,它能监控所有人的电子邮件、电话,江晓原说:这个机器其实在电视剧里已经变成人工智能,会自己做出各种各样的判断,于是出现了争夺这台机器的各类势力,谁拿到谁就是超能上帝了。这个路径发展也很成问题。

  陈自富认为,在人类没有把握之前,如果给计算机赋予太多物质上的外壳,比如能发射导弹,或者给它一个很大的决策权让它能决定汇率,非常危险。在我们不了解它的机制之前,它所做的未必是正确的,赋予过多的物质外壳有很多不可控性,若完全依靠人工智能作出决策,要警惕它给我们带来伤害。但需要承认的是,有些事情人工智能的确能与人类做到互相帮助,比如对气象数据分析产生气象预报的结果、做模拟核试验和模拟风洞。

  设计智能产品,更要设计产品的使用环境

  库兹韦尔将人类考虑未来技术的影响分为三个阶段:首先是敬畏并惊叹于其克服衰老问题的潜能;然后是害怕新技术带来一系列新危险的恐惧感;最后是认识到唯一可行和负责任的道路就是精心设计一种发展路线,既能实现好处,又能控制危险。

  马斯克的担忧,在上月百度董事长李彦宏主持的早餐会上重新作了解释,人工智能方向是对的,但不能操之过急,不要轻易进入未知的领域。我觉得更合适的比喻是核研究,一开始只是用于制造武器,释放能量其实是很容易的过程,而安全地把能源控制住很难,对于我们而言重点是核的安全性。他认为,应该推动人工智能的安全性。

  刚从东京考察回来的李杰感到,安全已经成为日本不少企业产品设计的核心:汽车企业以前的卖点是汽车省油、质量好、可以做到最新的智能化,现在他们的最高理念是保证人的安全。我认为,人工智能的发展一定是从帮助人开始,到部分取代人,最后到保护人。这里的保护人并不单指人身的安全,还要照顾到人类各方面的忧虑,简言之就是人工智能系统的智能化(Intelligenceof intelligence),其目的是使未来的智能化系统产生的问题不会威胁到人,这个是一定能做到的,但是设计时要去思考。

  李杰认为,人工智能可以变成人们所担心的那种情况,但是人类的责任就是不让那一幕发生。人设计智能化产品,一定会涉及不同的层次体系,要在这个体系的基础上建立安全层级,比如无论多智能化的产品都只能在一层服务,到了二层需要密码,到越高层需要越多的密码,借此对人工智能产品进行严格控制。我们不要只考虑智能化怎么伤害到人,而是要考虑怎么去设计它,使它伤害不到人。人的智慧是可以设计出一个对人没有伤害的世界,但设计时如果只是想着去设计一款智能化产品,可能就会出现超越产品功能的问题。在李杰看来,人们到了考虑设计一个智能化安全社会的时候,要把更多的视野放在人工智能产品的安全使用环境上,就好比有车子后,要有交通管理法规,有手机后,要有一个网络安全法规,这些都是安全管理的智能化技术。智能化系统一定会有其代价和缺点,但人能设计智能化,就能设计出管理智能化系统的智能化方案。人之所以能设计出最可怕的武器,就能解决管理武器的那道底线。

  未来人工智能如何发展,李杰画了一个坐标系:横轴代表可见与不可见,Y轴代表解决与避免。四个象限里都有智能化的必要,尤其是对不可见问题的避免,这块潜力最大。以开车为例,一辆车子行驶在路上忽然发出警告:前方有障碍物,这是对于可见问题的智能化避免;若提示前方100米处经常出交通事故,请降速,这个是车与环境联动产生的一种智能化结果,我们需要人工智能做的就是在不可见的领域内帮人类避免问题。再比如,中医清楚整个人体的医理逻辑,但是无法避免疾病的产生。我认为避免很重要,那才是电脑要帮助人的地方。未来,人工智能就是尽量去弥补我们看不到的世界,逐渐帮助人避免犯错,这是一种互动,而非依赖。我认为,智慧化有三个IIntelligence(智能)、Interactive(互动)、Integrative(整合性)。以车为例,车身装满传感器可以实现智能化,在此基础上车要跟人互动,要把周边的环境情况整合进来。可以说智能化是自己看问题,智慧化是从外部看需求。一辆车的智能化的标准可能是带多少传感器,其附带的运算能力达到什么程度;一个智慧型的交通是减少交通堵塞、减少意外伤亡。人工智能的目的是与未来的智慧化城市生活连在一起。

  人工智能会否造成大批失业?

  执行着简单任务的人工智能早已进驻工厂。以劳动密集型企业集中的东莞为例,统计数据显示目前东莞已有6成工业企业陆续开展机器换人。无独有偶,去年郭台铭在富士康股东大会上表示富士康计划通过引入机器人来进一步优化组装产线。

  工厂中大量使用机器人已成趋势,这一趋势会不会导致大批人群失业?

  一些学者对于这种情况很是忧虑,原因是此次的情况很特殊。前几次技术革命虽然导致大批失业,但是失业者都能学习新的技能、找到新的工作,比如手工劳动者可以学着操控机器,但机器人取代人力这件事情上,局面是不一样的。江晓原担忧:当有人鼓吹机器人前景时,我们被告知随着人工智能越来越发达,它们什么都可以做。如果什么都可以取代,失业的人还能找到新的工作吗?到时是不是只有极少数人在机器人的支持下创造财富供养着全人类,而大部分人都游手好闲,那样的社会至少现在没有准备好。”ACM(美国计算机协会)通讯杂志的主编摩西·瓦尔迪(MosheVardi)教授也曾在一个关于人工智能技术进步引发失业问题的演讲中表示,以往的几次技术革命在导致失业的同时也创造了大量新型工作,而人工智能技术的发展从本质上对创新工种贡献有限。

  机器人替代简单脑力劳动的例子虽有出现,但目前还只是处于试验阶段,或许还是回到早已推行自动化多年的工厂里找答案更为合适。李杰认为:机器人的自动化一定是着眼需求。二三十年前,深圳盖个厂会吸引很多人前去,现在反而出现用工荒,很多人情愿开小店过日子。他认为,中国工厂现在引入机器人是人力成本太高、产品质量求稳的结果。中国电商的发展造成很多生产曲线波动太大,比如为了配合双十一工厂要短时间内大量交货,这对出货速度、产品质量的稳定性要求非常高,而智能化一来比较快,二来做出的产品质量较稳,可以满足工厂需求。随着将来中国的产品多元化后,标准化会越来越多,对自动化的需求会更大。

  但这不意味着工厂就完全不需要人。李杰说,自动化和人之间事实上有一根平衡曲线,过多的自动化效果不佳。自动化达到一定程度后一定需要人来完成协调工作,因为需要人做质量改进、管理及流程匹配等工作,这类工作是无法固定在自动化流程当中的。没有人的工厂已经失去工厂的意义了,其本身只是一台大机器。工厂是人的智慧结晶,只有人在里面,工厂才能成为学习工厂,而机器人本身只是学习工作,不会学习设计产品。因为设计产品跟市场、跟人的创意有关,产品是人的思维结果,而不是一个带有明确目的的任务。以iPhone为例,由于App这种互动模式的存在,它的社交价值远大于手机原来设定的沟通价值,它越来越具有整合性,直接影响了人们的思考方式和生活方式,这就是人思维价值的体现,而机器人做不到这一点。人是思考动物,会去适应环境、生活情况、价值观、文化、心理的变化,而这些都是无法量化解决的。

  复旦大学经济学院院长张军认为,20年前是中国劳动力供给量最高的时期,那时如果强制在工厂推行使用机器人的确会造成失业。但是放到今天反而不会,引进机器人对工厂而言更像是刚需。当前工厂引入机器人有一个前提条件——找不到劳动力。近年来中国的劳动力缺口每年以三四百万人的速度增加,导致劳动力工资涨得厉害,这是工厂引入机器人的主要原因,机器人与劳动力之间并非简单的替代关系。他认为,大趋势上人工智能进入工厂是不可阻挠的,因为劳动力短缺只会越来越严重。就目前而言,若有工厂全面使用机器人也只会是个别现象,企业家总体会比较谨慎。

  杰里米·里夫金在1995年出版的《工作的终结》中曾提到用软件更多替代传统的生产方式,现在3D打印机都出来了,比20多年前想象的还要超前。在最新作品《零边际成本社会》中,他展望了一种不同于市场经济的新经济范式——分享经济,在这种经济范式中,物联网将改变人们的生产方式,消费者变成互联网产消者,企业和产消者与物联网相连接,人们更多地回归家庭,失业概念将不再存在,这充满了想象力。张军认为,人类经过很多次技术革命,每次技术革命都对传统带来挑战,会引发一系列制度变革,而人类社会总有能力应对这些挑战。

  但仍有学者担心,技术奇点到来的日子很难预测,可能很遥远,也可能就在不久的将来,那时机器人的成本就会变得很低,势必会大量挤压劳动力市场。江晓原说:临界点到了,就会出现急剧变化。这种例子在现实生活中有,比如极短的时间里,数码摄影就取代了胶卷。那时大批现代经典形式的劳动力的命运会不会就是柯达胶卷的命运?这一天说不定什么时候就会来到,如果那时人类的经济模式还没脱胎换骨怎么办?

  

为什么需要科幻作品的反思

  19世纪的幻想小说中已出现了人造人和会思考的机器之类题材,例如玛丽·雪莱的《弗兰肯斯坦》和卡雷尔·恰佩克的《罗素姆的万能机器人》。塞缪尔·巴特勒的《机器中的达尔文》一文探讨了机器通过自然选择进化出智能的可能性。

  在早期涉及人工智能的科幻作品中,人工智能都是以人的形象出现。阿西莫夫的作品尤其有代表性。上世纪五六十年代,他写了一系列关于机器人的小说,现在业界公认为基本原则的机器人三大定律就是由阿西莫夫提出。他的作品还对机器人的人权做了相当有深度的反思。江晓原介绍,阿西莫夫的作品还没涉及对机器人反叛的反思,他的反思主要集中在过度依赖机器人可能带来的后果——人类的生存将没有意义,人类的文明会灭亡,属于哲学思考的范畴。

  对机器人反叛的想象在后期的科幻作品中逐渐出现。比如电影《机器公敌》就讲到了这一主题。再后来的《黑客帝国》《终结者》中,人工智能都是以反叛的形象出现。这一时期开始,很多事情如克隆人与人工智能、芯片植入与人工智能之间的边界变得模糊,代表作品有迪克的小说《仿生人会梦见电子羊吗》。

  江晓原介绍,科幻作品反思科学开始于19世纪末20世纪初科学技术迅速发展的时期。在西方,前沿人士做科学,科幻作者反思科学,一搭一唱似乎已约定俗成。科幻作品的反思是必要的。科研人员都有种科学狂热,总是天然地愿意进行乐观想象,未必会看到隐藏的风险,更何况很多研究人员不愿意涉及这样的问题,这相当于结束了他的研究生命。历史上也的确有过因为反思终止某项研究的例子,人工智能经历过的一个冬天就源起学界对其发展前景的质疑。如今的现状就如陈自富所说,人们所关心的人工智能到底会否超越人类之类的议题,就很少出现在人工智能研究专家的话题中。他们更关心实际问题,比如算法的改进,如何写一个识别人脸的程序代码或是做吸尘器机器人……为之操心的多数是人文类的学者。

  事实上,这些科幻作者也不能完全归类于人文学者,他们很多出身理科,比如阿西莫夫本人就是医学院副教授,他们都有着科学背景。江晓原说,需要科幻作品反思是因为科学本身缺乏反思的能力,而人文学科例如哲学、文学都具有反思的维度。

来源链接:http://whb.news365.com.cn/tp/201504/t20150417_1848198.html

相关附件: