专栏:是天使还是灭霸?关于人工智能的迷思。-漫话钢铁-上海振帝实业有限公司
当前位置:首页>>钢材知识>>漫话钢铁

专栏:是天使还是灭霸?关于人工智能的迷思。

浏览次数:11 标签:    


前段时间专门撰文介绍了5G的来龙去脉,今天让我们一起,来了解一下诞生于1950年代的“人工智能”。


如果你希望能对人工智能有一定程度理解的话,请耐心看完本文。


1


2001年,好莱坞电影《人工智能》公映。

人工智能的电影海报(图片源自网络)


1982年,电影大师斯坦利·库布里克买下了《人工智能》的拍摄权,到1993年,斯蒂芬·斯皮尔伯格导演的《侏罗纪公园》的成功,促使库布里克根据1969年布莱恩·阿尔迪斯(Brian Aldiss)的短篇故事《Super-Toys Last All Summer Long》改编了剧本,并与斯皮尔伯格探讨了剧本,委托工业光魔公司设计特效。


1999年,库布里克意外辞世,斯皮尔伯格于2000年初宣布了自己的拍摄计划,并于2001年将亡友的这部未竟之作搬上银幕。影片中应用了当时最新的“实时3D电脑游戏引擎”系统和“On-Set Visualization”技术。


剧情概要:


《人工智能》讲述了21世纪中期,由于温室效应,南北极冰川融化,地球上很多城市被淹没。此时,人类科技已经高度发达,人工智能机器人就是人类发明出来用以应对恶劣自然环境的科技手段之一,而且,机器人制造技术已经高度发达,先进的机器人不但拥有可以乱真的人类外表,还能感知自身的存在。


女主莫妮卡的儿子马丁重病住院,生命危在旦夕,为了缓解伤痛的心情,她领养了机器人小孩大卫,大卫的生存使命就是爱她。随着马丁苏醒,恢复健康,回到了家里,一系列的事情使大卫“失宠”,最后被莫妮卡抛弃。


为了回到自己认定的母亲莫妮卡身边,大卫与一起被扔掉的机器玩具熊泰迪一起踏上了旅程,旅途中结识了逃亡中的牛郎机器人乔。之前也从莫妮卡讲的故事中得知了木偶奇遇记中蓝仙女的传说,大卫认为蓝仙女会帮助他实现愿望──变成真正的小男孩,这样母亲就能爱他了,因此大卫改踏上了寻找蓝仙女的旅程。之后大卫随乔到达了制作大卫的公司,大卫看到很多与自己完全一样的“大卫”机器人,他无法忍受,因为他认为莫妮卡只属于他一个人,于是跳海自杀。于后被乔救起,但乔之后被警察抓走。大卫一个人乘潜水艇在海中发现了被海水淹没的一座乐园,里头矗立着一尊蓝仙女的雕像,大卫认为自己找到了,便拼命的向其请求自己想变成真正的小男孩的愿望。


大卫在潜水艇中一直请求蓝仙女,直到大卫身体的能源用完,海水也被冰冻起来。时间又经过了2000年,人类已经灭亡,地球被厚实的冰层覆盖,成为一片荒芜的冰冷世界。世界上只剩下进化的人工智能机器人,他们意外找到在海中机能停止的大卫。


他们重新启动了大卫,并希望大卫快乐,所以决定满足大卫的心愿,利用DNA再生出同一个莫妮卡(母亲)。但再生人只能存活一天,一旦再次入眠后便不会再醒来,所以大卫与莫妮卡度过了一生中最开心的一天,实现他的愿望,在母亲的怀抱中,微笑地进入梦乡。


2


当然,今天文章的主题,并非当年的好莱坞电影,而是作为第四次工业革命标志之一的人工智能。


人工智能(Artificial Intelligence,缩写为AI),亦称机器智能,指由人制造出来的机器所表现出来的智能。通常,人工智能是指通过普通计算机程序来呈现人类智能的技术;该词也指研究这样的智能系统是否能够实现,以及如何实现的一系列活动。


一般教材中,人工智能的定义领域是“智能主体(intelligent agent)的研究与设计”,智能主体指一个可以观察周遭环境并作出行动,以达致目标的系统。


约翰·麦卡锡(John McCarthy)于1955年给出的定义是“制造智能机器的科学与工程”。


安德里亚斯·卡普兰(Andreas Kaplan)和迈克尔·海恩莱因(Michael Haenlein)将人工智能定义为“系统正确解释外部数据,从这些数据中学习,并利用这些知识通过灵活适应实现特定目标和任务的能力”。


人工智能的研究是高度技术性和专业的,各分支领域都是深入且各不相通的,因而涉及范围极广。人工智能(AI)的研究可以分为几个技术问题。其分支领域主要集中在解决具体问题,其中之一是,如何使用各种不同的工具完成特定的应用程序。


人工智能的核心问题包括:建构能够跟人类似甚至超越的推理、知识、规划、学习、交流、感知、移动和操作物体的能力等。


人工智能当前仍然是该领域的长远目标。当前强人工智能已经有初步成果,甚至在一些影像识别、语言分析、棋类游戏等等单方面的能力达到了超越人类的水平。


而且人工智能的通用性代表着,能解决上述问题的,是使用了同样的AI程序,无须重新开发算法就可以直接使用现有的AI程序完成任务,这与人类的处理能力相同,但达到具备思考能力的统合强人工智能还需要时间研究。比较流行的方法包括统计方法,计算智能和传统意义的人工智能。


当前有大量的工具应用了人工智能,其中包括搜索和数学优化、逻辑推演。而基于仿生学、认知心理学,以及基于概率论和经济学的算法等也在逐步探索中。


思维来源于大脑,而思维控制行为,行为需要意志去实现,而思维又是对所有数据采集的整理,相当于数据库,所以人工智能最后会演变为机器替换人类。


3


概论


人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”即由人设计,为人创造、制造。


关于什么是“智能”,较有争议性。这涉及到其它诸如意识(consciousness)、自我(self)、心灵(mind),包括无意识的精神(unconscious mind)等等问题。


人唯一了解的智能是人本身的智能,这是普遍认同的观点。但是我们对我们自身智能的理解其实都非常有限,对构成人的智能必要元素的了解也很有限,所以就很难定义什么是“人工”制造的“智能”了。


因此人工智能的研究往往涉及对人智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。


人工智能当前在计算机领域内,得到了愈加广泛的发挥。并在机器人、经济政治决策、控制系统、仿真系统中得到应用。


4

人工智能的发展史


5


研究课题


当前人工智能的研究方向已经被分成几个子领域,研究人员希望一个人工智能系统应该具有某些特定能力,以下将这些能力列出并说明。


演绎、推理和解决问题

早期的人工智能研究人员直接模仿人类进行逐步的推理,就像是玩棋盘游戏或进行逻辑推理时人类的思考模式。


到了1980和1990年代,利用概率和经济学上的概念,人工智能研究还发展了非常成功的方法处理不确定或不完整的资讯。


对于困难的问题,有可能需要大量的运算资源,也就是发生了“可能性组合爆增”:当问题超过一定的规模时,计算机会需要天文数量级的存储器或是运算时间。寻找更有效的算法是优先的人工智能研究项目。


人类解决问题的模式通常是用最快捷、直观的判断,而不是有意识的、一步一步的推导,早期人工智能研究通常使用逐步推导的方式。人工智能研究已经于这种“次表征性的”解决问题方法获取进展:实体化Agent研究强调感知运动的重要性。神经网络研究试图以模拟人类和动物的大脑结构重现这种技能。


知识表示法

知识表示是人工智能领域的核心研究问题之一,它的目标是让机器存储相应的知识,并且能够按照某种规则推理演绎得到新的知识。有许多需要解决的问题需要大量的对世界的知识,这些知识包括事先存储的先验知识和通过智能推理得到的知识。


事先存储的先验知识指:人类通过某种方式告诉给机器的知识。

通过智能推理得到的知识指:结合先验知识和某种特定的推理规则(逻辑推理)得到的知识。


首先,先验知识可以指描述目标,特征,种类及对象之间的关系的知识,也可以描述事件,时间,状态,原因和结果,以及任何知识你想要机器存储的。比如:今天没有太阳,没有太阳就是阴天。那么以命题逻辑语言,这些知识可以被表示为:今天→没有太阳, 没有太阳→阴天。这些知识是先验知识,那么通过推理可以得到新知识:今天→阴天。由此例子可以看出,先验知识的正确性非常重要,这个例子中没有太阳就是阴天,这个命题是不严谨的、比较笼统的,因为没有太阳可能是下雨,也可能下雪。


逻辑命题表示在知识表示中非常重要,逻辑推理规则是当前主要推理规则。可以在机器中用逻辑符号定义每一个逻辑命题,然后再让机器存储相应的逻辑推理规则,那么自然而然机器便可进行推理。


当前知识表达有许多困境尚无法解决,比如:创建一个完备的知识库几乎不可能,所以知识库的资源受到限制;先验知识的正确性需要进行检验,而且先验知识有时候不一定是只有对或者错两种选择。

本体论将知识表示为一个领域内的一组概念以及这些概念之间的关系(图片来自维基百科)


规划

智能主体必须能够制定目标和实现这些目标。他们需要一种方法来创建一个可预测的世界模型(将整个世界状态用数学模型表现出来,并能预测它们的行为将如何改变这个世界),这样就可以选择功效最大的行为。


在传统的规划问题中,智能主体被假定它是世界中唯一具有影响力的,所以它要做出什么行为是已经确定的。但是,如果事实并非如此,它必须定期检查世界模型的状态是否和自己的预测相匹配。


如果不匹配,它必须改变它的计划。因此智能代理必须具有在不确定结果的状态下推理的能力。在多智能主体中,多个智能主体规划以合作和竞争的方式去完成一定的目标,使用演化算法和群体智能可以达成一个整体的突现行为目标。


机器学习

机器学习的主要目的是为了让机器从用户和输入数据等处获得知识,从而让机器自动地去判断和输出相应的结果。这一方法可以帮助解决更多问题、减少错误,提高解决问题的效率。


对于人工智能来说,机器学习从一开始就很重要。1956年,在最初的达特茅斯夏季会议上,雷蒙德·索洛莫诺夫(Ray Solomonoff)写了一篇关于非监督的概率性机器学习:一台归纳推理机。


机器学习的方法各种各样,主要分为监督学习和非监督学习两大类。


监督学习:指事先给定机器一些训练样本并且告诉样本的类别,然后根据这些样本的类别进行训练,提取出这些样本的共同属性或者训练一个分类器,等新来一个样本,则通过训练得到的共同属性或者分类器进行判断该样本的类别。监督学习根据输出结果的离散性和连续性,分为分类和回归两类。


非监督学习:是不给定训练样本,直接给定一些样本和一些规则,让机器自动根据一些规则进行分类。无论哪种学习方法都会进行误差分析,从而知道所提的方法在理论上是否误差有上限。


自然语言处理

自然语言处理探讨如何处理及运用自然语言,自然语言认知则是指让计算机“懂”人类的语言。自然语言生成系统把计算机数据转化为自然语言。自然语言理解系统把自然语言转化为计算机程序更易于处理的形式。


运动和控制

机器感知是指能够使用感测器所输入的数据(如照相机、麦克风、声纳以及其他的特殊感测器)然后推断世界的状态。计算机视觉能够分析影像输入。另外还有语音识别、人脸识别和物体识别。


社交

情感和社交技能对于一个智能主体是很重要的。首先,通过了解他们的动机和情感状态,代理人能够预测别人的行动(这涉及要素博弈论、决策理论以及能够塑造人的情感和情绪感知能力检测)。此外,为了良好的人机交互,智能代理人也需要表现出情绪来。至少它必须出现礼貌地和人类打交道。至少,它本身应该有正常的情绪。

Kismet,一个具有表情等社交能力的机器人


创造力

一个人工智能的子领域,代表了理论(从哲学和心理学的角度)和实际(通过特定的实现产生的系统的输出是可以考虑的创意,或系统识别和评估创造力)所定义的创造力。相关领域研究的包括了人工直觉和人工想像。


伦理管理

史蒂芬·霍金、比尔·盖茨、马斯克(Elon Musk)、Jaan Tallinn以及Nick Bostrom等人都对于人工智能技术的未来公开表示忧心,人工智能若在许多方面超越人类智能水平的智能、不断更新、自我提升,进而获取控制管理权,人类是否有足够的能力及时停止人工智能领域的“军备竞赛”,能否保有最高掌控权?现有事实是:机器常失控导致人员伤亡,这样的情况是否会更加扩大规模出现,历史显然无法给出可靠的乐观答案。


马斯克在麻省理工学院(MIT)航空航天部门百年纪念研讨会上称人工智能是“召唤恶魔”行为,英国发明家Clive Sinclair认为,一旦开始制造抵抗人类和超越人类的智能机器,人类可能很难生存,盖茨同意马斯克和其它人所言,且不知道为何有些人不担忧这个问题。


DeepMind的人工智能(AI)系统在2016年“AlphaGo”对战韩国棋王李世乭获胜,开发商表示在内部设立伦理委员会,针对人工智能的应用制定政策,防范人工智能沦为犯罪开发者。


随着科技进步,人工智能科技产生“自主武器”军备竞赛已悄悄展开,英国、以色列与挪威,都已部署自主导弹与无人操控的无人机,具有“射后不理”(fire-and-forget)能力的导弹,多枚导弹还可互相沟通,分享找到攻击目标。目前,这些武器还未被大量投入,但很快就会出现在战场上,且并非使用人类所设计的程序,而是完全利用机器自行决策。


霍金等人在英国独立报发表文章,警告未来人工智能可能会比人类金融市场、科学家、人类领袖更能操纵人心、甚至研发出人们无法理解的武器。专家恐发展到无法控制的局面,援引联合国禁止研发某些特定武器的“特定常规武器公约”加以限制。新南威尔士大学(New South Wales)人工智能的沃尔什(Toby Walsh)教授认为这是一种欺骗,因为机器无区别战敌和平民的技术。


经济冲击

CNN财经网数字媒体未来学家兼Webbmedia集团创始人艾米·韦伯(Amy Webb);美国在线等纷纷预测一些即将被机器人取代的职业,日本野村总合研究所也与英国牛津大学的研究学者共同调查指出,10至20年后,日本有49%的职业(235种职业)可能会被机械和人工智能取代而消失,直接影响约达2500万人。


例如:超市店员、一般事务员、计程车司机、收费站运营商和收银员、市场营销人员、客服人员、制造业工人、金融中间人和分析师、新闻记者、电话公司职员、麻醉师、士兵和保安、律师、医生、软件开发者和操盘手、股票交易员等等高薪酬的脑力职业将最先受到冲击。


2017年6月份马云在美国底特律举行“链接世界”(Gateway 17)产业大会上提出,人工智能可能导致第三次世界大战。


因为前两次产业革命都导致两次大战,战争原因并非这些创新发明本身,而是发明对社会上许多人的生活方式冲击处理不当,新科技在社会上产生新工作也取代旧工作,产生了新的输家和赢家,若是输家的人数太多将造成一股社会不稳的能量而这股能量被有心人利用可能导致各种事件。


他认为各国应该强制制定规定:人工智能机器只能用于人类不能做的工作,避免短时间大量人类被取代的失业大潮,但马云没有提出这种世界性规定将如何实现并确保遵守的细节方案。


数据科学和人工能被哈佛商业评论称为《二十一世纪最Sexy的职业》,人工智能需求量大,鼓励了不少大学诸如伯克利大学专门成立数据科学系。2014年,著名的《数据孵化器(The Data Incubator)》公司成立于纽约,主要提供数据科学培训服务,涉及的服务内容包括数据科学,大数据,和人工智能的企业培训。


5


强人工智能和弱人工智能

人工智能的一个比较流行的定义,也是该领域较早的定义,是由当时麻省理工学院的约翰·麦卡锡(John McCarthy)在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性。


另一个定义指人工智能是人造机器所表现出来的智能。


总体来讲,当前对人工智能的定义大多可划分为四类,即机器“像(like)人一样思考”、“像人一样行动”、“理性地思考”和“理性地行动”。这里“行动”应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。


强人工智能

强人工智能观点认为“有可能”制造出“真正”能推理(Reasoning)和解决问题的智能机器,并且,这样的机器将被认为是具有知觉、有自我意识的。


强人工智能可以有两类:

  • 人类的人工智能,即机器的思考和推理就像人的思维一样。

  • 非人类的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。


弱人工智能

弱人工智能观点认为,“不可能”制造出能“真正”地推理和解决问题的智能机器,这些机器只不过“看起来”像是智能的,但是并不真正拥有智能,也不会有自主意识。


弱人工智能是对比强人工智能才出现的,因为人工智能的研究一度处于停滞不前的状态下,直到类神经网络有了强大的运算能力加以模拟后,才开始改变并大幅超前。但人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解强人工智能和弱人工智能的内容与差别,因此对定义争论不休。


就当下的人工智能研究领域来看,研究者已大量造出“看起来”像是智能的机器,获取相当丰硕的理论上和实质上的成果。


如2009年康乃尔大学教授Hod Lipson和其博士研究生Michael Schmidt 研发出的Eureqa计算机程序,只要给予一些数据,这计算机程序自己只用几十个小时计算就推论出牛顿花费多年研究才发现的牛顿力学公式,等于只用几十个小时就自己重新发现牛顿力学公式,这计算机程序也能用来研究很多其他领域的科学问题上。


这些所谓的弱人工智能在神经网络发展下已经有巨大进步,但对于要如何集成成强人工智能,现在还没有明确定论。


对强人工智能的哲学争论


“强人工智能”一词最初是约翰·罗杰斯·希尔勒(John Rogers Searle)针对计算机和其它信息处理机器创造的,其定义为:“强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”(J Searle in Minds Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980)


关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?


希尔勒认为,这是不可能的。他用中文房间(Chinese room)的实验来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么,在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有自我思维和自由意识。


中文房间的实验过程可表述如下:


一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的汉语讯息及如何以汉语相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,查找到合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。


约翰·希尔勒认为,尽管房里的人可以以假乱真,让房外的人以为他确确实实说汉语,他却压根不懂汉语。在上述过程中,房外人的角色相当于程序员,房中人相当于计算机,而手册则相当于计算机程序:每当房外人给出一个输入,房内的人便依照手册给出一个答复(输出)。而正如房中人不可能通过手册理解中文一样,计算机也不可能通过程序来获得理解力。既然计算机没有理解能力,所谓“计算机于是便有智能”便更无从谈起了。


也有哲学家对此持不同的观点。丹尼尔·丹尼特在其著作《意识的解释(Consciousness Explained)》里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。


“所有人都认为,人是拥有智能的,而人的智能决策来自于脑细胞的电信号转换,每一个脑细胞并不理解单词的意义,只是简单的缓冲、传递或抑制一个电信号,脑细胞创造了语法规则,创造了决策策略(相当于规则书与不懂中文的人),但是它们并不懂每个单词的意义。而人类却显示出与人沟通的能力。如果按照希尔勒的观点,那么人类也不存在认知能力,但这与事实是不符的。所以依然可以认为若某段计算机程序,能够完成图灵测试,则说明该段计算机程序具有认知能力”。


然而,此一观点也被提出存在两项根源性谬误,以至甚至被认为错误理解“中文房间”概念。


其一为此论过于倚赖“智能决策来自于脑细胞的电信号转换”此一前题,并将人类作出智能决策时,涉及脑细胞电信号转换的现象,错误地演绎为“智能决策‘唯独’由脑细胞的电信号转换‘所产生’”。

此演绎不但从未被证明过,也无足够证据支持。


其次,此说只能推导出“单独一个脑细胞的缓冲、传递或抑制一个电信号,不能使其理解单词的意义”而已,至于脑细胞(集体)如何创造语法规则、决策策略,是否单纯倚靠个别脑细胞的缓冲、传递或抑制电信号等等,并未作出任何合理推论;

同时也忽略了“单独一个脑细胞”与一个拥有智能的人类之间,后者包涵前者、前者与众多他者组成后者等复杂关系,便直接将“单独一个脑细胞不理解单词的意义而人类拥有智能”此一现实,用作否定“机器不能透过程序获得理解能力”与及“智能直接关系于理解能力”的根据,其逻辑难以明白,推演也过于草率。


有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。


比如西蒙·布莱克本(Simon Blackburn)在其哲学入门教材《Think》里说到:一个人的看起来是“智能”的行动,并不能真正说明这个人就真的是智能的。我永远不可能知道,另一个人是否真的像我一样是智能的,还是说她/他仅仅是“看起来”是智能的。


基于这个论点,既然弱人工智能认为可以令机器“看起来”像是智能的,那就不能完全否定这机器是真的有智能的。布莱克本认为这是一个主观认定的问题。


需要指出的是,弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,像算术运算等,在一百多年前是被认为很需要智能的。


并且,即使强人工智能被证明为可能的,也不代表强人工智能必定能被研制出来。


6


研究方法

当前没有统一的原理或范式指导人工智能研究。在许多问题上,研究者都存在争论。


其中几个长久以来仍没有结论的问题是:是否应从心理或神经方面模拟人工智能?或者像鸟类生物学对于航空工程一样,人类生物学对于人工智能研究是没有关系的?智能行为能否用简单的原则(如逻辑或优化)来描述?还是必须解决大量完全无关的问题?


智能是否可以使用高级符号表达,如词和想法?还是需要“子符号”的处理?约翰·豪格兰德(John Haugeland)提出了GOFAI(Good Old-Fashioned Artificial Intelligence,有效的老式人工智能)的概念,也提议人工智能应归类为综合智能(synthetic intelligence),这个概念后来被某些非GOFAI研究者采纳。


控制论与大脑模拟

20世纪40年代到50年代,许多研究者探索神经学、信息理论及控制论之间的联系。其中还造出一些使用电子网络构造的初步智能,如格雷·华特(W. Grey Walter)的乌龟(turtle)和约翰霍普金斯野兽(Johns Hopkins Beast)。


这些研究者还经常在普林斯顿大学和英国的Ratio Club举行技术协会会议。[41]直到1960,大部分人已经放弃这个方法,尽管在80年代再次提出这些原理。


符号处理

当20世纪50年代,数字计算机研制成功,研究者开始探索人类智能是否能简化成符号处理。研究主要集中在卡内基梅隆大学,斯坦福大学和麻省理工学院,而各自有独立的研究风格。约翰·豪格兰德(John Haugeland)称这些方法为GOFAI(有效的老式人工智能)。1960年代,符号方法在小型证明程序上模拟高级思考有很大的成就。基于控制论或神经网络的方法则置于次要。1960-1970年代的研究者确信符号方法最终可以成功创造强人工智能的机器,同时这也是他们的目标。


  • 认知模拟

经济学家赫伯特·西蒙(Herbert Alexander Simon)和艾伦·纽厄尔(Allen Newell)研究人类问题解决能力和尝试将其形式化,同时他们为人工智能的基本原理打下基础,如认知科学、运筹学和经营科学。他们的研究团队使用心理学实验的结果开发模拟人类解决问题方法的程序。这方法一直在卡内基梅隆大学沿袭下来,并在1980年代于Soar发展到高峰。


  • 基于逻辑

不像艾伦·纽厄尔和赫伯特·西蒙,约翰·麦卡锡(John McCarthy)认为机器不需要模拟人类的思想,而应尝试找到抽象推理和解决问题的本质,不管人们是否使用同样的算法。他在斯坦福大学的实验室致力于使用形式化逻辑解决多种问题,包括知识表示,智能规划和机器学习。致力于逻辑方法的还有爱丁堡大学,而促成欧洲的其他地方开发编程语言Prolog和逻辑编程科学。


  • “反逻辑”

斯坦福大学的研究者,如马文·闵斯基(Marvin Lee Minsky)和西摩尔·派普特(Seymour Aubrey Papert)发现要解决计算机视觉和自然语言处理的困难问题,需要专门的方案:他们主张不存在简单和通用原理(如逻辑)能够达到所有的智能行为。罗杰·单克(Roger Schank)描述他们的“反逻辑”方法为“芜杂派(scruffy)”。


常识知识库(如道格拉斯·莱纳特的Cyc)就是“scruffy”AI的例子,因为他们必须人工一次编写一个复杂的概念。


  • 基于知识

大约在1970年出现大容量内存计算机,研究者分别以三个方法开始把知识构造成应用软件。这场“知识革命”促成专家系统的开发与计划,这是第一个成功的人工智能软件形式。“知识革命”同时让人们意识到,许多简单的人工智能软件可能需要大量的知识。


子符号方法

1980年代,符号人工智能停滞不前,很多人认为符号系统永远不可能模仿人类所有的认知过程,特别是感知、机器人、机器学习和模式识别。很多研究者开始关注子符号方法解决特定的人工智能问题。


  • 自下而上、接口主体、嵌入环境(机器人)、行为主义、新式AI

机器人领域相关的研究者,如罗德尼·布鲁克斯(Rodney Brooks),否定符号人工智能而专注于机器人移动和求生等基本的工程问题。他们的工作再次关注早期控制论研究者的观点,同时提出了在人工智能中使用控制理论。这与认知科学领域中的表征感知论点是一致的:更高的智能需要个体的表征(如移动,感知和形象)。


  • 计算智能

1980年代中大卫·鲁姆哈特(David E. Rumelhart)等再次提出神经网络和联结主义。这和其他的子符号方法,如模糊控制和进化计算,都属于计算智能学科研究范畴。


  • 统计学方法

1990年代,人工智能研究发展出复杂的数学工具来解决特定的分支问题。这些工具是真正的科学方法,即这些方法的结果是可测量的和可验证的,同时也是近期人工智能成功的原因。共享的数学语言也允许已有学科的合作(如数学,经济或运筹学)。


Stuart J. Russell和Peter Norvig指出,这些进步不亚于“革命”和“简约派(neats)的成功”。有人批评这些技术太专注于特定的问题,而没有考虑长远的强人工智能目标。


集成方法


  • 智能主体范式

智能主体是一个会感知环境并作出行动以达致目标的系统。最简单的智能主体是那些可以解决特定问题的程序。更复杂的主体包括人类和人类组织(如公司)。


这些范式可以让研究者研究单独的问题和找出有用且可验证的方案,而不需考虑单一的方法。一个解决特定问题的主体可以使用任何可行的方法,一些主体用符号方法和逻辑方法,一些则是子符号神经网络或其他新的方法。范式同时也给研究者提供一个与其他领域沟通的共同语言,如决策论和经济学,也使用抽象主体(abstract agents)的概念。1990年代,智能主体范式被广泛接受。


  • 主体体系结构和认知体系结构:

研究者设计出一些系统,来处理多主体系统中智能主体之间的相互作用。一个系统中包含符号和子符号部分的系统,称为混合智能系统,而对这种系统的研究则是人工智能系统集成。分级控制系统则给反应级别的子符号AI和最高级别的传统符号AI提供桥梁,同时放宽了规划和世界建模的时间。


7


人工智能的实际应用包括:

机器视觉、指纹识别、人脸识别、视网膜识别、虹膜识别、掌纹识别、专家系统、自动规划等。


人工智能的应用领域包括:

智能控制,机器人学,自动化技术,语言和图像理解,遗传编程,法学信息系统,下棋,医学领域。


人工智能是一门边缘学科,属于自然科学和社会科学的交叉。


人工智能的学科范畴包括:

认知科学,数学及统计学,物理学,逻辑学,控制论及决定论,社会学,犯罪学及智能犯罪学。


人工智能的研究范畴包括:

自然语言处理(NLP; Natural Language Processing)

知识表现(Knowledge Representation)

智能搜索(Intelligent Search)

推理(Reasoning)

规划(Planning)

机器学习(Machine Learning)

增强式学习(Reinforcement Learning)

知识获取(Knowledge acquisition)

感知问题(Perception Problems)

模式识别(Pattern Recognition)

逻辑程序设计(Logic Programming)

软计算(Soft Computing)

不精确和不确定的管理(Imprecision and Uncertainty Management)

人工生命(Artificial Life)

人工神经网络(Artificial Neural Network)

复杂系统(Complex System)

遗传算法(Genetic Algorithm(GA))

数据挖掘(Data Mining)

模糊控制(Fuzzy Control)。


8


1997年5月11日,深蓝成为战胜国际象棋世界冠军卡斯帕罗夫的第一个计算机系统。


2005年,Stanford开发的一台机器人在一条沙漠小径上成功地自动行驶了131英里,赢得了DARPA挑战大赛头奖。


2009年,蓝脑计划声称已经成功地模拟了部分鼠脑。


2011年,IBM沃森参加《危险边缘》节目,在最后一集打败了人类选手。


2016年3月,AlphaGo击败李世石,成为第一个不让子而击败职业围棋棋士的电脑围棋程式。


2017年5月,AlphaGo在中国乌镇围棋峰会的三局比赛中击败当时世界排名第一的中国棋手柯洁。


这些成就的取得并不是因为范式上的革命。它们仍然是工程技术的复杂应用,但是计算机性能已经今非昔比了。事实上,深蓝计算机比克里斯多福·斯特雷奇(Christopher Strachey)在1951年用来下棋的Ferranti Mark 1快一千万倍。这种剧烈增长可以用摩尔定律描述:计算速度和内存容量每两年翻一番。计算性能上的基础性障碍已被逐渐克服。


现在,最先进的神经网络结构在某些领域已经能够达到甚至超过人类平均准确率,例如在计算机视觉领域,特别是一些具体的任务上,比如MNIST数据集(一个手写数字识别数据集)、交通信号灯识别等。再如游戏领域,Google的deepmind团队研发的AlaphaGo,在问题搜索复杂度极高的围棋上,已经打遍天下无敌手。


那么,人工智能的未来会如何发展?


牛津大学人类未来研究院的院长,哲学家和超人类主义学家尼克‧波斯特洛姆所预言的超级智能会被人类创造出来吗?


史蒂芬·霍金、比尔·盖茨、马斯克等人的担忧会变成事实吗?


人工智能是天使还是灭霸?人工智能真的会成为压垮人类的最后一根稻草吗?


谁也无法预知。


正如美国哲学家、作家及认知科学家Daniel C. Dennett教授在《人工智能会有意识吗?问题问错了》一文中所陈述的那样:“.......所以我们在创造的(人工智能)并不是——也不应该是——有意识的类人主体,而是一种全新的存在。或许它们更像圣人,没有良心,不惧死亡,不受爱与恨干扰,没有性格(但是各种各样的弱点和怪癖无疑将被认作该系统的“个性”):真理的盒子里(如果我们足够幸运)几乎总是散落着各种错误。


与人工智能一起生活,我们很难不去分心想象它们会以何种奇特的方式奴役(字面意义上的)我们。人对人的用处很快将被再一次永久的改变,但我们可以把握这个改变的方向;如果我们对人类前进的道路负起责任,就能避开危险。”



相关知识

关于镀锌起白锈(俗称返碱)

...

浏览次数:932

【漫话钢铁圈】这年头,有货才能装逼~

2016年热卷价格走势漫画版权归属“喃东尼”,已授权。...

浏览次数:982

【热点回顾】高手总是一阵见血~

前段时间高锰毒电水壶的帖子挺火的于是办公室里发生了这么一段对话真正的高手总是一针见血2001年12月···...

浏览次数:966

蘸着“美队3”这盘酱料,聊聊质量异议中的PK~

导读:近期的大片非【美国队长3】莫属了,柴哥看完后第一感觉就是:这不就是超级英雄版的质量异议处理PK···...

浏览次数:954

友谊的小船说翻就翻(钢铁侠版)

如果你的朋友圈有"钢铁侠"友谊的小船可能这么翻掉了...

浏览次数:964