人工智能

在计算机科学中,人工智能(ai)有时被称为机器智能,是机器所展示的智能,与人类和动物所展示的自然智能不同。计算机科学将人工智能研究定义为对“智能代理”的研究:任何感知环境并采取最大化成功实现目标机会的行动的设备。通俗地说,“人工智能”一词用于描述模拟人类与其他人类关联的“认知”功能的机器。思想,如“学习”和“解决问题”。

随着机器能力的日益增强,被认为需要“智能”的任务常常被从人工智能的定义中删除,这种现象被称为人工智能效应。特斯勒定理中的一句妙语是:“人工智能是任何尚未完成的工作。” 例如,光学字符识别经常被排除在人工智能之外,成为一种常规技术,现代机器能力通常被归类为人工智能,包括成功理解人类语言,在最高层次上竞争。在战略游戏系统(如国际象棋和围棋)、自动操作汽车、内容交付网络中的智能路由和军事模拟中。

人工智能可以分为三种不同类型的系统:分析型人工智能、启发型人工智能和人性化人工智能。

分析型人工智能与认知智能一致的特征;生成世界的认知表征,并利用基于过去经验的学习来通知未来决策。受人类启发的人工智能具有来自认知和情感智能的元素;除了认知元素之外,还了解人类的情感,并在决策时考虑它们。人性化的人工智能显示出各种能力的特征(即认知、情感和社会智力),能够自我意识,并且在与他人的互动中具有自我意识。

人工智能于1956年作为一门学术学科成立,此后的几年里,经历了几次乐观的浪潮,接着是失望和资金损失(被称为“人工智能冬天”),接着是新的方法、成功和新的资金投入,在其历史的大部分时间里,人工智能研究被划分为对于经常无法相互沟通的子领域,这些子领域基于技术考虑,例如特定目标(例如“机器人”或“机器学习”),使用特定工具(“逻辑”或人工神经网络),或深刻的哲学差异。

人工智能研究的传统问题(或目标)包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵物体的能力一般智能是该领域的长期目标之一,方法包括统计方法、计算智能和Tradit。象征性的人工智能。人工智能中使用了许多工具,包括搜索和数学优化版本、人工神经网络以及基于统计、概率和经济学的方法。人工智能领域涉及计算机科学、信息工程、数学、心理学、语言学、哲学等许多领域。

这个领域建立在这样一个主张上,即人类的智能“可以被如此精确地描述,以至于可以制造出一台机器来模拟它”。这提出了关于精神的本质和创造具有类人智能的人造人的伦理的哲学论据,这是神话、小说和哲学所探讨的问题。自远古以来,我就很自以为是。一些人还认为,如果人工智能的发展不减,它对人类是一种危险。其他人认为,人工智能不同于以往的技术革命,会造成大量失业的风险。

二十一世纪,随着云计算、大数据和理论理解的同步发展,人工智能技术经历了复兴;人工智能技术已成为技术产业的重要组成部分,有助于解决计算机科学、软件工程和操作学中许多具有挑战性的问题。

缘起

有思想能力的人造人在古代被视为讲故事的工具,在小说中很常见,如玛丽·雪莱的《弗兰肯斯坦》或卡雷尔·阿佩克的《R.U.R》(罗森的《通用机器人》)。这些人物及其命运引发了许多与《人工智能伦理学》中讨论的问题相同的问题。

对机械或“形式”推理的研究始于古代的哲学家和数学家。对数学逻辑的研究直接导致了阿兰·图灵的计算理论,该理论认为,一台机器,通过改变简单的符号“0”和“1”,可以模拟任何可能的数学推导行为。这种数字计算机可以模拟任何形式推理过程的见解被称为丘奇-图灵理论,伴随着神经生物学、信息理论和控制论的同时发现,这使得研究人员考虑了构建电子大脑的可能性。图灵提出,“如果人类不能区分机器和人类的反应,那么机器可以被认为是“智能的”。第一个被公认为人工智能的工作是麦卡卢奇和皮特1943年为图灵完整的“人工神经元”的正式设计。

人工智能研究领域于1956年诞生于达特茅斯学院的一个研讨会上。与会者艾伦·纽厄尔(CMU)、赫伯特·西蒙(CMU)、约翰·麦卡锡(MIT)、马文·明斯基(MIT)和亚瑟·塞缪尔(IBM)成为人工智能研究的创始人和领导者。他们和他们的学生制作了被媒体称为“惊人”的程序。在学习跳棋策略(约1954年)时(据报道,到1959年,跳棋的效果比普通人好),在代数中解决单词问题,证明逻辑定理(逻辑理论家,首次运行于1956年),讲英语到60年代中期,美国的研究得到了国防部和洛杉矶大学的大力资助。实验室已经在世界各地建立起来了,人工智能的创立者们对未来持乐观态度:赫伯特·西蒙预言,“机器在20年内将能够做任何人类能做的工作”。马文·明斯基同意,他写道,“在一代人的时间内……创造“人工智能”的问题将得到实质性的解决。

他们没有意识到剩下的一些任务的困难。在1974年,美国和英国政府都停止了人工智能的探索性研究,这是对詹姆斯·莱特希尔爵士(37岁)的批评和美国国会持续施压以资助更具生产力的项目的回应。接下来的几年将被称为“人工智能的冬天”,在这个时期,为人工智能项目获得资金是困难的。

20世纪80年代初,人工智能研究因专家系统的商业成功而复兴,一种模拟人类专家知识和分析技能的人工智能程序。到1985年,人工智能的市场已经超过10亿美元。与此同时,日本的第五代计算机项目激励美国和英国政府恢复对学术研究的资助。然而,从1987年Lisp机器市场崩溃开始,人工智能再一次声名狼藉,第二次,持续时间更长的停滞开始了。

在20世纪90年代末和21世纪初,人工智能开始被用于物流、数据挖掘、医疗诊断和其他领域。之所以成功,是因为计算能力(见摩尔定律)、对解决特定问题的更大重视、人工智能与其他领域(如统计学、经济学和数学)之间的新联系以及委员会管理。研究人员对数学方法和科学标准的研究。Deep Blue于1997年5月11日成为第一个击败世界象棋冠军Garry Kasparov的计算机象棋系统。

2011年,一场危险!问答展示赛,IBM的问答系统,华生,击败了两大冠军,Brad Rutter和Ken Jennings,获得了巨大的优势。更快的计算机、算法改进和对大量数据的访问,使机器学习和感知取得了进步;渴望数据的深度学习方法在2012年左右开始主导精度基准。Kinect,它提供了一个三维身体运动界面。对于Xbox 360和Xbox One而言,它使用的算法与智能手机中的智能个人助理一样,都是从漫长的人工智能研究中产生。2016年3月,AlphaGo在与围棋冠军Lee Sedol的5场围棋中赢得了4场,成为第一个击败无障碍职业围棋选手的计算机围棋系统。2017年围棋高峰会的未来,阿尔法戈与当时连续两年蝉联世界第一的克杰,三局比赛,标志着人工智能发展的一个重要里程碑的完成,围棋是一个极其复杂的游戏,比国际象棋更为复杂。

据彭博社的杰克•克拉克(Jack Clark)称,2015年是人工智能的里程碑年,谷歌内部使用人工智能的软件项目数量从2012年的“零星使用”增加到2700多个项目。Clark还提供了事实数据,表明自2011年以来,图像处理任务中的错误率已显著下降。他将这归因于可复用的神经网络的增加,这是由于云计算基础设施的增加以及研究工具和数据集的增加。其他引用的示例包括微软的开发Skype系统可以自动从一种语言转换到另一种语言,Facebook的系统可以向盲人描述图像。在2017年的一项调查中,五分之一的公司报告称,他们“在某些产品或流程中加入了人工智能”。2016年前后,中国大大加快了其政府融资速度;鉴于其庞大的供应量一些观察家认为,随着数据的增长及其研究成果的快速增长,中国可能正逐步成为“人工智能超级大国”。

基础

一个典型的人工智能分析环境,并采取行动,以最大限度地提高其成功的机会。人工智能的预期效用函数(或目标)可以是简单的(1如赢得了一场围棋,否则为0),也可以是复杂的(在数学上与过去成功的行动相似)。目标可以被明确地定义或诱导。如果人工智能被设定为“强化学习”,目标可以通过奖励某些类型的行为或惩罚其他类型的行为而被隐含地诱导。或者,进化系统可以通过使用“适应功能”来诱导目标变异并优先复制高得分的人工智能系统,类似于动物如何进化为天生的欲望。RTAIN目标,例如寻找食物,一些人工智能系统,例如最近的邻居,而不是通过类比推理,这些系统通常不是给定的目标,除非目标隐含在他们的培训数据中,如果非目标系统被设计成一个“目标”是成功适应的系统,那么这些系统仍然可以作为基准。划分其狭窄的分类任务。

人工智能通常围绕着算法的使用。一个算法是机械计算机可以执行的一组明确的指令。一个复杂的算法通常建立在其他更简单的算法之上。

许多人工智能算法能够从数据中学习;它们可以通过学习新的启发式(策略或“经验法则”,在过去很有效)来增强自己,或者自己编写其他算法。下面描述的一些“学习者”,包括贝叶斯网络、决策树和最近邻,理论上可以(给定无限的数据、时间和内存)学习近似任何函数,包括哪种数学函数组合最能描述世界。因此,这些学习者可以通过考虑每一个可能的假设并将它们与数据相匹配,从而获得所有可能的知识。在实践中,几乎不可能考虑每一种可能性,因为“组合爆炸”现象,解决问题所需的时间呈指数增长。许多人工智能研究涉及如何识别和避免考虑广泛的可能性,这些可能性不大可能是有益的。例如,当观看地图时,寻找从丹佛到东部的纽约最短的行驶路线,在大多数情况下,你可以跳过任何通过旧金山或其他地区的路径。因此,使用像*这样的寻路算法的人工智能可以避免组合爆炸,如果必须依次考虑每一条可能的路径,那么组合爆炸就会发生。

最早(也是最容易理解)的人工智能方法是象征性的(例如形式逻辑):“如果一个健康的成年人发烧,那么他们可能患上流感”。第二种更为普遍的方法是贝叶斯推理:“如果当前患者发烧,调整他们患流感的可能性。”第三种主要的方法,在日常的商业人工智能应用中非常流行,是类似的,如SVM和最近邻:“通过检查已知的过去患者的记录,这些患者的温度、症状、年龄和其他因素大部分与当前患者相匹配,其中X%的患者患上了流感。”第四种方法很难直观地理解,但受到大脑机械工作原理的启发:人工神经网络方法使用人工“神经元”,通过将自身与所需的输出进行比较并改变内部神经元之间连接的强度来“强化”似乎是有用的。这四种主要方法可以相互重叠,也可以与进化系统重叠;例如,神经网络可以学习做出推论、归纳和进行类比。一些系统隐式或显式地使用这些方法中的多种,以及许多其他的人工智能和非人工智能算法;根据问题的不同,最佳方法通常是不同的。

学习算法的工作原理是、工作良好的策略、算法和推论在未来可能会继续表现良好。这些推论是显而易见的,比如“在过去的10000天里,太阳每天早上升起,明天早上也可能升起”。它们可以是细微的,例如“X%的科有地理上不同的物种和颜色的变体,所以有Y%的可能性,未发现的黑天鹅存在”。学习者也在“奥卡姆剃刀”的基础上工作:解释数据的最简单理论是最有可能的。因此,要想取得成功,学习者的设计必须使其更喜欢简单的理论而不是复杂的理论,除非复杂的理论被证明是相当好的。解决一个不好的,过于复杂的理论,去适应所有过去的训练数据,这被称为过度拟合。许多系统试图通过根据理论与数据的匹配程度来奖励理论来减少过度拟合,但根据理论的复杂程度来惩罚理论。

除了经典的过度拟合,算法还可能因为“学习错误的数据”而失误。一个搞笑的例子是,一个只在棕色黑猫的图片上训练的图像分类器可能会得出结论,所有棕色斑块都可能是猫。一个现实世界的例子是,与人类不同,当前的图像分类器不确定图片组件之间的空间关系,而是学习抽象模式。指人类所忽略的像素,但与某些类型的真实物体的图像线性相关的像素。在合法图像上叠加这样的模式会导致“adversarial”图像,系统会错误分类。

与人类相比,现有的人工智能缺乏人类“常识推理”的几个特征;最显著的是,人类对于“自然物理”的推理具有强大的机制,如空间、时间和物理交互。这使得即使是年幼的孩子也很容易做出这样的推论:“如果我把这支笔从桌子上滚下来,它就会掉到地上。”人类还有一种强大的“民间心理”机制,可以帮助他们理解自然语言的句子,比如“市议员因为倡导暴力而拒绝了示威者的许可”。(一个普通的人工智能很难推断出议员或示威者是否是所谓的鼓吹暴力的人。)缺乏“共同知识”意味着人工智能经常犯不同于人类的错误,其方式似乎不可理解。例如,现有的自动驾驶汽车不能像人类那样准确地解释行人的位置和意图,而是必须使用非人类的推理模式来避免事故发生。

问题

人工智能的总体研究目标是创造使计算机和机器以智能方式工作的技术。模拟(或创造)智能的一般问题被分解为子问题。这些特征或能力是研究人员期望智能系统显示出来的。下面描述的特性受到了最广泛的关注。

推理,解决问题

早期的研究人员开发了模拟人类解决难题或进行逻辑推理时使用的逐步推理的算法,到20世纪80年代末和90年代,人工智能研究已经开发了处理不确定或不完整信息的方法,采用了概率和经济学的概念。

事实证明,这些算法不足以解决大型推理问题,因为它们经历了一次“组合爆炸”:随着问题越来越大,它们会以指数级的速度变慢。事实上,甚至人类也很少使用早期人工智能研究能够建模的逐步推论。他们用快速、直观的判断来解决大部分问题。

知识表示

知识表示和知识工程是经典人工智能研究的核心。一些“专家系统”试图将专家在某些狭义领域拥有的明确知识集合起来。此外,一些项目试图将普通人所知道的“常识知识”收集到一个包含广泛的世界知识的数据库中。一个全面的常识性知识库包含的内容包括:对象、属性、类别和对象之间的关系;情况、事件、状态和时间;因果关系;关于知识的知识(我们对其他人所知的知识);以及许多其他研究较少的领域。“存在”的表示是一个本体:一组正式描述的对象、关系、概念和属性,以便软件代理能够解释它们。这些语义被描述为逻辑概念、角色和个人,并且通常在Web本体语言中实现为类、属性和个体。最一般的本体被称为上层本体,它试图在DOMA之间充当中介器,为所有其他知识提供基础。在涉及特定知识领域(感兴趣的领域或关注的领域)的特定知识的本体中。这种形式化的知识表示可用于基于内容的索引和检索,场景解释,临床决策支持,知识发现(从大型数据库中挖掘“有趣的”和可操作的推论)等领域。

知识表示中最困难的问题是:

违约推理与资格问题

人们所知道的许多事情都是以“工作假设”的形式出现的。例如,如果一只鸟在交谈中出现,人们通常会想象一只拳头大小、唱歌和飞翔的动物。所有的鸟都不是这样的。约翰·麦卡锡在1969年(93年)将这个问题认定为资格问题:对于人工智能研究人员所关心的常识性规则,往往会有大量的例外。在抽象逻辑所要求的方式中,几乎没有什么是简单的对或错。人工智能研究已经探索了许多解决这个问题的方法。

常识知识的广度

一般人所知道的原子事实的数量非常大。试图建立一个完整的常识知识库(如cyc)的研究项目需要大量费力的本体工程,它们必须手工一次建立一个复杂的概念。

一些常识知识的符号形式

人们所知道的大部分知识并不是他们可以口头表达的“事实”或“陈述”。例如,一个象棋大师会避开一个特定的象棋位置,因为它“感觉太暴露了”,或者一个艺术评论家可以看到一个雕像,并意识到它是一个假象,这些是人类大脑中的无意识和亚符号直觉或倾向。这样的知识会通知、支持和提供一个符号的上下文,有意识的知识。正如亚符号推理的相关问题一样,希望定位人工智能、计算智能或统计人工智能能够提供表示这种知识的方法。

规划

智能代理必须能够设定目标并实现这些目标。【99】他们需要一种可视化未来的方式——一种对世界状态的表示,并能够预测他们的行为将如何改变未来,并能够做出使可用选择的效用(或“价值”)最大化的选择。

在经典规划问题中,代理可以假定它是世界上唯一的系统,允许代理确定其行为的后果。但是,如果代理不是唯一的参与者,那么它要求代理可以在不确定的情况下进行推理。这就需要一个代理,它不仅可以评估环境并做出预测,还可以评估其预测,并根据其评估进行调整。

多智能体规划是利用多个智能体之间的合作和竞争来实现既定目标的。进化算法和群体智能使用这种规划行为。

学习

机器学习是人工智能研究的一个基本概念,是研究通过经验自动改进的计算机算法。

无监督学习是指在输入流中发现模式的能力,而无需人先标记输入。

监督学习包括分类和数值回归,这需要人先标记输入数据。分类是在看到多个类别的事物的一些例子之后,用来确定事物属于哪个类别。回归是试图产生一个描述输入和输出之间关系的函数,并预测输出应如何随着输入的变化而变化,分类器和回归学习者都可以被视为“函数逼近器”,试图学习一个未知(可能是隐式的)函数;例如,垃圾邮件分类器C一个被视为学习功能,从一封电子邮件的文本映射到两个类别之一,“垃圾邮件”或“非垃圾邮件”。计算学习理论可以通过计算复杂度、样本复杂度(需要多少数据)或其他优化概念来评估学习者。

在强化学习中,代理因良好的响应而得到奖励,因不良而受到惩罚。代理使用这个奖励和惩罚序列来形成在其问题空间中操作的策略。

自然语言处理

自然语言处理(NLP)使机器能够阅读和理解人类语言。一个足够强大的自然语言处理系统将使自然语言用户界面和直接从人类书面来源(如新闻专线文本)获取知识成为可能。自然语言处理的一些直接应用包括信息检索、文本挖掘、问答和机器翻译,许多当前的方法都使用单词共现频率来构造文本的句法表示。”关键词定位“搜索策略是流行的,可扩展的,但很愚蠢;搜索“dog”的查询可能只匹配文本单词“dog”的文档,并错过单词“poodle”的文档。词汇亲和力策略使用“意外”等词汇的出现来评估文档的情感。现代统计NLP方法可以将所有这些策略和其他策略结合起来,并且通常在页面或段落级别上达到可接受的准确性,但仍然缺乏对孤立句子进行良好分类所需的语义理解。除了编码语义常识知识的常见困难之外,现有的语义NLP有时扩展得太差,在业务应用程序中不可行。除了语义NLP,“叙述”NLP的最终目标是充分理解常识推理。

感知

机器感知是利用传感器(如摄像头(可见光谱或红外)、麦克风、无线信号和主动激光雷达、声纳、雷达和触觉传感器)的输入来推断世界各个方面的能力。应用包括语音识别,面部识别和对象识别,计算机视觉是分析视觉输入的能力。这种输入通常是不明确的;一个巨大的、50米高的步行者可能产生与附近正常大小的步行者完全相同的像素,这要求人工智能判断不同解释的相对可能性和合理性,例如,通过使用其“对象模型”来评估50米步行者不存在。

运动和操纵

人工智能被广泛应用于机器人技术中,先进的机械臂和其他工业机器人,广泛应用于现代工厂,可以从经验中学习如何在存在摩擦和齿轮滑动的情况下高效移动。现代移动机器人,当给定一个小的、静态的和可见的环境时,可以很容易地确定其位置并绘制其地图。动态环境,如(内窥镜检查)病人呼吸身体的内部,构成了一个更大的挑战。动态规划是将运动任务分解为“基本体”(如单个关节运动)的过程。这种运动通常涉及顺从运动,这是一种运动需要与物体保持物理接触的过程。莫拉维奇的悖论概括了人类认为理所当然的低级感觉运动技能很难编程为机器人;这一悖论是以汉斯·莫拉维奇命名的,他在1988年,“使计算机在智力测试或跳棋方面表现出成人水平的能力相对容易,在感知和移动性方面很难或不可能给他们一岁孩子的技能。”。这归因于这样一个事实,即与跳棋不同,身体的灵巧性是一个直接的目标。百万年来自然选择的T值。

社会智力

Moravec的悖论可以扩展到多种形式的社会智能。分布式多代理自动车辆协调仍然是一个难题。情感计算是一个跨学科的保护伞,由识别、解释、处理或模拟人类影响的系统组成。适度的成功与情感计算相关的包括文本情感分析和最近的多式情感分析(见多式情感分析),其中人工智能对录像主题显示的影响进行分类。

从长远来看,社会技能以及对人类情感和博弈论的理解对于一个社会主体是有价值的。能够通过了解他人的动机和情绪状态来预测他们的行为,这将允许代理人做出更好的决定。有些计算机系统模仿人类的情感和表达方式,使其对人类互动的情感动态更为敏感,或者以其他方式促进人与计算机的互动。同样,一些虚拟助手被编程为能够交谈,甚至能够幽默地开玩笑;这往往会给天真的用户一个不现实的想法。对现有计算机代理的智能化程度的理解。

常识

历史上,诸如cyc知识库(1984-)和大规模的日本第五代计算机系统倡议(1982-1992)等项目试图涵盖人类认知的广度。这些早期的项目未能摆脱非定量符号逻辑模型的局限,回顾起来,大大低估了跨域人工智能的难度。现在,绝大多数现有的人工智能研究人员都在研究可处理的“窄人工智能”应用(如医学诊断或汽车导航)。许多研究人员预测,这种“窄人工智能”工作在不同的单个领域最终将被纳入一台具有人工通用智能(AGI)的机器中,并结合本文中提到的大多数狭隘技能,在某些方面甚至超过了人类在大多数或所有这些领域的能力。一个引人注目的例子是,20世纪10年代的DeepMind开发了一种“广义人工智能”,可以自己学习多种不同的Atari游戏,后来开发了一种系统变体,该系统成功地进行了顺序学习。除了转移学习,假设的AGI突破还可以包括开发。对于能够参与决策理论元推理的反射式体系结构,以及如何从整个非结构化网络“屏蔽”一个全面的知识库。一些人认为,某种(目前未发现的)概念上简单,但数学上困难的“主算法”可能导致AGI的方法非常接近地模拟人类的智力很困难,并相信像人工大脑或模拟儿童发育这样的拟人特征可能有一天会达到一般智力出现的临界点。

本文中的许多问题也可能需要一般的智能,如果机器能够像人们一样解决问题的话。例如,即使是特定的直接任务,如机器翻译,也要求机器用两种语言读写(nlp),遵循作者的论点(理性),知道正在谈论的是什么(知识),并忠实地再现作者的原始意图(社会智能)。像机器翻译这样的问题被认为是“人工智能完成”,因为所有这些问题都需要同时解决,才能达到人类水平的机器性能。

方法

没有一个既定的统一理论或范式来指导人工智能的研究。研究人员在许多问题上都持不同意见。一些长期以来一直悬而未决的问题是:人工智能应该通过研究心理学或神经生物学来模拟自然智能吗?或者人类生物学和人工智能研究一样,和鸟类生物学和航空工程学无关?智能行为是否可以用简单、优雅的原则(如逻辑或优化)来描述?还是必须解决大量完全无关的问题?

控制论与大脑模拟

在20世纪40年代和50年代,一些研究人员探讨了神经生物学、信息论和控制论之间的联系。他们中的一些人建造了一些机器,利用电子网络来展示基本的智能,比如W·格雷·沃尔特的海龟和约翰·霍普金斯的野兽。许多研究人员聚集在普林斯顿大学和英国比率俱乐部参加目的论学会的会议。到1960年,这种方法基本上被放弃了,尽管其中的一些元素将在1980年代恢复。

符号

20世纪50年代中期,当数字计算机成为可能时,人工智能研究开始探索人类智能可能被降低为符号操纵的可能性。研究集中在三个机构:卡内基梅隆大学、斯坦福大学和麻省理工学院,如下文所述,每个机构都发展了自己的研究风格。约翰·豪格兰将这些对人工智能的象征性方法命名为“老式人工智能”或“Gofai”。在20世纪60年代,象征性方法在模拟小型示范项目中的高级思维方面取得了巨大成功。基于控制论或人工神经网络的方法被抛弃或被推倒。20世纪60年代和70年代的研究人员确信,象征性的方法最终会成功地创造出一台具有人工一般智能的机器,并认为这是他们领域的目标。

认知模拟

经济学家Herbert Simon和Allen Newell研究了人类解决问题的能力,并试图将其正式化,他们的工作奠定了人工智能领域以及认知科学、运筹学和管理科学的基础。他们的研究小组利用心理学实验的结果开发了模拟人们解决问题的技术的程序。以卡内基梅隆大学为中心的这一传统最终将在20世纪80年代中期达到顶峰。

基于逻辑

与Simon和Newell不同,John McCarthy认为机器不需要模拟人类思维,而是应该尝试找到抽象推理和问题解决的本质,不管人们是否使用相同的算法。他在斯坦福大学(SAIL)的实验室专注于使用形式逻辑来解决各种各样的问题,包括G知识表示、规划和学习。逻辑也是爱丁堡大学和欧洲其他地方的工作重点,这导致了编程语言Prolog和逻辑编程科学的发展。

反逻辑

麻省理工学院的研究人员(如马文·明斯基和西摩·佩珀特发现,解决视觉和自然语言处理中的难题需要特别的解决方案。他们认为,没有简单和一般的原则(如逻辑)能够捕获智能行为的所有方面。Roger Schank将他们的“反逻辑”方法描述为“杂乱无章”(与CMU和斯坦福大学的“整洁”模式相反)。常识性知识库(如Doug Lenat的Cyc)是“杂乱无章”的人工智能的一个例子,因为它们必须手工构建一次一个复杂的概念。

基于知识

当拥有大量记忆的计算机在1970年左右面世时,来自这三个传统的研究人员开始将知识构建到人工智能应用中。这场“知识革命”导致了专家系统的开发和部署(由Edward Feigenbaum介绍),人工智能软件的第一个真正成功形式。人工智能软件的关键组成部分。所有专家系统的系统架构都是知识库,它存储事实和规则来说明人工智能,知识革命也是由认识到许多简单的人工智能应用程序需要大量的知识所驱动的。

子符号

到20世纪80年代,符号人工智能的发展似乎停滞了,许多人认为符号系统永远无法模仿人类认知的所有过程,特别是感知、机器人、学习和模式识别。许多研究人员开始研究针对特定人工智能问题的“次符号”方法[17]次符号方法设法在没有特定知识表示的情况下接近智能。

体化智力

这包括具体化的、定位的、基于行为的和新的人工智能。机器人相关领域的研究人员,如Rodney Brooks,拒绝使用象征性人工智能,专注于使机器人能够移动和生存的基本工程问题。他们的工作重新唤起了20世纪50年代早期控制论研究人员的非象征性观点,并重新引入了控制理论在人工智能中的应用。这与认知科学相关领域内关于身体各方面(如运动、知觉和视觉化)对更高智力的要求这一观点的发展是一致的。

在发展机器人学中,发展性学习方法被详细阐述,使机器人能够通过自主的自我探索、与人类教师的社会互动以及使用指导机制(主动学习、成熟、运动协同等)来积累新技能。

计算智能与软计算

20世纪80年代中期,David Rumelhart和其他人重新对神经网络和“连接主义”产生了兴趣。人工神经网络是软计算的一个例子,它们是无法完全逻辑确定地解决的问题的解决方案,在这种情况下,近似解往往是足够的。人工智能的其他软计算方法包括模糊系统、灰色系统理论、进化计算和许多统计工具。软计算在人工智能中的应用是由计算智能新兴学科共同研究的。

统计学习

许多传统的gofai陷入了符号计算的临时补丁的困境,这些补丁在自己的玩具模型上工作,但未能推广到实际场景。然而,大约在20世纪90年代,人工智能研究人员采用了复杂的数学工具,如隐马尔可夫模型(HMM)、信息论和规范的贝叶斯决策理论来比较或统一竞争架构。共享的数学语言允许与更成熟的领域(如数学、经济学或运筹学)进行高水平的协作。与Gofai相比,新的“统计学习”技术(如HMM和神经网络)在许多实际领域(如数据挖掘)获得了更高的精度,而无需获取对数据集的语义理解。随着现实数据的不断成功,人们越来越重视将不同的方法与共享的测试数据进行比较,以确定哪种方法在更广泛的背景下比特殊的玩具模型表现得更好;人工智能研究正变得越来越科学。

如今,实验结果往往是严格可衡量的,不同的统计学习技术有不同的局限性;例如,基本的HMM不能模拟自然语言的无限可能组合。批评者指出,从gofai到统计lear的转变宁也经常是一个从可解释的人工智能的转变。在AGI研究中,一些学者警告不要过度依赖统计学习,并认为继续对Gofai进行研究仍然是获得一般智力的必要条件。

整合方法

智能代理范式

智能代理是一个感知环境并采取行动以最大化成功机会的系统。最简单的智能代理是解决特定问题的程序。更复杂的代理包括人类和人类组织(如公司)。该范式允许研究人员直接比较或甚至结合不同的方法来解决孤立的问题,通过询问哪种代理最擅长最大化给定的“目标函数”。解决特定问题的代理可以使用任何有效的方法,一些代理具有符号性和逻辑性,一些代理是次符号人工神经网络,其他代理可以使用新的方法。该范式还为研究人员提供了一种与决策理论和经济学等其他领域交流的通用语言,这些领域也使用抽象代理的概念。建立一个完整的智能体需要研究人员解决实际的集成问题;例如,由于感官系统提供了不确定的环境信息,规划系统必须能够在不确定的情况下发挥作用。智能代理范式在20世纪90年代被广泛接受。

代理架构和认知架构

研究人员设计了一个多智能体系统,用多智能体系统中相互作用的智能体构建智能系统。一个分层控制系统提供了一个桥梁,在最低的次符号人工智能、反应性人工智能和最高的传统符号人工智能之间,宽松的时间限制允许规划和世界模型。有些认知架构是为解决狭隘的问题而定制的;而另一些架构(如Soar)则是为了模仿人类的认知并提供对一般智能的洞察。Soar的现代扩展是混合智能系统,包括符号和次符号组件。

工具

人工智能已经开发出大量的工具来解决计算机科学中最困难的问题。下面将讨论其中一些最一般的方法。

搜索优化

在理论上,人工智能中的许多问题可以通过智能搜索来解决。推理可以简化为执行搜索。例如,逻辑证明可以被看作是搜索从前提到结论的路径,其中每个步骤都是推理规则的应用。规划算法搜索目标树和子目标树,试图找到目标路径,一个称为means-ends-analysis的过程。用于移动的机器人算法的肢体和抓取对象使用配置空间中的局部搜索。许多学习算法使用基于优化的搜索算法。

对于大多数现实世界的问题,简单的详尽搜索很少足够:搜索空间(要搜索的地方的数量)迅速增长到天文数字。结果是搜索太慢或永远无法完成。对于许多问题,解决方法是使用“启发式”或“经验法则”,优先选择那些更有可能达到目标并以较短的步骤完成的选择。在某些搜索方法中,启发式方法还可以完全消除一些不太可能导致目标的选择(称为“修剪搜索树”)。启发式方法为程序提供了解决方案所在路径的“最佳猜测”。启发式方法将对解决方案的搜索限制在较小的样本大小中。

在20世纪90年代,基于优化数学理论的一种非常不同的搜索方式开始出现。对于许多问题,可以从某种形式的猜测开始搜索,然后逐步优化猜测,直到无法再进一步的改进。这些算法可以被视为盲目爬山:我们从景观上的一个随机点开始搜索,然后,通过跳跃不断向上移动我们的猜测,直到我们到达山顶。其他优化算法包括模拟退火、波束搜索和随机优化。

进化计算使用优化搜索的形式。例如,它们可以从一个生物体群体(猜测)开始,然后让它们变异和重组,只选择最适合每一代生存的物种(提炼猜测)。经典的进化算法包括遗传算法、基因表达编程和遗传编程。或者分布式搜索过程可以通过群体智能算法进行协调。在搜索中使用的两种流行的群算法是粒子群优化(受鸟群的启发)和蚁群优化(受蚂蚁轨迹的启发)。

逻辑

逻辑用于知识表示和问题解决,但也可用于其他问题。例如,satplan算法使用逻辑进行规划,归纳逻辑编程是一种学习方法。

人工智能研究中使用了几种不同的逻辑形式。命题逻辑涉及“或”和“不”等真值函数。一阶逻辑增加了量词和谓词,并且可以表达关于对象、对象属性及其相互关系的事实。模糊集理论将“真实度”(介于0和1之间)分配给诸如“爱丽丝老了”(或富有,或高大,或饥饿)这样的模糊陈述,这些陈述在语言上不精确,不能完全正确或错误。模糊逻辑在控制系统中被成功地应用,以允许专家提供模糊规则,例如“如果你靠近终点站并快速移动,增加列车的制动压力”;然后这些模糊规则可以在系统中进行数字精炼。模糊逻辑在知识库中不能很好地扩展,许多人工智能研究者质疑模糊逻辑推理链的有效性。

默认逻辑、非单调逻辑和限定是设计用于帮助默认推理和限定问题的逻辑形式。逻辑的一些扩展被设计用来处理特定的知识领域,例如:描述逻辑;情境演算、事件演算和流畅演算(用于表示事件和时间);因果演算;信念演算模态逻辑。

总的来说,定性符号逻辑是脆弱的,在存在噪声或其他不确定性的情况下,其规模很小。规则的例外情况很多,而且逻辑系统很难在存在矛盾规则的情况下发挥作用。

不确定推理的概率方法

人工智能中的许多问题(在推理、规划、学习、感知和机器人技术中)都要求代理使用不完整或不确定的信息进行操作。人工智能研究人员已经设计了许多强大的工具,用概率论和经济学的方法来解决这些问题。

Bayesian Networks 是一个非常通用的工具,可用于处理大量问题:推理(使用Bayesian推理算法)、学习(使用期望最大化算法)、规划(使用决策网络)和感知(使用动态Bayesian网络)。概率算法也可以用于对数据流进行过滤、预测、平滑和查找解释,帮助感知系统分析随时间发生的过程(例如,隐马尔可夫模型或卡尔曼滤波器)。与符号逻辑相比,形式贝叶斯推理的计算成本较高。为了便于推理,大多数观察必须有条件地相互独立。带有菱形或其他“循环”(无向循环)的复杂图可能需要一种复杂的方法,例如马尔可夫链蒙特卡罗,它将一组随机步行者分散到整个贝叶斯网络,并尝试收敛到条件概率的评估。Bayesian网络在Xbox Live上被用来对玩家进行评分和比赛;胜负是玩家表现好坏的“证据”。Adsense使用一个边缘超过3亿的贝叶斯网络来学习要服务的广告。

经济学中的一个关键概念是“效用”:一个衡量事物对智能主体有多重要的指标。利用决策理论、决策分析和信息价值理论开发了精确的数学工具,用于分析代理如何做出选择和计划。这些工具包括马尔可夫决策过程、动态决策网络、博弈论和机制设计等模型。

分类器和统计学习方法

最简单的人工智能应用程序可以分为两种类型:分类器(“if shining then diamond”)和控制器(“if shining then pick up”)。然而,控制器也会在推断动作之前对条件进行分类,因此分类是许多人工智能系统的核心部分。分类器是使用模式匹配来确定最近匹配的函数。它们可以根据例子进行调整,使其在人工智能中非常有吸引力。这些例子被称为观察或模式。在有监督学习中,每个模式都属于某个预先定义的类。一个班级可以被看作是必须做出的决定。所有的观察结果加上它们的类标签被称为数据集。当收到新的观察结果时,该观察结果将根据以前的经验进行分类。

分类器可以以各种方式进行训练;有许多统计和机器学习方法。决策树可能是最广泛使用的机器学习算法。其他广泛使用的分类器是神经网络,k-最近邻算法,核方法,如支持向量机(SVM),高斯混合模型和极受欢迎的朴素贝叶斯分类器。分类器P性能在很大程度上取决于要分类的数据的特性,例如数据集大小、跨类的样本分布、维数和噪声级别。如果假设模型非常适合实际数据,那么基于模型的分类器性能良好。否则,如果没有可用的匹配模型,并且只考虑准确性(而不是速度或可伸缩性),那么传统的观点是,在大多数实际数据集上,区分分类器(尤其是SVM)往往比基于模型的分类器(如“naive bayes”)更准确。

人工神经网络

神经网络,或称神经网络,是受到人脑神经元结构的启发。一个简单的“神经元”接受来自多个其他神经元的输入,每个神经元在被激活(或被激活)时,确定对神经元自身是否应该激活投加权“票”。学习需要一个算法来根据训练数据调整这些权重;一个简单的算法(称为“一起开火,连接在一起”)是当一个神经元的激活触发另一个神经元的成功激活时,增加两个相连神经元之间的权重。网络形成“概念”,这些概念分布在共享的神经元的子网络中,这些神经元倾向于一起开火;一个表示“腿”的概念可能与一个表示“脚”的子网络相结合,该子网络包含“脚”的声音。神经元有一个连续的激活光谱;此外,神经元可以以非线性方式处理输入,而不是直接权衡选票。现代神经网络既可以学习连续函数,也可以学习数字逻辑运算。神经网络的早期成功包括预测股票市场和(1995年)一辆主要是自动驾驶的汽车。在20世纪10年代,利用深度学习的神经网络的进步将人工智能推向了广泛的公众意识,并促成了企业人工智能支出的巨大上升;例如,2017年与人工智能相关的并购是与2015年整体一样大。

人工神经网络的研究始于人工智能研究领域成立前的十年,由沃尔特·皮特和沃伦·麦卡鲁奇共同完成。FrankRosenblatt发明了感知器,一个单层的学习网络,类似于线性回归的旧概念。早期的先驱者还包括Alexey Grigorevich Ivakhnenko、Teuvo Kohonen、Stephen Grossberg、Kunihiko Fukushima、Christoph von der Malsburg、David Willshaw、Shun Ichi Amari、Bernard Widrow、John Hopfield、Eduardo R.Caianiello等。

网络的主要类别是非循环或前馈神经网络(其中信号仅沿一个方向传递)和循环神经网络(允许对以前的输入事件进行反馈和短期记忆)。在最流行的前馈网络中,有感知器、多层感知器和径向基网络,神经网络可以应用于智能控制(机器人)或学习问题,使用诸如赫比学习、GMDH或竞争学习等技术。

如今,神经网络通常采用反向传播算法进行训练,这种算法自1970年以来就一直是Seppo Linnaimma出版的反向自动微分模式,由Paul Werbos引入神经网络。

分层时间记忆是一种模拟新皮质部分结构和算法特性的方法。

总的来说,大多数神经网络在手工创建的神经拓扑上使用某种形式的梯度下降。然而,一些研究小组,如Uber,认为简单的神经进化改变新的神经网络拓扑结构和权重可能与复杂的梯度下降方法相竞争。神经进化的一个优点是,它可能不太容易陷入“死胡同”。

深度前馈神经网络

深度学习是任何一种可以学习一长串因果关系的人工神经网络。例如,具有六个隐藏层的前馈网络可以学习七链因果链(六个隐藏层+输出层),并且“信用分配路径”(cap)深度为七。许多深度学习系统需要能够学习10个或更多的因果关系链。深度学习已经改变了人工智能的许多重要子领域,包括计算机视觉、语音识别、自然语言处理等。

据一项综述,1986年,Rina Dechter将“深度学习”一词引入机器学习社区,并在2000年将其引入人工神经网络后获得了广泛的应用。Alexey Grigorevich Ivakhnenko an出版了第一个功能性的深度学习网络。1965年,D.V.G.Lapa对这些网络进行了一次一层的培训。Ivakhnenko在1971年发表的论文,描述了一种具有八层的深度前馈多层感知器已经比许多后来的网络更深。2006年,Geoffrey Hinton和Ruslan Salakhutdinov发表的一篇文章介绍了另一种对多层前馈神经网络(FNN)进行一次一层预训练的方法,将每一层依次视为无监督限制Boltzmann机器,然后使用有监督的反向传播进行微调。类似于浅层人工神经。深度神经网络可以模拟复杂的非线性关系。在过去的几年里,机器学习算法和计算机硬件的进步已经导致了更有效的方法来训练包含许多层非线性隐藏单元和一个非常大的输出层的深层神经网络。

深度学习通常使用卷积神经网络(CNN),其起源可以追溯到1980年福岛大学(Kunihiko Fukushima)引进的新认知加速器。1989年,Yann Lecun及其同事将反向传播应用于这种体系结构。21世纪初,在一个工业应用中,CNN已经处理了美国所有支票的10%到20%。自2011年以来,CNN在GPU上的快速实施赢得了许多视觉模式识别竞赛。

拥有12个卷积层的CNN与DeepMind的“AlphaGo Lee”的强化学习一起使用,该项目在2016年击败了一位顶级Go冠军。

深循环神经网络

早期,深度学习也被应用于具有循环神经网络(RNN)的序列学习(RNN)。理论上是图灵完备的,并且可以运行任意程序来处理任意的输入序列。RNN的深度是无限的,取决于其输入序列的长度;因此,RNN是深度学习的一个例子。RNN可以通过梯度下降进行训练,但会受到消失梯度问题的影响。1992年,研究表明,对一组经常性神经网络进行无监督的预训练可以加快学习速度。

许多研究人员现在使用的是Hochreiter&Schmidhuber于1997年出版的名为长期短期记忆(LSTM)网络的深度学习重复神经网络的变体。LSTM通常由连接主义时间分类(CTC)训练。在谷歌、微软和百度,这种方法已经彻底改变了语音识别。例如,在2015年,谷歌的语音识别通过经过CTC培训的LSTM经历了49%的性能跃升,该LSTM现在可通过谷歌语音向数十亿智能手机用户提供。谷歌还使用LSTM来提高机器翻译,语言建模和多语言处理。LSTM与CNN相结合。还改进了自动图像字幕和大量其他应用。

历史进程

人工智能,就像电力或蒸汽机一样,是一种通用技术。关于如何确定AI倾向于胜出的任务,没有达成一致意见。虽然像AlpHoO2这样的项目已经成功地从零开始产生了自己的知识,但是许多其他的机器学习项目需要大量的训练数据集。研究者Andrew Ng提出,一个人类只需不到一秒钟的心理思考就可以完成的事情,在不久的将来就可以自动化地使用人工智能了。” 莫拉维奇的悖论表明,人工智能在许多任务上都落后于人类,而人类的大脑已经专门进化到可以很好地执行这些任务。

2016年前后,AlphaGo结束了经典棋盘游戏基准的时代。知识不完善的游戏为人工智能在博弈论领域提供了新的挑战。星际争霸等电子竞技继续提供额外的公共基准。为了促进人工智能的研究,有许多竞赛和奖品,如Imagenet挑战。最常见的竞争领域包括通用机器智能、会话行为、数据挖掘、机器人汽车、机器人足球以及传统游戏。

“模仿游戏”(一种对1950年图灵测试的解释,用来评估计算机是否可以模仿人类)现在被认为是很重要的评估手段,图灵测试的一个衍生工具是完全自动化的公开图灵测试,用来区分计算机和人类(captcha)。顾名思义,这有助于确定一个用户是一个实际的人,而不是一台冒充人类的计算机。与标准图灵测试不同,captcha由一台机器管理,目标是一个人,而不是由一个人管理,目标是一台机器。计算机要求用户完成一个简单的测试,然后为该测试生成一个等级。计算机无法解决问题,因此正确的解决方案被认为是参加测试的人的结果。一种常见的验证码类型是要求键入出现在计算机无法识别的图像中的变形字母、数字或符号的测试。

提出的“通用智能”测试旨在比较机器、人类甚至非人类动物在尽可能通用的问题集上的表现。在极端情况下,测试套件可以包含所有可能的问题,以Kolmogorov的复杂性为权重;不幸的是,这些问题集往往由贫瘠的模式匹配练习主导,在这些练习中,调谐的人工智能很容易超过人类的性能水平。

应用

人工智能与任何一项智力任务都有关联。现代人工智能技术无处不在,数量众多,无法在此列举。通常,当一项技术达到主流应用时,它不再被视为人工智能;这种现象被描述为人工智能效应。

人工智能的例子包括自动驾驶汽车(如无人机和自动驾驶汽车)、医疗诊断、创造艺术(如诗歌)、证明数学定理、玩游戏(如象棋或围棋)、搜索引擎(如谷歌搜索)、在线助手(如Siri)、照片中的图像识别、垃圾邮件过滤、预测。航班延误,司法判决预测和针对在线广告的预测。

随着社交媒体网站取代电视成为年轻人的新闻来源,新闻机构越来越依赖社交媒体平台来发布新闻,主要出版商现在使用人工智能(AI)技术来更有效地发布新闻,并产生更大的流量。

医疗

人工智能正被应用于高成本的剂量问题,研究结果表明人工智能可以节省160亿美元。2016年,加利福尼亚州的一项突破性研究发现,在人工智能的帮助下开发的一个数学公式正确地确定了给予器官患者的免疫抑制药物的准确剂量。

人工智能通过帮助医生深入医疗行业。据彭博科技(Bloomberg Technology)报道,微软开发了人工智能,帮助医生找到治疗癌症的正确方法。有大量与癌症相关的研究和药物。具体来说,有800多种药物和疫苗可以治疗癌症。这会对医生产生负面影响,因为有太多的选择可供选择,使得为患者选择合适的药物更加困难。微软正在开发一个名为“汉诺威”的机器项目。它的目标是记住癌症所需的所有文件,并帮助预测哪种药物组合对每个病人最有效。目前正在研究的一个项目是对抗骨髓白血病,这是一种致命的癌症,几十年来治疗一直没有改善。据报道,另一项研究发现,人工智能在识别皮肤癌方面与训练有素的医生一样出色。另一项研究是使用人工智能来尝试和监测多个高危患者,这是通过根据从现场医生到患者互动获得的数据向每个患者询问大量问题来完成的。一项研究是通过转移学习完成的,机器执行的诊断类似于训练有素的眼科医生,可以在30秒内决定是否应将患者转诊治疗,准确率超过95%。

据美国有线电视新闻网报道,华盛顿儿童国家医疗中心的外科医生最近的一项研究成功地展示了一个自主机器人的手术。研究小组声称,该小组在机器人进行软组织手术的同时对其进行了监督,在开放手术期间将猪的肠道缝合在一起,比一名人类外科医生做得更好。IBM已经开发了自己的人工智能计算机IBM Watson,该计算机已经在一定程度上击败了人类智能。华生不仅在游戏秀中获胜!

汽车

人工智能的进步通过创造和发展自动驾驶汽车,促进了汽车工业的发展。截至2016年,有30多家公司利用人工智能创建无人驾驶汽车。与人工智能有关的一些公司包括特斯拉、谷歌和苹果、百度。

许多部件有助于自动驾驶汽车的功能。这些车辆包括刹车、变道、防碰撞、导航和地图等系统。这些系统以及高性能计算机一起集成到一个复杂的车辆中。

自动驾驶汽车的最新发展使自动驾驶卡车的创新成为可能,尽管它们仍处于测试阶段。英国政府已通过立法,于2018年开始测试自动驾驶卡车。自动驾驶卡车是一支由一辆非自动驾驶卡车带领的自动驾驶卡车车队,因此卡车排还没有完全自主。与此同时,德国汽车公司戴姆勒(Daimler)正在测试货轮灵感,这是一种只能在公路上使用的半自动卡车。

影响无驾驶汽车运行能力的一个主要因素是地图。一般来说,车辆将预先编程设定行驶区域的地图。该地图将包括路灯和路缘石高度的近似值数据,以便车辆了解其周围环境。然而,谷歌一直在研究一种算法,以消除对预编程地图的需求,取而代之的是创建一种能够适应各种新环境的设备。一些自动驾驶汽车没有配备方向盘或制动踏板,因此也有研究集中在创建ALG上。通过了解车速和驾驶条件,能够为车内乘客维持安全环境。

影响无驾驶汽车的另一个因素是乘客的安全。为了使一辆司机更少的驾驶汽车,工程师们必须对它进行编程以处理高风险的情况。这些情况可能包括与行人正面碰撞。汽车的主要目标应该是做出一个避免撞到行人和救车里乘客的决定。但有一种可能性,汽车将需要作出决定,将有人置于危险中。换言之,汽车需要决定拯救行人或乘客。在这种情况下,汽车的编程对于成功的无驾驶汽车至关重要。

金融

金融机构长期以来一直使用人工神经网络系统来检测超出标准的指控或索赔,并将其标记为人类调查。人工智能在银行业的应用可以追溯到1987年,当时美国的太平洋国家银行(Security Pacific National Bank)成立了一个反欺诈特别工作组,以应对未经授权使用借记卡的行为。像Kasisto和MoneyStream这样的程序正在金融服务中使用人工智能。

如今,银行使用人工智能系统来组织业务、维持簿记、投资股票和管理房地产。人工智能可以在一夜之间对变化做出反应,也可以在业务不发生的时候做出反应。2001年8月,机器人在模拟金融交易竞争中击败了人类。人工智能还通过监控用户的行为模式来减少欺诈和金融犯罪,以防出现任何异常变化或异常情况。

人工智能机器在市场中的应用,如在线交易和决策,改变了主要的经济理论。例如,基于人工智能的买卖平台改变了供求规律,现在可以很容易地估计个性化的供求曲线,从而实现个性化定价。此外,人工智能机器可以减少市场中的信息不对称,从而在减少交易量的同时提高市场效率。此外,市场中的人工智能限制了市场行为的后果,再次使市场更有效率。人工智能产生影响的其他理论包括理性选择、理性预期、博弈论、刘易斯转折点、投资组合优化和反事实思维。

政府

人工智能在政府中有一系列的用途。它可用于进一步实现公共政策目标(在紧急服务、卫生和福利等领域),并帮助公众与政府互动(例如,通过使用虚拟助理)。《哈佛商业评论》(Harvard Business Review)称,“人工智能在公共部门的应用广泛且不断增长,世界各地都在进行早期实验。” 哈佛大学(Harvard University)阿什民主治理和创新中心的希拉•迈尔(Hila Mehr)指出,政府中的人工智能并不新鲜,邮政服务使用马赫数。在20世纪90年代后期,为了识别信封上的手写,以自动发送信件。在政府中使用人工智能具有显著的好处(包括节省成本的效率),但也存在风险。

游戏

在电子游戏中,人工智能通常用于在非玩家角色(NPC)中生成动态的有目的的行为。此外,众所周知的人工智能技术通常用于寻路。一些研究人员认为NPC人工智能在游戏中是大多数生产任务的“解决问题”。具有更多非典型人工智能的游戏包括左4死的人工智能导演(2008年)和最高指挥官2排的神经进化训练(2010年)。

军事

全世界每年在机器人方面的军事开支从2010年的51亿美元增加到2015年的75亿美元。能够自主行动的军用无人机被广泛认为是一种有用的资产。许多人工智能研究人员试图使自己远离人工智能的军事应用。

审计

对于财务报表审计,人工智能使持续审计成为可能。人工智能工具可以立即分析多组不同的信息。潜在的好处是降低总体审计风险,提高保证水平,缩短审计时间。

广告

利用人工智能可以从客户的数字足迹中预测或概括客户的行为,以便以个性化促销为目标,或自动建立客户角色。一个记录在案的案例报告称,在线赌博公司使用人工智能来提高客户目标。

艺术

人工智能已经激发了许多创造性的应用,包括它用于产生视觉艺术。“思维机器:计算机时代的艺术与设计,1959-1989”在MOMA的展览提供了人工智能在艺术、建筑和设计方面的历史应用的一个很好的概述。最近展出的AI制作艺术作品的展览包括谷歌赞助的利益和拍卖在旧金山的灰色地区基金会,艺术家们用“深梦算法”和“非人类:AI时代的艺术”展览,在2017秋季在洛杉矶和法兰克福举行。2018年春,计算机机械协会专门出版了一期关于计算机和艺术主题的杂志,突出了机器学习在艺术中的作用。

哲学与伦理

关于人工智能,有三个哲学问题:

  1. 人工通用智能有可能吗?机器能用智能解决人类能解决的任何问题吗?或者一台机器能完成的任务有严格的限制吗?
  2. 智能机器危险吗?我们如何确保机器的行为合乎道德,以及它们的使用合乎道德?
  3. 机器能有一个与人类完全相同的意识和精神状态吗?一台机器能有知觉吗?因此应该享有某些权利吗?机器会故意造成伤害吗?

艾伦·图灵 “图灵测试”

我们不需要决定一台机器是否能“思考”;我们只需要决定一台机器是否能像人类一样智能地行动。这种处理与人工智能相关的哲学问题的方法构成了图灵测试的基础。

达特茅斯的提议

“学习的每一个方面或智能的任何其他特征都可以如此精确地描述,以至于可以制造出一台机器来模拟它。”这一推测印在1956年达特茅斯会议的提案中,代表了大多数人工智能研究人员的立场。

纽厄尔和西蒙的物理符号系统假说

“一个物理符号系统具有一般智能行为的必要和充分手段。”纽厄尔和西蒙认为,智能包括对符号的正式操作。休伯特·德雷福斯认为,相反,人类的专业知识依赖于无意识的本能而不是有意识的符号操作,以及对符号的“感觉”。环境而不是明确的象征性知识。(见德莱弗斯对人工智能的评论。)

人工大脑的争论

大脑可以被机器模拟,因为大脑是智能的,所以模拟的大脑也必是智能的,这样机器就可以是智能的。Hans Moravec、Ray Kurzweil和其他人认为,将大脑直接复制到硬件和软件中在技术上是可行的,而且这样的模拟将基本上与原始的相同。

人工智能效应

机器已经是智能的,但是观察家们没有认识到它。当深蓝队在国际象棋中击败加里·卡斯帕罗夫时,这台机器表现得很聪明。然而,旁观者通常认为人工智能程序的行为根本不是“真实的”智能,因此“真实的”智能是人们可以做的任何智能行为,而机器仍然不能做。这就是所谓的人工智能效应:“人工智能是指尚未完成的工作。”

潜在危害

广泛使用人工智能可能会产生危险或不受欢迎的意外后果。来自未来生活研究所的科学家,以及其他人,描述了一些短期的研究目标,以了解人工智能如何影响经济、涉及人工智能的法律和道德以及如何将人工智能安全风险降至最低。从长远来看,科学家们建议继续优化功能,同时尽量减少新技术带来的安全风险。

存在风险

物理学家斯蒂芬霍金(Stephen Hawking),微软创始人比尔·盖茨(Bill Gates)和SpaceX创始人埃隆·马斯克(Elon Musk)对人工智能可能进化到人类无法控制的程度表示了担忧,霍金认为这可能“意味着人类的终结”。

全人工智能的发展可能意味着人类的终结。一旦人类发展了人工智能,它将自己起飞,并以不断增长的速度重新设计自己。人类由于受到缓慢生物进化的限制,无法竞争,将被取代。

—斯蒂芬霍金

尼克·博斯特罗姆在其著作《监管机构》中提出了一个论点,即人工智能将对人类构成威胁。他认为,足够智能的人工智能,如果在实现某个目标的基础上选择行动,将表现出收敛的行为,例如获取资源或保护自己不被关闭。如果这个人工智能的目标不能反映人类的情况,一个例子是,人工智能被要求尽可能多地计算圆周率的位数,它可能会伤害人类,以获取更多的资源或防止自己被关闭,最终更好地实现它的目标。

对人工智能风险的担忧导致了一些高知名度的捐赠和投资。包括彼得·泰尔(Peter Thiel)、亚马逊网络服务(Amazon Web Services)和马斯克(Musk)在内的一批著名的科技巨头已向一家致力于推动负责任人工智能开发的非盈利公司Openai投入了10亿美元。人工智能领域的专家意见不一,其中相当大的一部分人既担心也不关心最终年代的风险。拥有超人能力的人工智能。2015年1月,Elon Musk向未来生命研究所捐赠了1000万美元,用于资助对人工智能决策理解的研究。该研究所的目标是“培养我们管理的智慧”技术不断增长的力量。马斯克还资助开发人工智能的公司,如谷歌DeepMind,并代之以“关注人工智能的发展情况”。我认为,人工智能可能会带来危险的结果。

要是出现这个影响,人工智能必须压倒或超越人类的思维,少数专家认为这是一种在未来不值得研究的可能性。

人性的贬低

Joseph Weizenbaum写道,根据定义,人工智能应用程序不能成功地模拟真正的人类同理心,而且在客户服务或心理治疗等领域使用人工智能技术被严重误导。Weizenbaum还担心人工智能研究人员(和一些哲学家)愿意把人类的思维看作仅仅是一个计算机程序(一个位置现在被称为计算主义)。对于魏泽鲍姆来说,这些观点表明人工智能研究贬低了人类的生命。

社会正义

一个令人担忧的问题是,人工智能项目可能被设定为对某些群体(如妇女和少数民族)有偏见,因为大多数开发商都是富有的高加索男性。男性对人工智能的支持(47%的人赞成)高于女性(35%的人赞成)。

人力需求减少

自动化与就业的关系是复杂的。虽然自动化消除了旧的工作岗位,但它也通过微观经济和宏观经济效应创造了新的工作岗位,与以前的自动化浪潮不同,许多中产阶级的工作岗位可能被人工智能消除;经济学人说,“人们担心人工智能会对白领工作造成影响,就像蒸汽动力在T期间对蓝领工作造成的影响一样。

”工业革命“值得认真对待”。对风险的主观估计差异很大;例如,迈克尔·奥斯本(Michael Osborne)和卡尔·本尼迪克特·弗雷(Carl Benedikt Frey)估计,47%的美国就业机会处于潜在自动化的“高风险”,而经合组织(OECD)的一份报告仅将9%的美国就业机会归类为“高风险”。处于极端风险的就业机会范围从帕拉尔(Paral)到帕拉尔(Paral)。从Egals到快餐厨师,尽管从个人医疗保健到神职人员等与护理相关的职业的就业需求可能会增加[344]作者Martin Ford和其他人进一步指出,大量的工作是常规的、重复的,并且(对于人工智能)是可预测的;Ford警告说,这些工作可能会在接下来的几年中实现自动化。而且,许多新工作可能无法“让能力一般的人获得”,即使是再培训。经济学家指出,在过去,技术倾向于增加而不是减少总就业,但承认人工智能“我们处于未知领域”。

自主武器

目前,有50多个国家在研究战场机器人,包括美国、中国、俄罗斯和英国。许多人担心来自监督人工智能的风险,也希望限制人工士兵和无人机的使用。

道德机器

具有智能的机器有潜力利用它们的智能来防止伤害并将风险降到最低;它们可能有能力使用道德推理来更好地选择它们在世界上的行动。这一领域的研究包括机器伦理、人工道德代理和友好的人工智能。

人工道德因素

Wendell Wallach在他的书《道德机器》中介绍了人工道德代理人(AMA)的概念。对于Wallach来说,在两个核心问题的指导下,AMA已经成为人工智能研究领域的一部分,他认为这两个核心问题是“人类是否希望计算机做出道德决定”和“CAN(RO)机器人真的是道德的”。对于瓦拉赫来说,问题的中心不是机器是否能够证明道德行为的等效性,而不是社会对AMA发展的约束。

机器伦理

机器伦理学领域涉及给机器提供伦理原则,或发现解决它们可能遇到的伦理困境的方法的程序,使它们能够通过自己的伦理决策以一种道德负责的方式运作。该领域在2005年AAAI秋季机器研讨会上进行了描述。伦理学:“过去关于技术和伦理学之间关系的研究主要集中在人类对技术的负责任和不负责任的使用上,少数人对人类应该如何对待机器感兴趣。在所有情况下,只有人类参与了道德推理。现在是时候给至少一些机器增加一个道德层面了。认识到涉及机器的行为的伦理后果,以及机器自治的最新和潜在发展,这一点是必要的。与计算机黑客、软件属性问题、隐私问题和其他通常归于计算机伦理的话题不同,机器伦理涉及机器对人类用户和其他机器的行为。机器伦理学的研究是缓解对自主系统关注的关键。可以说,没有这种维度的自主机器的概念是所有关于机器智能的恐惧的根源。此外,研究机器伦理可以发现当前伦理理论的问题,推进我们对伦理的思考。”。机器伦理有时被称为机器伦理、计算伦理或计算伦理。这一新兴领域的各种观点可以在《机器伦理学》汇编版中找到,该版本来源于AAAI 2005秋季机器伦理学研讨会。

恶意的和友好的人工智能

政治学家Charles T.Rubin认为,人工智能既不能被设计成仁慈的,也不能保证它是仁慈的。他认为“任何足够先进的仁慈都可能与恶意是不可区分的。”人类不应该假定机器或机器人会对我们很好,因为没有先验的理由相信它们是仁慈的。同情我们的道德体系,它随着我们特定的生物学(AIS不会分享)而发展。超智能软件可能不一定决定支持人类的持续存在,而且很难停止。这个话题最近也开始在学术刊物上讨论,作为对文明、人类和地球的真正风险来源。

解决这一问题的一个建议是,确保第一个普遍智能的人工智能是“友好的人工智能”,然后将能够控制随后开发的人工智能。有人质疑这种检查是否真的可以保留。

首席人工智能研究员罗德尼·布鲁克斯写道:“我认为在未来几百年里,任何时候担心我们开发恶意人工智能都是错误的。我认为,这种担心源于一个根本性的错误,即不能区分人工智能某一特定方面的最新进展与构建有知觉意志智能的巨大性和复杂性之间的差异。

机器意识、知觉和思维

如果一个人工智能系统复制了人类智能的所有关键方面,那么这个系统也会有知觉吗?它会有一个有意识经验的头脑吗?这一问题与人类意识的本质这一哲学问题密切相关,一般被称为意识的难题。

意识

大卫·查默斯发现了理解大脑的两个问题,他把这两个问题称为意识的“难”和“易”问题。简单的问题是理解大脑如何处理信号、制定计划和控制行为。困难的问题是解释这种感觉,或者为什么它应该是什么感觉。人的信息处理很容易解释,但人的主观经验很难解释。

计算主义和功能主义

计算主义是思维哲学中的一种立场,即人的思维或人脑(或两者)是一个信息处理系统,而思维是一种计算形式。计算主义认为,思维与身体之间的关系与软件与硬件之间的关系类似或相同,因此可能是身心问题的解决方案。这一哲学立场受到了人工智能研究人员和认知科学家在20世纪60年代的工作的启发,最初由哲学家杰里·福多和希拉里·普特南提出。

强人工智能假设

约翰·西尔称之为“强大人工智能”的哲学立场是:“正确输入和输出的适当编程的计算机将因此拥有与人类拥有头脑完全相同的头脑。”。西尔用他的中文室论据反驳了这一主张,该论据要求我们查看计算机内部并试图找到“头脑”可能在哪里。

机器人权利

如果一台机器能被制造出来,它也能感觉到吗?如果它能感觉到,它和人类有同样的权利吗?这个现在被称为“机器人权利”的问题,目前正被加利福尼亚未来研究所(Institute for the Future)所考虑,尽管许多批评家认为这个讨论还为时过早。一些对超人道主义的批评家认为,任何假设的机器人权利都存在于动物权利和人权的范围内。。Rofoundly在2010年的纪录片《插电与祈祷》中讨论过。

监管

智能机器或人机混合动力系统的功能有限制吗?超智能、超智能或超人智能是一种假设性的智能体,它拥有的智能远远超过最聪明和最有天赋的人的智能。监管机构也可以指这种代理人所拥有的情报的形式或程度。

技术奇点

如果对强人工智能的研究能够产生足够的智能软件,那么它可能能够重新编程并改进自己。改进后的软件在自我改进方面会做得更好,从而导致递归的自我改进。因此,新的智能可以成倍增长,大大超过人类。科幻作家维诺·温格将这种情况称为“奇点”。技术奇点是指在技术进步的加速过程中,会产生一种失控的效果,其中人工智能将超越人类的智力和控制能力,从而彻底改变甚至终结文明。由于这种智能的能力可能无法理解,因此技术奇点是一种不可预测的事件,甚至是难以理解的事件。

超人类主义

机器人设计师Hans Moravec、控制论者Kevin Warwick和发明家Ray Kurzweil预测,人类和机器将在未来融合为比两者都更有能力和更强大的电子人。这个想法被称为“超人类主义”,起源于Aldous Huxley和Robert Ettinger。

爱德华·弗雷德金认为“人工智能是进化的下一个阶段”,这是塞缪尔·巴特勒(Samuel Butler)的《机器中的达尔文》(Darwin in the Machines)(1863年)首次提出的一个观点,并在1998年由乔治·戴森(George Dyson)的同名书中加以扩展。

小说

自远古以来,有思想能力的人造生物就作为讲故事的工具出现,一直是科幻小说中的一个主题。

在这些作品中,一个常见的比喻始于玛丽·雪莱的《科学怪人》,在那里,一个人类的创造物成为了对其主人的威胁。这包括亚瑟·C·克拉克(Arthur C.Clarke)和斯坦利·库布里克(Stanley Kubrick)的《2001:太空漫游》(A Space Odyssey)(1968年和1968年),哈尔·9000(Hal 9000),负责探索一号宇宙飞船的凶残计算机,以及《终结者》(1984年)和《矩阵》(1999年)。

艾萨克·阿西莫夫在许多书和故事中介绍了机器人学的三个定律,最著名的是关于同名超级智能计算机的“多变量”系列。阿西莫夫定律通常是在机器伦理学的外行讨论中提出的;虽然几乎所有的人工智能研究人员都通过流行文化熟悉阿西莫夫定律,但他们通常认为这些定律由于许多原因是无用的,其中之一就是它们的模糊性。

《贝壳中的漫画鬼》和科幻系列小说《沙丘》探讨了人与机器的融合。在20世纪80年代,艺术家Hajime Sorayama的性感机器人系列在日本被绘制和出版,描绘了真实的有机人体,有栩栩如生的肌肉金属皮肤,后来又出版了《妇科医生》一书,随后被乔治·卢卡斯和其他创作家使用或受到影响。索拉亚马从未认为这些有机机器人是自然的真实组成部分,但始终是人类思维的非自然产物,一种存在于头脑中的幻想,即使以实际形式实现。

有几部作品使用人工智能来强迫我们面对什么使我们成为人类这一基本问题,向我们展示具有感知能力的人工生物,从而使我们受苦。这出现在卡雷尔·阿佩克的《R.U.R.》、电影《A.I.人工智能》和《前机器》以及小说《机器人梦见电羊》中。菲利普·K·迪克。迪克认为我们对人类主体性的理解是由人工智能创造的技术改变的。

您的支持是我最大的动力!