//resource.jingkan.net/imgs/82cd1980-a535-11e9-8e79-e3ae492fca2d.jpg大数据文摘作品

编译:惊蛰、新知之路、王一丁、张南星、于乐源、蒋宝尚


荒谬的预估往往会导致对未来的恐惧。而为什么有人会对AI和机器人的技术前景如此恐慌?下文中,这七种错误往往导致AI和机器人前景的荒谬预测。


很多人对人工智能和机器人行业的快速发展感到十分焦虑,一部分人担心他们很快会变得过于强大,也有一部分人担心他们会对人类现在的工作体系产生冲击。


Market Watch上有人宣扬机器人将在十到二十年内占据现今大部分工作,甚至还发布了一张满是数据的图片当作论据。


//resource.jingkan.net/imgs/82cd4090-a535-11e9-8e79-e3ae492fca2d.jpg机器人将在十到二十年内占据现今大部分工作


这份声明并不客观,比如,如图中显示美国100万地面维修人员在在十到二十年之后只会剩下5万,因为以后这些工作都会由机器人完成。实际上,目前有多少台机器人正在做地面维修呢?一个也没有。


类似的例子也适用于上图中其他所有行业,所谓在体力劳动者中将会出现90%甚至97%的大幅就业下滑,然而实际上却并非如此。


在许多对AI未来的预测中,都有相同的问题。首先列出ABCD四个有关导致错误预测的大方向,并简要评估他们的立场。


A.泛用人工智能(AGI)- AGI旨在从当今AI技术(如机器学习)中分离出一个思维实体,目的在于创造能像人类一样能够自主思考和行动的个体。但最近AI领域的成功却并非都与AGI相关。


有些人认为所有的人工智能都是泛用人工智能(AGI),但正如“General”一词所指,AGI要求远远高于目前AI。如果将现有的AI都理解为是AGI,那就明显有些名不副实了。


目前,“泛用人工智能”的研究并不是十分理想,既没有做到特别通用,也没能形成一个独立存在的个体。50年前遇到的问题,如在推理能力和常识上的不足,现在仍是制约其发展的主要原因。在其他领域中,比如在人工生命(Artificial Life)和适应行为模拟(Simulation of Adaptive Behavior)方面,人们已经取得了一些进展,但这些研究现在已经停滞了。


理论上说,“泛用人工智能”是可以实现的。然而或许人类还不够聪明,还没弄清楚怎么创造“泛用人工智能”


(编者注:本文作者在“目前适合部署在机器人上的人工智能系统”一文中有介绍。)

文章链接:

http://rodneybrooks.com/forai-domo-arigato-mr-roboto/


即便可能,人类距离理解和建立真正的“泛用人工智能”远比许多专家所说的要远。(经常有人提到“一个人工智能”,好像所有人工智能都是独立的个体一样。这一点很让人困惑,就像本地人不把旧金山(San Francisco)叫做“Frisco”一样,没有一位认真的研究人员会用“一个人工智能”来形容人工智能。)


B.奇点(Singularity)- 奇点的意思是指一个有着明确目标的AI实体,会在某一个点在AI的研究方面超越人类的研究速度。与此同时,就如摩尔定律所言,计算机处理速度越来越快,AI在达到奇点后会开始自我研究与加速的过程,如同物理学中黑洞的奇点一样,我们也不知道奇点发生后AI到底会变成什么样子。


正因为这种不可预测性,“相信”奇点的人们很乐意赋予奇点发生之后的AI无所不能的特性。之所以把“相信”两个字用引号括起来,是因为这种“相信”多多少少带有些宗教的味道。以后对有些人来说,他们可以向这样的AI上传自己的大脑从而得到永生,而不必麻烦地相信通常意义上拥有超能力的神。这种前所未有的强大科技将成为这些人新的上帝,一个新的宗教就此诞生了,科技教!


有些人对于宗教中的救恩日(Day of Salvation)何时到来有着非常明确的想法。一位奇点预言家的追随者们板上钉钉地相信,这件事将在2029年发生。


这种预测错误很大程度上受到了指数主义的影响,这也是在这里所讨论的的AI领域七个常见错误之一。


虽然现在的计算机拥有强大的计算能力,但这并不意味着我们已经拥有或者哪怕是接近拥有一种可以在人工智能领域进行自主研究,并且能通过重写自己的代码从而进行不断优化的程序。


事实上,现阶段我们还没有写出能自己理解一页代码的程序,同样的代码,计算机系的新生上了一个月的课之后就能理解的更好。所以,如果想要创造比人类更擅长编写程序的AI系统,我们面前有很长的路要走。


类似的,奇点崇拜者常常提到的通过在神经元层面模拟大脑来达到奇点的方法的进度也不怎么样。三十年来,我们已经详细了解了C类线虫由302个神经元构成的完整“线路图”,以及它们之间的7,000个连接。这一点对理解其行为和神经元之间的联系非常有用。


但是,这是一项长达30年的研究,涉及数百人,都只为了尝试了解区区302个神经元。根据打算从头一步一步模拟线虫神经系统的OpenWorm项目,研究的进程还没有走到一半。


OpenWorm项目:

https://en.wikipedia.org/wiki/OpenWorm


如果想模拟人类大脑中1000亿个神经元和甚至更大量的连接,难度是可想而知的。所以,如果你想通过奇点事件,把自己上传到计算机模拟里的话,还是先试着多活个几百年吧。


C.不同的价值体系 - 第三种情况,是基于AI的机器在执行某些任务时通常做得很好,好到甚至在复杂的世界中也可以达到超人的表现。然而,这些机器并没有人类的价值观和思维方式,这就会引发各种各样的问题。


这个问题的某些版本的确是真的 - 比如说,如果我最近买了张去某个城市的飞机票,突然间我浏览的所有靠广告赚钱的网站都开始给飞往那个地方的机票打广告。这当然很蠢。我不认为这样的现象算得上高水平的AI,只能说这类广告的算法设计并不是很好。


但这个观点还是有支持者的(出于公正的考虑,以下保持匿名):


“有个很有名的回形针事例刚好能说明这个现象:如果一台机器的唯一目标就是最大化的量产回形针,那它有可能会发明些匪夷所思的技术,只为了把宇宙中能用的资源都转化成回形针,最终毁灭人类。”


当然… 不是这样的。无论如何我们都不会在现实世界中遇到这样的软件,一个为了实现人类给它制定的目标,可以聪明到可以颠覆人类社会,并忽视人类正是它的创造者这一事实。如果你认为技术会这样进化的话简直就是愚蠢至极,各种各样错误的原因很有可能在下文提到的七个问题中找到答案。


包括上文引用的部分,以及在墨尔本举行的人工智能国际联合会议IJCAI(International Joint Conference on Artificial Intelligence)中这位作者多次强调:我们人类需要用数学来证明AI的目标和人类是一致的。


情况C来自于研究员们,当他们发现一个有趣的智能方面的研究课题后,随即借用自己的名声把它宣传成一个短期内急需解决的问题。于是,当AI的奉迎者们知道了,便顺势将这个问题变成一个关乎人类存亡的重大问题。


顺便说一下,用数学给这样的AI作证明并不现实。多年来,通过大量的努力,我们还是无法证明一千行的代码不能被黑客破解,更遑论大型AI系统了。不过好消息是,数千年来,我们人类可以和马共存,尽管马是个拥有自我存在感、渴望和远超常人体力的独立个体,但人类仍为了自己的利益而驱使它们。而神奇的是,我们直到现在都没有任何一个和马相关的定理!


D.超邪恶、恐怖、残忍、人类灭绝型AI - 最后这类就像第三种情况一样,但是这类AI对人类有明显的反感,甚至打算毁灭人类以获得更好的生存。


至少从上世纪六十年代末期开始,这种科幻思维在好莱坞特别流行。在上映于1968年的《2001:太空漫游》中,机器所造成的破坏仅限于一艘太空船。


而在1970年上映,情节也基于这个时间点的《电影巨人:福宾计划》中,人类在全球范围内都遭受到了浩劫。这个主题多年来一直持续着,距今不久的于2004年上映,以2035年为事件发生时间的电影《我,机器人》中,名叫VIKI的邪恶AI通过新型NS-5类人机器人接管了整个世界。


这种情况比上文的情况C错得更为离谱。我觉得这些电影中的想法会让人们对这些的危险感到心有余悸。


军事机器人杀手的话题,在新闻报道中这个话题很容易和情况D相混淆,更糟的是被那些忙着宣扬邪恶AI的人将其与情况D彻底混为一谈。事实上这两个是完全不同的问题。此外,我认为关于军事机器人的很多观点都被严重误导了。然而,这是一个完全不同的话题


言归正传,如下是在AI预测方面经常犯的七类错误。这七类错误影响着A、B、C、D四种情况发生的时间和可能性。不过,其中有些错误对错误预估的影响要大于其他的错误。下文中,小标题里用字母标出了这七类错误主要会造成A、B、C、D中的哪些情况。第一类错误对所有情况都会造成影响!


1. [A,B,C,D]高估与低估

//resource.jingkan.net/imgs/82cd67a0-a535-11e9-8e79-e3ae492fca2d.jpg


未来主义者Roy Amara,是位于斯坦福大学内的For The Future研究机构的联合创始人与主席,无数项目的资本风投家,也是硅谷的智囊之一。让他被世人所知的是他的那句著名格言,常被引用为“Amara法则”--我们总是倾向于高估技术带来的短期影响,并低估其长期影响。


关于Amara法则的双向性有一个很好的例子,即美国全球定位系统(GPS)30年的历程。自1978年起陆续在轨道上放置了24颗卫星(算上备份的话是30颗)。


地球上的任何一点可以同时看到其中的4颗,这样就可以计算经纬度和海拔高度。位于科罗拉多州Schriever空军基地的指挥中心不间断的监视卫星的轨道的精确度和机载原子钟的准确性,出现微小的偏差后便上传修正的数据。


如果没有这些上传的数据,GPS将会在一至两周之内出现定位到别的街道的错误,再过几个月之后,误差就可能将你定位在别的城镇了。


GPS的目标本是为了令美军精准的投放炸弹,这是设计之初的期望。美军在1991年的“沙漠风暴”军事行动中首次使用,起初的效果貌似十分理想。


但在90年代GPS计划一直受到质疑因为其精确程度一直没有达到最理想的效果,直到21世纪初被美军全面接受之前,整个项目面临着一次又一次被裁掉的风险,度过了一段艰难的日子。


如今,GPS的使用进入了长期的规划,当初把它投放到卫星轨道时根本没想到会有如此多的用途。比如当我在外面跑步时,正是利用Apple手表上的GPS模块记录我的位置,其精度可以达到分辨出我在沿着一条街的哪一边行进。


GPS信号接收器的尺寸之小、价格之低及应用之广估计是它原来的设计者门怎么也想像不到的。它在为全球的物理实验提供同步服务、成为美国国家电网的核心组成部分、甚至帮助股市里高频投资的操作者们规避时间误差所造成的灾难。


GPS应用在所有的美国大大小小的飞机导航系统上、跟踪定位获得假释的犯人、告诉人们什么种子应种植在哪片土地上。它获取卡车队伍的信息并报告司机们的表现、基于地面上反弹回去的信号判断地面湿度,并制定灌溉计划。


GPS始于一个单一的目标并艰难的为之努力。现在它已渗透进我们生活的诸多领域,如果没有了GPS,我们在生活中遇到的问题不止迷路这么简单,而是可能会处于一个饥寒交迫的环境,最终导致死亡。


在过去三十年中我们也看到了同样模式的技术型产品。首先是一个宏伟的设想,紧接着就是失望,然后一点点的发展,最后超越了当初所设想的目标。比如区块链(比特币是其第一个应用),人类基因组测序,太阳能,风能,甚至送货上门服务。


或许最著名的一个例子就是计算机。当1950年代第一台商业计算机问世时引起了广泛的恐慌,大家都认为以后所有人都会因计算机的出现而丢掉工作(可以看看1957年的电影《Desk Set》)。


但在此之后30年里计算机几乎没有对人类的直接影响,甚至到了1987年仍没有用在消费类设备上的微处理器。所有的改变都发生在接下来的30年中,也被称之为第二次工业浪潮,现在看看我们身上、车里、房屋里,计算机已随处可见。


为了阐述计算机的长期影响如何被一贯地低估,我们需要回顾一下旧科幻电影或电视剧中描绘的未来是什么样子。在1966年版的《星际迷航》中300年后宇宙飞船计算机的样子已经让30年后的人们笑掉大牙,但我们不妨三个世纪以后再回头来看看现在的科幻电影。


《星际迷航:下一代》和《星际迷航:深空九号》这两部电影的时间跨度是虽然达到13年(1986-1999),但影片中遥远未来的太空船里,演员手上仍需要携带大量的文件,与空间站的文件传输仍然不能通过网络的方式(就像当时的AOL网络一样),而飞船中用来检索资料的数据库由于仍采用互联网时代之前的“未来”设计样式而显得十分的落伍。


绝大多数的科技产品的短期效应会被高估,因为他们是笼罩着光环的新鲜事物。人工智能由于被贴上新鲜事物的标签在1960年代和1980年代一次又一次的被高估,现在也是同样的情况。(一些大型公司释放出的在市场上应用AI的消息是带有欺骗性的,在不远的将来可能就会砸了自己的脚。)


并不是所有的科技产品的长期效应会被低估,但AI的长期效应的确被低估了。问题在于“多久”才算长期,以下是6个常犯的错误观点,会助于更好的理解为什么AI的长期效应是被严重低估了的。


2.[B,C,D]想象魔法


//resource.jingkan.net/imgs/82cd67a1-a535-11e9-8e79-e3ae492fca2d.jpg


亚瑟·克拉克(Arthur C. Clarke)、罗伯特·海因莱因(Robert Heinlein)与艾萨克·阿西莫夫(Isaac Asimov)并称为科幻界的“三巨头”。但克拉克绝不仅是科幻作家,他更是一位发明家、科普作家与未来主义者。


早在1945年2月,他给《无线世界》(Wireless World)写了一封信,提到了与地球同步的轨道卫星的创意,同年10月他又发表了一篇论文,概述了这些卫星可以向全球范围提供了无线电信号的覆盖。


在1948年他写了一篇短篇小说《前哨(The Sentinel)》,为斯坦利·库布里克(Stanley Kubrick)的经典电影《2001太空漫游》提供了核心灵感。在电影拍摄期间,卡拉克为电影撰写了同名书籍,为电影观众们解答了诸多的疑惑。


在1962年至1973年期间,克拉克明确三大假说,后被称为克拉克三大定律(他说牛顿仅用了三条定律,对他来说三条也足够了)。


  • 定律一:如果一个年高德劭的科学家说,某件事情是可能的,那他可能是正确的;但如果他说,某件事情是不可能的,那他也许是非常错误的;

  • 定律二:要发现某件事情是否可能,唯一的途径是跨越“可能”的这个界限,从不可能回到“可能”中去;

  • 定律三:任何非常先进的技术,初看都与魔法无异。


想象一下我们乘坐时间机器(时间机器本身就如同魔法一般)带着牛顿从17世纪晚期来到现在剑桥大学的三一学院教堂。这座教堂在牛顿生前已经伫立100多年了,所以当他突然发现身处其中时应该并不会感到太过震惊,在没有意识到当前的日期之前。


然后我们给牛顿先生展示一下苹果(大家都知道牛顿与苹果的故事)。从兜中拿出一个苹果手机,开机并递给牛顿先生让他看看发亮的屏幕和充满各种应用的图标。


别忘了牛顿的伟大成就之一就是通过三棱镜将白光分离成不同频谱的光,从而揭示了光的秘密。所以在阴暗的教堂里,从一个如此小的物体中释放出如此艳丽的光,无疑会给他一个巨大的惊喜。


接着给他播放一段英国田园风景的小视频,或许再配上一些他熟悉的动物和教堂中的音乐,这些画面暂时跟未来世界的样子无关。最后,打开一个网页,里面是500多页他亲笔注释的著作《自然哲学的数据原理》的电子版,教他用手势操作来放大查看细节。


牛顿能够解释出这么小的设备是怎么做到这些功能的吗?虽然他发明了微积分、研究出光学和重力等物理理论,但他从未能将炼金术和化学区分开。


所以他会很困惑,甚至无法设想出这台设备最基本的理念框架。这与他生前致力研究的神秘事物并无二致。对他来说这就是魔法无异。请记住,牛顿可是一个十分聪明的家伙!


如果一类事物被定义为魔法,我们则很难知晓它的界限。假如我们进一步给牛顿展示手机如何在暗处发光、如何拍照及录音,如何用来当放大镜和镜子,还可以让手机以不可思议的速度来进行多位小数的算术运算,再把它佩戴到身上用作计步器。


牛顿看完这些后,会猜测这台小机器还能做什么?他会不会猜出通过这台设备就在这座教堂里即可与世界上任意角落的人通话?


三棱镜效应是永恒的,牛顿会不会猜测出iPhone也会像三棱镜一样永远有效,而不明白事实上它需要充电(记住我们是在迈克·法拉利出生前100多年找到的他,所以当时关于电的概念并没有普及)?如果不需要火就可以产生光,那么能把铅炼成金吗?


这就是我们所有人想象未来科技时所遇到的问题。如果距离我们所能理解的科技太过遥远,我们将不会知晓它的界限,那对于我们来说就是魔法。


一项科技一旦超越了那条“魔法线”,它将不可能再被证伪,因为那的确就是魔法。


每与别人探讨人类是否应该惧怕泛用人工智能时,经常遇到这样的情景,暂时先不论上文中C和D的情况,人们总是认为我不明白它有多强大。可这并不是一个论点,因为我们甚至都不知道它是否存在。以观察到的种种迹象显示我们仍不知道如何建造一个泛用人工智能。所以它的各项属性性能便无从知晓,所以从字面意思上看它的确具有强大的魔力,没有界限。


然而,宇宙中没有任何事物可以没有界限,再强大的AI也不例外。


留神那些说未来科技如同魔法一般的说法,这个说法永远无法被证伪,因为这是一种源于信念的说法,而不是源于科学的。


3. [A,B,C]表现 vs 胜任


//resource.jingkan.net/imgs/82cd67a2-a535-11e9-8e79-e3ae492fca2d.jpg


在日常的社交中,我们可以判断出我们周围人的个体能力值,的确有时个别例外情况会颠覆或混淆我们的估计,这也是种族主义、性别歧视与阶级歧视等问题的根源。


然而总的来说,我们通过观察一个人曾经做事的表现来评估他完成其他事情的能力,也能够从其在一项任务的表现来推测他能否胜任更艰巨的任务,我们自然而然的能从一个人表现出的能力去推断出他在相关领域的胜任能力。


当我们在国外向陌生人问路时,如果他们满怀信心的用我们问的语言进行回答,并且所指的路线看起来也没错。我们就会觉得值得再碰碰运气,继续问乘坐公交时怎么付费。


如果我们十几岁的孩子可以配置新游戏机连到家里的WIFI上,那么我们会认为只要他们愿意就可以把新的家用电脑也连到WIFI上。


如果一个人可以驾驶手动挡的汽车,坚信他也可以开动自动挡的汽车。可是如果这个人生活在北美洲,我们并不认为他可以反着来一遍。


如果我们在一座大型五金商店内询问员工家用电器的配件在哪,他却领我们走到了花园工具的那一行。我们就不太可能再去问同一个人哪能找到浴室里的水龙头。因为我们认为他既然不知道家用电器配件在哪,说明他其实不太清楚店里的布局,所以我们便倾向于找其他人问第二个问题。


现在,让我们来看一下当今AI系统的一些表现的案例。


假设一个人向我们展示一张人们在公园里玩飞盘的照片,我们自然的相信他可以回答下面这些问题:“飞盘是什么形状的?”、“一个人大概可以把飞盘扔多远?”、“飞盘可以吃吗?”、“大概多少人在玩飞盘?”、“3个月大的宝宝可以玩飞盘吗?”、“今天的天气适合玩飞盘吗?”等问题。


与之相反,我们不能指望当一个人因为文化差异,完全不明白照片里显示的是什么时,仍能够回答这些问题。如今,图像标签(image labelling)系统虽然可以比较准确的为网络上的图片打上“人们正在公园内玩飞盘”诸如此类的标签,但仍然不能回答上述那些问题。


而且事实是它们仅限于打标签,根本不能回答任何问题。它们不知道图片中的内容意味着什么,人类是什么,公园通常是在户外的,人类有年龄这个属性,天气本身远比图片上看到的天气要复杂得多等等……


但是这并不代表这个系统毫无用处。他们对于搜索引擎公司来说具有重大的意义,因为仅是做好打标签的工作就可以让搜索引擎公司从单一文字搜索跨越到可以对图片进行搜索。


不过值得注意的是,搜索引擎通常会为一个问题提供多个答案,让搜索者自己决定哪一个才是真正相关的内容。搜索引擎公司一直为了能在推荐的前几个选项中包含最佳选项而不断的提升搜索引擎的性能。


这种依赖于用户去甄选答案的做法,使得搜索引擎没必要每次都将最佳答案排到第一个。但如果只能给出一个答案,无论是搜索“巴黎的高档酒店”,或是在一个电子商务网站搜索“时髦领带”的图片,这些搜索引擎的用处将大打折扣。


这就是很多人犯错的地方,每当他们听说某个机器人或AI系统可以处理某一类任务,他们会按照推断人类的“表现 -> 胜任”方式去对这个机器人或者AI系统进行判断。


现阶段机器人和AI系统能做的事情还很有限,人类社会中的归纳概括模式对它们并不适用。如果谁用了和人类同样的推断方式,就会得到十分错误的判断。


4. [A,B] 手提箱词


//resource.jingkan.net/imgs/82cd8eb0-a535-11e9-8e79-e3ae492fca2d.jpg


“手提箱词”(Marvin Minsky创立的一个术语,意思是说一个单词包含有很多含义,如手提箱打开后里面有很多东西一样,比如:意识,思考,经验等等)。那篇文章讨论了机器学习中的“学习”一词,对人类而言可以有很多类型的学习。人类对于不同类型的学习当然有不同的应对。比如:学习使用筷子与学习一首新歌的体验就非常不同;学习编写代码与在某一城市中学习新的路线也截然不同。


当人们知道机器学习在某个新的领域取得了进展以后,往往会将自己对该领域的学习、思考模式套用过去,对很多模棱两可的词汇的理解就会有偏差,比如“思考”对于人类和机器是完全不同的。


而且很多人不明白,机器的学习是有很多的前提的,它需要研究人员或工程师进行大量的前期工作,要针对不同领域的写相应的代码来处理输入数据,还要有特定的训练数据集以及针对每个新的领域的不同的学习结构。


对人类而言,面对一个新的领域无需精密且繁琐的前期工作就可以直接开始全面的进行学习,这种海绵式的学习方式是目前机器学习远远无法达到的。


同样,当人们听到计算机现在可以击败国际象棋世界冠军(1997年)或围棋世界冠军(2016年)时,他们往往认为它就像人类一样是在“下”棋。 然而事实上这些程序并不知道游戏实际是什么,也不知道他们在玩什么。


正如在The Atlantic网站中,围棋世纪之战文章中指出的那样:驱动人类棋手李世石的是12盎司的咖啡,而AlphaGo作为分布式AI应用需要大量的机器部署,和超过100位科学家在其背后作为支持。


当人类选手进行比赛时,对规则进行小的变动并不会使他无所适从——好的选手懂得如何去适应规则。但对于AlphaGo或Deep Blue 来说并非如此。(Deep Blue 于 1997 年击败国际象棋大师 Garry Kasparov)


这类手提箱词的使用会让人们对现在机器能做到的事情产生误解。 一方面,研究人员与他们所在机构的新闻部门,都渴望宣称他们的研究取得了进展,因此这类手提箱词便有了用武之地。


无论研究人员多么谨慎(实情是往往并不是所有人都总是非常小心),只要研究结果传到新闻部门,然后进入参差不齐的新闻媒体之中,文字中的很多细节便会丢失。 标题大肆宣扬“手提箱”字眼,不断的使读者对人工智能已到达多么高的水平以及有多么接近目标产生误解。


我们甚至还没怎么谈到Minsky列举的许多关于AI系统的手提箱词;比如“意识”,“经验”或“思想”。对于我们人类来说,很难想象如何在没有意识或没有下棋经验,或者行棋思路的情况下下棋。


截至目前,我们的AI系统在人类的各种活动中还远远没有达到手提箱词所能代表的水平,甚至还没有到达初级阶段。当我们夸赞特定领域的AI应用,认为它们在一定程度上达到了“智能”的水平时,媒体,或者说大多数看客,又会将AI的能力泛化,认为其无所不能。


我们担心的是这些单词的部分含义哪怕只是在非常有限的一方面得到了证明,人们往往便将其神化,以为机器在这些方面的智能已经接近类似人类的能力。


用语很重要,但只要我们用一个词语描述有关AI系统的某个东西时,如果这个词也适用于人的话,人们就会高估其对于AI系统的意义。迄今为止大多数适用人类的单词在用到机器身上时,其表达的水平都不过是用在人身上时的千万分之一。


下面是一些已经应用于机器的动词,但在它们描述的实际能力方面机器又与人类完全不同:


预期(anticipate)、击败(beat)、 分类(classify)、 描述(describe)、 估计(estimate)、 解释(explain)、 幻想(hallucinate)、 听(hear)、想象(imagine)、 企图(intend)、 学习(learn)、 建模(model)、计划(plan)、 玩(play)、 认识(recognize)、读(read)、 推理(reason)、 反映(reflect)、 看(see)、 理解(understand)、走(walk)、写(write)。所有这些词语,都可以在相关论文中找到,但在论文中的意思往往只是这些词所蕴含的丰富含义的很小一部分。不幸的是,通过这些词的使用,给人了一种机器已经与人类相差无几了的错觉。


这就导致了人们误解并高估了当今AI的能力。


5.[A,B,B,B,…] 指数论


很多人都遭受过所谓的“指数论”之苦。


每个人对摩尔定律都有自己的想法,至少知道计算机的运算速度会随着时间发展变得越来越快。


戈登摩尔实际上说的是,芯片上的组件数量会每年翻番。