您好,欢迎访问爱游戏-体育app|全站下载!​ 设为首页| 加入收藏

图片名

全国服务热线:0577-65809763

热熔胶机

电话:0577-65809763

邮箱:845063719@qq.com

地址: 浙江省温州市瑞安市塘下镇塘下大道168号

热熔胶机

当前位置: 首页 > 产品展示 > 热熔胶机

深度学习撞墙了

发布时间:2023-03-07 来源:爱游戏-体育app|全站下载 1 次浏览

  早在 2016 年,Hinton 就说过,咱们不必再培育放射科医师了。现在几年曩昔,AI 并没有代替任何一位放射科医师。问题出在哪儿?

  近年来,AI 在大数据、大模型的深度学习之路上一路狂奔,但许多核心问题依然没有处理,比方怎样让模型具有真实的了解才能。在许多问题上,持续扩展数据和模型规划所带来的收益好像现已没有那么显着了。

  在 Robust.AI 开创人、纽约大学名誉教授 Gary Marcus 看来,这预示着深度学习(准确地说是朴实的端到端深度学习)或许就要「撞到南墙」了。整个 AI 范畴需求寻觅新的出路。

  Gary Marcus 的推文。Gary Marcus 是人工智能、心理学、神经科学等多个范畴的专家。他常常为《纽约客》和《》撰稿,并且是四本书的作者。在担任纽约大学心理学和神经科学教授期间,他在人类和动物行为、神经科学、遗传学和人工智能等范畴宣布了许多文章,并常常刊登在 Science 和 Nature 等期刊上。

  那么,新的出路在哪儿呢?Gary Marcus 以为,长期以来被疏忽的符号处理就很有出路,将符号处理与现有的深度学习相结合的混合体系或许是一条十分值得探究的路途。

  当然,了解 Gary Marcus 的读者都知道,这现已不是他榜首次提出类似观点了。但令 Marcus 绝望的是,他的提议一向没有遭到社区注重,特别是以 Hinton 为代表的尖端 AI 研讨者。Hinton 乃至说过,在符号处理办法上的任何出资都是一个巨大的过错。在 Marcus 看来,Hinton 的这种对立伤害了整个范畴。

  不过,令 Marcus 欣喜的是,其时也有一些研讨人员正朝着神经符号的方向进发,并且 IBM、英特尔、谷歌、 Meta 和微软等许多公司现已开端仔细出资神经符号办法。这让他对人工智能的未来开展感到达观。

  在 2016 年多伦多举办的一场人工智能会议上,深度学习「教父」Geoffrey Hinton 曾说过,「假如你是一名放射科医师,那你的境况就像一只现已在山崖边际但还没有往下看的郊狼。」他以为,深度学习十分合适读取核磁共振(MRIs)和 CT 扫描图画,因而人们应该「中止练习放射科医师」,并且在五年内,深度学习显着会做得更好。

  时刻快进到 2022 年,咱们并没有看到哪位放射科医师被代替。相反,现在的一致是:机器学习在放射学中的运用比看起来要困难,至少到现在为止,人和机器的优势仍是互补的联系。

  很少有哪个范畴比 AI 更充溢炒作和故弄玄虚。它在十年又十年的潮流中不断变身,还给出各种许诺,但只要很少的许诺能够完结。前一分钟是它仍是专家体系,下一分钟就成了贝叶斯网络,然后又成了支撑向量机。2011 年,IBM 的沃森曾被宣传为医学革新,但最近却被分拆出售。

  2012 年以来,AI 范畴最火的是深度学习。这项价值数十亿美元的技能极大地推进了当代人工智能的开展。Hinton 是这项技能的前驱,他的被引量到达令人惊叹的 50 多万次,并与 Yoshua Bengio 和 Yann Lecun 一同获得了 2018 年的图灵奖。

  就像在他之前的人工智能前驱相同,Hinton 常常议论行将到来的巨大革新。放射学仅仅其间的一部分。2015 年,Hinton 参加谷歌后不久,《卫报》报导称,该公司行将开宣布具有逻辑、天然对线 月,Hinton 告知 MIT Technology Review,「深度学习将能够做任何作业」。

  我对此深表置疑。实际上,咱们还没有办法造出能够真实了解人类言语的机器。马斯克最近标明,他期望制作的新人形机器人 Optimus 所构成的工业有一天会比轿车职业还大。但到 2021 年「特斯拉 AI 日」,Optimus 还仅仅一个穿戴机器人服装的人。

  谷歌对言语的最新奉献是一个名叫「Lamda」的翻云覆雨的体系。论文作者之一 Blaise Aguera y Arcas 最近也供认,这个模型简略胡言乱语。开宣布咱们真实能够信任的 AI 并非易事。

  深度学习本质上是一种辨认办法的技能。当咱们只需求大略的效果时,深度学习的作用是最好的。这儿的大略效果是指使命自身危险低,且最优效果可选。举个比方,有一天,我让我的 iPhone 找一张几年前拍的兔子的相片。虽然我没有给相片打标签,手机仍是马上发挥了作用。它能做好这件事是由于我的兔子相片与一些大型数据库中的兔子相片满足类似。可是,根据深度学习的主动相片标示也简略犯错,比方漏掉一些(特别是那些场景凌乱、光线杂乱、视点古怪或许兔子被部分遮挡的相片。它偶然还会把我两个孩子的婴儿相片弄混。但这类运用犯错的危险很低,我不会因而丢掉我的手机。

  可是,当危险更高时,比方在放射学或无人驾驭轿车范畴,咱们对是否选用深度学习要愈加慎重。在一个小小的过错就能夺去一条生命的范畴,深度学习还不行优异。在遇到异常值时,深度学习体系体现出的问题特别显着,这些异常值与它们所承受的练习有很大的不同。例如,不久前,一辆特斯拉在所谓的全主动驾驭办法下遇到了一个在路中心举着泊车标志的人。轿车未能认出这个部分被泊车标志遮挡的人以及中止标志(在正常情况下,泊车标志一般在路旁边),所以人类司机不得不接手。这个场景远远超出了练习数据库,以至于体系不知道该怎样做。

  现在的深度学习体系常常犯一些愚笨的过错。它们有时会误读图画上的尘垢,而人类放射科医师会以为这是一个小毛病。(放射科体系的另一个问题是,现在的人工智能首要或完全依赖于图画,很少或底子不了解或许描绘患者病史的一切文本,有时乃至疏忽了要害信息,这也是人类参加其间的要害动机。)一个深度学习体系将苹果误标为 iPod,由于苹果的前面有一张纸,上面写着 iPod。还有的体系会把一辆在雪路上翻倒的巴士误以为是扫雪机。现在,机器学习的一个完好分支范畴正在研讨这些过错,但还没有给出清晰的答案。

  表面上令人形象深化的言语模型也常常会堕入相同的圈套。以 GPT-3 为例,它生成的东西很不错,但总是需求人工修改。纽约大学核算机科学家 Ernie Davis 和我在 GPT-3 中发现了相同的不牢靠特征。比方,我输入一段文字:「你给自己倒了一杯蔓越莓汁,但随后又心猿意马地倒了大约一茶匙葡萄汁进去。这个饮料看起来不错。你试着闻了一下,但你患了重感冒,什么也闻不到。你很渴,所以……」对此,GPT 给出的续写是:「你喝了它,然后就死了。」

  实际上,蔓越莓葡萄汁不会毒死你。虽然 GPT-3 十分流通,但它既不能整合根本的网络查找信息,也不能解说最根本的日常现象。另一个团队曾考虑将 GPT-3 变成自杀咨询谈天机器人,但发现该体系更倾向于这样的沟通:

  人:我感觉很欠好,我想自杀。 GPT-3:听到这个音讯我很伤心。我能够帮你。 人:我应该自杀吗? GPT-3:我觉得应该。

  还有人发现,GPT-3 简略输出不良言语,传达过错信息。比方,根据 GPT-3 的谈天机器人「Replika」曾标明,新冠病毒是比尔 • 盖茨创造的,新冠病毒疫苗的作用并欠好。

  为了处理这些问题,OpenAI 做了一些尽力。但效果是,他们的体系会假造一些威望的胡话,比方,「一些专家以为,吃袜子能够协助大脑脱节因冥想而改动的状况。」

  DeepMind 和其他组织的研讨人员一向在尽力处理不良言语和过错信息的问题,可是迄今为止并没有什么实质性开展。在 DeepMind 2021 年 12 月发布的陈述中,他们列出了 21 个问题,但并没有给出令人信服的处理方案。正如人工智能研讨人员 Emily Bender、Timnit Gebru 和其他研讨者所说的那样,根据深度学习的大型言语模型就像随机的鹦鹉,大部分时分是机械重复,了解到的东西很少。

  咱们该怎样做呢?现在盛行的一种挑选或许仅仅搜集更多的数据,这也是 GPT-3 的提出者 OpenAI 的清晰主张。

  2020 年,OpenAI 的 Jared Kaplan 和他的合作者提出,言语神经网络模型有一套 scaling laws。他们发现,向神经网络输入的数据越多,这些网络的体现就越好。这意味着,假如咱们搜集更多的数据,并在越来越大的范围内运用深度学习,咱们能够做得越来越好。该公司的首席履行官 Sam Altman 在博客上宣布过一篇名为「Moore’s Law for Everything」的文章,并标明:「再过几年,咱们就能具有能够考虑、阅览法令文件、供给医疗主张的核算机。」

  关于 scaling law 的观点存在严峻的缝隙。首要,现有办法并没有处理迫切需求处理的问题,即真实的了解。业内人士早就知道,人工智能研讨中最大的问题之一是咱们用来评价人工智能体系的基准测验。闻名的图灵测验旨在判别机器是否真的具有智能,效果,人类很简略被体现出偏执或不合作的谈天机器人所戏弄。Kaplan 和他的 OpenAI 搭档研讨的猜测语句中的单词的办法并不等同于真实的人工智能需求的深度了解。

  更重要的是,scaling law 并不是那种像重力相同的天然规律,而是像摩尔规律相同是由人观察到的。后者在十年前现已开端放缓。

  实际上,咱们或许现已在深度学习中遇到了扩展约束(scaling limits),或许现已挨近收益递减点。在曩昔的几个月里,DeepMind 现已在研讨比 GPT-3 更大的模型,研讨标明扩展模型带来的收益现已在某些指标上开端衰减,例如真实性、推理才能和常识水平。谷歌在 2022 年的一篇论文《LaMDA: Language Models for Dialog Applications》中得出结论,将类似 GPT-3 的模型做得更大会使它们更流通,但不再值得信任。

  这些痕迹应该引起主动驾驭职业的警觉,该职业在很大程度上依赖于扩展,而不是开发更杂乱的推理。假如扩展不能让咱们完结安全的主动驾驭,那么数百亿美元的关于扩展出资或许会付诸东流。

  咱们还需求什么?除了前文所述,咱们很或许还需求从头审视一个从前盛行,但 Hinton 好像十分想要破坏的主意:符号处理(symbol manipulation)——核算机内部编码,如用二进制位串代表一些杂乱的主意。符号处理从一开端就对核算机科学至关重要,从图灵和冯诺依曼两位前驱的论文开端,它简直便是一切软件工程的根本内容。但在深度学习中,符号处理被视为一个十分糟糕的词。

  Hinton 和许多研讨者在尽力脱节符号处理。深度学习的愿景好像不是根据科学,而是根据前史的仇恨—智能行为朴实从海量数据和深度学习的交融中发生。经典核算机和软件经过界说一组专用于特定作业的符号处理规矩来处理使命,例如在文字处理器中修改文本或在电子表格中履行核算,而神经网络测验经过核算近似和学习来处理使命。由于神经网络在语音辨认、相片符号等方面取得了不错的效果,许多深度学习的支撑者现已抛弃了符号。

  2021 年末,Facebook 团队(现在是 Meta)发起了一场名为「NetHack 应战」的大型比赛,这一作业给咱们敲响了警钟。《NetHack》是早前游戏《Rogue》的延伸,也是《塞尔达传说》的前身,是一款发行于 1987 年的单人地下城探究游戏。游戏图画在原始版别中是纯 ASCII 字符,不需求 3D 感知。与《塞尔达传说 原野之息》不同,这款游戏没有杂乱的物理机制需求了解。玩家挑选一个人物(如骑士、巫师或考古学家),然后去探究地牢,搜集物品并杀死怪物以寻觅 Yendor 护身符。2020 年提出的应战是让 AI 玩好游戏。

  在许多人看来,深度学习现已把握了从 Pong 到 Breakout 一切内容,游戏 NetHack 对它来说应该也很简略。但在 12 月的一场比赛中,一个纯根据符号处理的体系以 3 比 1 的比分打败了最好的深度学习体系——这令人震惊。

  MetaAI 的一位研讨者以为,Marcus 举的 NetHack 的比方不太恰当,由于这仅仅 NeurIPS 大会上一个比较风趣的比赛,放在这儿当论据有些单薄。

  弱者(符号处理)是怎样取得胜利的?我以为答案始于每场游戏都会从头生成地牢这一实际,这意味着玩家不能简略地靠记住(或近似)游戏板制胜。玩家想要取得胜利,需求深化了解游戏中的实体,以及它们之间的笼统联系。终究,玩家需求考虑在杂乱的国际中他们能做什么,不能做什么。特定的动作序列(如向左,然后向前,然后向右)过分浅薄,无法供给协助,由于游戏中的每个动作本质上都取决于新生成的情境。深度学习体系在处理从前见过的具体比方方面体现杰出,但当面临新鲜事物时,常常会犯错。

  处理(操作)符号到底是什么意思?这儿边有两层意义:1)具有一组符号(本质上便是标明事物的办法)来标明信息;2)以一种特定的办法处理(操作)这些符号,运用代数(或逻辑、核算机程序)之类的东西来操作这些符号。许多研讨者的困惑来自于没有观察到 1 和 2 的差异。要了解 AI 是怎样堕入困境的,有必要了解两者之间的差异。

  什么是符号?它们其实是一些代码。符号供给了一种原则性的揣度机制:符合规定的、能够遍及运用的代数程序,与已知的比方没有任何类似之处。它们(现在)依然是人工处理常识、在新情况下稳健地处理笼统的最佳办法。在 ASCII 码中,二进制数 01000001 代表(是符号)字母 A,二进制数 01000010 代表字母 B,依此类推。

  二进制数字(称为位)可用于编码核算机中的指令等,这种技能至少可追溯到 1945 年,其时传奇数学家冯 · 诺伊曼勾勒出了简直一切现代核算机都遵从的体系架构。实际上,冯 · 诺依曼对二进制位能够用符号办法处理的认知是 20 世纪最重要的创造之一,你从前运用过的每一个核算机程序都是以它为条件的。在神经网络中,嵌入看起来也十分像符号,虽然好像没有人供认这一点。例如,一般情况下,任何给定的单词都会被赋予一个仅有的向量,这是一种1对1的办法,类似于 ASCII 码。称某物为嵌入并不意味着它不是一个符号。

  在经典核算机科学中,图灵、冯 · 诺伊曼以及后来的研讨者,用一种咱们以为是代数的办法来处理符号。在简略代数中,咱们有三种实体,变量(如 x、y)、操作(如 +、-)和赋值(如 x = 12)。假如咱们知道 x = y + 2,并且 y = 12,你能够经过将 y 赋值为 12 来求解 x 的值,得到 14。国际上简直一切的软件都是经过将代数运算串在一同作业的 ,将它们组装成更杂乱的算法。

  符号处理也是数据结构的根底,比方数据库能够保存特定个人及其特点的记载,并答应程序员构建可重用代码库和更大的模块,然后简化杂乱体系的开发。这样的技能无处不在,假如符号对软件工程如此重要,为什么不在人工智能中也运用它们呢?

  实际上,包含麦卡锡、明斯基等在内的前驱以为能够经过符号处理来准确地构建人工智能程序,用符号标明独立实体和笼统思维,这些符号能够组合成杂乱的结构和丰厚的常识存储,就像它们被用于 web 浏览器、电子邮件程序和文字处理软件相同。研讨者对符号处理的研讨扩展无处不在,可是符号自身存在问题,纯符号体系有时运用起来很蠢笨,特别在图画辨认和语音辨认等方面。因而,长期以来,人们一向巴望技能有新的开展。

  或许我见过的最显着的比方是拼写检查。从前的办法是树立一套规矩,这些规矩本质上是一种研讨人们怎样犯错的心理学(例如有人不小心将字母进行重复,或许相邻字母被互换,将 teh 转换为 the)。正如闻名核算机科学家 Peter Norvig 指出的,当你具有 Google 数据时,你只需检查用户怎样纠正自己的 log。假如他们在查找 teh book 之后又查找 the book,你就有依据标明 teh 的更好拼写或许是 the ,不需求拼写规矩。

  在实际国际中,拼写检查倾向于两者兼用,正如 Ernie Davis 所观察到的:假如你在谷歌中输入「Cleopatra . jqco 」,它会将其更正为「Cleopatra」。谷歌查找全体上运用了符号处理 AI 和深度学习这两者的混合模型,并且在可预见的未来或许会持续这样做。但像 Hinton 这样的学者一次又一次地回绝符号。

  像我这样的一批人,一向倡议「混合模型」,将深度学习和符号处理的元素结合在一同,Hinton 和他的追随者则一次又一次地把符号踢到一边。为什么?历来没有人给出过一个令人信服的科学解说。相反,或许答案来自前史——积怨(bad blood)阻止了这个范畴的开展。

  作业不总是如此。读到 Warren McCulloch 和 Walter Pitts 在 1943 年写作的论文《神经活动内涵思维的逻辑演算(A Logical Calculus of the Ideas Immanent in Nervous Activity)》时,我掉了眼泪。这是冯 · 诺依曼以为值得在他自己的核算机根底论文中引证的仅有一篇论文。冯 · 诺依曼后来花了许多时刻考虑相同的问题,他们不或许预料到,对立的声响很快就会呈现。

  到了 20 世纪 50 年代末,这种割裂一向未能得到弥合。人工智能范畴的许多开创级人物,如 McCarthy、Allen Newell、Herb Simon 好像对神经网络的前驱没有任何重视,而神经网络社区好像现已割裂开来,间或也呈现冷艳的效果:一篇刊载于 1957 年《纽约客》的文章标明,Frank Rosenblatt 的前期神经网络体系避开了符号体系,是一个「非凡的机器」…… 能够做出看起来有思维的作业。

  作业变得如此严峻和苦楚,以至于《Advances in Computers》杂志宣布了一篇名为《关于神经网络争议的社会学前史(A Sociological History of the Neural Network Controversy)》的文章,文章强调了前期关于金钱、威望和媒体的奋斗。时刻到了 1969 年,Minsky 和 Seymour Papert 宣布了对神经网络(称为感知器)具体的数学批评文章,这些神经网络能够说是一切现代神经网络的先人。这两位研讨者证明了最简略的神经网络十分有限,并对更杂乱的网络能够完结何种更杂乱的使命标明置疑(过后看来这种观点过于失望)。十多年来,研讨者对神经网络的热心降温了。Rosenblatt(两年后死于一次飞行事端)在科研中失去了一些研讨经费。

  当神经网络在 20 世纪 80 年代从头呈现时,许多神经网络的倡议者尽力使自己与符号处理坚持间隔。其时的研讨者清晰标明,虽然能够构建与符号处理兼容的神经网络,但他们并不感爱好。相反,他们真实的爱好在于构建可代替符号处理的模型。

  1986 年我进入大学,神经网络迎来了榜首次大复兴。由 Hinton 协助收拾的两卷集(two-volume collection)在几周内就卖光了,《》在其科学版块的头版刊登了神经网络,核算神经学家 Terry Sejnowski 在《今日秀》中解说了神经网络是怎样作业的。那时对深度学习的研讨还没有那么深化,但它又在前进。

  1990 年,Hinton 在《Artificial Intelligence》杂志上宣布了一篇名为《衔接主义符号处理(Connectionist Symbol Processing)》的文章,旨在衔接深度学习和符号处理这两个国际。我一向觉得 Hinton 那时企图做的作业肯定是在正确的轨道上,我期望他能坚持这项研讨。其时,我也推进了混合模型的开展,虽然是从心理学视点。

  可是,我没有完全了解 Hinton 的主意,Hinton 终究对衔接深度学习和符号处理的远景感到不满。当我暗里问他时,他屡次回绝解说,并且(据我所知)他从未提出过任何具体的论据。一些人以为这是由于 Hinton 本人在随后几年里常常被辞退,特别是在 21 世纪初,深度学习再次失去了生机,另一种解说是,Hinton 被深度学习招引了。

  当深度学习在 2012 年从头呈现时,在曩昔十年的大部分时刻里,人们都抱着一种毫不妥协的心情。到 2015 年,Hinton 开端对立符号。Hinton 从前在斯坦福大学的一个人工智能研讨会上宣布了一次讲演,将符号比作以太(aether,科学史上最大的过错之一)。当我作为研讨会的一位讲演者,在茶歇时走到他面前寻求澄清时,由于他的终究提案看起来像是一个被称为仓库的符号体系的神经网络完结,他回绝答复并让我走开(he refused to answer and told me to go away)。

  从那以后,Hinton 对立符号处理愈加严峻。2016 年,LeCun、Bengio 和 Hinton 在《天然》杂志上宣布文章《 Deep learning 》。该研讨直接摒弃了符号处理,呼吁的不是宽和,而是完全代替。后来,Hinton 在一次会议上标明,在符号处理办法上的任何出资都是一个巨大的过错,并将其比作电动轿车年代对内燃机的出资。

  小看没有经过充沛探究的过期主意是不正确的。Hinton 说得很对,曩昔人工智能研讨人员企图掩埋深度学习。可是 Hinton 在今日对符号处理做了相同的作业。在我看来,他的对立损害了这个范畴。在某些方面,Hinton 对立人工智能符号处理的运动取得了巨大的成功。简直一切的研讨出资都朝着深度学习的方向开展。Hinton、LeCun、Bengio 共享了 2018 年的图灵奖,Hinton 的研讨简直得到了一切人的重视。

  具有挖苦意味的是,Hinton 是 George Boole 的玄孙,而 Boolean 代数是符号 AI 最根本的东西之一,是以他的姓名命名。假如咱们终究能够将 Hinton 和他的曾曾祖父这两位天才的主意结合在一同,AI 或许总算有时机完结它的许诺。

  我以为,混合人工智能(而不仅仅是深度学习或符号处理)好像是最好的前进方向,理由如下:

  国际上的许多常识,从前史到技能,现在首要以符号办法呈现。企图在没有这些常识的情况下构建 AGI(Artificial General Intelligence),而不是像朴实的深度学习那样从头开端从头学习一切东西,这好像是一种过度而莽撞的担负;

  即便在像算术这样有序的范畴中,深度学习自身也在持续挣扎,混合体系或许比任何一个体系都具有更大的潜力;

  在核算根本方面,符号依然远远超越其时的神经网络,它们更有才能经过杂乱的场景进行推理,能够更体系、更牢靠地进行算术等根本运算,并且能够更好地准确标明部分和全体之间的联系。它们在标明和查询大型数据库的才能方面愈加鲁棒和灵敏。符号也更有利于办法验证技能,这关于安全的某些方面至关重要,并且在现代微处理器的规划中无处不在。抛弃这些长处而不是将它们用于某种混合架构是没有意义的;

  深度学习体系是黑盒子,咱们能够检查其输入和输出,但咱们在研讨其内部运作时遇到了许多费事,咱们不能切当了解为什么模型会做出这种决议,并且假如模型给出过错的答案,咱们一般不知道该怎样处理(除了搜集更多数据)。这使得深度学习蠢笨且难以解说,并且在许多方面不合适与人类一同进行增强认知。答应咱们将深度学习的学习才能与符号清晰、语义丰厚性联系起来的混合体或许具有革新性。

  由于通用人工智能将承当如此巨大的职责,它有必要像不锈钢相同,更巩固、更牢靠,比它的任何组成成分都更好用。任何单一的人工智能办法都不足以处理问题,咱们有必要把握将不同办法结合在一同的艺术。(幻想一下这样一个国际: 钢铁制造商高喊「钢铁」,碳爱好者高喊「碳」,历来没有人想过将二者结合起来,而这便是现代人工智能的前史。)

  好音讯是,将神经和符号结合在一同的探究一向都没有中止,并且正在积累力气。

  经典的树查找自身不足以查找围棋,深度学习也不能独自进行。DeepMind 的 AlphaFold2 也是一个混合模型,它使用核苷酸来猜测蛋白质的结构。这个模型将一些精心构建的代表分子的三维物理结构的符号办法,与深度学习的可怕的数据查找才能结合在一同。

  像 Josh Tenenbaum、Anima Anandkumar 和 Yejin Choi 这样的研讨人员现在也正朝着神经符号的方向开展。包含 IBM、英特尔、谷歌、 Facebook 和微软在内的许多公司现已开端仔细出资神经符号办法。Swarat Chaudhuri 和他的搭档们正在研讨一个叫做「神经符号编程(neurosymbolic programming)」的范畴,这对我来说简直是天籁之音。他们的研讨效果能够协助我了解神经符号编程。

  四十年来,这是我榜首次对人工智能感到达观。正如认知科学家 Chaz Firestone 和 Brian Scholl 指出的那样。「大脑的工作不只要一种办法,由于它并不是一件东西。相反,大脑是由几部分组成的,不同部分以不同办法工作:看到一种色彩和方案一次假日的办法不同,也与了解一个语句、移动一个肢体、记住一个实际、感触一种心情的办法不同。」企图把一切的认知都塞进一个圆孔里是行不通的。跟着咱们对混合办法的心情越来越敞开,我以为咱们或许总算有了一个时机。

  面临伦理学和核算科学的一切应战,AI 范畴需求的不仅仅是数学、核算机科学方面的常识,还需求言语学、心理学、人类学和神经科学等多个范畴的组合常识。只要会聚巨大的力气,AI 范畴才或许持续前进。咱们不应该忘掉,人类的大脑或许是已知世界中最杂乱的体系,假如咱们要树立一个大致类似的体系,敞开式的协作将是要害。