• 最新新闻
  • 苹果亚马逊股价周三双双下跌,六连涨均被终结 从特斯拉和科沃斯机器人,解密行业开拓者的进化论 粉丝帮大V刷单事件:GOGO商城高管被带走调查 看电影3.7元起 百度糯米3.7女生节再度来袭 看电影3.7元起 百度糯米3.7女生节再度来袭 意识的困难问题:我们如何知道人工智能有了意识? 面板生意不好做,LG Display第二季度净亏损扩大至5500亿韩元 国家邮政局:6月快递业务量约53亿件,为日本2017全年业务量 减持小米股票引发风波,林斌删除此前回应微博 面板生意不好做,LG Display第二季度净亏损扩大至5500亿韩元 粉丝帮大V刷单事件:GOGO商城高管被带走调查 国家邮政局:6月快递业务量约53亿件,为日本2017全年业务量 减持小米股票引发风波,林斌删除此前回应微博
  • 推荐新闻
  • 苹果亚马逊股价周三双双下跌,六连涨均被终结 从特斯拉和科沃斯机器人,解密行业开拓者的进化论 粉丝帮大V刷单事件:GOGO商城高管被带走调查 看电影3.7元起 百度糯米3.7女生节再度来袭 看电影3.7元起 百度糯米3.7女生节再度来袭 意识的困难问题:我们如何知道人工智能有了意识? 面板生意不好做,LG Display第二季度净亏损扩大至5500亿韩元 国家邮政局:6月快递业务量约53亿件,为日本2017全年业务量 减持小米股票引发风波,林斌删除此前回应微博 面板生意不好做,LG Display第二季度净亏损扩大至5500亿韩元 粉丝帮大V刷单事件:GOGO商城高管被带走调查 国家邮政局:6月快递业务量约53亿件,为日本2017全年业务量 减持小米股票引发风波,林斌删除此前回应微博
  • 热门标签
  • 日期归档
  • 意识的困难问题:我们如何知道人工智能有了意识?

    来源:www.honkerbase.com 发布时间:2019-10-20

    哲学僵尸应该能够提出任何关于经验属性的问题。然而,值得深思的是,缺乏经验的人或机器如何能够回忆起它从未有过的经历。

    关于作者:Joel Frohlich是加州大学洛杉矶分校的博士后研究员,他在Martin Monty的实验室从事意识研究。他获得了博士学位。在加州大学洛杉矶分校的神经科学。在Shafali Jeste的指导下,当时的研究方向是神经发育障碍的生物标志物。他目前是科学交流网站“了解神经元”的主编。

    澳大利亚哲学家大卫查尔莫斯的一个着名问题是,是否有可能想象哲学僵尸的存在那些像你我一样但缺乏主观经验的人1717?这个问题引起了许多学者对包括我在内的意识的兴趣。原因是,如果这个僵尸(或一个复杂但无情的机器人)可能存在,那么只有关于大脑或类似大脑的机制的物理属性才能解释有意识的体验。相反,我们必须考虑一些额外的精神属性来解释什么是有意识的感觉。为了弄清楚这些心理属性是如何产生的,它就成了所谓的“意识难题”。

    然而,对于查尔莫斯的哲学僵尸,我有一个小问题。哲学僵尸应该能够提出任何关于经验属性的问题。然而,值得深思的是,缺乏经验的人或机器如何能够回忆起它从未有过的经历。在播客“有意义”(以前称为“醒来”)的一集中,查尔莫斯与神经科学家和作家萨姆哈里斯讨论了这个问题。 “我认为至少有一个系统可以做到这一点并不是特别困难,”查尔莫斯说。 “我的意思是,我现在正在与你交谈,你正在对意识做出很多评论。这些评论似乎非常强烈地表明你是有意识的。但是,我至少可以考虑你不知道的意思。你实际上是一个僵尸,并且你拥有所有的噪音而你同时没有任何意识。“

    这不是一个严格的学术问题。如果谷歌的DeepMind开发了人工智能,它开始问“为什么红色感觉像红色,而不是别的什么”,然后有一些可能的解释。也许它从别人那里听到了这个问题。这个有可能。例如,人工智能可能只需要阅读一篇关于意识的论文,你就可以学会提出有关意识的问题。它也可以被编程为提出这个问题,就像视频游戏中的角色一样。或者,随机噪音可能会产生这样的问题。显然,仅仅提出意识问题并不能解释任何事情。但是如果你没有从其他来源听到这些问题,或者没有足够的随机输出,那么人工智能僵尸会想到这个问题吗?对我来说,答案显然是否定的。如果我是对的,那么我们应该认真考虑当人工智能自发地提出关于主观经验的问题时,它很可能是有意识的。因为我们不知道在不确定人工智能是否有意识的情况下拔掉电源是否合乎道德。我们现在最好开始听这些问题。

    我们的意识体验包括“quale”。感性是感官知觉的主观方面,例如红色的红色和甜的甜味。构成经验的敏感性并不简单,也不能映射到其他任何东西。如果我天生失明,那么无论多么清晰的描述,没有人能让我感受到血与玫瑰所共有的色彩感。即使我发展失明对于能够避开障碍物并准确猜出计算机显示器上的物体出现在哪里的许多盲人也是如此。

    失明似乎表明某些行为可以完全机械化,也就是说,某些行为可以在没有任何主观意识的情况下进行,这反映了查尔莫斯的哲学僵尸概念。盲人观察者的大脑似乎利用视觉系统的预先意识区域来产生没有视觉体验的视觉行为。这通常发生在一个人中风或其他视觉皮层损伤后。视觉皮层是处理视觉信息的大脑皮层。由于此时人眼仍然健康,眼睛可以将隐藏在意识中的信息提供给特定的大脑区域,例如上丘。

    出于同样的原因,也有少数聋人有听觉的情况。 2017年发表在期刊《哲学心理学》(哲学心理学)上的一份报告详细描述了一个男性患者,即LS,能够根据内容区分不同的声音,尽管出生时有耳聋。对于像LS这样的人来说,这种辨别能力是在沉默中产生的。但是,如果一个和尚问一个类似于普通人提出的问题,例如“这听起来不是很奇怪吗?”那么我们有充分的理由怀疑这个人是否真的很尴尬(我们不能完全肯定)因为这个问题可能只是一个恶作剧。同样,如果人工智能开始自发地提出只有有意识的人可以提出的问题,那么我们将合理地产生类似的怀疑:主观体验是否已经在线?

    在21世纪,我们迫切需要对意识进行图灵测试。人工智能正在学习如何驾驶车辆,诊断肺癌以及编写自己的计算机程序。智能对话可能会在十年或两年内发生,未来的超级人工智能将无法生活在真空中。它将可以访问互联网并阅读查尔莫斯和其他哲学家关于感性和意识等问题的着作。但是,如果技术公司可以在本地Intranet上测试人工智能并隔离这些信息,他们可以进行图灵测试对话,以检测敏感性问题是否对人工智能有意义。

    面对潜在的基于硅的想法,我们会遇到什么问题?对于诸如“如果我的红色是你的蓝色怎么办?”之类的问题。或者“是否有比绿色更绿的颜色?”,人工智能给出的答案应该让我们对他们的精神体验(或缺乏心理体验)有很多了解。具有视觉体验的人工智能可能会考虑这些问题的可能性,也许可以回答这些问题。 “是的,我有时想知道是否还有一种颜色可以将红热与蓝冷相混合。另一方面,缺乏视觉敏感性的人工智能可以回答,”这是不可能的。红色,绿色和蓝色各自存在于不同的“即使人工智能试图自由地玩耍或欺骗我们,例如,答案是”有趣,如果我的红色是你的汉堡怎么办?“这表明它没有引起关注。

    当然,人工意识也可能与我们自己有非常不同的感受。在这种情况下,关于特定敏感性(例如颜色感知)的问题可能无法触及人工智能。然而,关于敏感性本身更抽象性质的问题可能能够筛选出哲学僵尸。因此,最好的问题可能是“意识的一个难题”本身:为什么意识存在?为什么在处理您周围世界的信息时会感受到这种感觉?如果人工智能认为问题有意义,那么我们很可能会发现人工意识。然而,如果人工智能显然不理解诸如“意识”和“敏感性”之类的概念,那么就不存在关于其内在精神生活的证据。

    建立意识的“探测器”并非无足轻重。除了这样的图灵测试,未来的研究人员可以应用今天的抽象意识理论来试图从计算机的接线图推断出意识的存在。一种这样的理论考虑了大脑或其他系统整合的信息量,并且已被用于推断脑损伤患者是否有意识或甚至推断鱼群是否有意识。事实上,在为研究提供大量财政支持之前,需要检测脑损伤患者的意识已经突破了科学禁忌。

    我的实验室由加利福尼亚大学洛杉矶分校的Martin Monti领导,致力于通过开发更好的手段从大脑电生理活动或代谢活动中推断出意识来改善脑损伤患者的大脑。生活。当我们拔掉那些有意识但没有回应的人的生存装置时,就会出现道德悲剧;如果我们拔掉人工意识的力量,就会发生同样的悲剧。正如我在加州大学洛杉矶分校实验室的工作是将理论意识与脑损伤患者的临床行为联系起来,未来的研究人员也必须用人工智能测量人工意识。特定图灵测试中的表现是相关的。那时,当我们不再需要教科书时,我们仍然需要考虑僵尸无法回答的问题。 (任天)

    友情链接: