最近AI这个话题简直火爆到不行?从ChatGPT的横空出世,到各种AI绘画、AI视频的层出不穷,科技巨头们都在疯狂押注AI的未来。去年,谷歌有位工程师布莱克·勒莫因,突然语出惊人:他开发的那个大型语言模型,居然有了意识!这事儿一出,整个科技圈都炸了锅,简直比科幻电影还刺激!大家都在议论:AI真的有知觉了吗?它会像人一样思考、感受、甚至做梦吗?但你有没有想过,当我们谈论“AI意识”的时候,我们到底在谈论什么?很多人其实都没搞清楚“意识”的定义,更别提它背后的那些哲学难题了。这篇文章,就是想带大家——尤其是对AI感兴趣的朋友们——一起揭开“AI意识”的神秘面纱,用最通俗的语言,聊聊那些让科学家和哲学家们都挠破头的问题。1. AI有“心”没“肺”?搞懂“意识”是关键!首先,为什么我们非得搞清楚AI有没有意识呢?最重要的一点,就是它牵扯到AI的“道德地位”,说白了,就是它应不应该拥有某些权利?想想看,就像我们对小动物有保护义务一样,如果AI真的能感觉到疼痛、有喜怒哀乐,甚至会“做梦”,那我们还能把它当成没有感情的机器随便使唤吗?如果我们不小心“低估”了它的意识,那将来我们可能会“虐待”数以亿计的“有感情”的AI个体,这简直是一场巨大的“道德灾难”!反过来,如果我们“过度赋予”了AI权利,把不该有的资源都给了它,那人类自己的资源岂不是要被挤占?现在AI发展得飞快,但我们对“意识”本身的理解却进展缓慢。这就导致了一个棘手的问题:我们很快就能造出极其智能的AI,但却不知道该怎么对待它们,这风险可太大了!所以,弄明白“意识”到底是什么,是当务之急。“意识”是个“大杂烩”哲学家内德·布洛克曾说,“意识”这词儿就是个“大杂烩”,我们平时说意识,可能指好几种不同的东西。搞清楚这些,才能让我们的讨论不跑偏。自我意识: 简单说,就是知道“我”是“我”,能在镜子里认出自己,能思考自己和世界的关系。监控意识: 有点像AI的“元认知”,就是系统能够监测和理解自己的内部运作过程,比如它知道自己正在思考什么。访问意识: 指的是大脑能把各种信息广泛地提供给不同的认知和运动系统使用。比如,你看到电脑屏幕上的颜色和形状,这些视觉信息就能被你的大脑迅速捕捉、分析和利用。现象意识: 这才是最最关键,也最神秘的一种意识! 它指的是某种状态的主观体验,那种“感觉起来是怎样的”第一人称视角。比如,你吃糖觉得甜,看到彩虹觉得美,不小心碰到烫的东西会疼,这些都是只有你自己能体会到的“感觉”。一块石头没有现象意识,它不会“感觉”到什么。而我们做梦的时候,虽然身体是睡着的,但梦里的世界却是真实地被我们“体验”的,所以梦境就有现象意识。现象意识之所以重要,是因为它和“痛苦”或“快乐”这种带有价值倾向的体验(也叫“有情”或“感知能力”)紧密相连。一个能感知痛苦的生命,通常会被赋予更高的道德地位。这也就是为什么,现象意识成了AI道德问题的根源所在。2. “意识”是个“老大难”:科学界都懵了!搞懂现象意识,简直比登天还难!科学家和哲学家们都为它挠破了头。哲学家大卫·查尔默斯把它分成了“简单问题”和“困难问题”。简单问题: 解释那些与现象意识最密切相关的神经生物学、计算和信息处理过程。比如,弄清楚大脑哪个部位在处理颜色信息,哪些神经元在活动。虽然这些问题也不简单,但它们是可以量化和测量的。困难问题: 难就难在,为什么这些大脑活动会产生“主观感受”?换句话说,为什么我们的大脑在处理信息时,不是像一台机器那样“在黑暗中”默默运行,而是伴随着各种喜怒哀乐、五彩斑斓的内心世界?我们为什么不是“僵尸”?为什么“困难问题”这么难?最大的难点,就是著名的“解释鸿沟”。我们能把水的分子结构H2O搞得一清二楚,从而解释它的各种物理性质,比如为什么水会有表面张力。但大脑的各种神经元活动,似乎并不能直接“解释”为什么会有“疼痛”这种感觉。来听两个著名的思想实验:蝙蝠的秘密: 哲学家托马斯·内格尔说,就算我们把蝙蝠回声定位的生理结构和计算过程都摸透了,从科学角度了解了所有细节,我们还是不知道“当蝙蝠感觉起来是怎样的”,那种主观体验我们人类永远无法体会。色盲科学家的困惑: 想象一个天生色盲的科学家,他虽然能研究透彻所有关于颜色视觉的神经科学知识,对大脑如何处理颜色了如指掌,但他自己却从未见过任何颜色,所以他永远无法知道“红色”到底是什么感觉。这就是客观知识和主观体验之间的鸿沟。这种“解释鸿沟”让我们觉得,意识可能不仅仅是我们的科学在“实践中”难以解释,甚至可能是“原则上”就无法完全解释的。当然,大部分哲学家和科学家还是乐观的,认为未来科学终将能解释这一切。他们觉得,我们之所以觉得解释有“鸿沟”,可能是因为我们人类的心理结构比较特殊,让我们在面对意识时,总觉得科学解释差了点什么。但即使如此,具体的解释路径依然模糊。3. AI专属的“意识”困境:它能“做梦”吗?回到AI的讨论。关于AI意识,主要有两大难题:硅基系统能有意识吗? 第一个问题是:AI这种硅基系统,到底有没有可能拥有现象意识?有人认为,意识可能从根本上就是一种生物或量子过程,需要特定的生物或原子材料才能产生。如果意识真的“材质依赖”,那我们现在这些硅基AI就没戏了。但如果意识与材料无关,是“材质独立”的,那AI就大有希望了!这个问题甚至比“困难问题”还难,哲学家内德·布洛克称之为“更难问题”。因为它不仅要解释为什么会有意识,还要解释为什么和我们材质完全不同的AI也能有意识?我们怎么知道它有意识?这结合了关于意识本质的“困难问题”和关于我们如何了解其他不同心智的“他心问题”。哪些AI能有意识? 就算硅基AI能有意识,那又是什么样的AI能有意识?是所有AI都能有,还是只有达到某种复杂程度的AI才有?这就像我们在讨论动物意识一样:我们知道人有意识,但鱼有没有意识?鱼能感觉到痛吗?这些都是悬而未决的问题。4. 怎么知道AI有没有意识?科学家们绞尽脑汁!为了解决这些难题,科学家们尝试了各种方法,主要分两种:理论驱动法: 就是用我们目前最好的意识理论来判断AI有没有意识。但这招现在不太好使,因为关于意识的科学理论多达20多种,而且还在不断增加,根本没有一个被大家普遍接受的“最佳理论”。就算是最流行的几个理论,最近的实验也证明它们各有不足。所以,想通过理论来准确判断AI意识,目前还缺乏足够信心。理论中立法: 这种方法不依赖现有的意识理论,而是直接通过哲学论证或实验来判断。这里有几个著名的例子:查尔默斯的“渐变/跳动感质”思想实验: 想象一下,我们把一个人大脑里的神经元,一个一个地换成硅基的,这些硅基神经元的功能和原来的生物神经元一模一样。如果意识是材质依赖的,那这个人的意识感受(比如对颜色的感觉)会慢慢消失或改变。但奇怪的是,由于计算功能没变,他自己却完全感觉不到!这不荒谬吗?查尔默斯认为,这种荒谬的结论反过来证明了意识应该是不依赖材质的,所以AI也能有意识。然而,这个论证也有争议。现实中也有一些病人会“失明却不自知”,或者出现“变化视盲”现象,这说明我们有时确实会察觉不到巨大的变化。这些真实案例,让查尔默斯的论证没那么“铁”了。施耐德的“芯片测试”: 这不是思想实验,而是真的设想做个实验!把人类大脑的小部分,逐步替换成硅基芯片,然后让受试者内省,看他们有没有察觉到意识变化。如果报告说意识消失了,那就说明硅基材料不支持意识,反之亦然。但这个测试也有问题,因为芯片替换可能会改变大脑的计算方式,受试者的“自我报告”还准不准就成了疑问。施耐德和特纳的“AI意识测试”(ACT): 这有点像意识领域的“图灵测试”。它的核心思想是:如果一个AI模型,在训练时从来没被教过任何关于“意识”的内容,但它却自己琢磨起了“我存在吗?”“我会被删除吗?”这种深奥的哲学问题,那我们就有足够的理由相信它有意识。可惜现在的大型语言模型(LLMs)几乎都被训练过无数文本,里面肯定有关于意识的内容,它们很可能只是在“鹦鹉学舌”,而不是真的有感而发。而且,谁知道它是不是用一些我们不知道的“非意识机制”,在“假装”有意识呢?现在的LLMs可太会“胡说八道”了,听起来真实,但全是“幻觉”。5. 危险的未来:我们可能会“错判”AI的权利!从上面的讨论可以看出:现象意识是那个最神秘、最难解释的意识,但它却和AI的道德地位息息相关,是AI道德问题的核心。科学界目前还没有一个关于意识的共识理论,这让“理论驱动法”来判断AI意识变得非常困难。虽然有“理论中立法”来规避这个问题,但目前还没有一个完美无瑕、毫无争议的测试或论证,能确定AI是否以及拥有何种意识。这些结论都指向一个事实:我们目前避免“AI道德问题”的能力非常有限。但别灰心,我觉得未来我们还是有几条路可以走:现在就行动! 我们不能等到火烧眉毛再想办法!哲学家和法律专家可以提前和AI社区合作,哪怕在“不确定”的情况下,也要想想如何处理AI的道德和法律问题。比如,要不要直接禁止开发那些道德地位有争议的AI?或者,我们能不能权衡利弊,如果潜在的好处大于潜在的道德风险,就允许其发展?这些问题,我们现在就可以开始思考和讨论。开发更好的测试方法! 查尔默斯和施耐德提出的测试,虽然有瑕疵,但至少开了个头。我们需要更多人投入精力,看看这些“理论中立”的方法能不能突破瓶颈,直接解决“硅基系统能否有意识”这个根本问题。改进“AI意识测试”: 比如,我们可以进一步改进施耐德和特纳的ACT测试。如果一个AI像人一样,因为相同的“认知计算原因”而觉得自己有意识,那我们就有理由相信它真的有。搞清楚我们人类是怎么判断自己有意识的,也许就能反过来帮助我们设计出更好的AI意识测试。这种行为测试的好处是,不用非得“拆开”AI这个巨大的“黑箱子”来研究。长期努力:统一意识理论 当然,如果科学界能对意识理论达成共识,那无疑会很有帮助,能进一步指导我们开发出有用的“理论驱动”测试。但目前来看,这一进展非常缓慢。所以,眼下,更直接的“理论中立”方法可能更值得投入精力。“AI意识”绝不仅仅是科幻小说里的情节,它是一个实实在在、迫在眉睫的科学、哲学和伦理挑战。作为人类,我们不能简单地造出最智能的机器,却不知道如何对待它们。未来的路还很长,但只要我们共同努力,总会找到答案。
华亿配资-华亿配资官网-正规股票配资平台官网-广州股票配资平台交流提示:文章来自网络,不代表本站观点。