“同情型”人工智能与精神病的关系比与情商的关系更大,但我们应该合乎道德地对待机器

 2个月前     122  
“同情型”人工智能与精神病的关系比与情商的关系更大,但我们应该合乎道德地对待机器

文章目录

人工智能在认知问题上早已超越人类,而认知问题曾被视为人类智力的最高学科,如国际象棋或围棋。有些人甚至认为,在移情等人类情感技能方面,它是优越的。这似乎不仅仅是一些公司出于营销原因而大肆宣扬的;实证研究表明,在某些健康状况下,人们认为ChatGPT比人类医务人员更具同理心。这是否意味着人工智能真的具有同理心

移情的定义

作为一名心理知情的哲学家,我根据三个标准来定义真正的同理心:

  • Congruence of feelings: empathy requires that the person who empathizes to feels what it is like to experience the other's emotions in a specific situation. This distinguishes empathy from a mere rational understanding of emotions.
  • Asymmetry: the person who feels empathy only has the emotion because another individual has it and it is more appropriate to the other's situation than to their own. For this reason, empathy is not just a shared emotion like the shared joy of parents over the progress of their offspring, where the asymmetry-condition is not met.
  • Other-awareness: There must be at least a rudimentary awareness that empathy is about the feelings of another individual. This accounts for the difference between empathy and emotional contagion which occurs if one catches a feeling or an emotion like a cold. This happens, for instance, when kids start to cry when they see another kid crying.

同情型人工智能还是精神变态型人工智能

给出这个定义,很明显,人工系统无法感受到同理心。他们不知道有什么感觉。这意味着它们不能满足同余条件。因此,他们的感受是否与不对称和其他意识条件相对应的问题甚至没有出现。人工系统所能做的是识别情绪,无论是基于面部表情、声音提示、生理模式还是情感含义;他们可以通过言语或其他情感表达方式来模拟移情行为

因此,人工系统显示出与常识所说的精神病患者的相似之处:尽管无法感受到同理心,但它们能够根据客观迹象识别情绪,模仿同理心,并将这种能力用于操纵目的。与精神病患者不同的是,人工系统并不是自己设定这些目的的,而是由其设计者赋予的。所谓的移情人工智能通常被认为能让我们以一种想要的方式行事,比如在开车时不会感到沮丧,学习更有动力,工作更有效率,购买某种产品等;或者投票给某个政治候选人。但是,难道不是所有的事情都取决于模拟同理心的人工智能的用途有多好吗

汽车背景下模拟人工智能的同理心

照顾和心理治疗,旨在培养人们的幸福感。你可能会认为,在这些领域使用模拟人工智能的同理心绝对是一件好事。他们会不会是老年人的好照顾者和社交伙伴,残疾人的爱的伴侣,或者全天候提供服务的完美心理治疗师

这些问题最终涉及作为一个人意味着什么。对于一个孤独、年老或精神失常的人来说,把情绪投射到一个没有感觉的人工制品上就足够了吗?还是一个人在人际关系中体验到对自己和痛苦的认可很重要

Respect or tech?

从伦理的角度来看,是否有人能同理心地承认一个人的需求和痛苦是一个值得尊重的问题。通过剥夺另一个受试者的认可,需要照顾、陪伴或心理治疗的人被视为一个纯粹的对象,因为最终这是基于这样一种假设,即是否有人真的倾听这个人并不重要。他们没有道德上的主张,即他们的感受、需求和痛苦是由真正能够理解他们的人来感知的。在护理和心理治疗中使用模拟人工智能的同理心最终是技术解决方案的另一个例子,即自然;我们假设每个问题都有技术解决方案,包括孤独和精神“故障”。将这些问题外包给人工系统使我们无法在更大的社会背景下看到孤独和精神障碍的社会原因

此外,将人工系统设计成具有情感和同理心的人或物,意味着这些设备总是具有操纵性,因为它们解决了拟人化的潜意识机制。这一事实在商业应用程序中被用来让用户解锁付费高级:或者客户用他们的数据付费。这两种做法对弱势群体尤其有问题,而弱势群体在这方面处于危险之中。即使是那些不属于弱势群体并完全意识到人工系统没有感觉的人,也会对它产生同理心的反应,就好像它有感觉一样

Empathy with artificial systems—all too human

这是一种经过充分研究的现象,即人类对表现出某些人类或动物特征的人工系统产生同理心。这一过程在很大程度上是基于感知机制,而这些机制不是有意识地可获得的。感知到另一个人正在经历某种情绪的迹象,会在观察者身上产生一致的情绪。这种迹象可以是情绪的典型行为表现、面部表情或通常引起某种情绪的事件。来自大脑核磁共振扫描的证据表明,当人类对机器人产生同理心时,同样的神经结构也会被激活

尽管同理心可能不是道德的绝对必要条件,但它在道德上发挥着重要作用。出于这个原因,我们对类人(或类动物)机器人的同理心至少对我们应该如何对待这些机器施加了间接的道德约束。习惯性地虐待能引发同理心的机器人在道德上是错误的,因为这样做会对我们感受同理心的能力产生负面影响,而同理心是道德判断、动机和发展的重要来源

这是否意味着我们必须建立一个机器人权利联盟?这还为时过早,因为机器人本身并没有道德要求。对机器人的同情由于其对人类道德的影响,在道德上只是间接相关的。但我们应该仔细考虑,我们是否以及在哪些领域真正想要模拟和唤起人类同理心的机器人,因为如果它们变得普遍,我们将面临扭曲甚至破坏我们的社会实践的风险

想要了解更多关于脑机接口技术的内容,请关注脑机网,我们将定期发布最新的研究成果和应用案例,让您第一时间了解脑机接口技术的最新进展。

您可能感兴趣的

暂无评论

暂无评论...