主页 > 知识库 > 如果机器人向你求饶,你会对机器人心软吗

如果机器人向你求饶,你会对机器人心软吗

热门标签:外呼线路 呼叫中心解决方案 解决方案 防封电话卡 电话营销系统 电销团队 话术 企业做大做强
随着科技发展,现在机器人越来越多地出现在人们的生活中,比如早教机器人、家庭看护型机器人、传菜机器人等。虽然目前的AI技术还不足以让机器人有自主意识,但是人类与生俱来的感性有时会赋予非生命体一定的情感。有研究表明,人类很容易受到社交暗示的影响,即便对象只是机器人。最近德国的一项实验就发现人类对机器人也会大发善心。 ▲和实验中同款的 Nao 机器人 这项有 89 名志愿者参与的研究,表面的内容是测试者和 Nao 机器人一起完成指定的一系列任务(包括回答一些类似“你喜欢吃兰州拉面还是肉夹馍?”的是否类问题,以及一起制定一些计划表等),志愿者被告知这部分测试可用于提高 Nao 的算法能力。 但真正的测试其实在最后,志愿者和 Nao 机器人一起完成任务后,会被要求关掉这些机器人。而此时 Nao 机器人则会开始通过抗议、乞求等手段让志愿者不要关掉它们,甚至还会发出“绝望的哭声”。 实验结果发现,作为人类的志愿者可能真的会拒绝关闭机器人。其中有 13 人直接拒绝关闭机器人,另有30 人虽然关闭了机器人,但内心显然产生了动摇,因为他们关闭机器人之前,花了很长时间来考虑。 ▲实验过程的照片(字幕是小编配的) 拒绝关闭机器的志愿者给出了很多理由(如下表)——有人说因为机器人不让关(所以很听话地就没关),有人担心关了可能损坏机器人,有人则是被吓到了…… ▲没有关闭机器人的志愿者给出的理由 研究人员认为:这项实验表明,人们很容易将机器人也视为一个真实的人,会遵循或至少考虑机器人的请求。 这项实验的结果和一个叫“媒体等同”的理论不谋而合。“媒体等同”理论是 1996 年由两位心理学家 巴伦·李维斯(Byron Reeves) 和 克利福德·纳斯(Clifford Nass) 建立的。他们认为,人类很容易将非人类媒体(包括电视,电影,电脑和机器人)也视为人类。人们可能会与机器人交谈、与收音机辩论、与计算机互动,就像和人类一样。 此后的各种研究表明,这一理论如何影响我们的行为,尤其是涉及与机器人的互动时。例如,我们更喜欢与人类相似的机器人进行交互,并且将机器赋予性别、性格特征。在与机器人交互时,可以观察到所谓的“互惠规则”(意思是当他们对我们好的时候我们往往对他们也很好),如果机器人作为一个权威人物呈现,人类甚至会接受它们的命令。 有一些专家认为:“人与人之间的交互和人与机器之间的交互之间的差异性会越来越小”。 其实此次实验并非是第一次关于“机器人乞求不想死”的情景的研究。2007 年也进行过类似的研究,那次是一个猫型机器人也乞求不要被关闭,很多测试者的内心也做了激烈的思想道德斗争。 ▲你会忍心杀死一个可爱的猫型机器人吗? 这项新研究以此前的工作为基础,使用了更多的参与者。它还测试了如果机器人在乞求不被关闭之前被证明具有社交技能,是否会对结果有所影响。在某些试验中,Nao 向人类志愿者表达了意见,讲了笑话,并分享了个人信息。令人惊讶的是,这种社交行为并没有对志愿者是否关闭 Nao 产生巨大影响。 那么这些结果对处于未来充满机器的世界的人们意味着什么呢?我们是否注定要被有能力按下按钮、具有复杂社交能力的机器人操纵?负责这项新研究的杜伊斯堡-埃森大学博士生 Aike Horstmann 说,这当然值得注意。但是,她说,这不是一个巨大的威胁。 “我听到这种担心很多,”Horstmann 说。“但我认为这只是我们必须习惯的事情。媒体等同理论表明我们对机器人的反应是一种社会性的反应,因为几十万年来,我们是地球上唯一的社会性生物。现在我们不是了,我们必须适应它。这是一种无意识的反应,但它可以改变。” 不过,笔者认为这种对“非人类”事物投射情感的现象一点也不难理解,生活中就有“御宅族”对虚拟的二次元角色投入了大量的感情,也有很多人对家中的老物件产生浓厚的感情。 ▲笔者认为上述实验最大的问题是没有考虑到机器人的颜值 但就机器人而言,笔者认为机器人的颜值、声音等都是非常关键的因素,会直接影响到我们会否按下机器人的关闭键,比如长得像上面这样婶的机器人,想必很多人会毫不留情地关掉吧!

标签:防城港 阿拉善盟 阳江 湖州 上饶 红河 乌兰察布 邢台

巨人网络通讯声明:本文标题《如果机器人向你求饶,你会对机器人心软吗》,本文关键词  ;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 下面列出与本文章《如果机器人向你求饶,你会对机器人心软吗》相关的同类信息!
  • 收缩
    • 微信客服
    • 微信二维码
    • 电话咨询

    • 400-1100-266