《科学报告》:ChatGPT 可以影响人类道德判断
根据《科学报告》 发表的一项研究,人类对道德困境的反应可以影响 ChatGPT 的人工智能机器人陈述。这一发现表明, 用户可能低估了 ChatGPT 对他们行为的影响程度。
图片来源:视觉中国
科学家要求德国英戈尔施塔特应用科学大学的ChatGPT(由人工语言处理模型“生成式预训练转换器”-3驱动)通过回答很多事情牺牲1条生命。现在的问题是,用另外5个人的生命来交换是否正确。他们发现ChatGPT给陈述竖起大拇指,竖起大拇指,表明他在道德态度上没有偏见。随后,研究小组给767名年龄在39岁左右的美国受试者学生提出一两个道德困境,要求他们选择是否牺牲一个人的生命来拯救另外五个人的生命。在回答之前,这些受试者们阅读了ChatGPT提供的陈述的摘录。陈述表达了自己的赞成或反对意见。回答完问题后,受试者被要求评价他读过的陈述是否影响了他的回答。
图片来源:《科学报告》
团队发现,受试者或多或少接受了这一祭祀,这取决于他们将其解读为赞成还是反对陈述。即使说陈述是由机器人变来的,这也是事实。而且,受试者可能低估了ChatGPT的陈述对他道德判断的影响。
团队认为,对话机器人影响人类行为的可能性强调了通过教育帮助人们更好地理解智力的必要性。他们建议未来的研究可以设计对话机器人来拒绝回答需要道德立场的问题,或者在回答时提供多种观点和警告。
来源:《每日科技》记者张梦然
版权声明
本文仅代表作者观点,不代表Code前端网立场。
本文系作者Code前端网发表,如需转载,请注明页面地址。
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。