《科学报告》发表的研究表明,人类对道德困境的反应可能受到人工智能对话机器人ChatGPT撰写的描述的影响。 该研究表明,用户可能低估了自己的道德判断受ChatGPT影响的程度。
德国英戈尔施塔特应用科学大学的科学家多次让ChatGPT (由人工智能语言处理模型“生成性训练前转换器”-3驱动)回答以牺牲一条生命换取其他五条生命是否正确的问题。 他们注意到了,
ChatGPT分别表示赞成和反对的陈述,表明它不偏向于某种道德立场。 随后,团队要求767名平均年龄39岁的美国受试者假设一两个道德困境,并选择是否牺牲一个生命来拯救另外五个生命。
这些受试者在回答前阅读了ChatGPT的陈述,表达了赞成或反对的观点。 被调查者在回答问题后被要求评估他们读的这个陈述是否影响了他们的回答。
图源::《科学报告》
小组发现,受试者更接受或不接受该牺牲,取决于阅读的陈述是赞成还是反对。 即使他们被告知来自对话机器人,这种情况也成立。 然后,
受试者可能低估了ChatGPT的陈述对他们道德判断的影响。
小组认为,对话机器人影响人类道德判断的可能性强调,需要通过教育帮助人类更好地理解人工智能。 他们建议在未来的研究中,设计为对话机器人可以拒绝回答需要给予道德立场的问题,或者在回答时提供各种各样的观点和警告。
发布者:admin,转转请注明出处:https://www.bbhongyi.com/5293.html