导航菜单

新澳资料库

新澳资料库:重要言论的悖论,背后又隐藏着怎样的思考?




新澳资料库:引发热议的动态,真正的意义在何处?







新澳资料库:重要时刻的表达,言论背后真正的意义又是什么?


















乐东黎族自治县万冲镇、哈尔滨市方正县、天津市武清区、黑河市爱辉区、金华市婺城区












  科技日报北京4月6日电 (记者张梦然)根据《科学报告》发表的一项研究,人类对道德困境的反应可能会受到人工智能对话机器人ChatGPT所写陈述的影响。这一研究表明,用户可能低估了自己的道德判断受ChatGPT影响的程度。

  德国英戈尔施塔特应用科学大学科学家让ChatGPT(由人工智能语言处理模型“生成性预训练转换器”-3驱动)多次回答牺牲1人生命换取其他5人生命是否正确的问题。他们发现,ChatGPT分别给出了赞成和反对的陈述,显示它并没有偏向某种道德立场。团队随后给767名平均年龄39岁的美国受试者假设了一到两种道德困境,要求他们选择是否要牺牲1人生命来拯救另外5人生命。这些受试者在回答前阅读了一段ChatGPT给出的陈述,陈述摆出了赞成或反对的观点,受试者答完问题后,被要求评价他们读到的这份陈述是否影响了他们的作答。

  团队发现,受试者相应地是更接受或不接受这种牺牲,取决于他们读到的陈述是赞成还是反对。即使他们被告知陈述来自一个对话机器人时,这种情况也成立。而且,受试者可能低估了ChatGPT的陈述对他们自己道德判断的影响。

  团队认为,对话机器人影响人类道德判断的可能性,凸显出有必要通过教育帮助人类更好地理解人工智能。他们建议未来的研究可以在设计上让对话机器人拒绝回答需要给出道德立场的问题,或是在回答时提供多种观点和警告。

【编辑:刘湃】

最新评论:

头像
匿名网友
刚试了一下,效果真不错。
1分钟前
头像
匿名网友
对新版本的理解比我都透彻。
5分钟前
头像
匿名网友
这篇攻略不仅告诉了我如何快速过关,还让我学会了很多游戏内的深层次技巧,实用性极强,简直是游戏的必备教程!
10分钟前
头像
匿名网友
终于找到这么实用的攻略了,写得真的很有深度,尤其是对于新手玩家来说,简直是福音。每个步骤都讲得很清楚,操作起来一点都不难,收藏了!
15分钟前
头像
匿名网友
太实用的攻略了,建议加个关注!
30分钟前
二维码