研究发现,GPT-4o在道德推理方面优于人类专家
- +1 你赞过了
6月24日消息,最近的一项研究表明,OpenAI的GPT-4o可以提供道德方面的解释和建议,且质量优于“公认的”道德专家所提供的建议。
据外媒报道,美国北卡罗来纳大学教堂山分校和艾伦人工智能研究所的研究人员探讨了大模型(LLM)是否可以被视为“道德专家”。他们进行了两项研究,将GPT模型的道德推理与人类的道德推理进行了比较。
在第一项研究中,501名美国成年人对GPT-3.5-turbo和其他参与者的道德解释进行了评分。结果显示,人们认为GPT的解释比人类参与者的解释在道德上更正确、更可信、更深思熟虑。
第二项研究将最新的GPT-4o模型的建议与《纽约时报》“伦理主义者”专栏的著名伦理专家Kwame Anthony Appiah的建议进行了比较。九百名参与者对50个道德困境的建议质量进行了评分。
GPT-4o几乎在所有指标上都优于人类专家。人们认为人工智能生成的建议在道德上更正确、更值得信赖、更深思熟虑、更准确。只有当涉及到感知的细微差别时,人工智能和人类专家之间才没有显著差异。
研究人员认为,这些结果表明人工智能可以通过“比较道德图灵测试”(cMTT)。有趣的是,这两项研究的参与者都经常识别出人工智能生成的内容,这表明机器仍然无法通过经典的图灵测试,即在对话中冒充人类。但还有其他研究表明,GPT-4也有能力通过图灵测试。
文本分析显示,GPT-4o在其建议中使用了比人类专家更多的道德和积极的语言。这可以部分解释人工智能建议的评分较高,但这并不是唯一的因素。
作者指出,这项研究仅限于美国参与者,还需要进一步的研究来调查人们如何看待人工智能产生的道德推理的文化差异。此外,参与者没有意识到一些建议来自人工智能,这可能影响了评分。
总的来说,这项研究表明,现代人工智能系统可以提供与人类专家相当或更好的道德推理和建议。研究人员写道,这对人工智能在治疗、法律咨询和个人护理等需要复杂伦理决策的领域的整合具有重要意义。
最新资讯
热门视频
新品评测