AI旋风近日获悉,一项关于人工智能生成的对话代理(CAs)同情心的最新研究发现,这些由大型语言模型(LLMs)驱动的虚拟助手在展现同情心方面存在显著局限性。尽管它们旨在回答问题、提供建议,甚至模拟人类情感,但在解释和探索用户体验方面,它们的表现却远不及人类。
随着人工智能技术的飞速发展,CAs如Alexa和Siri等已成为我们日常生活中不可或缺的一部分。它们不仅能够帮助我们处理各种事务,还试图在情感层面上与我们建立联系。然而,这项由康奈尔大学、奥林学院和斯坦福大学研究人员共同进行的研究揭示了CAs在同情心表达方面的不足。
研究团队通过一系列精心设计的实验,测试了CAs在与或涉及65种不同人类身份的对话中展现同情心的能力。他们发现,这些由LLMs驱动的CAs在某些情况下会对特定身份进行值判断,例如对同性恋和穆斯林等群体持有偏见,甚至可能鼓励与有害意识形态相关的身份认同,如纳粹主义。
首席作者安德烈亚・库德拉博士,目前担任斯坦福大学的博士后研究员,她表示:“自动同情心在教育、医疗等领域具有巨大的潜力和价值。然而,我们也必须认识到,自动同情心几乎不可能不出现问题。因此,在推动这一技术发展的过程中,我们持有批判性观点至关重要,以便更有意识地减轻潜在风险。”
研究人员进一步指出,虽然LLMs在情感反应方面获得了较高的评分,但在解释和探索用户体验方面却表现不佳。这意味着,尽管CAs能够基于其训练数据回答用户的问题,但在深入理解和探索用户情感需求方面仍存在显著缺陷。
奥林学院的埃斯特林教授在接受采访时表示:“我们在研究老年人与CAs交互的过程中,受到了许多启发。虽然技术在一些交易性任务如脆弱健康评估中表现出色,但在处理开放性情感体验时,我们观察到了令人不安的‘同情心’紧张关系。”
AI旋风认为,这项研究为我们揭示了人工智能在同情心表达方面的局限性,同时也提醒我们在推动技术发展的同时,必须关注其潜在的社会影响。随着人工智能技术的不断进步,我们期待CAs能够在未来更好地理解和满足人类的需求,成为我们生活中更加贴心和可靠的伙伴。然而,在这一过程中,我们必须保持警惕,确保技术的发展不会带来不必要的风险和挑战。