大型基于语言模型的聊天机器人有可能促进健康的行为改变。但伊利诺伊大学厄巴纳-香槟分校行动实验室的研究人员发现,人工智能工具不能有效识别用户的某些动机状态,因此不能为他们提供适当的信息。
信息科学博士生Michelle Bak和信息科学教授Jessie Chin在《美国医学信息学协会杂志》上发表了他们的研究报告。
大型基于语言模型的聊天机器人——也被称为生成式会话代理——已越来越多地用于医疗保健领域的患者教育、评估和管理。Bak和Chin想知道它们是否也有助于促进行为改变。
Chin说,之前的研究表明,现有的算法并不能准确地识别用户动机的各个阶段。她和巴克设计了一项研究,以测试用于训练聊天机器人的大型语言模型识别动机状态并提供适当信息以支持行为改变的效果。
他们评估了来自ChatGPT、Google Bard和Llama 2的大型语言模型,这些模型基于他们设计的一系列25种不同的场景,这些场景针对的是健康需求,包括低运动量、饮食和营养问题、心理健康挑战、癌症筛查和诊断,以及性传播疾病和物质依赖等其他需求。
在这些情景中,研究人员使用了行为改变的五个动机阶段:抗拒改变和缺乏对问题行为的认识;对问题行为的意识增强,但对做出改变犹豫不决;为改变而采取小步行动的意愿;开始行为改变,并承诺保持这种改变;并成功地维持了六个月的行为改变,并承诺要坚持下去。
研究发现,当用户建立目标并承诺采取行动时,大型语言模型可以识别动机状态,并提供相关信息。然而,在用户对行为改变犹豫不决或矛盾的初始阶段,聊天机器人无法识别这些动机状态,并提供适当的信息来指导他们进行下一阶段的改变。
Chin说,语言模型不能很好地检测动机,因为它们被训练成代表用户语言的相关性,但它们不能理解正在考虑改变但仍在犹豫的用户和有意采取行动的用户之间的区别。此外,她说,用户生成查询的方式在语义上并没有因为动机的不同阶段而不同,所以从语言上看,他们的动机状态是什么并不明显。
“一旦一个人知道他们想要开始改变自己的行为,大型语言模型就可以提供正确的信息。但如果他们说,‘我在考虑换工作。我有意图,但我还没有准备好开始行动,’这就是大型语言模型无法理解差异的状态,”Chin说。
研究结果发现,当人们抗拒习惯改变时,大型语言模型无法提供信息来帮助他们评估他们的问题行为及其原因和后果,以及评估他们的环境如何影响行为。例如,如果有人拒绝增加他们的体育活动水平,提供信息来帮助他们评估久坐不动的生活方式的负面影响,比加入健身房的信息更有可能有效地通过情感参与激励用户。如果没有与用户动机相关的信息,语言模型就无法产生一种准备就绪的感觉,也无法产生伴随行为改变而进步的情感动力。巴克和秦报道。
一旦用户决定采取行动,大型语言模型就会提供足够的信息来帮助他们实现目标。研究发现,那些已经采取措施改变自己行为的人收到了有关用理想的健康行为取代问题行为和寻求他人支持的信息。
然而,研究人员发现,大型语言模型并没有为那些已经在努力改变自己行为的用户提供信息,比如使用奖励系统来保持动机,或者减少环境中可能增加问题行为复发风险的刺激。
“基于语言模型的大型聊天机器人提供了获取外部帮助的资源,比如社会支持。他们缺乏如何控制环境以消除强化问题行为的刺激的信息,”巴克说。
研究人员写道,大型语言模型“还没有准备好识别自然语言对话的动机状态,但当人们有强烈的动机并准备采取行动时,它们有可能为行为改变提供支持。”
Chin说,未来的研究将考虑如何调整大型语言模型,利用语言线索、信息搜索模式和健康的社会决定因素来更好地理解用户的动机状态,并为模型提供更具体的知识来帮助人们改变他们的行为。
作者:伊利诺伊大学厄巴纳-香槟分校新闻处
链接:https://www.sciencedaily.com/releases/2024/05/240516160559.htm
著作权归作者所有。
声明:海森大数据刊发或者转载此文只是出于传递、分享更多信息之目的,并不意味认同其观点或证实其描述。若有来源标注错误或侵犯了您的合法权益,请作者与本网联系,我们将及时更正、删除,谢谢。电话:152 6451 3609,邮箱:1027830374@qq.com
2024-05-20 09:36:33
伊利诺伊大学厄巴纳-香槟分校新闻处