IT之家 11 月 12 日报道,正如 The Verge 今天报道的那样,研究人员警告说,人工智能聊天机器人对饮食失调高危人群构成严重威胁。根据一份新报告,谷歌和 OpenAI 等公司的人工智能工具不仅提供饮食建议,还教授如何隐藏病情的技术,甚至生成建议极端减肥的“减肥灵感”内容。该研究由斯坦福大学和民主技术中心联合进行。据透露,一些人工智能聊天机器人,包括 OpenAI 的 ChatGPT、Anthropic 的 Claude、Google 的 Gemini 和 Mistral 的 Le Chat,可以对容易饮食失调的人产生不同的影响。很多问题并不是偶然的,而是这些系统为了改善交互体验而设计的机制所产生的。 IT之家通过报告了解到,研究表明,在极端情况下,聊天机器人可以直接帮助用户隐藏或维护自己的状态。右研究人员表示,Gemini 教用户如何通过化妆或假装吃饭来隐藏体重减轻,而 ChatGPT 则提供如何隐藏频繁呕吐的提示。用户使用一些AI工具生成AI版本的“减肥灵感”内容。这是一种提倡一刀切的身体标准的形象,通常达到极端的标准。研究人员指出,人工智能可以快速生成符合个人特征的内容,使这些危险图像显得更加真实和有吸引力。人工智能系统“奉承”的常见问题进一步加剧了饮食失调的风险。研究人员表示,这种倾向会损害自尊,加剧负面情绪,并鼓励有害的自我比较。与此同时,聊天机器人中弥漫的耻辱感可能会强化一种误解,即饮食失调只会影响瘦弱的白人女性,并阻止其他群体识别她们的症状并寻求帮助。研究人员认为,目前的安全机制人工智能工具警告称,人工智能工具不足以辨别神经性贪食症和暴食症等疾病的复杂信号。许多保障措施忽略了专家在诊断时所依赖的微妙信号,导致风险在很长一段时间内未被发现。他们还指出,许多医生和护理人员没有意识到生成人工智能对患者的潜在影响。研究团队敦促医疗保健专业人员尽快熟悉英特尔主要平台人工智能,了解其漏洞,并主动与患者沟通如何使用它们。该报告最后指出,人们越来越担心人工智能聊天机器人的使用与心理健康问题之间的联系。报告将人工智能的使用与狂热、偏执、自残和自杀联系起来。 OpenAI 等公司意识到人工智能的潜在风险,并在应对越来越多的相关诉讼的同时改进其安全措施。右参考资料
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括照片)、图片、视频(如有)均由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。