英国牛津大学:用不受监管的AI聊天机器人制定社会护理计划存在风险
【欧洲时报3月11日编译】英国处境艰难的护工无疑需要得到尽可能多的帮助,但研究人员表示,这些帮助不应包括使用不受监管的人工智能(AI)机器人。他们称,社会护理领域的人工智能革命需要一个严格的道德底线。
英国《卫报》报道,牛津大学学者进行的一项试点研究发现,一些护理人员一直使用ChatGPT和Bard等生成式AI聊天机器人为患者制定护理计划。
牛津大学人工智能伦理研究所研究员卡罗琳·格林表示,这对患者的隐私构成了潜在风险。
“如果把个人数据放入生成式AI聊天机器人中,这些数据将用于训练语言模型。那么个人数据可能会被生成并泄露给其他人。”格林说,护理人员还可能会根据错误或有偏见的信息采取行动,无意中造成伤害。
但格林补充道,AI也有潜在的好处,“它可以帮助繁重的行政工作,并允许人们更频繁地重新审视护理计划。目前,我不鼓励任何人这么做,但一些组织正在开发应用程序和网站来做到这一点。”
基于大型语言模型的技术确实已经被卫生保健机构使用。比如,手机应用程序PainChek使用AI训练的面部识别技术,通过检测微小的肌肉抽搐来识别无法说话的人是否处于疼痛状态。Oxevision则是NHS中半数精神健康信托机构使用的系统,它通过安装在隔离室(为患有严重痴呆症或急性精神疾病的潜在暴力患者设计)的红外摄像机来监测患者是否有摔倒的危险,以及他们的睡眠水平等。
早期阶段的项目还包括Sentai,这是一个使用亚马逊Alexa扬声器,为没有24小时护理服务的人设计的监护系统,用于提醒他们吃药,并允许身处异地的家人检查他们的情况。
“创新英国”健康老龄化挑战总监乔治·麦金尼斯则表示,布里斯托尔机器人实验室正在为有记忆问题的人开发一种设备:如果炉灶没关,该设备上的探测器就会关闭燃气供应,“我们还资助开发了一套昼夜节律照明系统,帮助恢复昼夜节律,而昼夜节律是痴呆症患者失去的功能之一。”
然而,一些护理业人士担心,使用AI技术会带来一种风险,即他们可能无意中违反护理质量委员会(CQC)的规定而失去执照。
上个月,包括全国护理协会、苏格兰护理协会在内的30家社会护理组织开会讨论了如何负责任地使用生成式AI。召集这次会议的格林说,他们打算在六个月内创建一个良好的实践指南,并希望与CQC和卫生与社会保障部(DHSC)合作。
“我们希望制定由DHSC强制执行的指导方针,明确负责任地使用生成式AI和社会关怀的实际含义。”她说。