随着人工智能在医疗保健领域的应用快速增长,预计到2030年每年将以37%以上的速度增长。对此,世界卫生组织(WHO)在5月17日,发布了一项关于促进健康的安全和道德人工智能的咨询,关注使用”人工智能生成的大型语言模型工具(LLMs)”时需谨慎。
实际上,聊天机器人已被证明在回答医疗问题的质量方面可以与真正的医生相媲美。然而,盲目采用人工智能系统可能会导致医务人员出现错误并可能对病人造成伤害,因此需要仔细权衡风险。
与ChatGPT这样的LLM相关的重要风险包括根据有偏见的数据进行培训,产生误导性或不准确的信息,可能对健康公平和包容性构成风险。因此,对于聊天机器人与真正医生的医疗建议进行比较需要进行广泛的透明、公众参与和专家监督。
世卫组织建议决策者在技术公司努力将LLM商业化的同时,确保病人安全和保护。世卫组织承认人们对使用这些聊天机器人满足健康相关需求的潜力感到 “非常兴奋”,但世卫组织同样认为需要仔细权衡人工智能在医疗保健中的风险。
世卫组织还指出,LLM可能被滥用,以文本、音频或视频内容的形式产生和传播极具说服力的虚假信息,这会对公众带来难以区分真假的健康信息,也会引起对健康的关注和忧虑。
此外,开发者可能会在未经最初提供数据者同意的情况下接受数据培训,这将可能没有对患者在寻求建议时输入的敏感数据进行适当的保护。因此,谨慎使用和保护病患安全和隐私是最关键的。
健康技术公司Augmedix利用LLMs以及其他技术,以帮助制作医疗文件和数据解决方案,并强调需要适当地使用监督和质量保障来确保输出的准确性和相关性。因此,尽管人工智能有潜力改善医疗保健,但仍需要考虑风险和潜在的后果,同时确保病患的安全和隐私得到保护。
Augmedix CEO Manny Krakaris表示,他支持世卫组织提出的安全和道德人工智能咨询意见,并认为在医疗保健领域使用人工智能需要谨慎、经过适当的测试,由人类参与指导。Krakaris也强调了人工智能应用可能存在的潜在风险,如聊天机器人产生不准确的回答或产生误导性信息等。因此,在开发新技术和应用人工智能的同时,需要充分考虑潜在的风险和后果,确保人工智能系统得到适当的监督和质量管控,以保障病人的权益和安全。
速途网认为,人工智能在医疗保健领域的应用前景广阔,但需要谨慎考虑潜在的风险和后果,以确保病人的安全和隐私得到充分保护。在使用聊天机器人等人工智能工具时,需要进行广泛的透明、公众参与和专家监督,以确保其准确性和可靠性,并避免出现误导性或不准确的信息。此外,还需要采取措施保护输入的敏感数据,以帮助患者保护他们的隐私和匿名性。最终,我们需要在医务人员和技术公司之间建立更好的合作关系,确保人工智能系统得到适当的监督和质量管控,以实现更好的医疗保健服务。