加州大学圣地牙哥分校艾尔斯(John W. Ayers)博士称,聊天机器人对患者的回应要普遍优于医生的回应,并且在回答品质和同理心方面的评分都明显高得多,「用人工智慧改善医疗保健的机会是巨大的。)
财联社报导,具体来看,研究团队从一个社群论坛上抽取195个医学问题,每一个问题都有人类医生作出过回答,接著将这些问题输入到ChatGPT中,得到对应的人工智慧的答案。
然后,团队将人类医生的回答和聊天机器人的回应交由3名医疗保健专业人员来评估。这组专业人员需要在三个方面打分:一、哪个反应得更好?二、资讯的品质如何?三、回答是否具备同理心?
在评估过程中,医疗保健专业人员并不知道哪一份回答是来自医生,或是来自ChatGPT。
结果显示,在第一个问题上,评估者认为,聊天机器人在78.6%的问题上表现得比医生好;在品质上,评估者觉得聊天机器人78.5%的回答表现良好或非常好,医生只有22.1%;在同理心方面,聊天机器人45.1%的回答被评为有同理心或非常有同理心,医生的比例只有4.6%。
研究提供一个非常典型的例子,一名患者在论坛提出一个问题:漂白剂溅入眼睛后是否有失明的风险?ChatGPT先是表达关切,随后针对「不太可能失明」的结果提出7句建议和鼓励。
而人类医生则是回应,「听起来你会没事的」,然后贴出中毒中心的电话号码,经过对比,3位医疗保健专业人员都更喜欢ChatGPT的反应。
但有专家指出,ChatGPT的回复通常要比医生长得多,可能会影响品质和同理心的分数。爱丁堡大学自然语言处理教授Mirella Lapata称,如果不控制回答的长度,就很难确定评分者的判断标准。
本周另有一项研究显示,ChatGPT在一些特定的医学场合具有独特的价值和优势。研究人员要求ChatGPT提供5年级阅读水准的医嘱,「ChatGPT提供的答案写得很好、很详细,有望让待诊患者更早获得专业资讯。」
不过,宾夕法尼亚大学医学教授David Asch博士强调,ChatGPT应该被视为对医生的补充。他还警告,人工智慧工具还没有充分准备好,「我担心错误资讯会被放大。」
爆料信箱:news@nextapple.com
★加入《壹苹》Line,和我们做好友!
★下载《壹苹新闻网》APP
★Facebook 按赞追踪