ChatGPT通过了美国放射学委员会的考试,但其收集信息的可靠性仍令人担忧
科技日报记者 刘霞。过美国放 加拿大科学家在16日发表的射学收集《放射学》杂志上发表了一篇新论文,称最新版本的考试靠性ChatGPT通过了美国放射学委员会的考试,突出了大型语言模型的信息潜力,但也给出了一些错误的仍令人担答案,表明人们仍然需要检查他们提供的过美国放答案。 图片来源:物理学家组织网。射学收集 ChatGPT是考试靠性一种人工智能(AI)聊天机器人,它使用深度学习模型在巨大的信息训练数据中识别单词之间的模式和关系,并根据提示生成类似的仍令人担人类反应,类似的过美国放聊天机器人包含在谷歌和流行的搜索引擎,医生和病人也会使用这些搜索引擎来搜索医疗信息。射学收集但由于数据源不一定真实可靠,考试靠性工具会给出与事实不符的信息答案。 多伦多大学的仍令人担拉杰什·哈瓦那博士及其同事首先测试了基于GPT-3.5的ChatGPT的表现,以评估ChatGPT在美国放射学委员会考试中的表现,并探索其优势和局限性。研究小组使用了150道选择题,与加拿大皇家学院和美国放射学委员会的风格、内容和难度相当。这些问题不包括图像,分为低级思维问题(知识回忆、基本理解)和高级思维问题(应用、分析、综合)。可进一步细分为影像表现描述、临床管理、计算与分类、疾病关联等高级思维问题。 研究人员发现,基于GPT-3.5的ChatGPT正确率为69%,接近70%。该模型在低级思维问题上表现较好,正确率为84%,但在回答高级思维问题时表现不佳,正确率仅为60%。GPT-4的正确率为81%,高级思维问题的正确率为81%,远好于GPT-3.5。但GPT-4在低级思维问题上的正确率只有80%,答错了12个问题——GPT-3.5所有这些问题都得到了正确的回答,这引起了研究团队对GPT-4信息收集可靠性的担忧。 这两项研究都表明,ChatGPT倾向于提供错误的答案,仅仅依靠它来获取信息是非常危险的,因为人们可能没有意识到答案是不准确的,这是它目前面临的最大问题。目前,ChatGPT最适合激发想法,帮助编写数据摘要,并快速检索信息,需要验证其提供的事实答案。
-
上一篇
-
下一篇
- 最近发表
- 随机阅读
-
- 四川盆地盆缘发现新的页岩气规模富气带
- 成品油价下半年首次下调
- 2023全国高分子学术论文报告会在武汉举办
- 9月东风日产召回汽车超百万辆
- 锦绣中国年丨民俗非遗之木版年画
- 科学家发现肺癌主要亚型发病负担在性别、地区间存在较大差异
- 一个“珊瑚奶爸”的海底植树之路
- 9月东风日产召回汽车超百万辆
- 培育新时代建筑产业工人经验清单“出炉”
- 玉门高新区:科技创新引领园区新发展
- 风华正茂!南京医科大学开启护理研究生教育20周年
- 微塑料对血管危害再添新证据
- 新研究揭示猩猩也会像人类一样与同伴开玩笑
- 我国最大超深凝析气田天然气年处理能力跨上百亿大关
- 中国与共建“一带一路”国家贸易指数显著提升
- 南海中微子望远镜“海铃计划”蓝图发布
- 青岛自贸片区:16个重点项目集中开工
- 北京每万人发明专利拥有量达218.3件
- 警惕劣质充电宝的安全隐患
- 全球洗手日:预防疾病 “手”当其冲
- 搜索
-