白皮书 人工智能领域的新发展前景: rajneeshpatil,iqvia数字创新与战略副总 第一部分,一个包含四部分的系列,重点介绍了临床试验中的关键创新。 目录 概述如何提高标准:确保安全高效使用 1 2 训练数据的选取性 3 采取多管齐下的方法来维护效率和品质 3 管理和“容器化”数据 4 集成“人在回路中” 4 响应的协调 5 客观性与使用背景 5 认识到不确定性和知识差距 5 将原则付诸实践:成功应用案例 6 在一项iii期试验中成功应用了科学聊天机器人 6 数据回顾:赋能中央监控机构和合规评审机构 7 与您的分析交谈:一个自主式ai平台用于监控支持 8 展望未来:支持共同愿景,改善患者生活8关于作者 9 概述 正如文章标题所示人工智能领域的新发展前景广阔。这些对于临床研究领域来说是非凡的时期。每年,随着期待 值不断增加,思想领袖和行业专业人士都会推测和辩论如何以及在哪里最好地释放ai的潜力,以帮助提高临床试验的效率和包容性最终通过改善机构和患者体验来推动医疗保健的进步。 在庞大而复杂的临床试验生态系统中,利用这些卓越技术存在着丰富的机遇无论是在设计规划、患者互动、试验执行、临床监测、监管提交,还是延伸至商业药物开发领域之外。 最近,格局已发生转变,这很大程度上得益于genai工具在实际临床试验中的成功应用这些应用不久前大多被视为“天马行空的构想”领域。 美国食品药品监督管理局及其他监管机构开始提供关于适当护栏、上下文和验证要求的指导,以及其他将负责任人工智能纳入临床研究的关键考虑因素。 :然而,最近情况发生了变化,这很大程度上归功于实际的成功应用将genai工具应用于临床试验其中大部分不久前还被认为属于“天马行空的构想”的范畴。尽管这些进展正在实际应用案例中证明能够提高效率和品质, 在本文中,我们将回顾几个利用iqvia医疗级人工智能的应用案例。专门设计以满足生命科学和医疗保健领域所需的精度、速度和信任水平,概述其成功的技术和运营驱动因素,并具体说明每种新的ai方法如何显著提高效率和品质。 如何提高标准:确保安全高效使用 在深入探讨这些人工智能用例的更技术性方面之前,理解生成式人工智能(genai)与能动式人工智能(agenticai)之间的区别至关重要,它们都属于人工智能的子集 。 从根本上讲,通用人工智能被设计为根据模型训练过程中处理过的数据来生成回应、内容、评论和输出,包括报告或视觉内容。其性质倾向于事务性,例如对特定问题提供通用回应,然后可以通过提示工程的科学方法进行改进。而智能体人工智能则被设计为独立处理复杂的多步骤问题和操作,例如控制系统(想想自动驾驶汽车)。生成式人工智能将大量数据转化为可操作的洞察,而人工智能智能体可以在此基础上进行构建。 执行特定的流程步骤和行动从而能够开发出能够影响质量、合规性、速度和生产力的创新尊龙凯时人生就博的解决方案。 在开发这些特定的ai框架时,采用了整体性、哲学化的方法 在某些方面,这与育儿有相似之处。就像进入世界时充满无限可能性的孩子一样,释放ai的潜力需要适当的训练、强大的伦理框架、模型完整性和透明度,以及保护这些工具不走向次优路径的防护措施。适当培养的一个关键方面是人类监督有几种数据科学方法侧重于迭代训练和增强学习 ,用于genai模型(稍后会更详细地介绍)。 但在这些成功的应用中,首要任务是确保它们得到恰当的语境化和培训。 训练数据的选取性 人工智能的准确性和可靠性取决于其完整性、相关性,以及至关重要的一点选择性其在训练中所使用的输入数据的一部分。开源消费者大型语言模型(llms),例如chatgptdeepseek和grok,撒下了一张异常宽泛的网通常搜寻包含数十亿人类生成文本的庞大数据集。 采取多管齐下的方法来维护效率和品质 在开发和应用生成式和代理式人工智能尊龙凯时人生就博的解决方案于临床研究时,需要考虑五个关键类别的安全措施无论它们是以聊天机器人的形式、摘要生成器或自动化工作流助手的形式出现(见图1这些原则有助于确保效率、质量并最大化安全。这5类优化如下所示: 尽管将如此庞大范围的数据进行整合和处理在技术上令人瞩目,并且对许多目的都有用,但在科学领域撒网过宽,则可能产生低质量或幻觉般的回应。 策展和容器化 人机协同 响应的协调 认识到不确定性和知识差距 实际上,对于科学查询而言,某些开源的genai代理出现幻觉并不罕见提供虚假的引用、做出草率的结论,甚至提供具有反作用的医疗建议。如果没有进行稳健的修改,这些开源的大型语言模型并不适用于科学或医疗应用。 客观性与使用背景 因此需要一系列重要的保障措施,以确保存在限制、审查和培训数据的正确验证,以确保genai代理可以在临床试验中安全有效地使用。 如同初临世界、潜力无限的孩子,释放人工智能的潜能需要恰当的培训、稳固的道德框架、模型完整性与透明度,以及保障这些工具免于误入次优路径的防护措施。 图1优化genai和代理式ai在临床试验中的效率和质量的关键安全措施类别。 策展和容器化 审慎缩小训练数据范围和为环境正确组织应用程序。 认识到知识差距 预演幻觉 responsesbytrainingmodelsto驱动 承认没有答案。效率 和质量 人机协同 优化针对更广泛场景的安全与伦理响应。 消除回答中的偏差尤其是摘要、分析, 客观性 响应的协调 始终如一、高质量的回答不受提问方式的影响。 和诊断。 1数据策展与“容器化” 亚历山大蒲柏长久以来持有的箴言“一点知识是危险的东西”描绘了因知识不足而导致的错误结论(以及过度自信 )的形成方式。虽然这对于人类而言是真实的,但限制知识的审慎界限通过curatingiscriticalinensuringthequalityandefficiencyofgenai 参与其中,引发了对全球范围内工人可能被取代的担忧。在iqvia,我们坚定地坚持并在成功开发新型应用程序的实践中始终观察到在人类参与和人工智能之间保持健康平衡对于优化质量、预防幻觉式响应是不可或缺的 。 换句话说,为了对查询生成可靠、临床操作级别的响应,训练数据必须与边缘性或推测性信息完全隔离,这些信息会带来模棱两可的响应和或主观判断。 因此,任何在临床试验中使用的生成式人工智能代理式人工智能尊龙凯时人生就博的解决方案都必须部署在数据生态系统、运营流程和人工参与环节预先设定的边界内。 2整合“人在回路中” 自其诞生以来,人工智能引发了关于人类未来的可理解辩论。 再次,经典的例子是自动驾驶汽车。尽管它通过代理式人工智能实现自主决策能力,但出于安全考虑,这些车辆的安全性能得到优化,因为有人坐在操控台上,在必要时可以覆盖自动决策。这种“人工参与循环组件与代理式人工智能相结合有助于在遇到各种场景时确保生成安全且符合道德规范的反应。 当然,在临床试验领域也是如此。人机协同可以通过集成到复杂的、多步骤的过程中来优化效率和品质例如端到端的数据流,以及对在临床试验中使用的多个数据流数据生成的数据(通过不同的数据收集系统)进行监控。 自主代理式人工智能可以在给定工作流程的特定功能中自主运行,尤其是处理行政或自动化任务(如文档收集和合规审查),而人机协同模式可保留用于需要更高敏感性的步骤例如关键数据审查和决策制定。这种集成方法可以显著简化并加速流程,同时提供更高的质量保证。 4客观性与使用背景 尽管客观性在任何医疗或科学参与中都至关重要,但在应用genai时,它更需要更高的严谨性。例如,在诊断成像中 ,不同的专家可能会查看同一份扫描,但分析和解读结果却非常不同。虽然这并非传统意义上的“偏见”,但现实情况是,医疗保健专业人员就像我们所有人一样拥有独特的背景、技能和经验,这些可能会影响结论。 3响应协同化 另一个关键的成功因素是能够独立于问题的提出方式,生成一致且高质量的回应。查询可以以多种方式表达取决于用户选择的具体措辞、习语和修辞手法。不同的个性 、背景和文化也会影响问题的表述方式。 genai可用于客观化医学影像的诊断,并根据标准分级和既定指南准确评估严重不良事件(saes)的严重程度。 5认识到不确定性和知识差距 要满足医学科学所要求的无懈可击的标准,自然语言处理必须高度敏感,以便可靠地检测语境、挖掘核心问题,并每次提供一致、准确的反应。尽管这是一个简单的概念,但要生成全球协调一致的回应,则需要高度复杂的专业知识、技术以及深入的最佳实践经验。 许多生成式ai模型产生错误或幻觉性响应的一个潜在原因是缺乏内置的不确定性识别机制。如同人类一样,人工智能需要具备自我意识并认识到自身的局限性。因此,应用于医学科学的创新型生成式ai代理必须经过严格训练,以避免提供片面答案或主观臆断。 为最大化效率和品质,自主智能(agenticai)可被用于给定工作流程内的特定功能,特别是行政或自动化任务 ,而人环介入(humanintheloop)则可保留用于需要更高敏感性的步骤 。 既然已经概述了优化ai在临床研究中效率和质量的某些重要原则,那么让我们深入探讨当前在此生态系统中应用的某些ai代理。 像人类一样,人工智能受益于自我意识 ,并认识到自身的局限性。因此,正在医学科学中应用的新型生成式人工智能代理都经过严格训练,以避免提供片面答案或猜测。 将原则付诸实践:成功应用案例 既然我们已经概述了利用创新ai方法论以提升效率和质量的综合多维度方法,那么让我们回顾一下iqvia运用这些原则所取得令人兴奋且成功的模型(参见图2 图2目前应用于医学研究的创新ai工具。 科学问答聊天机器人 加速了周转时间接收协议澄清 for 减轻了份额的负担placedon 专家、医疗监测器以及 或赞助者在回答疑问时 强化协议遵守 数据回顾自主ai监控工具 超越自动化 对“perform”的响应强劲科学解释 回答疏忽问题的查询当被简单提示时 对话式指令 adds显著的品质严谨性 控制ofvssolelyhuman 扫描(目测) 利用400个相互连接的风险指标、kpi和背景数据 揭示“隐藏”的安全风险与您的分析工具交谈 在一项iii期试验中成功应用了科学聊天机器人 在有效利用生成式人工智能方面的一项关键进展是实施了一个能够有效回答与协议相关的查询的对话式问答聊天机器人。该聊天机器人在2024年第四季度进行的一项大型iii期研究中被现场工作人员和监查员使用,能够快速准确地回答各种科学、协议特定的疑问从知识产权管理、入组筛选程序、患者事件时间表、符合性驱动的事件与不良事件记录以及其他影响临床试验现场流程符合性质量的关键控制措施。 通过提供这一系列的快速、信息丰富的响应,聊天机器人加快了获取协议澄清的周转时间,同时减轻了专家、医学监查员和或赞助商在回答疑问时所承担的部分负担。 保留人类 在流程中 whichensured 最大可靠性和减轻了幻觉的 :回答。 对模型从精选数据集进行严格训练。 来源于超过6000个协议 。 全面的科学词汇 确保了对协议中微妙语言的深入理解例如不良事件和其他关键医学术语和科学术语。 协调一致的回应检测到认识到知识差距 查询并提供与问题措辞无通过整合一个“我不知道” 关的独立一致答案。 的回应来避免生成次优质量回应。 这项聊天机器人的成功关键与上一节所阐述的原则相一致。 正如所预期的那样,用户经验是在这款聊天机器人成功应用中的关键因素,该聊天机器人被用户描述为直观、易于理解且可靠。通过使信息易于获取,这款工具被证明能够增强实时决策有助于确保临床流程完全符合方案指南 。 由于其成功,该聊天机器人的核心框架(即llm基础模型 )现正被扩展以支持各种基于数据的查询包括知识产权管理和流程、investigationalbrochures的“虚拟助理”及其他。 用户体验是这款聊天机器人成功采纳的关键因素,用户将其描述为直观、易于理解且可靠。 数据回顾:赋能中央监控机构和合规评审机构 另一次尖端