有一个令人信服的案例表明,人们对生成式人工智能和法学硕士学位 (LLM)有着极大的兴趣,认为它们是计算药物发现和开发的下一个重大技术转折点。
首先,法学硕士 (LLM) 有助于扩展计算机药物发现的数据范围,特别是在开放获取隐藏在非结构化文本数据源(包括科学文献、公共数据库、临床试验记录、患者记录等)中的大量有价值信息方面。法学硕士提供了分析、识别模式和联系以及提取有关疾病机制和潜在治疗目标的新见解所急需的能力。
他们解释复杂科学概念和阐明疾病、基因和生物过程之间联系的能力可以帮助加速疾病假设的产生以及潜在药物靶点和生物标志物的识别。
与生物医学知识图谱相结合后,LLM 有助于创建独特的协同模型,实现基于数据和知识的双向推理。知识图谱的明确结构化知识增强了 LLM 的知识,而语言模型的强大功能则简化了图谱构建和用户与复杂知识库的对话交互。
然而,在 LLM 能够可靠地融入计算机药物发现流程和工作流程之前,仍有几个挑战需要解决。其中之一就是幻觉。
法学硕士 (LLM) 为何会出现幻觉?
正当人们猜测法学 奥地利手机数据 硕士生容易出现懒惰和季节性抑郁的时候,一份包含 11 所公立法学硕士生幻觉排行榜显示,幻觉发生率从最高的 3% 到最低的 27% 不等。另一项比较研究显示,一门热门法学硕士生在生成眼科科学摘要方面的两个版本出现幻觉的概率非常高(分别为 33% 和 29%)。
法学硕士容易产生幻觉,因此将不正确或无法验证的知识呈现为准确的知识,即使只有 3%,也会对关键的药物发现应用产生严重后果。
导致 LLM 出现幻觉的原因有很多。
这种行为的核心在于,生成式人工智能模型没有真正的智能,而是依靠基于概率的方法,根据从训练数据中“学习”到的模式和上下文来预测最有可能出现的数据。除了这种固有的缺乏上下文理解之外,其他潜在原因还包括暴露于噪音、错误、偏见以及训练数据、训练和生成方法甚至提示技术中的不一致。 s