利用大型语言模型进行酶促反应的预测和表征

《Digital Discovery》:Leveraging large language models for enzymatic reaction prediction and characterization

【字体: 时间:2025年10月31日 来源:Digital Discovery 5.6

编辑推荐:

  预测酶促反应对生物催化、代谢工程和药物发现至关重要,但任务复杂且资源消耗大。本研究系统评估了Llama-3.1系列(8B和70B参数)在EC编号预测、前向合成和逆向合成三大任务中的性能,对比单任务与多任务学习策略,采用LoRA参数高效微调方法。结果表明,多任务学习通过共享生化知识提升前向和逆向合成预测的准确性(EC1达91.7%,FS匹配率33.8%,RS匹配率19.2%),但EC编号的深层分类(EC2和EC3)仍面临挑战。模型在低数据场景下表现突出,例如200样本训练时EC1分类准确率达55.3%。研究还探讨了LoRA不同微调策略(轻量级、注意力级、默认级)对性能的影响,发现默认策略在多数任务中表现最佳。虽然LLMs在通用性和灵活性上优于传统方法,但仍需结合专用工具以提高准确性。

  预测酶促反应对于生物催化、代谢工程和药物发现等应用具有重要意义,然而这一过程仍复杂且资源密集。大型语言模型(LLMs)在各种科学领域中展现出显著的潜力,尤其是它们在泛化知识、处理复杂结构以及利用上下文学习策略方面的能力。本研究系统评估了LLMs在三个核心生化任务中的表现:酶分类编号预测、正向合成以及逆向合成。我们比较了单一任务学习和多任务学习策略,采用参数高效微调技术,如LoRA适配器。此外,我们评估了不同数据环境下的性能,以探讨LLMs在低数据情况下的适应性。研究结果表明,微调后的LLMs能够捕捉生化知识,多任务学习通过利用共享的酶信息增强了正向和逆向合成的预测能力。同时,我们还识别了关键的局限性,例如在分层EC分类方案中遇到的挑战,这些为LLM驱动的生化建模的进一步改进提供了方向。

生物化学在日常生活的方方面面都发挥着基础作用,从药物开发到食品生产,从燃料制造到个人护理产品,显著提升了生活质量。开发新型生物催化剂以及发现和优化生化反应,为解决全球性挑战带来了巨大潜力。然而,这些发现本质上复杂,需要对酶与底物之间的关系有深入理解,且实验成本高且耗时。为减少实验成本,计算方法已有数十年的发展历史:早期的计算机辅助合成规划(CASP)依赖于专家系统,如LHASA和SECS,这些系统编码了化学反应转换规则,以提出合成路线。这些规则被应用于生成模板,即描述分子转换的特定原子映射模式。这些方法后来演变为更现代和更广泛的策略,如SYNTHIA、ICSYNTH和RetroSim,尽管仍然以模板为基础。然而,模板需要手动规则制定和启发式原子映射,这在反应数据库扩大时限制了其可扩展性。为克服这些限制,科学界开始发展无需模板的方法。这些方法以数据驱动为核心,直接从分子字符串或图中学习反应模式,且无需依赖人工制定的规则。早期工作应用了基于模式和轮廓的统计学习方法,如PRIAM用于酶检测和分类,EFICAz用于酶功能推断。这些统计方法后来被深度架构所超越,如基于卷积神经网络(CNN)的DEEPre和DeepEC用于酶功能预测,以及基于循环神经网络(RNN)的序列到序列模型用于逆向合成反应预测。

近年来,transformer架构因其在语言翻译、情感分析和文本生成等任务中的表现,已被证明在化学领域也具有潜力。例如,分子transformer和分子优化方法已被广泛应用于化学领域。在生物化学中,已有多种机器学习模型被定制用于预测任务,包括以自然语言表示酶的方法(如酶transformer),数值分类方案,以及氨基酸序列。最近的研究还表明,仅基于蛋白质序列训练的transformer模型(也称为蛋白质语言模型或PLMs)可用于下游任务,如从氨基酸序列预测EC编号。这些模型通常通过调整大型蛋白质编码器模型,如ProteinBERT和ESM-2来实现。尽管这些专用模型取得了令人印象深刻的结果,但它们通常受限于特定任务,并需要大量的领域特定数据和专业知识进行开发和整合生化知识。

现在,我们见证了基础模型如大型语言模型(LLMs)的出现,这些模型在化学领域也找到了应用。这些基于transformer的架构包含数十亿甚至数百亿的参数,并在包含数万亿token的文本语料库上进行训练。尽管是为下一个token预测而训练的,这些模型展示了比小型模型更令人意想不到的能力:它们不仅能够完成自然语言的短语,还能回答问题、理解例子和推理问题。基础模型可以同时解决多个任务,其实施和使用相对简单,无需大量专业知识,从而避免了训练多个专用模型的需要。LLMs在低数据环境下表现出色,能够根据上下文和例子实时适应,这在现实世界中的实验室场景中尤为重要。它们可以通过检索增强生成(RAG)或知识图数据库访问来锚定其输出,支持代理行为通过外部工具集成,并且可以暴露其逐步推理过程以指导实验流程。

将LLMs整合到化学中的努力大致分为两类。第一类专注于构建化学代理,利用LLMs的规划能力与任务特定工具合作,以提升推理能力。例如,在Bran等人的研究中,研究人员通过提供访问专家设计的工具来增强LLMs,用于药物发现、材料设计和有机合成。第二类则直接使用LLMs进行下游任务,如属性预测、反应物选择和分子描述。在Guo等人的研究中,他们对LLMs在零样本和少样本设置下的性能进行了基准测试,展示了它们在解释、理解和推理化学方面的潜力。在Jablonka等人的研究中,他们展示了如何通过微调GPT家族模型来适应各种任务,如分类、回归、化学品逆向设计等。他们的模型在低数据环境下表现良好,其性能至少与传统机器学习模型相当。此外,还引入了用于化学和生化领域的全面指令数据集。这些数据集涵盖数百万个例子,适用于分子生成、名称转换和反应预测等应用,使小型微调LLMs能够超越提示的SOTA LLMs,证明了高质量数据集在分子领域提升性能的重要性。

虽然以往的研究主要集中在LLMs在化学和材料任务中的应用,但我们关注LLMs在生化反应表征、发现和优化方面的潜力。具体来说,我们想知道是否可以将一个通用的LLM通过一个接口适配到多个任务上,只需少量工程和有限的标注数据。通过这样的模型,科学家可以以自然语言查询多个方面,甚至在变化的条件下。本研究探讨了LLM是否足以应对这些挑战,以及在哪些方面仍然需要与专用模型连接。

最近的研究表明,增加LLMs的规模和训练数据可以显著提升其零样本和少样本学习能力。然而,一个关键问题在于从上下文中学习时,模型输出的高方差:即使是微小的提示变化也可能对模型性能产生重大影响,从接近随机猜测到接近SOTA水平。此外,LLMs可能会生成虚构或无关的内容,这种现象被称为“幻觉”。为解决这些不稳定性,研究探索了高级提示策略,如思维链(CoT),通过引导模型逐步分解答案来减少输出的方差并提高准确性。通过显式地将复杂问题分解为一系列相互关联的推理步骤,CoT减少了输出的不稳定性,特别是对于需要逻辑推导或多步骤计算的任务。通过模仿人类推理,CoT提高了响应的可靠性,从而使LLMs更加稳健。

另一个关键的任务适应策略是微调,它通过在新数据集上更新预训练模型的参数,使模型适应特定任务。这种方法允许模型在更狭窄的领域内专业化,同时保留其预训练的通用知识。随着模型的规模增长到数十亿甚至数百亿参数,为每个新任务重新训练所有权重在内存和计算上变得非常昂贵。为高效微调模型,我们使用了参数高效微调(PEFT)技术,这些技术在微调过程中保留了大部分基础模型的权重不变。特别是,我们使用了低秩适应(LoRA)方法。LoRA通过仅更新模型参数的一小部分,显著降低了计算需求。例如,LoRA将更新建模为ΔW = AB,其中A和B是秩r << min(n, m)的矩阵。秩决定了两个矩阵的大小,而在前向传递过程中,有效的权重矩阵变为W′ = W + ΔW = W + AB。这种小的秩确保了A和B所含的参数远少于W,从而大幅减少了内存占用和微调时间。一个LoRA框架的示意图如图5所示。虽然模型可以以量化格式加载以提高内存使用效率,但微调是在有限的参数上进行的,这些参数以全精度或半精度存储。这种方法已显示出与完整模型微调相当的性能水平,同时保持了模型的通用推理能力和核心功能。值得注意的是,在微调过程中,模型以与上下文学习相同的提示模板和标记惯例接收查询对。如今,每个查询-回答对都用于适应其内部参数。

在选择模型进行生化预测任务时,我们的主要选择标准是:模型的处理能力、灵活性和效率。我们希望使用一个能够在多个生化任务中灵活定制的LLM,确保其可扩展性和适应性。我们优先选择通用LLM,以评估其在多种生化任务中的适应性和可扩展性。同样重要的是选择一个开源模型,以促进访问和进一步发展。基于这些要求,我们选择了Meta AI的Llama 3.1系列模型,特别是8B和70B参数版本。较小的8B模型在探索性或资源有限的环境中提供了效率与灵活性之间的权衡,而70B模型则提供了更大的处理能力。此外,我们使用了这些模型的指令版本,无论是上下文学习还是微调,这些版本都经过指令-响应对的微调,帮助它们生成符合指令的响应。最后,我们使用了4位量化格式的两个基础模型,以降低计算成本和推理时间。

在本节中,我们展示了微调选定的Llama模型的结果。分析涵盖了单一任务(ST)和多任务(MT)设置,以及评估低数据环境下的性能和不同微调方案的实验。对于每个任务,性能与基线进行比较。

单一任务微调结果显示,Llama-3.1模型在最高级别的EC编号分类任务中表现出较高的准确性,但在第二和第三位任务中有所下降。在单一任务设置下,Llama-3.1模型家族在正向合成和逆向合成任务中表现出一些困难。有趣的是,我们发现相当大的百分比的不正确预测显示出与正确预测高度相似的Tanimoto相似性,这可能在生化流程中仍然具有一定的应用价值。

在EC预测任务中,70B模型的准确性在大多数类别中保持一致,平均准确率为91.7%。这表明,微调后的模型能够相对容易地正确分配任何反应物和产物对的最高EC编号。然而,类别4显示出明显的性能下降,尽管它在数据集中并不是最不常见的类别。为了探索模型的误分类模式,我们展示了EC类别预测的混淆矩阵。该矩阵揭示了类别4和5有时被错误地分配给彼此。类别1、2和3中的罕见类别分类错误有时发生在类别1和类别2之间,或分配到类别4。

在EC2预测任务中,我们看到模型经常将同一主类中的子类误分类。这与EC2类别分布有关。例如,类别1.X.X.X包含许多子类,而类别5.X.X.X和6.X.X.X只有少数几个子类。罕见子类如2.2.X.X或4.99.X.X显示模型在主类外进行误分类,这可能是因为它们的代表性不足。此外,主类内部的结构相似性可能进一步导致混淆,这与数据集的不平衡无关。EC2级别的混淆矩阵和该级别的测试集分布如图7所示。

模型在更深层次的EC分类中的准确性下降,反映了捕捉层次化酶关系的挑战。这些困难也源于子类的组合复杂性和类别不平衡。事实上,在EC2级别,模型在类别6上表现最佳,在类别1上表现最差,这与图1中显示的数据集分布一致:EC类别1具有高度分支的EC2结构,其中1.1.X.X占样本的近一半,引入了类别不平衡。相反,类别6具有有限的平衡子类(6.2.X.X和6.3.X.X),简化了子类预测。图8展示了模型在预测EC编号到EC3级别的表现,按主类分类。

微调后的70B模型在预测任何深度的EC编号方面优于微调后的8B模型。然而,相比SOTA模型,它在所有级别(EC1准确率:96.2%,EC2准确率:93.4.6%,EC3准确率:91.6%)仍有显著优势。请注意,作者对微调模型进行了微平均,而我们采用了宏平均,以考虑类别不平衡。宏平均的准确性计算方式是首先计算每个EC编号类别的准确性,然后对这些类别的准确性取简单平均。这样,无论类别大小如何,每个类别都贡献相等。相比之下,微平均的准确性是通过在所有测试示例上平均所有类别计算的,因此较大的类别在微平均中具有更大的权重,这是SOTA作者指出的局限性。附录中的图14报告了EC类别预测任务的扩展指标(F1分数、精确度、召回率)。此外,我们比较了我们的微调模型与零样本提示基线在70B模型上的表现,如表1所示。我们看到,零样本提示方法在这一规模和通用能力的模型上的表现远远落后于微调模型。这表明,目前看来,对于像EC分类这样复杂和领域特定的任务,微调通用模型似乎是不可避免的。

在产品和底物预测任务中,70B模型生成了大量化学上有效的分子,其中以规范格式匹配(输出字符串与真实字符串匹配)的化学产物和底物分别占24.9%和13.0%。虽然FS显示出更高的规范匹配百分比,但RS显示出更多化学上有效但不正确的预测,表明逆向合成可能涉及更复杂的结构推理。化学无效的预测非常少(两种任务的总测试集均小于5%),而由于格式错误导致的错误生成也很少(均小于2%)。这表明LLMs能够轻松遵循复杂的领域特定语法如SMILES和所需的输出格式,这对分析模型结果是一个有用的特性。然而,这些结果目前还不足以与SOTA模型竞争(49.6%和60.0%的准确率分别为FS和RS)。请注意,我们模型使用的数据集与SOTA模型的数据集并不完全相同,因此结果仍然无法直接比较。图9中的饼图显示了FS和RS任务中预测分布的平均情况,分别对应于Llama-3.1 70B模型。

当模型未能预测出精确的分子时,它在12%和35%的情况下生成了具有生化用途的相关替代品。我们如果生成的分子与正确输出有很高的Tanimoto相似性,则将其归类为具有生化用途的输出。专注于有效的化学物质,Tanimoto相似性得分计算并显示在图10中。在数据集中,SMILES格式的产物平均长度短于底物,我们还观察到在正向合成任务中,某些底物可能生成的产物集合比某些产物可能生成的底物集合小,如附录中的图11所示。因此,对于产物,模型要么预测一个与真实值非常接近的分子,要么生成错误的化学物质。而对于底物,由于字符串较长且在RS任务中选项更多,模型生成了许多不正确的底物,但显示出相对较高的Tanimoto分数。分析最高Tanimoto值时,我们看到7.1%的化学有效产物和6.7%的化学有效底物报告的分数等于1。这些化学物质的例子报告在附录的图17和图18中。我们总结了Llama-3.1 8B和70B模型在FS和RS任务中的结果,包括零样本提示性能和与SOTA的比较,附录中的表6提供了这些信息。

当在单一生化任务上微调后,模型不仅保留了其在未见过的相关任务上的通用能力,还相对于其零样本基线提高了性能。为了评估这种泛化效应,我们测试了每个单一任务(ST)微调模型在它们未训练的两个任务上的表现,将其与相应的零样本基线进行比较。结果表明,微调FS或RS任务后,模型在EC类别预测任务上的准确率显著提高,几乎翻倍了零样本基线性能。同样,仅微调EC编号预测的模型将FS匹配准确率从几乎0%提高到12.9%,同时将无效预测减少了50%。表2展示了这些泛化结果,其中每个微调模型被测试在两个未见过的任务上。

通过多任务设置,我们展示了如何利用相关任务的协同信息来提高性能,特别是在FS和RS任务上。对于这些任务,模型的匹配准确率(无论是否规范)分别提高了7.9%和5.3%。三个ST数据集被合并以提供MT设置使用的数据集。Llama 70B和8B模型都进行了微调,使用在单一任务实验中识别出的最佳配置。性能与单一任务设置进行比较,以评估多任务学习的益处,主要结果如表3所示。

在低数据环境中,微调后的LLMs表现出潜力。对于Llama-3.1 70B模型,我们报告了在零样本提示(29.6%)与仅使用N = 200训练样本的微调版本(55.3%)之间的EC类别准确率几乎翻倍。我们复制了低数据环境,以评估模型在训练样本显著减少时的表现。具体来说,我们分析了当训练集大小限制为600和200时的性能下降,与我们的默认训练(每任务约1800个样本)进行比较。这种分析适用于两种模型,以提供在数据可用性成为瓶颈时的可扩展性见解。两种模型在训练数据增加时都表现出稳定的性能提升。更大的架构在几乎所有任务中都优于较小的模型,再次确认了其更大的能力。

为了更公平的比较,我们引入了一个简单的XGBoost基线。XGBoost是一个梯度提升模型,它在结构化数据上表现良好,且不依赖大规模预训练,使其成为评估LLM微调是否在数据有限的生化预测任务中真正带来价值的合适参考。我们发现,在所有任务和每种数据情景下,我们的模型都优于XGBoost模型。我们在表4中报告了这些发现。更多关于XGBoost训练的细节见附录中的A.6部分。

我们观察到,增加可训练参数可以显著提升大多数任务的性能。这表明了参数高效学习策略在需要微调的领域中的重要性。我们看到的趋势是,LoRA默认设置在几乎所有情况下都优于LoRA注意力和LoRA轻量级设置。对于8B模型,在大多数测试情况下,LoRA注意力的性能略优于LoRA轻量级,而对于70B模型,LoRA轻量级在大多数测试情况下表现略优于LoRA注意力。不同LoRA设置下所有任务的性能报告在表5中。

在低数据环境下,微调后的LLMs表现出潜力。对于Llama-3.1 70B模型,我们报告了零样本提示(29.6%)与仅使用N = 200训练样本的微调版本(55.3%)之间的EC类别准确率几乎翻倍。我们复制了低数据环境,以评估模型在训练样本显著减少时的表现。具体来说,我们分析了当训练集大小限制为600和200时的性能下降,与我们的默认训练(每任务约1800个样本)进行比较。这种分析适用于两种模型,以提供在数据可用性成为瓶颈时的可扩展性见解。两种模型在训练数据增加时都表现出稳定的性能提升。更大的架构在几乎所有任务中都优于较小的模型,再次确认了其更大的能力。

为了更公平的比较,我们引入了一个简单的XGBoost基线。XGBoost是一个梯度提升模型,它在结构化数据上表现良好,且不依赖大规模预训练,使其成为评估LLM微调是否在数据有限的生化预测任务中真正带来价值的合适参考。我们发现,在所有任务和每种数据情景下,我们的模型都优于XGBoost模型。我们在表4中报告了这些发现。更多关于XGBoost训练的细节见附录中的A.6部分。

我们的研究确认了预训练LLMs在处理复杂生化流程之前仍需要任务特定的微调。总体适用性取决于目标:即使经过微调,对于高精度任务,专用模型仍然优于LLMs。然而,在广度、适应性和人本交互方面,LLMs是很有吸引力的。得益于其快速重新配置和统一的对话界面,它们可以作为现有工具箱的控制层。紧凑的代码逻辑、插件特性和对传统工具的访问,为自动化设定了更高的标准。研究人员已经通过查询LLMs来获取文献,更有效地访问了收集的知识。重要的是要指出,LLM的评估在化学推理方面不如人类评估可靠。从业者应选择LLMs用于探索性或假设生成阶段、快速变化的任务或数据稀疏的设置,并坚持使用专用模型以获得最佳精度。

标准LLMs目前还不足以在复杂的零样本或少样本生化任务中表现出鲁棒性,因此它们现在作为训练伙伴,而不是预言者。但进展迅速:在本研究中,我们看到了多模态LLMs的出现,以及通过增加推理时间或调用外部工具来验证答案并展示其思维链的推理变体。因此,我们预计未来的流程将类似于小团队的模型:一个LLM与用户互动,然后将任务转交给专门的代理进行规划或计算。随着这些受限制的系统成熟,一个通用的LLM可能会吸收许多常规任务。在此之前,将LLM与专门工具结合仍然是最安全和最有成效的路径。

尽管我们的研究展示了研究人员在研究生化反应时与LLMs合作的潜力,但有几个限制必须被承认。解决这些问题将有助于提高模型的准确性和在现实生化流程中的适用性。例如,数据泄露的潜在问题:尽管我们微调LLMs以评估其在低数据环境下的表现,但模型可能在预训练时已经接触过类似的生化反应数据,因为这些数据集在线可用。为了更公平的比较,未来的评估应确保测试集由真正未见过的反应组成,这些反应无法通过互联网上的预训练文本间接推断出来。这将提供一个更清晰的模型泛化能力衡量,超越记忆。此外,我们的相似性分析(附录A.1)显示,即使在分组重复的{底物,EC}和{产物,EC}反应后,训练集和测试集之间的类比重叠仍然存在,表明仅通过精确匹配分割无法消除生化反应数据集中的类比泄漏。

数据约束是另一个限制。我们的研究基于ECREACT数据集的BRENDA子集,虽然该数据集广泛,但并未完全涵盖生化反应的多样性,也未允许与当前SOTA模型进行直接比较。某些EC子类的有限代表性影响了泛化。扩展训练到完整的ECREACT数据集或整合额外的反应数据库可以缓解这一问题并增强模型的鲁棒性,但ECREACT数据集已经被预处理,并在一定程度上简化了复杂的生化反应机制。

计算约束是另一个挑战。即使使用参数高效微调(PEFT)策略如LoRA,微调LLMs仍然需要大量计算资源,这限制了它们在资源有限环境中的可访问性。

可解释性分析也是一个重要的限制。我们仅关注预测指标,而没有分析模型如何分配EC编号或预测反应结果,也没有评估其中间推理是否符合生化知识。SMILES字符串本质上不可读,但可以转换为分子图以进行更深入的模型预测分析。通过思维链提示逐步检查LLM生成的推理是未来工作的有希望方向,这不仅有助于用户的可解释性,还可以将这些推理反馈给模型以获得更稳健的响应。

我们研究的结论表明,预训练的LLMs仍然需要任务特定的微调才能应对复杂的生化流程。总体适用性取决于目标:即使经过微调,对于高精度任务,专用模型仍然优于LLMs。然而,在广度、适应性和人本交互方面,LLMs具有吸引力。得益于其快速重新配置和统一的对话界面,它们可以作为现有工具箱的控制层。紧凑的代码逻辑、插件特性和对传统工具的访问,为自动化设定了更高的标准。研究人员已经通过查询LLMs来获取文献,更有效地访问了收集的知识。重要的是要指出,LLM的评估在化学推理方面不如人类评估可靠。从业者应选择LLMs用于探索性或假设生成阶段、快速变化的任务或数据稀疏的设置,并坚持使用专用模型以获得最佳精度。

标准LLMs目前还不足以在复杂的零样本或少样本生化任务中表现出鲁棒性,因此它们现在作为训练伙伴,而不是预言者。但进展迅速:在本研究中,我们看到了多模态LLMs的出现,以及通过增加推理时间或调用外部工具来验证答案并展示其思维链的推理变体。因此,我们预计未来的流程将类似于小团队的模型:一个LLM与用户互动,然后将任务转交给专门的代理进行规划或计算。随着这些受限制的系统成熟,一个通用的LLM可能会吸收许多常规任务。在此之前,将LLM与专门工具结合仍然是最安全和最有成效的路径。

我们的研究确认了预训练LLMs在处理复杂生化流程之前仍需要任务特定的微调。总体适用性取决于目标:即使经过微调,对于高精度任务,专用模型仍然优于LLMs。然而,在广度、适应性和人本交互方面,LLMs具有吸引力。得益于其快速重新配置和统一的对话界面,它们可以作为现有工具箱的控制层。紧凑的代码逻辑、插件特性和对传统工具的访问,为自动化设定了更高的标准。研究人员已经通过查询LLMs来获取文献,更有效地访问了收集的知识。重要的是要指出,LLM的评估在化学推理方面不如人类评估可靠。从业者应选择LLMs用于探索性或假设生成阶段、快速变化的任务或数据稀疏的设置,并坚持使用专用模型以获得最佳精度。

标准LLMs目前还不足以在复杂的零样本或少样本生化任务中表现出鲁棒性,因此它们现在作为训练伙伴,而不是预言者。但进展迅速:在本研究中,我们看到了多模态LLMs的出现,以及通过增加推理时间或调用外部工具来验证答案并展示其思维链的推理变体。因此,我们预计未来的流程将类似于小团队的模型:一个LLM与用户互动,然后将任务转交给专门的代理进行规划或计算。随着这些受限制的系统成熟,一个通用的LLM可能会吸收许多常规任务。在此之前,将LLM与专门工具结合仍然是最安全和最有成效的路径。

我们的研究展示了LLMs在生化反应预测中的潜力,重点关注酶分类编号预测、正向合成和逆向合成。通过微调Llama模型,我们展示了LLMs能够回答生化问题,尽管它们目前还不足以与专用模型竞争。微调显著提高了性能,70B Llama模型在EC类别分类任务中达到了91.7%的准确率。在单一任务微调后,70B模型在未见过的相关任务上的表现并未下降,甚至在零样本基线(使用基础预训练模型)上有所提升。多任务学习增强了正向合成和逆向合成的预测能力,匹配准确率分别为33.8%和19.2%,表明利用共享的生化知识可以提高泛化能力。此外,LLMs在低数据环境中表现出潜力,使其在标签数据稀缺的应用中具有价值。微调策略的选择对性能有影响,LoRA提供了一种高效且可扩展的适应方法。尽管有这些优势,仍然存在一些挑战:LLMs在处理罕见EC子类和确保可靠预测方面存在困难。随着LLM架构的不断发展,它们在生化流程中的整合有望加速酶-底物预测和生物催化设计的发现。
相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号