文献总结|MTGL-ADMET:一种通过地位理论与最大流增强并用于 ADMET 预测的多任务图学习框架

本文介绍于 2023 年 西北工业大学发表在 RECOMB 2023 上的一篇文章,文章原标题为 MTGL-ADMET: A Novel Multi-task Graph Learning Framework for ADMET Prediction Enhanced by Status-Theory and Maximum Flow,文章通过地位理论与最大流构造了由主要任务与辅助任务构成的多任务模型,相比单任务模型在预测准确性上有很大提高。

文献总结|探测图表示

本文介绍于 2023 年德国亥姆霍兹信息安全中心研究团队发表在 AISTATS 2023 上的一篇文章,文章原标题为 Probing Graph Representations,文章设计了多种分子表示的探测模型,并通过探测模型研究了图模型在预训练后所编码分子信息。

文献总结|可以同时完成分子语言序列回归和生成的 Regression Transformer

本文介绍于 2023 年 IBM 研究团队发表在 Nature Machine Intelligence 上的一篇文章,文章原标题为 Regression Transformer enables concurrent sequence regression and generation for molecular language modelling,文章提出了一种可以同时处理序列中的数值与文本并完成回归与生成的多任务的 Transformer 模型。

文献总结|对编码器-解码器模型学习过程中化学结构识别的研究

本文介绍于 2023 年东京大学发表在 Journal of Cheminformatics 上的一篇文章,文章原标题为 Investigation of chemical structure recognition by encoder–decoder models in learning progress,文章,文章研究了编码器-解码器模型训练过程中对化学结构识别的过程以及将其潜变量作为分子表示用于下游任务的效果。

文献总结|我们能用 Transformer 模型快速学会「翻译」活性分子吗?

本文介绍于 2023 年发表在 Journal of Chemical Information and Modeling 上的一篇文章,文章原标题为 Can We Quickly Learn to “Translate” Bioactive Molecules with Transformer Models? 文章使用 MMP 数据训练 Transformer,使其生成具有活性的分子,文章结果表明 Transformer 对于未知靶点也能生成活性分子。

文献总结|使用上下文增强的分子表示提升少样本药物发现的效果

本文介绍于 2023 年发表在 ICLR 2023 上的一篇文章,文章原标题为 Context-enriched molecule representations improve few-shot drug discovery,文章介绍了一种可以用于药物发现的少样本学习模型 MHNfs,MHNfs 通过 Hopfield 网络用上下文数据集少样本的强化分子表示,提升了分子性质预测的准确度。

从零起步的 Transformer 与代码拆解

自 Google 的论文 Attention Is All You Need 发布后,几年内涌现了大量基于 Transformer 的模型,俨然形成了 Transformer 横扫人工智能领域的态势。 网络上也出现了大量解读论文或是讲解 Transformer 的文章,其中也不乏许多高水平人工智能从业者的解读。虽然有些可以称得上是高屋建瓴,但 …

文献总结|药物发现中的匹配分子对分析:方法与当前应用

本文介绍 2023 年由曹东升与侯廷军研究团队发表在 Journal of Medicinal Chemistry 上的一篇展望,文章原标题为 Matched Molecular Pair Analysis in Drug Discovery: Methods and Recent Applications,文章介绍了主要介绍了匹配分子对分析的理论与目前基于匹配分子对分析的实际应用。