讲座时间:2020年10月14日14:30-16:00
讲座地点:工B308
讲座对象:2138cn太阳集团古天乐师生
讲座摘要:
图表示学习目前受到了广泛关注,但目前绝大多数的图表示学习方法都是针对特定领域的图进行学习和建模,所产出的图神经网络难以迁移。近期,预训练在多个领域都取得了巨大的成功,显著地提升了模型在各大下游任务的表现。受Bert、MoCo、CPC等工作的启发,此次报告主要讲述如何用图对比编码做图神经网络预训练,希望能从中学习到通用的图拓扑结构特征,并提出了图对比编码的图神经网络预训练模型,利用对比学习方法学习到内在的可迁移结构信息。预训练从大规模数据学习知识,利用残差网络、自然语言来预训练好的bert模型;在公开的数据集预训练一个网络,应用到从未见过的网络上,验证图表示领域是否依赖。