
近日,图注意力网络第一作者Petar Veličković在母校剑桥大学做讲座,介绍图神经网络的理论基础。
图神经网络(GNN)是机器学习中最热门的研究方向之一。自提出以来,经过十多年的不断扩展,先后发展了图卷积网络、图注意力网络、图自编码器、图生成网络、图时空网络等几个子领域。
近日,图注意力网络第一作者Petar Veličković回到母校剑桥大学计算机实验室,做题为《图神经网络的理论基础》的讲座。在演讲中,Petar 试图从基本原理中推导出 GNN,介绍它们在多个学科中的应用,并解释 GNN 如何在多个研究领域并行出现。
讲座幻灯片地址:
Petar 表示,这次演讲“浓缩”了他 4 年 GNN 研究的精髓。“这些年来,我以多种方式教授 GNN,现在我终于找到了最“自然”的方式来解释它。” 他表示,70 分钟的讲座可以帮助初学者和 GNN 从业者以全新的视角。
接下来,让我们看看Petar怎么说。
Petar Veličković:我找到了最“自然”的方式来解释 GNN
分子是图,交通图是图,社交网络是图。
Petar首先介绍了现实世界中的图,图神经网络的实际应用,以及GNN的相关库和数据集。
然后他展示了讲座的主要内容:
根据基本原理推导 GNN;
引入 GNN 的多个独立研究变体;
回顾:ML研究史上类GNN模型的出现;
目前:当前的一些研究方向;
展望:GNN 如何在图结构输入之外进行泛化。
Petar 表示神经网络 参数初始化,本次讲座基于他对几何深度学习的研究、麦吉尔大学助理教授 William Hamilton 的著作《Graphic Representation Learning》,以及 Yoshua Bengio、Marco Gori、Jürgen Schmidhuber 等研究人员的工作。
基于基本原理推导GNN
Petar 首先从基本原理定义了 GNN,然后介绍了对 GNN 处理图数据有用的特性,并给出了一些示例。
GNN 的过去、现在和未来
Petar 介绍了 GNN 的发展历程和研究蓝图,以及它在多个研究领域的并行出现。例如神经网络 参数初始化,自然语言处理和 GNN。
“Transformer 是一种图神经网络。”
完整视频见:
Petar Veličković 简介
Petar Veličković 目前是 DeepMind 的高级研究科学家。他于 2019 年在 Pietro Liò 的指导下在剑桥大学获得计算机科学博士学位。他的研究兴趣包括设计对复杂结构化数据进行操作的神经网络架构(例如图形网络),以及它们在算法推理和计算生物学中的应用。
Petar Veličković 是图注意力网络的第一部作品。他与 Guillem Cucurull、Yoshua Bengio 等人共同完成了图注意力网络的开创性工作——“Graph Attention Networks”。这篇论文被 ICLR 2018 接受,目前被引用超过 3000 次。
除了图注意力网络,他也是《Deep Graph Infomax》的第一部作品。在这篇论文中,他和 William Fedus、Yoshua Bengio 等人提出了一种以无监督方式学习图结构数据中节点表示的通用方法,该方法在 ICLR 2019 上被接受。
去年,机器之心报道了他的博士学位。论文,Petar 关于“神经网络结构的复兴”的 147 页详细信息,涵盖了他之前关于 GNN 的工作和其他主题。今天介绍的讲座结合了他的“近4年GNN研究精髓”,对图神经网络领域感兴趣的读者可以看看。
个人主页地址:
建新·建知——2021亚马逊云技术AI线上大会
4月22日 14:00 – 18:00
会议包括主题演讲和六个分会场。内容涵盖亚马逊机器学习实践秘诀、人工智能赋能企业数字化转型、大规模机器学习实现、人工智能服务助力互联网快速创新、开源与前沿趋势、合作与交流共赢智能生态等诸多话题。
亚马逊云技术专家和各行业合作伙伴将出面阐释AI/ML在实现组织高效运营方面的巨大作用。每个热爱技术创新的 AI/ML 爱好者和从业者都不容错过。
©THEEND
请登录后发表评论
注册
社交帐号登录