久久久国产精品视频袁燕,99re久久精品国产,亚洲欧美日韩国产综合v,天天躁夜夜躁狠狠久久,激情五月婷婷激情五月婷婷

徐土豆
認證:優(yōu)質創(chuàng)作者
所在專題目錄 查看專題
在圖卷積網(wǎng)絡中的可導池化操作
作者動態(tài) 更多
給定計算預算下的最佳LLM模型尺寸與預訓練數(shù)據(jù)量分配
05-19 09:33
大模型推理時的尺度擴展定律
05-18 10:32
世界多胞體與世界模型
05-13 09:42
獎勵模型中的尺度擴展定律和獎勵劫持
05-12 08:41
MeCo——給預訓練數(shù)據(jù)增加源信息,就能減少33%的訓練量并且提升效果
05-08 09:13

在圖卷積網(wǎng)絡中的可導池化操作

本文轉自徐飛翔的“在圖卷積網(wǎng)絡中的可導池化操作

版權聲明:本文為博主原創(chuàng)文章,遵循CC 4.0 BY-SA版權協(xié)議,轉載請附上原文出處鏈接和本聲明。

這一篇擱了很久了,今天突然想到就順手寫完了吧。之前我們在[1,2,3]中曾經(jīng)討論過圖卷積網(wǎng)絡的推導,以及其和消息傳遞(message passing)之間的關系,但是我們還沒有討論一個重要問題,那就是在圖卷積網(wǎng)絡中的池化(pooling)操作。池化操作對于一個卷積網(wǎng)絡來說是很重要的,特別是對于節(jié)點眾多的大規(guī)模圖卷積網(wǎng)絡,池化可以使得網(wǎng)絡的參數(shù)大幅度減少,增強泛化性能并且提高模型的層次性結構化特征性能等。如何在圖卷積網(wǎng)絡中定義出如同在卷積網(wǎng)絡中的可導的池化操作呢?單純的聚類操作因為缺乏梯度流,不能實現(xiàn)端到端的訓練而不能直接使用,在文章[4]中提出了DiffPool算子,該算子可以實現(xiàn)圖卷積網(wǎng)絡的可導池化。

poolFig 1. 對于卷積網(wǎng)絡中的池化操作,要怎么才能在圖卷積網(wǎng)絡中找到其合適的替代品呢?DiffPool

DiffPool的思路很簡單,可以用Fig 2表示,其中的 是上一層的輸出特征,而表示第層的節(jié)點數(shù)。其中的DiffPool操作其實很簡單,就是用一個分配矩陣(assign matrix)去進行自動聚類,有:

其中的 就是第層的分配矩陣,注意到其是一個實矩陣。

Fig 2. DiffPool的示意簡圖。

現(xiàn)在的問題在于分配矩陣如何學習得到,可以認為DiffPool是一個自動端到端聚類的過程,其中分配矩陣代表了該層聚類的結果。如Fig 2所示,我們發(fā)現(xiàn)第 層的分配矩陣和特征都是由共同輸入學習得到的,我們有:

其中的 表示的是由圖卷積單元層疊若干次而成的卷積模塊,其中每一層可以表示為

其中的 表示的是經(jīng)典的消息傳遞過程,具體見[3]。注意到的形狀決定了下一層的節(jié)點數(shù),參考公式(3),這個超參數(shù)由 指定,而顯然有 。為了約束分配矩陣的值的范圍,對其進行了概率分布化,也即是,按論文的說法,是逐行(row-wise)生效的。

中則負責特征的生成,再與分配矩陣進行DiffPool,見式子(1),即完成了整個操作。輔助訓練目標

然而據(jù)文章說,在實踐中,單純依靠梯度流去訓練可導池化版本的GNN難以收斂,需要加些輔助約束條件。作者加了幾個先驗約束,第一作者認為 一個節(jié)點鄰居的節(jié)點應該盡可能地池化到一起 (nearby nodes should be pooled together),通過Frobenius 范數(shù)進行約束,有式子(4)

另一個約束是,分配矩陣的應該每一行盡可能是一個one-hot向量,這樣每個聚類結果才能更清晰地被定義出來。通過最小化熵可以對其進行約束,有:

其中 表示對的第行求熵(entropy)。作者聲稱在圖分類損失中添加(4)和(5)約束可以有著更好的性能,即便訓練收斂需要更長的時間才能達到。從結果Fig 3中可以發(fā)現(xiàn)的確是添加了約束的效果要好些。其中在GraphSAGE的基線上,和其他池化方法(SET2SET,SORTPOOL)的對比說明了DiffPool的有效性和先進性。

Fig 3. 實驗結果圖。More

那么DiffPool得到的分配矩陣結果是否可靠呢?是否可以看成是聚類的結果呢?作者在原文中也提及了這件事兒,并且對池化結果進行了可視化,如Fig 4所示??梢园l(fā)現(xiàn)DiffPool其的確是對節(jié)點進行了合理的聚類。

visFig 4. DiffPool結果的可視化,可以形成合理的聚類結果。

就筆者個人的讀后感而已,DiffPool的操作類似于現(xiàn)在流行的自注意學習機制,分配矩陣不妨可以看成是自注意力矩陣對節(jié)點進行聚類,也可以認為自注意力機制在圖網(wǎng)絡中也是生效的。

Reference

[1]. https://fesian.blog.csdn.net/article/details/88373506

[2]. https://blog.csdn.net/LoseInVain/article/details/90171863

[3]. https://blog.csdn.net/LoseInVain/article/details/90348807

[4]. Ying, Rex, Jiaxuan You, Christopher Morris, Xiang Ren, William L. Hamilton, and Jure Leskovec. “Hierarchical graph representation learning with differentiable pooling.” arXiv preprint arXiv:1806.08804 (2018).

聲明:本內容為作者獨立觀點,不代表電子星球立場。未經(jīng)允許不得轉載。授權事宜與稿件投訴,請聯(lián)系:editor@netbroad.com
覺得內容不錯的朋友,別忘了一鍵三連哦!
贊 1
收藏 1
關注 52
成為作者 賺取收益
全部留言
0/200
成為第一個和作者交流的人吧