久久久国产精品视频袁燕,99re久久精品国产,亚洲欧美日韩国产综合v,天天躁夜夜躁狠狠久久,激情五月婷婷激情五月婷婷

徐土豆
認證:優(yōu)質(zhì)創(chuàng)作者
所在專題目錄 查看專題
《學習geometric deep learning筆記系列》第一篇,Non-Euclidean Structure Data之我見
《Geometric Deep Learning學習筆記》第二篇, 在Graph上定義卷積操作,圖卷積網(wǎng)絡
《Geometric Deep Learning學習筆記》第三篇,GCN的空間域理解,Message Passing以及其含義
Shift-GCN網(wǎng)絡論文筆記
Shift-GCN中Shift的實現(xiàn)細節(jié)筆記,通過torch.index_select實現(xiàn)
作者動態(tài) 更多
給定計算預算下的最佳LLM模型尺寸與預訓練數(shù)據(jù)量分配
05-19 09:33
大模型推理時的尺度擴展定律
05-18 10:32
世界多胞體與世界模型
05-13 09:42
獎勵模型中的尺度擴展定律和獎勵劫持
05-12 08:41
MeCo——給預訓練數(shù)據(jù)增加源信息,就能減少33%的訓練量并且提升效果
05-08 09:13

《學習geometric deep learning筆記系列》第一篇,Non-Euclidean Structure Data之我見

本文是筆者在學習Geometric deep learning的過程中的一些筆記和想法,較為零散,主要紀錄了非歐幾里德結構數(shù)據(jù)和歐幾里德結構數(shù)據(jù)之間的區(qū)別,后續(xù)會引出圖卷積網(wǎng)絡模型。

本文轉(zhuǎn)載自徐飛翔的“《學習geometric deep learning筆記系列》第一篇,Non-Euclidean Structure Data之我見”。

版權聲明:本文為博主原創(chuàng)文章,遵循 CC 4.0 BY-SA 版權協(xié)議,轉(zhuǎn)載請附上原文出處鏈接和本聲明。

總的來說,數(shù)據(jù)類型可以分為兩大類,分別是:歐幾里德結構數(shù)據(jù)(Euclidean Structure Data) 以及 非歐幾里德結構數(shù)據(jù)(Non-Euclidean Structure Data),接下來談自己對這兩類數(shù)據(jù)的認識。

歐幾里德結構樣本

在我們?nèi)粘I钪?,最常見到的媒體介質(zhì)莫過于是圖片(image)和視頻(video)以及語音(voice)了,這些數(shù)據(jù)有一個特點就是:“排列整齊”。什么叫做排列整齊呢?舉例子來說,圖片可以用矩陣來表達其像素,就如同下圖所示[2]:

Fig 1. 歐幾里德結構數(shù)據(jù)示例。

對于某個節(jié)點,我們很容易可以找出其鄰居節(jié)點,就在旁邊嘛,不偏不倚。而且,圖片數(shù)據(jù)天然的,節(jié)點和鄰居節(jié)點有著統(tǒng)計上的相關性,因此能夠找出鄰居節(jié)點意味著可以很容易地定義出卷積這個操作出來,而我們在深度學習的過程中知道,卷積這個操作是提取局部特征以及層次全局特征的利器,因此圖片可以很容易定義出卷積操作出來,并且在深度網(wǎng)絡中進行進一步操作。

而且,因為這類型的數(shù)據(jù)排列整齊,不同樣本之間可以容易的定義出“距離”這個概念出來。我們且思考,假設現(xiàn)在有兩個圖片樣本,盡管其圖片大小可能不一致,但是總是可以通過空間下采樣的方式將其統(tǒng)一到同一個尺寸的,然后直接逐個像素點進行相減后取得平方和,求得兩個樣本之間的歐幾里德距離是完全可以進行的。如下式所見:

因此,不妨把圖片樣本的不同像素點看成是高維歐幾里德空間中的某個維度,因此一張

的圖片可以看成是維的歐幾里德樣本空間中的一個點,而不同樣本之間的距離就體現(xiàn)在了樣本點之間的距離了。

這就是稱之為歐幾里德結構數(shù)據(jù)的原因了。 同樣的,視頻可以在時間軸上進行采樣做到統(tǒng)一的目的,而音頻也是一樣的。因此它們都是符合歐幾里德距離定義的類型的樣本。

非歐幾里德結構樣本

非歐幾里德結構的樣本總得來說有兩大類型[1],分別是圖(Graph)數(shù)據(jù)[3]和流形數(shù)據(jù)[4],如Fig 2和Fig 3所示:

Fig 2. 圖結構數(shù)據(jù)是典型的非歐幾里德結構數(shù)據(jù)。

Fig 3. 流形數(shù)據(jù)也是典型的非歐幾里德結構數(shù)據(jù)。

這兩類數(shù)據(jù)有個特點就是,排列不整齊,比較的隨意。具體體現(xiàn)在:對于數(shù)據(jù)中的某個點,難以定義出其鄰居節(jié)點出來,或者是不同節(jié)點的鄰居節(jié)點的數(shù)量是不同的[5],這個其實是一個特別麻煩的問題,因為這樣就意味著難以在這類型的數(shù)據(jù)上定義出和圖像等數(shù)據(jù)上相同的卷積操作出來,而且因為每個樣本的節(jié)點排列可能都不同,比如在生物醫(yī)學中的分子篩選中,顯然這個是一個Graph數(shù)據(jù)的應用,但是我們都明白,不同的分子結構的原子連接數(shù)量,方式可能都是不同的,因此難以定義出其歐幾里德距離出來,這個是和我們的歐幾里德結構數(shù)據(jù)明顯不同的。因此這類型的數(shù)據(jù)不能看成是在歐幾里德樣本空間中的一個樣本點了,而是要想辦法將其嵌入(embed)到合適的歐幾里德空間后再進行度量。而我們現(xiàn)在流行的Graph Neural Network便可以進行這類型的操作。這就是我們的后話了。

另外,歐幾里德結構數(shù)據(jù)所謂的“排列整齊”也可以視為是一種特殊的非歐幾里德結構數(shù)據(jù),比如說是一種特殊的Graph數(shù)據(jù),如下圖所示[5]:

Fig 4. 即便是歐幾里德結構數(shù)據(jù),也可以視為是特殊形式的非歐幾里德結構數(shù)據(jù)。

因此,用Graph Neural Network的方法同樣可以應用在歐幾里德結構數(shù)據(jù)上,比如文獻[6]中report的結果來看,的確這樣是可行的。事實上,只要是賦范空間中的數(shù)據(jù),都可以建立數(shù)據(jù)節(jié)點與數(shù)據(jù)節(jié)點之間的某種關聯(lián),都可以嘗試用非歐幾里德結構數(shù)據(jù)的深度方法進行實驗。[7]

那么什么叫做賦范空間中的數(shù)據(jù)呢?賦范空間,指的就是定義了范數(shù)的向量空間,我認為,指的是數(shù)據(jù)中的每個樣本的單元的特征維度都是一致的,比如,一張圖片的像素一般都是RGB三個維度的,不同像素之間可以進行求范數(shù)的操作,再比如,一個Graph上的某個節(jié)點和另外一個節(jié)點的維度都是相同的,因此也可以定義出范數(shù)出來。不過這個是我一家之言,如有其他見解,請在評論區(qū)指出。

Fig 5. 在傳統(tǒng)的圖片上利用圖神經(jīng)網(wǎng)絡進行分類,可以達到接近傳統(tǒng)CNN方法的效果。意味著歐幾里德結構數(shù)據(jù)也可以通過某種形式,用非歐幾里德結構數(shù)據(jù)模型建模。

該系列的后續(xù):

  1. 《Geometric Deep Learning學習筆記》第二篇, 在Graph上定義卷積操作,圖卷積網(wǎng)絡

  2. 《Geometric Deep Learning學習筆記》第三篇,GCN的空間域理解,Message Passing以及其含義

聲明:本內(nèi)容為作者獨立觀點,不代表電子星球立場。未經(jīng)允許不得轉(zhuǎn)載。授權事宜與稿件投訴,請聯(lián)系:editor@netbroad.com
覺得內(nèi)容不錯的朋友,別忘了一鍵三連哦!
贊 3
收藏 3
關注 52
成為作者 賺取收益
全部留言
0/200
成為第一個和作者交流的人吧