久久久国产精品视频袁燕,99re久久精品国产,亚洲欧美日韩国产综合v,天天躁夜夜躁狠狠久久,激情五月婷婷激情五月婷婷

徐土豆
認(rèn)證:優(yōu)質(zhì)創(chuàng)作者
所在專題目錄 查看專題
在深度學(xué)習(xí)中,對(duì)于特征融合方式的思考——論pointwise addition和concatenate的異同
損失函數(shù)的可視化——淺論模型的參數(shù)空間與正則
曲線擬合問(wèn)題與L2正則
生成模型和判別模型的區(qū)別
貝葉斯之旅||第二講,分類問(wèn)題的兩大過(guò)程,推理和決策
貝葉斯之旅||第一講,貝葉斯決策
作者動(dòng)態(tài) 更多
給定計(jì)算預(yù)算下的最佳LLM模型尺寸與預(yù)訓(xùn)練數(shù)據(jù)量分配
05-19 09:33
大模型推理時(shí)的尺度擴(kuò)展定律
05-18 10:32
世界多胞體與世界模型
05-13 09:42
獎(jiǎng)勵(lì)模型中的尺度擴(kuò)展定律和獎(jiǎng)勵(lì)劫持
05-12 08:41
MeCo——給預(yù)訓(xùn)練數(shù)據(jù)增加源信息,就能減少33%的訓(xùn)練量并且提升效果
05-08 09:13

貝葉斯之旅||第二講,分類問(wèn)題的兩大過(guò)程,推理和決策

本文轉(zhuǎn)自徐飛翔的“貝葉斯之旅||第二講,分類問(wèn)題的兩大過(guò)程,推理和決策

版權(quán)聲明:本文為博主原創(chuàng)文章,遵循 CC 4.0 BY-SA 版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接和本聲明。

分類問(wèn)題

我們?cè)谥暗奈恼轮幸呀?jīng)介紹過(guò)分類問(wèn)題了,簡(jiǎn)單的說(shuō)就是給定一個(gè)樣本,將其劃分到有限的標(biāo)簽集中。通常來(lái)說(shuō),我們可以將整個(gè)分類問(wèn)題劃分為兩個(gè)獨(dú)立的過(guò)程,分別是**推理(inference)和決策(decision)**階段。在推理階段,我們通過(guò)已有的訓(xùn)練集,學(xué)習(xí)到后驗(yàn)概率,或者也可以通過(guò)學(xué)習(xí)聯(lián)合概率分布,然后也可以得到后驗(yàn)概率。而接下來(lái),在決策階段,就根據(jù)這個(gè)后驗(yàn)概率,對(duì)樣本的類別進(jìn)行判斷決策。這個(gè)決策過(guò)程可以參考文章[1]的討論。

注意到,很多時(shí)候,這兩個(gè)過(guò)程可以合在一起,將問(wèn)題簡(jiǎn)化為成:學(xué)習(xí)一個(gè)映射 ,直接將樣本映射到類別標(biāo)簽。這個(gè)過(guò)程中,將不會(huì)涉及到任何的后驗(yàn)概率等,而是直接得出預(yù)測(cè)結(jié)果,這個(gè)函數(shù)因此稱之為判別函數(shù)(Discriminant function)。[2] page 43

事實(shí)上,這些討論過(guò)的方法都可以用來(lái)解決分類問(wèn)題,并且在實(shí)際應(yīng)用中都有所應(yīng)用,我們按照復(fù)雜程度進(jìn)行降序排列之后,有:

通過(guò)解決推理問(wèn)題之后,我們可以給每一個(gè)類別估計(jì)出類條件概率,同時(shí),先驗(yàn)概率也很容易可以估計(jì)出來(lái),然后通過(guò)貝葉斯公式我們可以得到后驗(yàn)概率:

我們有:

等價(jià)地,我們可以對(duì)聯(lián)合概率密度進(jìn)行建模,然后進(jìn)行標(biāo)準(zhǔn)化后得到后驗(yàn)概率。像這種顯式地或者隱式地對(duì)輸入和輸出進(jìn)行概率分布建模的模型,稱之為生成模型(generative models),因?yàn)閺倪@個(gè)聯(lián)合分布中進(jìn)行采樣可以生成輸入空間中的一些虛假生成數(shù)據(jù)(synthetic data)。

通過(guò)解決推理問(wèn)題后,得到后驗(yàn)概率,然后通過(guò)決策論進(jìn)行類別判斷。這種模型稱之為判別模型(Discriminative model)。

尋找一個(gè)函數(shù),稱之為判別函數(shù),直接將輸入的映射到一個(gè)類別標(biāo)簽上,比如SVM分類器等。在這個(gè)情形下,并沒(méi)有用到任何概率,也就是說(shuō)我們對(duì)預(yù)測(cè)的結(jié)果其實(shí)是沒(méi)有辦法判斷可靠程度的。

我們接下來(lái)分別討論下這三種方法的優(yōu)劣點(diǎn)。

孰優(yōu)孰劣,判別模型和生成模型生成模型

生成模型是對(duì)于數(shù)據(jù)量需求最高的,同時(shí)運(yùn)算量也是最大的,因?yàn)槠湫枰?xùn)練出包含?的聯(lián)合分布,如果數(shù)據(jù)量不夠,將會(huì)導(dǎo)致嚴(yán)重的過(guò)擬合現(xiàn)象[3]。對(duì)于很多應(yīng)用下來(lái)說(shuō), 是一個(gè)維度很高的特征向量,因此為了使得類條件概率得到一個(gè)較為合理的精度,就需要很多的數(shù)據(jù)量進(jìn)行計(jì)算。但是,生成模型也有一些很好的性質(zhì),比如說(shuō)可以從中進(jìn)行采樣生成出一些假數(shù)據(jù),這個(gè)應(yīng)用目前在很多image inpainting[4],style transfer[5]任務(wù)中經(jīng)常用到。而且,因?yàn)橥ㄟ^(guò)聯(lián)合概率分布可以通過(guò)式子(1.2)計(jì)算出邊緣概率分布。這個(gè)輸入空間的邊緣概率分布很有用,因?yàn)槠淇梢耘袛噍斎氲男聰?shù)據(jù)是否是一個(gè)所謂的離群點(diǎn)(outlier),離群點(diǎn)如下圖所示。這個(gè)就是所謂的離群點(diǎn)檢測(cè)(outlier detection)或者稱之為異常檢測(cè)(novelty detection),這個(gè)在網(wǎng)絡(luò)欺詐預(yù)測(cè),銀行欺詐預(yù)測(cè),電子垃圾郵件檢測(cè)中很有用。

判別模型

在分類任務(wù)中,很多時(shí)候你只是做個(gè)分類而已,并不用進(jìn)行離群點(diǎn)檢測(cè),也不需要生成虛假樣本.這個(gè)時(shí)候,如果還用生成模型去進(jìn)行后驗(yàn)概率的估計(jì),就浪費(fèi)了很多資源。我們觀察下圖,我們可以發(fā)現(xiàn),類條件概率其實(shí)和后驗(yàn)概率并沒(méi)有必然的影響。這個(gè)時(shí)候,你就需要采用判別模型。

不僅如此,采用了判別模型還有一個(gè)好處就是,可以利用所謂的**拒絕域(reject option)**把一些過(guò)于邊緣的判斷拒絕掉。比如我們僅有10%的把握判斷某人為癌癥患者,那么我們就情愿不做這個(gè)判斷,交給更為權(quán)威的人或者系統(tǒng)進(jìn)行下一步的處理。如下圖所示,綠色的水平線表示拒絕水平,只有后驗(yàn)概率高于這個(gè)水平線,才能認(rèn)為是可靠的判斷。我們將會(huì)看到,在基于判別函數(shù)的情況下,因?yàn)椴](méi)有概率的存在,因此并不能進(jìn)行這種操作。

判別函數(shù)方法

有比以上倆種方法更為簡(jiǎn)單,計(jì)算量更少的方法,那就是判別函數(shù)法。在這個(gè)情況下,因?yàn)槭侵苯佑糜?xùn)練數(shù)據(jù)擬合一個(gè)函數(shù)對(duì)樣本進(jìn)行分類,因此無(wú)法得到后驗(yàn)概率 。在這個(gè)方法中,只能最小化分類錯(cuò)誤率,而沒(méi)法給不同類型的分類錯(cuò)誤進(jìn)行區(qū)別[1],采用最小化分類風(fēng)險(xiǎn),這是個(gè)遺憾的地方。

Reference

[1] 《貝葉斯之旅||第一講,貝葉斯決策》

[2] Bishop C M. Pattern recognition and machine learning (information science and statistics) springer-verlag new york[J]. Inc. Secaucus, NJ, USA, 2006.

[3] 《機(jī)器學(xué)習(xí)模型的容量,過(guò)擬合與欠擬合》

[4] 《基于深度學(xué)習(xí)的Image Inpainting (圖像修復(fù))論文推薦(持續(xù)更新)》

[5] 《Image Style Transfer》

聲明:本內(nèi)容為作者獨(dú)立觀點(diǎn),不代表電子星球立場(chǎng)。未經(jīng)允許不得轉(zhuǎn)載。授權(quán)事宜與稿件投訴,請(qǐng)聯(lián)系:editor@netbroad.com
覺(jué)得內(nèi)容不錯(cuò)的朋友,別忘了一鍵三連哦!
贊 3
收藏 2
關(guān)注 52
成為作者 賺取收益
全部留言
0/200
  • dy-J4n9lg5Q 2021-05-19 13:28
    比論文強(qiáng)一萬(wàn)倍
    回復(fù)