英语老师掀起内衣喂我奶小说,尼姑庵的男保安全文阅读,白妇少洁72章,武侠 欧美 另类 人妻

團(tuán)體法和保險(xiǎn)人隨機(jī)變量法,團(tuán)體法和保險(xiǎn)人隨機(jī)變量法的區(qū)別

  • 0
  • 2024-08-24 05:07:38

大家好,今天小編關(guān)注到一個(gè)比較有意思的話題,就是關(guān)于團(tuán)體法和保險(xiǎn)人隨機(jī)變量法的問(wèn)題,于是小編就整理了1個(gè)相關(guān)介紹團(tuán)體法和保險(xiǎn)人隨機(jī)變量法的解答,讓我們一起看看吧。

怎么理解生成模型VAE?

VAE,即Auto-encoding variational bayes是13年由Kingma, Diederik P., and Max Welling. 提出的。

團(tuán)體法和保險(xiǎn)人隨機(jī)變量法,團(tuán)體法和保險(xiǎn)人隨機(jī)變量法的區(qū)別

論文地址:https://arxiv.org/abs/1312.6114

想要深刻理解VAE背后的原理需要一定的數(shù)學(xué)基礎(chǔ),其中涉及到變分推理和貝葉斯等。本文的重點(diǎn)放在對(duì)VAE的思想的理解上,重點(diǎn)并不是怎么去做公式的推導(dǎo)和解釋。

首先,VAE是結(jié)合了神經(jīng)網(wǎng)絡(luò)和貝葉斯思想做的變分推理。那神經(jīng)網(wǎng)絡(luò),在這其中起到什么作用呢?

我們知道我們可以通過(guò)增加神經(jīng)網(wǎng)絡(luò)的復(fù)雜結(jié)構(gòu),來(lái)增強(qiáng)神經(jīng)網(wǎng)絡(luò)的非線性擬合功能。因此可以用神經(jīng)網(wǎng)絡(luò)去逼近一些比較復(fù)雜的函數(shù),這些函數(shù)如果不用神經(jīng)網(wǎng)絡(luò)逼近的話,可能非常復(fù)雜,甚至無(wú)法以非常顯形的方式建模出來(lái)(要知道,只有一部分自然界中的規(guī)律能讓我們用數(shù)學(xué)公式抽象地表達(dá)出來(lái))。

我們?cè)賮?lái)繼續(xù)看,VAE中哪一步需要神經(jīng)網(wǎng)絡(luò)的幫助?

VAE是生成模型,先不看VAE。簡(jiǎn)單地說(shuō),如果我們想要生成一個(gè)數(shù)據(jù),可以通過(guò)什么樣的方式做到呢?如下圖所示,比如,我們輸入一個(gè)向量[1, 0, 0, 0],想讓它經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)后生成一張貓的圖片,我們不斷訓(xùn)練這個(gè)網(wǎng)絡(luò)去減小生成的圖像和原始圖像的平均平方誤差。那么訓(xùn)練完后,這個(gè)圖像的信息就被保留在了網(wǎng)絡(luò)的參數(shù)中。

按照這個(gè)想法,我們?cè)傧蚓W(wǎng)絡(luò)輸入[0, 1, 0, 0]代表狗,讓網(wǎng)絡(luò)能生成一個(gè)狗的圖片?;谶@個(gè)思想,我們可以上升一個(gè)層次擴(kuò)展下去,我們可以不輸入獨(dú)熱編碼,而是輸入實(shí)數(shù)值向量,從而能用更低維度的向量,編碼更多的圖片。例如可以輸入 [3.3, 4.5, 2.1, 9.8]代表貓,輸入[3.4, 2.1, 6.7, 4.2] 代表狗。這個(gè)已知的初始向量就對(duì)應(yīng)了VAE中提到的概念latent variable。而上述得到的網(wǎng)絡(luò)叫做解碼器,因?yàn)榻o網(wǎng)絡(luò)輸入一個(gè)指定的向量,就能把這個(gè)向量通過(guò)網(wǎng)絡(luò)解碼得到與編碼向量對(duì)應(yīng)的一張圖片。但這么做的前提是,你已經(jīng)知道在latent variable這個(gè)集合中,怎樣的向量輸給網(wǎng)絡(luò)能生成貓,怎樣的向量輸給網(wǎng)絡(luò)能生成狗。如果你不知道這個(gè)latent variable,你會(huì)怎么辦,你只能去試,比如隨機(jī)選一個(gè)latent variable向量輸進(jìn)網(wǎng)絡(luò),看結(jié)果會(huì)不會(huì)是你想要的貓或者狗,但這種做法實(shí)在是一言難盡,一點(diǎn)不像是搞科研的人干的事情。

因此,我們需要一個(gè)編碼器,能夠把輸入的圖像進(jìn)行編碼,而這個(gè)編碼的結(jié)果不再是規(guī)律不可循的了,而是服從我們指定的簡(jiǎn)單的分布,這個(gè)編碼的結(jié)果服從的分布,一方面是基于輸入數(shù)據(jù)的,因此它也具備了能被解碼器解碼回去的能力。另一方面,它服從一種簡(jiǎn)單的我們能夠掌握的分布,因此我們能夠有規(guī)律可循的生成一個(gè)latent variable,把這個(gè)latent variable輸入給解碼器,就能生成一張圖片。我們把latent variable記作Z(Z是可以有很多分量,同時(shí)它的分量也可以是一個(gè)多維向量,總之Z可以是一個(gè)多維的向量),而Z的這個(gè)分布我們可以記作q(Z)。

實(shí)際上,真實(shí)世界的過(guò)程應(yīng)該是這樣的,比如對(duì)于一張動(dòng)物圖片,決定它是一個(gè)貓還是一個(gè)狗,應(yīng)該是由很多隱含變量的,比如圖片中的動(dòng)物眼睛、鼻子、嘴、耳朵都是什么樣的、而且這個(gè)變量之間往往不是相互獨(dú)立的,是錯(cuò)綜復(fù)雜的關(guān)系,這個(gè)真實(shí)世界中的latent variable的分布我們記作p(Z)。真實(shí)世界生成一種張圖片的過(guò)程應(yīng)該是:

我們先在p(Z)中選在一個(gè)編碼向量,在根據(jù)這個(gè)編碼向量生成圖片。就是因?yàn)檎鎸?shí)的先驗(yàn)概率p(Z)實(shí)在不好捕捉和發(fā)現(xiàn),我們才利用VAE中的encoder去編碼一個(gè)q(Z),這個(gè)q(Z)的意義就是為了去逼近近似p(Z),能完成p(Z)的功能,即采樣之后能生成一張圖片的功能。

因此,我們就能理解VAE中的loss函數(shù)的組成了,一方面,是圖片的重構(gòu)誤差,我們可以用平均平方誤差來(lái)度量,另一方面。我們可以用KL散度來(lái)度量我們的q(Z)分布和p(Z)分布的差異。

最后,我們給出利用VAE生成手寫(xiě)數(shù)字的結(jié)果:

感興趣的同學(xué)也可以看一下,下面的有關(guān)VAE的更詳細(xì)的論文:

http://lanl.arxiv.org/pdf/1606.05908v2

到此,以上就是小編對(duì)于團(tuán)體法和保險(xiǎn)人隨機(jī)變量法的問(wèn)題就介紹到這了,希望介紹關(guān)于團(tuán)體法和保險(xiǎn)人隨機(jī)變量法的1點(diǎn)解答對(duì)大家有用。

相關(guān)閱讀