物理雜記1: Shannon entropy與統計力學之關聯性
在前面的幾篇文章裡面我討論到一些機率的問題時提到了Shannon entropy來決定least informative prior的技巧,在這篇雜記裡我想要對Shannon entropy做一些探討。Shannon entropy源自於C. E. Shannon在資訊理論上的工作,特別是引入了統計力學對一個物理系統微觀狀態上的觀點。所以在這裡,我想從統計力學的角度推導出Shannon entropy或者稱作資訊量\(I\)的關係式\[I = -\sum_i p_i \ln p_i\]並且探討一些關於資訊理論的簡單問題。
一、系統的狀態
統計力學主要在是從微觀的角度來推論出巨觀的所有現象學上的熱力學特性,這些巨觀的特性諸如壓力\(P\)、內能\(U\)、熵\(S\)和定容或定壓比熱\(C_P\)、\(C_V\)...等等。我們這裡並不去討論如何推導這些特性,我們只要知道為了得出這些特性,我們必須了解系統現在到底處在什麼樣的狀態上。
舉例來說,桌上裝滿水的杯子,杯子體積是\(V\)且有\(N\)個水分子 (已知水的質量便可以除上水分子的莫爾質量乘上Avogadro常數得到總水分子數\(N\)),假設它已經和室溫\(T\)達成熱平衡,那麼我從中取出任意個水分子,試問該水分子的動能為何?下方我們皆以能量\(E\)來代稱動能。學過普通物理學也許會認為每個水分子的能量是\[\bar{E}=\frac{3}{2}k_B T \tag{7.1}\]其中\(k_B\)為Boltzmann constant。答案是的沒錯,但注意到我們取的是\(\bar{E}\)即平均能量,表示若我測量了無數個水分子的能量,那麼平均來講每個水分子會帶有\(\bar{E}\),不過對任意個水分子而言,他所帶的能量是在0到\(\infty\)中隨機賦值,這表示所有測量的結果\(E\)是一組統計上的隨機變量 (random variable)。所以這個問題便回到了在一給定的杯水的巨觀狀態\(N\)、\(V\)和\(T\)後,任意取出一個水分子的能量\(E\)的值最有可能為何?而這可以由\(E\)的機率分佈函數來決定。熟悉統計力學的人便可以馬上領會到,這個杯水對應到的是正則系綜1 (canonical ensemble),而每個水分子則是構成該系綜的成員 (members) 之一,或稱作系統 (systems)。補充一點就是,對於這杯水的狀態,統計力學還可以用微正則系綜 (microcanonical ensemble) 或巨正則系綜 (grand canonical ensemble) 的觀點來描述,但這三個系綜的概念都是等價的,它們皆會 (也必然要) 導出相同的熱力學量。
1 系綜 (ensemble) 是一個物理學上的歷史名詞,它原則上就是一堆樣本資料的集合,在現代統計的語言裡,我們把這些資料的集合稱作一組隨機變量,而這些隨機變量則是從母體中抽樣出來的,所以探討隨機變量的分佈情況,就是探討母體分佈的問題。這裡將系綜想像為母體,了解母體最好的辦法便是觀測 (採樣) 樣本,因為每一個樣本都是來自構成母體的成員 (系統) 的採樣之一。當然統計力學上所謂的採樣並不是真正的拿儀器去量,而是一種想像實驗,所以也不存在採樣誤差。統計力學裡的系綜一共有三種概念,即微正則、正則與巨正則,他們對母體描述的觀點雖然不同,但都是對該母體理想化的呈現,所以最終導出該母體的熱力學量三種觀點必然全部要一致!
我們繼續用水分子的概念來推導我們想要的結果,由於水分子的數量非常多,我們可以假設即使每個水分子的能量都不同,但它們可以是一個連續分佈的頻譜。若\(N\)個水分子當中總共有\(\Omega\)個處在能量為\(E\)的狀態上,則從杯水中任意取到能量為\(E\)的水分子的機率\(p(E)\)便和\(\Omega\)成正比,或表示成\[p(E) \propto \Omega(E) \tag{7.2}\]注意這裡的\(E\)是一個連續的變數。還有,由於杯水中的水分子是和室溫達成平衡,所以室溫的環境可以視為是一個熱庫 (heat reservoir),即其狀態都不受任何影響。若熱庫有能量\(E^\prime\),則能量守恆告訴我們在水分子+熱庫的總能量\[E+E^\prime=E_0 \tag{7.3}\]為一常數。又由於熱庫不受水分子的影響,可以預期熱庫的能量非常接近總能量而有\(E^\prime/ E_0\approx 1\)的關係,故熱庫本身可以代表整個體系的狀態,而對這杯水而言則有\(E/E_0 \ll 1\),所以杯水的狀態受制於熱庫的狀態。
由於熱庫具有代表性且和杯水內的水分子的狀態是連動的,所以知道熱庫的狀態數\(\Omega^\prime(E^\prime)\)便決定了水分子的狀態數\(\Omega(E)\)。我們可以將(7.2)改寫如下\[p(E)\propto\Omega(E)\propto\Omega^\prime(E^\prime)\equiv \Omega^\prime(E_0-E).\tag{7.4}\]將\(\ln \Omega^\prime(E^\prime)\)在\(E_0\)處做Taylor expansion我們得到\[\begin{align*} \ln \Omega^\prime(E^\prime) & =\ln\Omega{}^{\prime}(E_{0})+\left(\frac{\partial\ln\Omega{}^{\prime}}{\partial E^{\prime}}\right)_{E^{\prime}=E_{0}}(E^{\prime}-E_{0})+\mathcal{O}((E^{\prime}-E_{0})^{n})\\ & \simeq\ln\Omega{}^{\prime}(E_{0})-\left(\frac{\partial\ln\Omega{}^{\prime}}{\partial E^{\prime}}\right)_{E^{\prime}=E_{0}}E\\ & =常數-\beta E, \tag{7.5} \end{align*}\]最後一步我們用了(7.3)將熱庫的能量\(E^\prime\)全部替換成水分子的能量\(E\),這是我們有興趣的量,且\(E_0\)是一常數故有\(\ln\Omega^\prime(E_0)=常數\),另外熱力學告訴我們以下關係\[\left(\frac{\partial\ln\Omega{}^{\prime}}{\partial E^{\prime}}\right)_{E^{\prime}=E_{0}}=\left(\frac{\partial\ln\Omega{}^{\prime}}{\partial E^{\prime}}\right)_{N,V}\equiv \beta=\frac{1}{k_B T}.\]這就是我們在前面為什麼要取\(\ln \Omega^\prime\)的原因,完全是為了將它和熱力學量\(\beta\)劃上等號,這單純是推導上的便利性,這裡也不證明\(\beta\)怎麼來的,因為和我們的討論無關,只要知道當宏觀態中的溫度\(T\)給定的時候,\(\beta\)也給定了。
另外我們真正想要知道的是水分子的狀態\(\Omega\),而不是熱庫的狀態\(\Omega^\prime\),所以藉由(7.4)將之連結起來並拿掉(7.5)的\(\ln\)後得到\[p(E)\propto \Omega(E)\propto\Omega^\prime(E^\prime)\propto e^{-\beta E}.\]考慮機率的歸一化\(\sum p(E)=1\)我們有\[p(E)=\frac{e^{-\beta E}}{\sum_E e^{-\beta E}}\tag{7.6},\]其中分母表示對所有可能的\(E\)求和,如果確定\(E\)是連續的則將之替換為\[\sum_E e^{-\beta E} \to \int e^{-\beta E} dE.\]而(7.6)則是任意取一水分子,其能量為\(E\)的機率分佈,統計力學上也叫做正則分佈 (canonical distribution),(7.6)所描述的便是杯水內所有水分子所構成的那杯水 (系綜) 在巨觀條件\(N\)、\(V\)、\(T\)給定下其能量\(E\)的最概然狀態。
讓我們重新回到正則分佈(7.6)上,有了配分函數後\(\mathcal{Z}\)後我們將之表成\(p(E)=e^{-\beta E}/\mathcal{Z}\),其對數的期望值便是\[\langle \ln p(E)\rangle =-\ln \mathcal{Z} -\beta \langle E \rangle, \]由於\(\mathcal{Z}\)本來就是常數故取平均還是自己。而\(\ln \mathcal{Z}=-\beta A\)對應到熱力學裡的Helmholtz自由能\(A\),且\(\beta (A-\langle E\rangle)=-S/k_B\),這裡的\(S\)便是系統的熵 (entropy) 且\(\langle E\rangle\)有時又稱作系統的內能\(U\)。我們並不去推導這些熱力學關係式,我們僅僅使用它們,它們的推導可以在任何基礎熱力學的教科書裡找到,在這裡推導它們對我們的理解之後討論和資訊理論的連結並沒有額外的幫助。
透過上述的關係我們將系統的熵和系統的狀態的機率分佈函數連結起來的,我們接下來便是找出\(\langle \ln p(E)\rangle\)的表達式,透過(7.7)我們有 \[\langle \ln p(E)\rangle = \sum_E \ln p(E)\frac{ e^{-\beta E}}{\mathcal{Z}}=\sum_E p(E)\ln p(E).\tag{7.10}\]由於\(p(E)\)是離散的,我們用\(p_i\)代表所有可能的\(p(E)\)改寫(7.10)得到\[\langle \ln p_i\rangle=\sum_i p_i \ln p_i,\]則對應的系統熵便有了關係式\[S=-k_B \langle \ln p_i\rangle = -k_B \sum_i p_i \ln p_i.\tag{7.11}\]所以\(S\)完全可以由系統在任何狀態的機率\(p_i\)來決定!而當\(p_i\)表示為在一份文件中某條訊息\(i\)出現的機率,則(7.11)在資訊理論裡變成了著名的夏儂熵 (Shannon entropy),是由夏儂 (C. E. Shannon) 在1949年引入對資訊理論的基礎工作中,這裡的熵表示為該文件中所有訊息的含量,或稱作訊息量\(I\)。另外在統計力學以外的地方,熵單純是描述亂度,是一無因次 (dimensionless) 的量,故將Boltzmann constant直接取\(1\)即可。
假定每個訊息出現的機率是\(p_i\),機率歸一化有\[\sum_{i=1}^{N} p_i=1\tag{7.13}\]這是我們的條件,為了讓\(S\)最大,透過Lagrange's multiplier我們有\[\mathcal{L}=-k_B\sum_i p_i \ln p_i -\lambda \left(1-\sum_i p_i\right).\]則\(p_i=p_i^\ast\)滿足\[\left.\frac{\partial \mathcal{L}}{\partial p_i}\right|_{p_i=p_i^*}=0\]會讓\(S\)最大。故我們得到\[\sum_{i=1}^N (\ln p_i+1-\lambda) =0,\]則對所有的\(p_i\)須滿足\[\ln p_i=\lambda -1 \to p_i=e^{\lambda-1}\tag{7.14}.\]將(7.14)代入(7.13)有\[\sum_{i=1}^N p_i = Ne^{\lambda-1}=1\to\lambda =1-\ln N.\]我們便得到當\[p_i=e^{1-\ln N-1}=e^{-\ln N}=\frac{1}{N}\ \tag{7.15}\]可以讓資訊量\(S\)最大,而(7.15)也意味著每條訊息出現的機率是均等的。
1 系綜 (ensemble) 是一個物理學上的歷史名詞,它原則上就是一堆樣本資料的集合,在現代統計的語言裡,我們把這些資料的集合稱作一組隨機變量,而這些隨機變量則是從母體中抽樣出來的,所以探討隨機變量的分佈情況,就是探討母體分佈的問題。這裡將系綜想像為母體,了解母體最好的辦法便是觀測 (採樣) 樣本,因為每一個樣本都是來自構成母體的成員 (系統) 的採樣之一。當然統計力學上所謂的採樣並不是真正的拿儀器去量,而是一種想像實驗,所以也不存在採樣誤差。統計力學裡的系綜一共有三種概念,即微正則、正則與巨正則,他們對母體描述的觀點雖然不同,但都是對該母體理想化的呈現,所以最終導出該母體的熱力學量三種觀點必然全部要一致!
1.1 最概然狀態
所以當取出一個系綜的成員時,它最有可能的\(E\)便稱作該系統的最概然狀態 (most probable state),或是最似然狀態。我們繼續用水分子的概念來推導我們想要的結果,由於水分子的數量非常多,我們可以假設即使每個水分子的能量都不同,但它們可以是一個連續分佈的頻譜。若\(N\)個水分子當中總共有\(\Omega\)個處在能量為\(E\)的狀態上,則從杯水中任意取到能量為\(E\)的水分子的機率\(p(E)\)便和\(\Omega\)成正比,或表示成\[p(E) \propto \Omega(E) \tag{7.2}\]注意這裡的\(E\)是一個連續的變數。還有,由於杯水中的水分子是和室溫達成平衡,所以室溫的環境可以視為是一個熱庫 (heat reservoir),即其狀態都不受任何影響。若熱庫有能量\(E^\prime\),則能量守恆告訴我們在水分子+熱庫的總能量\[E+E^\prime=E_0 \tag{7.3}\]為一常數。又由於熱庫不受水分子的影響,可以預期熱庫的能量非常接近總能量而有\(E^\prime/ E_0\approx 1\)的關係,故熱庫本身可以代表整個體系的狀態,而對這杯水而言則有\(E/E_0 \ll 1\),所以杯水的狀態受制於熱庫的狀態。
由於熱庫具有代表性且和杯水內的水分子的狀態是連動的,所以知道熱庫的狀態數\(\Omega^\prime(E^\prime)\)便決定了水分子的狀態數\(\Omega(E)\)。我們可以將(7.2)改寫如下\[p(E)\propto\Omega(E)\propto\Omega^\prime(E^\prime)\equiv \Omega^\prime(E_0-E).\tag{7.4}\]將\(\ln \Omega^\prime(E^\prime)\)在\(E_0\)處做Taylor expansion我們得到\[\begin{align*} \ln \Omega^\prime(E^\prime) & =\ln\Omega{}^{\prime}(E_{0})+\left(\frac{\partial\ln\Omega{}^{\prime}}{\partial E^{\prime}}\right)_{E^{\prime}=E_{0}}(E^{\prime}-E_{0})+\mathcal{O}((E^{\prime}-E_{0})^{n})\\ & \simeq\ln\Omega{}^{\prime}(E_{0})-\left(\frac{\partial\ln\Omega{}^{\prime}}{\partial E^{\prime}}\right)_{E^{\prime}=E_{0}}E\\ & =常數-\beta E, \tag{7.5} \end{align*}\]最後一步我們用了(7.3)將熱庫的能量\(E^\prime\)全部替換成水分子的能量\(E\),這是我們有興趣的量,且\(E_0\)是一常數故有\(\ln\Omega^\prime(E_0)=常數\),另外熱力學告訴我們以下關係\[\left(\frac{\partial\ln\Omega{}^{\prime}}{\partial E^{\prime}}\right)_{E^{\prime}=E_{0}}=\left(\frac{\partial\ln\Omega{}^{\prime}}{\partial E^{\prime}}\right)_{N,V}\equiv \beta=\frac{1}{k_B T}.\]這就是我們在前面為什麼要取\(\ln \Omega^\prime\)的原因,完全是為了將它和熱力學量\(\beta\)劃上等號,這單純是推導上的便利性,這裡也不證明\(\beta\)怎麼來的,因為和我們的討論無關,只要知道當宏觀態中的溫度\(T\)給定的時候,\(\beta\)也給定了。
另外我們真正想要知道的是水分子的狀態\(\Omega\),而不是熱庫的狀態\(\Omega^\prime\),所以藉由(7.4)將之連結起來並拿掉(7.5)的\(\ln\)後得到\[p(E)\propto \Omega(E)\propto\Omega^\prime(E^\prime)\propto e^{-\beta E}.\]考慮機率的歸一化\(\sum p(E)=1\)我們有\[p(E)=\frac{e^{-\beta E}}{\sum_E e^{-\beta E}}\tag{7.6},\]其中分母表示對所有可能的\(E\)求和,如果確定\(E\)是連續的則將之替換為\[\sum_E e^{-\beta E} \to \int e^{-\beta E} dE.\]而(7.6)則是任意取一水分子,其能量為\(E\)的機率分佈,統計力學上也叫做正則分佈 (canonical distribution),(7.6)所描述的便是杯水內所有水分子所構成的那杯水 (系綜) 在巨觀條件\(N\)、\(V\)、\(T\)給定下其能量\(E\)的最概然狀態。
1.2 熱力學量: 熵
既然系綜狀態的分佈已經由(7.6)所給出,那麼對這個系綜而言,任意與\(E\)關聯的量\(G\)的期望值\(\langle G\rangle\),或平均\(\bar{G}\)便可以表示為\[\langle G\rangle=\bar{G}=\int_0^\infty G(E) p(E) dE =\frac{\sum_E G(E)e^{-\beta E}}{\sum_E e^{-\beta E}}\tag{7.7}\]其中積分和求和分別表示\(E\)為連續或為離散的狀況。我們接下來都討論\(E\)是離散的狀態,因為水分子和水分子間本來就是離散的,且定義分母\[\sum_E e^{-\beta E}\equiv \mathcal{Z} \tag{7.8}\]並稱\(\mathcal{Z}\)作配分函數 (partition functiom),不用對這個函數想太多,它不過就是為了讓機率歸一化的歸一常數的別稱。舉例來說,每個水分子的平均能量便可表示成\[\bar{E} = \sum_E E\frac{ e^{-\beta E}}{\mathcal{Z}}.\tag{7.9} \]所以\(\beta\)給定 (即給定\(T\)),平均能量也就給定了。讓我們重新回到正則分佈(7.6)上,有了配分函數後\(\mathcal{Z}\)後我們將之表成\(p(E)=e^{-\beta E}/\mathcal{Z}\),其對數的期望值便是\[\langle \ln p(E)\rangle =-\ln \mathcal{Z} -\beta \langle E \rangle, \]由於\(\mathcal{Z}\)本來就是常數故取平均還是自己。而\(\ln \mathcal{Z}=-\beta A\)對應到熱力學裡的Helmholtz自由能\(A\),且\(\beta (A-\langle E\rangle)=-S/k_B\),這裡的\(S\)便是系統的熵 (entropy) 且\(\langle E\rangle\)有時又稱作系統的內能\(U\)。我們並不去推導這些熱力學關係式,我們僅僅使用它們,它們的推導可以在任何基礎熱力學的教科書裡找到,在這裡推導它們對我們的理解之後討論和資訊理論的連結並沒有額外的幫助。
透過上述的關係我們將系統的熵和系統的狀態的機率分佈函數連結起來的,我們接下來便是找出\(\langle \ln p(E)\rangle\)的表達式,透過(7.7)我們有 \[\langle \ln p(E)\rangle = \sum_E \ln p(E)\frac{ e^{-\beta E}}{\mathcal{Z}}=\sum_E p(E)\ln p(E).\tag{7.10}\]由於\(p(E)\)是離散的,我們用\(p_i\)代表所有可能的\(p(E)\)改寫(7.10)得到\[\langle \ln p_i\rangle=\sum_i p_i \ln p_i,\]則對應的系統熵便有了關係式\[S=-k_B \langle \ln p_i\rangle = -k_B \sum_i p_i \ln p_i.\tag{7.11}\]所以\(S\)完全可以由系統在任何狀態的機率\(p_i\)來決定!而當\(p_i\)表示為在一份文件中某條訊息\(i\)出現的機率,則(7.11)在資訊理論裡變成了著名的夏儂熵 (Shannon entropy),是由夏儂 (C. E. Shannon) 在1949年引入對資訊理論的基礎工作中,這裡的熵表示為該文件中所有訊息的含量,或稱作訊息量\(I\)。另外在統計力學以外的地方,熵單純是描述亂度,是一無因次 (dimensionless) 的量,故將Boltzmann constant直接取\(1\)即可。
二、一些在資訊理論上的應用
在我們繼續討論以前,讓我們先回顧一下Boltzmann最有名的一條公式,即\[S=k_B\ln \Omega.\]它表示了一個系統的熵可以完全由該系統的所有可能的狀態數\(\Omega\)來決定,這條方程也被刻在Boltzmann的墓碑上👻🎃😁
在統計力學系統裡,我們假定每種狀態出現的機率都是均等的 (這有個專有名詞叫做微正則系綜),因為所有可能的狀態數是\(\Omega\),每個出現機率是\(p_i=\Omega^{-1}\),馬上套用著名的夏儂熵公式(7.11)得到\[S=-k_B\sum_i \frac{1}{\Omega} \ln\left(\frac{1}{\Omega}\right)=k_B \ln\Omega.\tag{7.12}\]上式便是著名的Boltzmann熵公式!我們在(7.12)最後用到了\(\sum p_i=\Omega p_i=1\),這是因為每個\(p_i\)都是一樣的定值,對\(p_i\)的求和等於是狀態數乘上一定值。
2.1 訊息量的增減
我們可以透過(7.11)來看一些有趣的應用。例如在一份文件中,如果有\(N\)條訊息,若要讓這份文件的總資訊量最大,則每條訊息出現的機率應如何分佈?這典型的是求哪種訊息分佈會導致最大熵 (maximum entropy)。假定每個訊息出現的機率是\(p_i\),機率歸一化有\[\sum_{i=1}^{N} p_i=1\tag{7.13}\]這是我們的條件,為了讓\(S\)最大,透過Lagrange's multiplier我們有\[\mathcal{L}=-k_B\sum_i p_i \ln p_i -\lambda \left(1-\sum_i p_i\right).\]則\(p_i=p_i^\ast\)滿足\[\left.\frac{\partial \mathcal{L}}{\partial p_i}\right|_{p_i=p_i^*}=0\]會讓\(S\)最大。故我們得到\[\sum_{i=1}^N (\ln p_i+1-\lambda) =0,\]則對所有的\(p_i\)須滿足\[\ln p_i=\lambda -1 \to p_i=e^{\lambda-1}\tag{7.14}.\]將(7.14)代入(7.13)有\[\sum_{i=1}^N p_i = Ne^{\lambda-1}=1\to\lambda =1-\ln N.\]我們便得到當\[p_i=e^{1-\ln N-1}=e^{-\ln N}=\frac{1}{N}\ \tag{7.15}\]可以讓資訊量\(S\)最大,而(7.15)也意味著每條訊息出現的機率是均等的。
2.2 無關聯訊息與有關聯訊息
英文有26個字母,在我們所熟知那些有意義的英文字彙裡,每個字母出現的機率並不相等,例如子音後面出現母音的機率便高出出現子音的機率,像是字母b後面接上a的機率便大於出現q或z,所以每個字母出現的機率並不都是\(1/26\)而是會受前後文的影響。
按照這樣的推論,在一個假想的雙字母的字彙裡,字母\(k\)後方出現\(k^\prime\)的機率是\[P_{k,k^\prime}=P_k P_{k^\prime} G_{k,k^\prime},\tag{7.16}\]其中\(P_k\)表示單字母\(k\)出現的機率,而\(G_{k,k^\prime}\)為關聯函數。若出現\(k^\prime\)的機率與字母\(k\)無關,則\(G=1\)表無關聯,反之\(G> 1\)。
我們先定義一些限制,例如機率的歸一化要求有\[\sum_k P_k \tilde{P}_{k^\prime} =\tilde{P}_{k^\prime} \sum_k P_k=\tilde{P}_{k^\prime} ,\]這是由於該求和只對啞變數\(k\)有作用而與\(k^\prime\)無關,而求和的結果滿足歸一化。上述也等價為\[\sum_{k^\prime} P_k \tilde{P}_{k^\prime} =P_{k},\]如我們前述,\(k\)與\(k^\prime\)是啞變數,順序對調無關緊要。
故對關聯系統下的雙字母資訊量 \[ \begin{eqnarray*} I & = & -\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\\ & = & -\sum_{k,k^{\prime}}(P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln P_{k}+P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln P_{k^{\prime}}+P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}})\\ & = & -\sum_{k,k^{\prime}}P_{k}\tilde{P}_{k^{\prime}}\ln P_{k}-\sum_{k,k^{\prime}}\tilde{P}_{k}P_{k^{\prime}}\ln P_{k^{\prime}}-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}}\\ & = & -\sum_{k}P_{k}\ln P_{k}-\sum_{k^{\prime}}P_{k^{\prime}}\ln P_{k^{\prime}}-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}}\\ & = & I_單+I_單-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}}=I_雙-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}},\tag{7.18} \end{eqnarray*} \]最後我們用了(7.17)的結果。我們接著需要一則不等式\(\ln G\leq G-1\),接續(7.18)有 \[ \begin{eqnarray*} I_雙-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}} & = & I_雙+\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln\left(\frac{1}{G_{k,k^{\prime}}}\right)\\ & \leq & I_雙+\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\left(\frac{1}{G_{k,k^{\prime}}}-1\right)\\ & = & I_雙+\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}(1-G_{k,k^{\prime}})\\ &\leq & I_雙.\tag{7.19} \end{eqnarray*} \] 最後一步的右式由於\(G_{k,k^{\prime}}\geq 1\),故最大值發生在\(G_{k,k^{\prime}}=1\)的時候。所以我們推斷,若兩個訊息間是關聯的,那麼其訊息量\(I\)恆有\[I\leq I_雙,\tag{7.20}\]其中\(I_雙\)是無關聯雙字母系統下的資訊量。而(7.20)傳達了任何關聯系統都會縮小該系統得資訊項,或者說該系統會朝向有序的方向,這個概念和資料壓縮有著密切的關聯,一個高度有序的系統所涵蓋的資訊量少,可以將其用少量的訊息重新建構,故壓縮率高;反之,當一個系統處於無序的狀態,則必須紀錄所有和系統相關的訊息,壓縮率則會降低。
當我們對於一組隨機變量在什麼情況下可以假設它是Gaussian便可以套用統計力學的觀念。Gaussian分佈屬於指數分佈族 (exponential family),對所有指數族裡的成員都擁有符合該分佈條件情況下的最大熵,這意味著不管這些隨機變量是透過什麼過程 (化學、物理或其他不知明的反應) 產生的,這些過程可能非常的多,最後都混雜在一起,當系統歸於於平衡 (stationary) 的時候,它的狀態會趨近於最大的亂度,或者說擁有最大的熵,而隨機變量便是該系統對觀察者的直接顯現,或者稱作觀測量 (observables),既然系統在平衡時有最大的熵,隨機變量的分佈也直接有最大熵,這時候我們便可套用相對應下擁有最大熵的分佈函數,這就是為何自然界很多現象都可以使用Gaussian分佈。
不過這當然是一個比較簡便得說法,同樣都有最大熵的狀態,並不是所有隨機變量都可以使用Gaussian來描述,還得看隨機變量是否為連續實數或者有特定的範圍,或者有其它的條件限制,這在古典的機率論裡面如何使用最適當的分佈族已經有非常詳細的探討了!
按照這樣的推論,在一個假想的雙字母的字彙裡,字母\(k\)後方出現\(k^\prime\)的機率是\[P_{k,k^\prime}=P_k P_{k^\prime} G_{k,k^\prime},\tag{7.16}\]其中\(P_k\)表示單字母\(k\)出現的機率,而\(G_{k,k^\prime}\)為關聯函數。若出現\(k^\prime\)的機率與字母\(k\)無關,則\(G=1\)表無關聯,反之\(G> 1\)。
無關聯的情況\(G=1\)
對於有\(N\)個字符的系統,因為兩兩出現的字母之間是無關的,我們可以假定每個字母出現的機率是相等的,皆為\(P_k=p=1/N\)。對一個單字母的狀況,資訊量 (用\(I\)取代\(S\)) 為\[I_單 = -\sum_k P_k \ln P_k =\ln p,\]而雙字母的情況則是\[I_雙=-\sum_k\sum_{k^\prime} P_k P_{k^\prime}\ln P_k P_{k^\prime}=N^2 p^2 \ln p^2=2\ln p.\]所以我們可以發現在無關聯情況下有\[\frac{I_雙}{I_單}=\frac{2\ln p}{\ln p}=2,\tag{7.17}\]雙字母的資訊量是單字母資訊量的兩倍。有關聯的情況\(G\geq 1\)
接著若有關聯的話,我們要推論出雙字母攜帶的訊息量必然小於無關聯的情況。首先我們先說\(k\)與\(k^\prime\)出現的順序並不影響結果,因為它們都是所謂的啞變數 (dummy variables)。另外我們可以將\(P_k P_{k^\prime} G_{k,k^\prime}\)寫成\(P_k \tilde{P}_{k^\prime} \),其中\(\tilde{P}_{k^\prime} \)表示在有關聯系統下\(k^\prime\)出現在\(k\)後面的機率不再是單字母系統下的\(P_{k^\prime}\)而是必須乘上\(G_{k,k^\prime}\)。至於\(G_{k,k^\prime}\)的效應這邊我們完全用\(\tilde{P}_{k^\prime} \)來取代了,所以它的真確值並不重要。我們先定義一些限制,例如機率的歸一化要求有\[\sum_k P_k \tilde{P}_{k^\prime} =\tilde{P}_{k^\prime} \sum_k P_k=\tilde{P}_{k^\prime} ,\]這是由於該求和只對啞變數\(k\)有作用而與\(k^\prime\)無關,而求和的結果滿足歸一化。上述也等價為\[\sum_{k^\prime} P_k \tilde{P}_{k^\prime} =P_{k},\]如我們前述,\(k\)與\(k^\prime\)是啞變數,順序對調無關緊要。
故對關聯系統下的雙字母資訊量 \[ \begin{eqnarray*} I & = & -\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\\ & = & -\sum_{k,k^{\prime}}(P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln P_{k}+P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln P_{k^{\prime}}+P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}})\\ & = & -\sum_{k,k^{\prime}}P_{k}\tilde{P}_{k^{\prime}}\ln P_{k}-\sum_{k,k^{\prime}}\tilde{P}_{k}P_{k^{\prime}}\ln P_{k^{\prime}}-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}}\\ & = & -\sum_{k}P_{k}\ln P_{k}-\sum_{k^{\prime}}P_{k^{\prime}}\ln P_{k^{\prime}}-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}}\\ & = & I_單+I_單-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}}=I_雙-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}},\tag{7.18} \end{eqnarray*} \]最後我們用了(7.17)的結果。我們接著需要一則不等式\(\ln G\leq G-1\),接續(7.18)有 \[ \begin{eqnarray*} I_雙-\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln G_{k,k^{\prime}} & = & I_雙+\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\ln\left(\frac{1}{G_{k,k^{\prime}}}\right)\\ & \leq & I_雙+\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}G_{k,k^{\prime}}\left(\frac{1}{G_{k,k^{\prime}}}-1\right)\\ & = & I_雙+\sum_{k,k^{\prime}}P_{k}P_{k^{\prime}}(1-G_{k,k^{\prime}})\\ &\leq & I_雙.\tag{7.19} \end{eqnarray*} \] 最後一步的右式由於\(G_{k,k^{\prime}}\geq 1\),故最大值發生在\(G_{k,k^{\prime}}=1\)的時候。所以我們推斷,若兩個訊息間是關聯的,那麼其訊息量\(I\)恆有\[I\leq I_雙,\tag{7.20}\]其中\(I_雙\)是無關聯雙字母系統下的資訊量。而(7.20)傳達了任何關聯系統都會縮小該系統得資訊項,或者說該系統會朝向有序的方向,這個概念和資料壓縮有著密切的關聯,一個高度有序的系統所涵蓋的資訊量少,可以將其用少量的訊息重新建構,故壓縮率高;反之,當一個系統處於無序的狀態,則必須紀錄所有和系統相關的訊息,壓縮率則會降低。
三、小結
統計力學和資訊理論有著密切的對應關係,因為一個文本所內涵蓋的資訊正如一個系綜內所涵蓋的系統數 (或狀態數),故它們使用相同的語言來表徵是非常合理的。對於熵這個概念不僅僅在統計力學或資訊理論中有著墨,它也可以完整的推廣到機率理論內。當我們對於一組隨機變量在什麼情況下可以假設它是Gaussian便可以套用統計力學的觀念。Gaussian分佈屬於指數分佈族 (exponential family),對所有指數族裡的成員都擁有符合該分佈條件情況下的最大熵,這意味著不管這些隨機變量是透過什麼過程 (化學、物理或其他不知明的反應) 產生的,這些過程可能非常的多,最後都混雜在一起,當系統歸於於平衡 (stationary) 的時候,它的狀態會趨近於最大的亂度,或者說擁有最大的熵,而隨機變量便是該系統對觀察者的直接顯現,或者稱作觀測量 (observables),既然系統在平衡時有最大的熵,隨機變量的分佈也直接有最大熵,這時候我們便可套用相對應下擁有最大熵的分佈函數,這就是為何自然界很多現象都可以使用Gaussian分佈。
不過這當然是一個比較簡便得說法,同樣都有最大熵的狀態,並不是所有隨機變量都可以使用Gaussian來描述,還得看隨機變量是否為連續實數或者有特定的範圍,或者有其它的條件限制,這在古典的機率論裡面如何使用最適當的分佈族已經有非常詳細的探討了!
留言
張貼留言