前面的博客有介紹過(guò)對(duì)連續(xù)的變量進(jìn)行線性回歸分析,從而達(dá)到對(duì)因變量的預(yù)測(cè)或者解釋作用。那么如果因變量是離散變量呢?在做行為預(yù)測(cè)的時(shí)候通常只有“做”與“不做的區(qū)別”、“0”與“1”的區(qū)別,這是我們就要用到logistic分析(邏輯回歸分析,非線性模型)。

參數(shù)解釋(對(duì)變量的評(píng)價(jià))

發(fā)生比(odds): ODDS=事件發(fā)生概率/事件不發(fā)生的概率=P/(1-P)

發(fā)生比率(odds ratio):odds ratio=oddsB/oddsA       (組B相對(duì)于組A更容易發(fā)生的比率)

注:odds ratio大于1或者小于1都有意義,代表自變量的兩個(gè)分組有差異性,對(duì)因變量的發(fā)生概率有作用。若等于1的話,該組變量對(duì)事件發(fā)生概率沒有任何作用。

參數(shù)估計(jì)方法

線性回歸中,主要是采用最小二乘法進(jìn)行參數(shù)估計(jì),使其殘差平方和最小。同時(shí)在線性回歸中最大似然估計(jì)和最小二乘發(fā)估計(jì)結(jié)果是一致的,但不同的是極大似然法可以用于非線性模型,又因?yàn)檫壿嫽貧w是非線性模型,所以邏輯回歸最常用的估計(jì)方法是極大似然法。

極大似然公式:L(Θ)=P(Y1)P(Y2)...p(YN)            P為事件發(fā)生概率PI=1/(1+E-(α+βXI))

在樣本較大時(shí),極大似然估計(jì)滿足相合性、漸進(jìn)有效性、漸進(jìn)正太性。但是在樣本觀測(cè)少于100時(shí),估計(jì)的風(fēng)險(xiǎn)會(huì)比較大,大于100可以介紹大于500則更加充分。

模型評(píng)價(jià)

這里介紹擬合優(yōu)度的評(píng)價(jià)的兩個(gè)標(biāo)準(zhǔn):AIC準(zhǔn)則和SC準(zhǔn)則,兩統(tǒng)計(jì)量越小說(shuō)明模型擬合的越好,越可信。

若事件發(fā)生的觀測(cè)有n條,時(shí)間不發(fā)生的觀測(cè)有M條,則稱該數(shù)據(jù)有n*m個(gè)觀測(cè)數(shù)據(jù)對(duì),

在一個(gè)觀測(cè)數(shù)據(jù)對(duì)中,P>1-P,則為和諧對(duì)(concordant)。P<1-P,則為不和諧對(duì)(discordant)。P=1-P,則稱為結(jié)。

在預(yù)測(cè)準(zhǔn)確性有一個(gè)統(tǒng)計(jì)量C=(NC-0.5ND+0.5T)/T,其中NC為和諧對(duì)數(shù),ND為不和諧對(duì)數(shù),這里我們就可以根據(jù)C統(tǒng)計(jì)量來(lái)表明模型的區(qū)分度,例如C=0.68,則表示事件發(fā)生的概率比不發(fā)生的概率大的可能性為0.68。

使用假設(shè)條件

①數(shù)據(jù)來(lái)自隨機(jī)樣本

②共線性敏感,自變量之間是非線性關(guān)系

③因變量只能取0、1

接下來(lái)看案例

大學(xué)生就業(yè)培訓(xùn),高中生培訓(xùn),在職人員轉(zhuǎn)行培訓(xùn),企業(yè)團(tuán)訓(xùn)

        		

延伸閱讀

學(xué)習(xí)是年輕人改變自己的最好方式-Java培訓(xùn),做最負(fù)責(zé)任的教育,學(xué)習(xí)改變命運(yùn),軟件學(xué)習(xí),再就業(yè),大學(xué)生如何就業(yè),幫大學(xué)生找到好工作,lphotoshop培訓(xùn),電腦培訓(xùn),電腦維修培訓(xùn),移動(dòng)軟件開發(fā)培訓(xùn),網(wǎng)站設(shè)計(jì)培訓(xùn),網(wǎng)站建設(shè)培訓(xùn)學(xué)習(xí)是年輕人改變自己的最好方式