前面的博客有介紹過(guò)對(duì)連續(xù)的變量進(jìn)行線性回歸分析,從而達(dá)到對(duì)因變量的預(yù)測(cè)或者解釋作用。那么如果因變量是離散變量呢?在做行為預(yù)測(cè)的時(shí)候通常只有“做”與“不做的區(qū)別”、“0”與“1”的區(qū)別,這是我們就要用到logistic分析(邏輯回歸分析,非線性模型)。
參數(shù)解釋(對(duì)變量的評(píng)價(jià))
發(fā)生比(odds): ODDS=事件發(fā)生概率/事件不發(fā)生的概率=P/(1-P)
發(fā)生比率(odds ratio):odds ratio=oddsB/oddsA (組B相對(duì)于組A更容易發(fā)生的比率)
注:odds ratio大于1或者小于1都有意義,代表自變量的兩個(gè)分組有差異性,對(duì)因變量的發(fā)生概率有作用。若等于1的話,該組變量對(duì)事件發(fā)生概率沒有任何作用。
參數(shù)估計(jì)方法
線性回歸中,主要是采用最小二乘法進(jìn)行參數(shù)估計(jì),使其殘差平方和最小。同時(shí)在線性回歸中最大似然估計(jì)和最小二乘發(fā)估計(jì)結(jié)果是一致的,但不同的是極大似然法可以用于非線性模型,又因?yàn)檫壿嫽貧w是非線性模型,所以邏輯回歸最常用的估計(jì)方法是極大似然法。
極大似然公式:L(Θ)=P(Y1)P(Y2)...p(YN) P為事件發(fā)生概率PI=1/(1+E-(α+βXI))
在樣本較大時(shí),極大似然估計(jì)滿足相合性、漸進(jìn)有效性、漸進(jìn)正太性。但是在樣本觀測(cè)少于100時(shí),估計(jì)的風(fēng)險(xiǎn)會(huì)比較大,大于100可以介紹大于500則更加充分。
模型評(píng)價(jià)
這里介紹擬合優(yōu)度的評(píng)價(jià)的兩個(gè)標(biāo)準(zhǔn):AIC準(zhǔn)則和SC準(zhǔn)則,兩統(tǒng)計(jì)量越小說(shuō)明模型擬合的越好,越可信。
若事件發(fā)生的觀測(cè)有n條,時(shí)間不發(fā)生的觀測(cè)有M條,則稱該數(shù)據(jù)有n*m個(gè)觀測(cè)數(shù)據(jù)對(duì),
在一個(gè)觀測(cè)數(shù)據(jù)對(duì)中,P>1-P,則為和諧對(duì)(concordant)。P<1-P,則為不和諧對(duì)(discordant)。P=1-P,則稱為結(jié)。
在預(yù)測(cè)準(zhǔn)確性有一個(gè)統(tǒng)計(jì)量C=(NC-0.5ND+0.5T)/T,其中NC為和諧對(duì)數(shù),ND為不和諧對(duì)數(shù),這里我們就可以根據(jù)C統(tǒng)計(jì)量來(lái)表明模型的區(qū)分度,例如C=0.68,則表示事件發(fā)生的概率比不發(fā)生的概率大的可能性為0.68。
使用假設(shè)條件
①數(shù)據(jù)來(lái)自隨機(jī)樣本
②共線性敏感,自變量之間是非線性關(guān)系
③因變量只能取0、1
接下來(lái)看案例
延伸閱讀
- ssh框架 2016-09-30
- 阿里移動(dòng)安全 [無(wú)線安全]玩轉(zhuǎn)無(wú)線電——不安全的藍(lán)牙鎖 2017-07-26
- 消息隊(duì)列NetMQ 原理分析4-Socket、Session、Option和Pipe 2024-03-26
- Selective Search for Object Recognition 論文筆記【圖片目標(biāo)分割】 2017-07-26
- 詞向量-LRWE模型-更好地識(shí)別反義詞同義詞 2017-07-26
- 從棧不平衡問題 理解 calling convention 2017-07-26
- php imagemagick 處理 圖片剪切、壓縮、合并、插入文本、背景色透明 2017-07-26
- Swift實(shí)現(xiàn)JSON轉(zhuǎn)Model - HandyJSON使用講解 2017-07-26
- 阿里移動(dòng)安全 Android端惡意鎖屏勒索應(yīng)用分析 2017-07-26
- 集合結(jié)合數(shù)據(jù)結(jié)構(gòu)來(lái)看看(二) 2017-07-26