回歸分析

回歸分析

一種統計分析方法
回歸分析(regression analysis)是确定兩種或兩種以上變量間相互依賴的定量關系的一種統計分析方法。運用十分廣泛,回歸分析按照涉及的變量的多少,分為一元回歸和多元回歸分析。[1]按照因變量的多少,可分為簡單回歸分析和多重回歸分析;按照自變量和因變量之間的關系類型,可分為線性回歸分析和非線性回歸分析。如果在回歸分析中,隻包括一個自變量和一個因變量,且二者的關系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。如果回歸分析中包括兩個或兩個以上的自變量,且自變量之間存在線性相關,則稱為多重線性回歸分析。
  • 中文名:回歸分析
  • 外文名:regression analysis
  • 别名:
  • 表達式:
  • 提出者:
  • 适用領域:
  • 應用領域:統計學
  • 拼音:hui gui fen xi

定義

在統計學中,回歸分析(regression analysis)指的是确定兩種或兩種以上變量間相互依賴的定量關系的一種統計分析方法。

在大數據分析中,回歸分析是一種預測性的建模技術,它研究的是因變量(目标)和自變量(預測器)之間的關系。這種技術通常用于預測分析,時間序列模型以及發現變量之間的因果關系。例如,司機的魯莽駕駛與道路交通事故數量之間的關系,最好的研究方法就是回歸。

方法

有各種各樣的回歸技術用于預測。這些技術主要有三個度量(自變量的個數,因變量的類型以及回歸線的形狀),如下圖。

1.Linear Regression線性回歸

它是最為人熟知的建模技術之一。線性回歸通常是人們在學習預測模型時首選的技術之一。在這種技術中,因變量是連續的,自變量可以是連續的也可以是離散的,回歸線的性質是線性的。

線性回歸使用最佳的拟合直線(也就是回歸線)在因變量(Y)和一個或多個自變量(X)之間建立一種關系。

多元線性回歸可表示為Y=a+b1*X+b2*X2+e,其中a表示截距,b表示直線的斜率,e是誤差項。多元線性回歸可以根據給定的預測變量(s)來預測目标變量的值。

2.Logistic Regression邏輯回歸

邏輯回歸是用來計算“事件=Success”和“事件=Failure”的概率。當因變量的類型屬于二元(1/0,真/假,是/否)變量時,我們就應該使用邏輯回歸。這裡,Y的值為0或1,它可以用下方程表示。

odds=p/(1-p)=probability of event occurrence/probability of not event occurrence

ln(odds)=ln(p/(1-p))

logit(p)=ln(p/(1-p))=b0+b1X1+b2X2+b3X3....+bkXk

上述式子中,p表述具有某個特征的概率。你應該會問這樣一個問題:“我們為什麼要在公式中使用對數log呢?”。

因為在這裡我們使用的是的二項分布(因變量),我們需要選擇一個對于這個分布最佳的連結函數。它就是Logit函數。在上述方程中,通過觀測樣本的極大似然估計值來選擇參數,而不是最小化平方和誤差(如在普通回歸使用的)。

3.Polynomial Regression多項式回歸

對于一個回歸方程,如果自變量的指數大于1,那麼它就是多項式回歸方程。如下方程所示:

y=a+b*x^2

在這種回歸技術中,最佳拟合線不是直線。而是一個用于拟合數據點的曲線。

4.Stepwise Regression逐步回歸

在處理多個自變量時,我們可以使用這種形式的回歸。在這種技術中,自變量的選擇是在一個自動的過程中完成的,其中包括非人為操作。

這一壯舉是通過觀察統計的值,如R-square,t-stats和AIC指标,來識别重要的變量。逐步回歸通過同時添加/删除基于指定标準的協變量來拟合模型。下面列出了一些最常用的逐步回歸方法:

标準逐步回歸法做兩件事情。即增加和删除每個步驟所需的預測。

向前選擇法從模型中最顯著的預測開始,然後為每一步添加變量。

向後剔除法與模型的所有預測同時開始,然後在每一步消除最小顯著性的變量。

這種建模技術的目的是使用最少的預測變量數來最大化預測能力。這也是處理高維數據集的方法之一。

5.Ridge Regression嶺回歸

當數據之間存在多重共線性(自變量高度相關)時,就需要使用嶺回歸分析。在存在多重共線性時,盡管最小二乘法(OLS)測得的估計值不存在偏差,它們的方差也會很大,從而使得觀測值與真實值相差甚遠。嶺回歸通過給回歸估計值添加一個偏差值,來降低标準誤差。

在線性等式中,預測誤差可以劃分為2個分量,一個是偏差造成的,一個是方差造成的。預測誤差可能會由這兩者或兩者中的任何一個造成。在這裡,我們将讨論由方差所造成的誤差。

嶺回歸通過收縮參數λ(lambda)解決多重共線性問題。請看下面的等式:

L2=argmin||y=xβ||+λ||β||

在這個公式中,有兩個組成部分。第一個是最小二乘項,另一個是β-平方的λ倍,其中β是相關系數向量,與收縮參數一起添加到最小二乘項中以得到一個非常低的方差。

6.Lasso Regression套索回歸

它類似于嶺回歸,Lasso(Least Absolute Shrinkage and Selection Operator)也會就回歸系數向量給出懲罰值項。此外,它能夠減少變化程度并提高線性回歸模型的精度。看看下面的公式:

L1=agrmin||y-xβ||+λ||β||

Lasso回歸與Ridge回歸有一點不同,它使用的懲罰函數是L1範數,而不是L2範數。這導緻懲罰(或等于約束估計的絕對值之和)值使一些參數估計結果等于零。使用懲罰值越大,進一步估計會使得縮小值越趨近于零。這将導緻我們要從給定的n個變量中選擇變量。

如果預測的一組變量是高度相關的,Lasso會選出其中一個變量并且将其它的收縮為零。

7.ElasticNet回歸

ElasticNet是Lasso和Ridge回歸技術的混合體。它使用L1來訓練并且L2優先作為正則化矩陣。當有多個相關的特征時,ElasticNet是很有用的。Lasso會随機挑選他們其中的一個,而ElasticNet則會選擇兩個。

Lasso和Ridge之間的實際的優點是,它允許ElasticNet繼承循環狀态下Ridge的一些穩定性。

數據探索是構建預測模型的必然組成部分。在選擇合适的模型時,比如識别變量的關系和影響時,它應該是首選的一步。比較适合于不同模型的優點,我們可以分析不同的指标參數,如統計意義的參數,R-square,Adjusted R-square,AIC,BIC以及誤差項,另一個是Mallows’Cp準則。這個主要是通過将模型與所有可能的子模型進行對比(或謹慎選擇他們),檢查在你的模型中可能出現的偏差。

交叉驗證是評估預測模型最好的方法。在這裡,将你的數據集分成兩份(一份做訓練和一份做驗證)。使用觀測值和預測值之間的一個簡單均方差來衡量你的預測精度。

如果你的數據集是多個混合變量,那麼你就不應該選擇自動模型選擇方法,因為你應該不想在同一時間把所有變量放在同一個模型中。

它也将取決于你的目的。可能會出現這樣的情況,一個不太強大的模型與具有高度統計學意義的模型相比,更易于實現。回歸正則化方法(Lasso,Ridge和ElasticNet)在高維和數據集變量之間多重共線性情況下運行良好。

假定條件與内容

在數據分析中我們一般要對數據進行一些條件假定:

方差齊性

線性關系

效應累加

變量無測量誤差

變量服從多元正态分布

觀察獨立

模型完整(沒有包含不該進入的變量、也沒有漏掉應該進入的變量)

誤差項獨立且服從(0,1)正态分布。

現實數據常常不能完全符合上述假定。因此,統計學家研究出許多的回歸模型來解決線性回歸模型假定過程的約束。

回歸分析的主要内容為:

①從一組數據出發,确定某些變量之間的定量關系式,即建立數學模型并估計其中的未知參數。估計參數的常用方法是最小二乘法。

②對這些關系式的可信程度進行檢驗。

③在許多自變量共同影響着一個因變量的關系中,判斷哪個(或哪些)自變量的影響是顯著的,哪些自變量的影響是不顯著的,将影響顯著的自變量加入模型中,而剔除影響不顯著的變量,通常用逐步回歸、向前回歸和向後回歸等方法。

④利用所求的關系式對某一生産過程進行預測或控制。回歸分析的應用是非常廣泛的,統計軟件包使各種回歸方法計算十分方便。

在回歸分析中,把變量分為兩類。一類是因變量,它們通常是實際問題中所關心的一類指标,通常用Y表示;而影響因變量取值的的另一類變量稱為自變量,用X來表示。

回歸分析研究的主要問題是:

(1)确定Y與X間的定量關系表達式,這種表達式稱為回歸方程;

(2)對求得的回歸方程的可信度進行檢驗;

(3)判斷自變量X對因變量Y有無影響;

(4)利用所求得的回歸方程進行預測和控制。

應用

相關分析研究的是現象之間是否相關、相關的方向和密切程度,一般不區别自變量或因變量。而回歸分析則要分析現象之間相關的具體形式,确定其因果關系,并用數學模型來表現其具體關系。比如說,從相關分析中我們可以得知“質量”和“用戶滿意度”變量密切相關,但是這兩個變量之間到底是哪個變量受哪個變量的影響,影響程度如何,則需要通過回歸分析方法來确定。

一般來說,回歸分析是通過規定因變量和自變量來确定變量之間的因果關系,建立回歸模型,并根據實測數據來求解模型的各個參數,然後評價回歸模型是否能夠很好的拟合實測數據;如果能夠很好的拟合,則可以根據自變量作進一步預測。

例如,如果要研究質量和用戶滿意度之間的因果關系,從實踐意義上講,産品質量會影響用戶的滿意情況,因此設用戶滿意度為因變量,記為Y;質量為自變量,記為X。通常可以建立下面的線性關系:Y=A+BX+§

式中:A和B為待定參數,A為回歸直線的截距;B為回歸直線的斜率,表示X變化一個單位時,Y的平均變化情況;§為依賴于用戶滿意度的随機誤差項。

對于經驗回歸方程:y=0.857+0.836x

回歸直線在y軸上的截距為0.857、斜率0.836,即質量每提高一分,用戶滿意度平均上升0.836分;或者說質量每提高1分對用戶滿意度的貢獻是0.836分。

上面所示的例子是簡單的一個自變量的線性回歸問題,在數據分析的時候,也可以将此推廣到多個自變量的多元回歸,具體的回歸過程和意義請參考相關的統計學書籍。此外,在SPSS的結果輸出裡,還可以彙報R2,F檢驗值和T檢驗值。R2又稱為方程的确定性系數(coefficient of determination),表示方程中變量X對Y的解釋程度。R2取值在0到1之間,越接近1,表明方程中X對Y的解釋能力越強。通常将R2乘以100%來表示回歸方程解釋Y變化的百分比。F檢驗是通過方差分析表輸出的,通過顯著性水平(significance level)檢驗回歸方程的線性關系是否顯著。一般來說,顯著性水平在0.05以上,均有意義。當F檢驗通過時,意味着方程中至少有一個回歸系數是顯著的,但是并不一定所有的回歸系數都是顯著的,這樣就需要通過T檢驗來驗證回歸系數的顯著性。同樣地,T檢驗可以通過顯著性水平或查表來确定。在上面所示的例子中,各參數的意義如下表所示。

線性回歸方程檢驗

指标

顯著性水平

意義

R2

0.89

“質量”解釋了89%的“用戶滿意度”的變化程度

F

276.82

0.001

回歸方程的線性關系顯著

T

16.64

0.001

回歸方程的系數顯著

示例SIM手機用戶滿意度與相關變量線性回歸分析

我們以SIM手機的用戶滿意度與相關變量的線性回歸分析為例,來進一步說明線性回歸的應用。從實踐意義講上,手機的用戶滿意度應該與産品的質量、價格和形象有關,因此我們以“用戶滿意度”為因變量,“質量”、“形象”和“價格”為自變量,作線性回歸分析。利用SPSS軟件的回歸分析,得到回歸方程如下:

用戶滿意度=0.008×形象+0.645×質量+0.221×價格

對于SIM手機來說,質量對其用戶滿意度的貢獻比較大,質量每提高1分,用戶滿意度将提高0.645分;其次是價格,用戶對價格的評價每提高1分,其滿意度将提高0.221分;而形象對産品用戶滿意度的貢獻相對較小,形象每提高1分,用戶滿意度僅提高0.008分。

方程各檢驗指标及含義如下:

指标

顯著性水平

意義

R2

0.89

89%的用戶滿意度”的變化程度

F

248.53

0.001

回歸方程的線性關系顯著

T(形象)

0.00

1.000

“形象”變量對回歸方程幾乎沒有貢獻

T(質量)

13.93

0.001

“質量”對回歸方程有很大貢獻

T(價格)

5.00

0.001

“價格”對回歸方程有很大貢獻

從方程的檢驗指标來看,“形象”對整個回歸方程的貢獻不大,應予以删除。所以重新做“用戶滿意度”與“質量”、“價格”的回歸方程如下:滿意度=0.645×質量+0.221×價格

用戶對價格的評價每提高1分,其滿意度将提高0.221分(在本示例中,因為“形象”對方程幾乎沒有貢獻,所以得到的方程與前面的回歸方程系數差不多)。

方程各檢驗指标及含義如下:

指标

顯著性水平

意義

R2

0.89

89%的用戶滿意度”的變化程度

F

374.69

0.001

回歸方程的線性關系顯著

T(質量)

15.15

0.001

“質量”對回歸方程有很大貢獻

T(價格)

5.06

0.001

“價格”對回歸方程有很大貢獻

步驟

确定變量

明确預測的具體目标,也就确定了因變量。如預測具體目标是下一年度的銷售量,那麼銷售量Y就是因變量。通過市場調查和查閱資料,尋找與預測目标的相關影響因素,即自變量,并從中選出主要的影響因素。

建立預測模型

依據自變量和因變量的曆史統計資料進行計算,在此基礎上建立回歸分析方程,即回歸分析預測模型。

進行相關分析

回歸分析是對具有因果關系的影響因素(自變量)和預測對象(因變量)所進行的數理統計分析處理。隻有當自變量與因變量确實存在某種關系時,建立的回歸方程才有意義。因此,作為自變量的因素與作為因變量的預測對象是否有關,相關程度如何,以及判斷這種相關程度的把握性多大,就成為進行回歸分析必須要解決的問題。進行相關分析,一般要求出相關關系,以相關系數的大小來判斷自變量和因變量的相關的程度。

計算預測誤差

回歸預測模型是否可用于實際預測,取決于對回歸預測模型的檢驗和對預測誤差的計算。回歸方程隻有通過各種檢驗,且預測誤差較小,才能将回歸方程作為預測模型進行預測。

确定預測值

利用回歸預測模型計算預測值,并對預測值進行綜合分析,确定最後的預測值。

注意問題

應用回歸預測法時應首先确定變量之間是否存在相關關系。如果變量之間不存在相關關系,對這些變量應用回歸預測法就會得出錯誤的結果。

正确應用回歸分析預測時應注意:

①用定性分析判斷現象之間的依存關系;

②避免回歸預測的任意外推;

③應用合适的數據資料。

相關詞條

相關搜索

其它詞條