Phân tích hồi quy

Bách khoa toàn thư mở Wikipedia
(đổi hướng từ Phân tích hồi qui)
Bước tới: menu, tìm kiếm

Phân tích hồi quy là một phân tích thống kê để xác định xem các biến độc lập (biến thuyết minh) quy định các biến phụ thuộc (biến được thuyết minh) như thế nào.

Giới thiệu[sửa | sửa mã nguồn]

Đây là một phương pháp thống kê mà giá trị kỳ vọng của một hay nhiều biến ngẫu nhiên được dự đoán dựa vào điều kiện của các biến ngẫu nhiên (đã tính toán) khác. Cụ thể, có hồi qui tuyến tính, hồi qui lôgic, hồi qui Poissonhọc có giám sát. Phân tích hồi qui không chỉ là trùng khớp đường cong (lựa chọn một đường cong mà vừa khớp nhất với một tập điểm dữ liệu); nó còn phải trùng khớp với một mô hình với các thành phần ngẫu nhiên và xác định (deterministic and stochastic components). Thành phần xác định được gọi là bộ dự đoán (predictor) và thành phần ngẫu nhiên được gọi là phần sai số (error term).

Dạng đơn giản nhất của một mô hình hồi qui chứa một biến phụ thuộc (còn gọi là "biến đầu ra," "biến nội sinh," "biến được thuyết minh", hay "biến-Y") và một biến độc lập đơn (còn gọi là "hệ số," "biến ngoại sinh", "biến thuyết minh", hay "biến-X").

Ví dụ thường dùng là sự phụ thuộc của huyết áp Y theo tuổi tác X của một người, hay sự phụ thuộc của trọng lượng Y của một con thú nào đó theo khẩu phần thức ăn hằng ngày X. Sự phụ thuộc này được gọi là hồi qui của Y lên X.

Xem thêm: phân phối chuẩn đa biến (multivariate normal distribution), các ẩn bản quan trọng trong phân tích hồi qui.

Hồi qui thường được xếp vào loại bài toán tối ưu vì chúng ta nỗ lực để tìm kiếm một giải pháp để cho sai số và phần dưtốt nhất. Phương pháp sai số chung nhất được sử dụng là phương pháp bình phương cực tiểu: phương pháp này tương ứng với một hàm hợp lý dạng Gauss của các dữ liệu quan sát khi biết biến ngẫu nhiên (ẩn). Về một mặt nào đó, bình phương cực tiểu là một phương pháp ước lượng tối ưu: xem định lý Gauss-Markov.

Để giải quyết bài toán tối ưu trong hồi qui thường dùng các giải thuật như giải thuật hạ bậc gradient gradient descent, giải thuật Gauss-Newton, và giải thuật Levenberg-Marquardt. Các giải thuật xác suất như RANSAC có thể được dùng để tìm một phù hợp tốt cho tập mẫu, khi cho trước một mô hình tham số hóa của hàm đường cong.

Hồi qui có thể được biểu diễn bằng phương pháp hàm hợp lý ước lượng các tham số của một mô hình nào đó. Tuy nhiên, với một lượng nhỏ dữ liệu, ước lượng này có thể có phương sai lớn (high variance). Các phương pháp Bayesian có thể được sử dụng để ước lượng các mô hình hồi qui. Các tham số có một phân phối điều kiện được giả định trước, nó bao gồm mọi thông tin thống kê đã biết trước về các biến. (Ví dụ, nếu một tham số được biết là không âm thì một phân phối không âm sẽ được gán cho nó.) Phân phối được giả định trước này sau đó được áp dụng cho vector tham số. Phương pháp Bayes có ưu điểm là khai thác được toàn bộ các thông tin đã có và nó là ước lượng chính xác, không phải ước lượng chệch và do đó rất tốt cho các tập số liệu nhỏ. Trong thực hành, người ta sử dụng phương pháp MAP maximum a posteriori, phương pháp này đơn giản hơn phân tích Bayes đầy đủ, trong đó các tham oố dược chọn sao cho cực đại hóa phân phối giả định trước posterior. Các phương pháp MAP có liên hệ với Occam's Razor: ở chỗ có sự ưu tiên cho sự đơn giản, khi có nhiều mô hình hồi qui (đường cong) cũng như khi có nhiều lí thuyết thì chọn cái đơn giản.

Công thức tổng quát[sửa | sửa mã nguồn]

Chúng ta muốn dự báo giá trị của một biến ngẫu nhiên Y có điều kiện dựa trên một biến ngẫu nhiên khác gọi là nhân tố. Đặt p\in\mathbb{N}^* là số nhân tố được sử dụng cho dự đoán này.

(\Omega,\mathcal{A}, P) xác định một không gian xác suất(\Gamma, S) là một không gian đo được trong đó (\Gamma, +,.)\Gamma = \mathbb{R}^nS=\mathcal{B}_n với n\in\mathbb{N}^*). Bây giờ chúng ta có thể xác định biến phụ thuộc Y:(\Omega,\mathcal{A})\rightarrow(\Gamma, S)\forall i\in \{1,\cdots,p\}, X_i:(\Omega,\mathcal{A})\rightarrow(\Gamma, S). Bây giờ, đặt F là tập các hàm được xác định bởi \Omega nhận các giá trị trong \GammaY,X_1,\cdots,X_p\in Fd là một metric (độ đo) sao cho (F,d) là một không gian metric đầy đủ complete metric space.

Chúng ta đang tìm một hàm đo được f:(\Gamma^p,S^p)\rightarrow(\Gamma,S) sao cho d(\omega\mapsto Y(\omega),\omega\mapsto f(X_1(\omega),\cdots,X_p(\omega)) là nhỏ nhất.

Hồi qui tuyến tính[sửa | sửa mã nguồn]

Hồi quy tuyến tính là một trường hợp rất phổ biến trong thực tế. Ta giả thiết rằng hàm f phụ thuộc tuyến tính vào bộ X_1,\cdots,X_p như vậy ta chỉ cần tìm kiếm các hệ số phù hợp.

Đặt \Theta là tập các hệ số. Đối thuyết của hồi quy tuyến tính là:

\exists (\beta^0,\cdots,\beta^p)\in\theta^{p+1}:
\mathbb{E}(Y|X_1,\cdots,X_p)=\beta^0 + \sum_{j=1}^p \beta^j X_j

và matric được sử dụng ở đây là:

\forall f,g\in F, d(f,g) = \mathbb{E}[(f-g)^2]

Chúng ta muốn cực tiểu hóa \mathbb{E}[(Y-f(X_1,\cdots,X_p))^2], có nghĩa là

f(X_1,\cdots,X_p)=\mathbb{E}(Y|X_1,\cdots,X_p) = \beta^0 + \sum_{j=1}^p \beta^j X_j.

Như vậy chỉ cần tìm \beta^0,\cdots,\beta^p. Để giải quyết bài toán này một cách hiệu quả, một số phương pháp đã được đưa ra. Phương pháp phổ biến nhất là phương pháp Gauss-Markov, nhưng nó đòi hỏi thêm một số đối thuyết nữa.

Mô hình tuyến tính Gauss-Markov[sửa | sửa mã nguồn]

Ước lượng bình phương cực tiểu của các hệ số[sửa | sửa mã nguồn]

Xem thêm bình phương cực tiểu

Ví dụ[sửa | sửa mã nguồn]

Ví dụ đơn giản nhất của hồi qui là trong trường hợp 1 chiều. Chúng ta được cấp một vec-tơ của các giá trị x và một vec-tơ khác của các giá trị y và chúng ta đang cố gắng tìm kiếm một hàm mà f(x_{i}) = y_{i} .

giả sử 
\vec{x} = \begin{pmatrix}
-2 \\
-1 \\
0 \\
1 \\
2 \\ \end{pmatrix},

\vec{y} = \begin{pmatrix}
5 \\
2 \\
1 \\
2 \\
5 \\ \end{pmatrix}

Giả thiết rằng giải pháp (hàm) của chúng ta là thuộc họ các hàm được định bởi chuỗi Fourier mở rộng cấp 3 (3rd degree Fourier expansion) được viết dưới dạng:


f(x) = a_{0}/2 + a_{1}\cos(x) + b_{1}\sin(x) + a_{2}\cos(2x) + b_{2}\sin(2x) + a_{3}\cos(3x) + b_{3}\sin(3x)

với  a_{i}, b_{i} là các số thực. Bài toán này có thể được biểu diễn theo dạng ma trận như sau:


\begin{pmatrix}
1/2, & \cos(x), & \sin(x), & \cos(2x), & \sin(2x), & \cos(3x), & \sin(3x), \\ 
\end{pmatrix} \begin{pmatrix}
a_{0} \\
a_{1} \\
b_{1} \\
a_{2} \\
b_{2} \\
a_{3} \\
b_{3} \\
\end{pmatrix} = \vec{y}

điền vào dạng này các giá trị của chúng ta sẽ cho ta bài toán với dạng Xw = y


\begin{pmatrix}
1/2 & \cos(-2) & \sin(-2) & \cos(-4) & \sin(-4) & \cos(-6) & \sin(-6)\\ 
1/2 & \cos(-1) & \sin(-1) & \cos(-2) & \sin(-2) & \cos(-3) & \sin(-3)\\ 
1/2 & 1 & 0 & 1 & 0 & 1 & 0\\ 
1/2 & \cos(1) & \sin(1) & \cos(2) & \sin(2) & \cos(3) & \sin(3)\\ 
1/2 & \cos(2) & \sin(2) & \cos(4) & \sin(4) & \cos(6) & \sin(6)\\ 
\end{pmatrix}. \begin{pmatrix}
a_{0} \\
a_{1} \\
b_{1} \\
a_{2} \\
b_{2} \\
a_{3} \\
b_{3} \\
\end{pmatrix} = \begin{pmatrix}
5 \\
2 \\
1 \\
2 \\
5 \\ \end{pmatrix}

Bài toán này bây giờ có thể chuyển thành bài toán tối ưu để tìm ra tổng cực tiểu của bình phương sai số.

hàm Fourier bậc 3
\min_{\vec{w}} \sum_{i=1}^{n} (\vec{x_{i}}\vec{w} - y_{i})^2
\min_{\vec{w}} \|X\vec{w} - \vec{y}\|^2.

giải bằng phương pháp bình phương cực tiểu cho ra:


\vec{w} = \begin{pmatrix}
0 \\
4.25 \\
0 \\
-6.13 \\
0 \\
2.88 \\
0 \\ \end{pmatrix}

vì thế hàm Fourier bậc 3 mà trùng khớp nhất với dữ liệu có công thức cụ thể:


f(x) = 4.25\cos(x) - 6.13\cos(2x) + 2.88\cos(3x).

Xem thêm[sửa | sửa mã nguồn]

Tham khảo[sửa | sửa mã nguồn]

  • Audi, R., Ed. (1996) The Cambridge Dictionary of Philosophy. Cambridge, Cambridge University Press. curve fitting problem p. 172-173.
  • David Birkes and Yadolah Dodge, Alternative Methods of Regression (1993), ISBN 0-471-56881-3
  • W. Hardle, Applied Nonparametric Regression (1990), ISBN 0-521-42950-1
  • J. Fox, Applied Regression Analysis, Linear Models and Related Methods. (1997), Sage

Liên kết ngoài[sửa | sửa mã nguồn]