Co to jest regresja Ridge?
W celu zwiększenia dokładności prognozowania technika statystyczna znana jako regresja grzbietu zmniejsza wielkość oszacowań parametrów. Działa szczególnie dobrze, jeśli Twój zestaw danych zawiera skorelowane kolumny, których próbujesz użyć jako wejścia (zmienne niezależne) w modele regresji, ale żaden z twoich modeli nie uzyskał bardzo dokładnych wyników. Innymi słowy, regresja Ridge to technika strojenia modelu, która jest używana do każdej wielokoliniowej analizy danych. Dane są poddawane regularyzacji L2 za pomocą tej metody.
Funkcja kosztów regresji grzbietu wynosi:
Min (|| y - x (theta) ||^2 + λ || theta ||^2)Co to jest wielokoliniowość?
Pojęcie wielokoliniowości opiera się na badaniach statystycznych. Właśnie wtedy, gdy twoje niezależne zmienne mają znaczny stopień korelacji. Klininearność nie wpływa bezpośrednio na zmienną odpowiedzi; dotyczy to interakcji między zmiennymi predykcyjnymi lub cechami. Oszacowania współczynników regresji mogą być niedokładne w wyniku wielokoliniowości. Może potencjalnie zwiększyć standardowe błędy współczynnika regresji i zmniejszyć skuteczność wszelkich testów t. Wielokoliniowość może zapewnić mylące wyniki i wartości p, zwiększając redundancję modelu i obniżając skuteczność i niezawodność przewidywalności.
Zalety regresji grzbietu
Wdrożenie regresji grzbietowej w Sklearn
Importowanie wymaga następujących bibliotek:
ze Sklearn.Linear_model Import RidgeUtwórz zestaw danych za pomocą następującego polecenia:
N_SAMPLES, N_FEACURES = 20, 4Wyjście:
Funkcje to [[-2.55298982 0.6536186 0.8644362 -0.74216502]Tworzenie i dopasowanie modelu:
model = grzbiet (alfa = 1.0)Wniosek
Omówiliśmy model regresji grzbietu w uczeniu maszynowym, który służy do wykonywania regularyzacji L2 na danych, aby zapobiec nadmiernemu dopasowaniu. Jest to zaawansowana wersja prostej regresji liniowej. Omówiliśmy również jego wdrożenie za pomocą Sklearn.