Normalekvation är ett analytiskt tillvägagångssätt för linjär regression med en minsta kvadratkostnadsfunktion. Vi kan direkt ta reda på värdet på θ utan att använda Gradient Descent. Att följa detta tillvägagångssätt är ett effektivt och tidsbesparande alternativ när man arbetar med en datamängd med små funktioner.

Normal ekvation är en följande :

I ovanstående ekvation,
θ : hypotesparametrar som definierar den bäst.
X : Ingångsvärde för varje instans.
Y : Utgångsvärde för varje instans.

Matematik bakom ekvationen –

Givet hypotesfunktionen

där,
n : antalet funktioner i datamängden.
x0 : 1 (för vektormultiplikation)

Bemärk att detta är en punktprodukt mellan θ- och x-värden. Så för att underlätta lösningen kan vi skriva det som :

Motivet i linjär regression är att minimera kostnadsfunktionen :

varvid,
xi : ingångsvärdet för iih träningsexempel.
m : antal träningsinstanser
n : antal träningsinstanser. av dataelement
yi : det förväntade resultatet för den i:e instansen

Låt oss representera kostnadsfunktionen i en vektorform.

Vi har ignorerat 1/2m här eftersom det inte kommer att göra någon skillnad i arbetet. Det användes för den matematiska bekvämligheten vid beräkning av gradient descent. Men det behövs inte längre här.

xij : värdet av jih-funktionen i iih-träningsexemplet.

Detta kan ytterligare reduceras till
Men varje restvärde är kvadrerat. Vi kan inte helt enkelt kvadrera ovanstående uttryck. Eftersom kvadraten på en vektor/matrix inte är lika med kvadraten på vart och ett av dess värden. Så för att få fram det kvadrerade värdet multiplicerar vi vektorn/matrisen med dess transponering. Så den slutliga ekvationen är

Därmed är kostnadsfunktionen

Så, Nu får vi värdet på θ med hjälp av derivatan

Det här är alltså den slutgiltigt härledda normalkalkalkylen med θ som ger det lägsta kostnadsvärdet.

Artikel Taggar :

Practice Tags :

Lämna ett svar

Din e-postadress kommer inte publiceras.