Equação Normal é uma abordagem analítica à Regressão Linear com uma Função de Custo Menos Quadrado. Podemos descobrir diretamente o valor de θ sem utilizar a Descendência Gradiente. Seguir esta abordagem é uma opção eficaz e uma economia de tempo quando se trabalha com um conjunto de dados com características pequenas.

Equação Normal é uma equação :

Na equação acima,
θ : parâmetros de hipóteses que a definem como a melhor.
X : valor da característica de entrada de cada instância.
Y : valor de saída de cada instância.

Math Behind the equation –

Dada a função de hipótese

where,
n : o número de características no conjunto de dados.
x0 : 1 (para multiplicação vetorial)

Note que este é um produto de pontos entre θ e x valores. Então para a conveniência de resolver podemos escrevê-lo como :

O motivo em Regressão Linear é minimizar a função custo:

where,
xi : o valor de entrada do exemplo de treino do iih.
m : número de instâncias de treino
n : não. de características do conjunto de dados
yi : o resultado esperado de ith instância

Deixe-nos representar a função de custo em forma vetorial.

>
devemos ignorar 1/2m aqui, pois não fará diferença no trabalho. Foi usado para a conveniência matemática durante a descida do gradiente de cálculo. Mas não é mais necessário aqui.

xij : valor da característica jih no exemplo de treino iih.

Isso pode ser reduzido ainda mais para
Mas cada valor residual é quadrático. Não podemos simplesmente ajustar ao quadrado a expressão acima. Como o quadrado de um vetor/matriz não é igual ao quadrado de cada um de seus valores. Então para obter o valor ao quadrado, multiplique o vetor/matriz com a sua transposição. Assim, a equação final derivada é

Então, a função custo é

So, agora obtendo o valor de θ usando a derivada

>

>

> Então, esta é a Equação Normal finalmente derivada com θ dando o valor de custo mínimo.

Etiquetas de artigos :

Etiquetas de Prática :

Deixe uma resposta

O seu endereço de email não será publicado.