210 CORRELAÇÃO E REGRESSÃO
por analogia ao caso da reta, pode-se perceber que a variância residual em torno do hiperplano
de regressão linear múltipla pode ser calculada por
(8.55)
sendo o denominador justificado pelo fato de que k + 1 parâmetros devem ser estimados.
Exemplo
Solução
"'"' '."""·.;f~,~ ·
Cak~lar o coeficiente de correlação l.inear múltipla de Y em relação a X 1 e:x 2
no exemplo' anterior. Calcular também, a variância resil:iual. em torno"da
regressão. , ,
O coeficiente de correlação linear múltipla R, de Y em relação a X 1 e X 2 , será
tal que
2 b 1 S 1 y + b 2 S 2 y
R =----
S;y
oμg~;;,s",,. :os valores do nu91erq<;lor< ··· · .. ~· · · ,e ,j~ t;l foram -'" calculados~r,e ·
s .Y.Y = (^429) ' so*'.._ (^506 •^2 '^2 ~= -9 793 ' '
R 2 = (-0, 1063 )(-1'36, 33) + (-4,6945) -1,073 = 9,455 = O 966 _
9, 793 9, 793 '
Portanto a equação obti<;la explica 96,6% da variação de Y. O coeficiente de
correlação linear múltipla é
R ~"✓o, 966 = O, 983.
1:i
A variância residual em tomo d; regressão é dada por
2 Syy -b1S1y _:_ b,_Szy 9,^793 - 9,^455 ·
SM= n- 3. =. 6 3 ::0,1127.
- 7.2 Correlação parcial**
Suponhamos agora que, sem pretendermos investigar a relação funcional de uma variável
dependente e aleatória em relação a outras variáveis independentes isentas de erro (problema
de regressão), desejamos estudar as correlações existentes entre essas variáveis. Essa situação
poderá ocorrer se tivermos algumas variáveis envolvidas, sendo todas passíveis de verifica-
ção experimental e, portanto, sujeitas a erro. Nesse caso, evidentemente, o modelo de
regressão linear múltipla visto não seria aplicável, e tampouco teria sentido usar a expressão
(8.54) para R.