210 CORRELAÇÃO E REGRESSÃO
por analogia ao caso da reta, pode-se perceber que a variância residual em torno do hiperplano
de regressão linear múltipla pode ser calculada por
(8.55)sendo o denominador justificado pelo fato de que k + 1 parâmetros devem ser estimados.
ExemploSolução"'"' '."""·.;f~,~ ·
Cak~lar o coeficiente de correlação l.inear múltipla de Y em relação a X 1 e:x 2
no exemplo' anterior. Calcular também, a variância resil:iual. em torno"da
regressão. , ,O coeficiente de correlação linear múltipla R, de Y em relação a X 1 e X 2 , será
tal que2 b 1 S 1 y + b 2 S 2 y
R =----
S;yoμg~;;,s",,. :os valores do nu91erq<;lor< ··· · .. ~· · · ,e ,j~ t;l foram -'" calculados~r,e ·s .Y.Y = (^429) ' so*'.._ (^506 •^2 '^2 ~= -9 793 ' '
R 2 = (-0, 1063 )(-1'36, 33) + (-4,6945) -1,073 = 9,455 = O 966 _
9, 793 9, 793 'Portanto a equação obti<;la explica 96,6% da variação de Y. O coeficiente de
correlação linear múltipla éR ~"✓o, 966 = O, 983.
1:i
A variância residual em tomo d; regressão é dada por2 Syy -b1S1y _:_ b,_Szy 9,^793 - 9,^455 ·SM= n- 3. =. 6 3 ::0,1127.
- 7.2 Correlação parcial**
Suponhamos agora que, sem pretendermos investigar a relação funcional de uma variável
dependente e aleatória em relação a outras variáveis independentes isentas de erro (problema
de regressão), desejamos estudar as correlações existentes entre essas variáveis. Essa situação
poderá ocorrer se tivermos algumas variáveis envolvidas, sendo todas passíveis de verifica-
ção experimental e, portanto, sujeitas a erro. Nesse caso, evidentemente, o modelo de
regressão linear múltipla visto não seria aplicável, e tampouco teria sentido usar a expressão
(8.54) para R.