Um exemplo de
indução
bayesiana
Vamos nos reportar ao exemplo apresentado em 4.2.2, como ilustração do critério de máxima
verossimilhança. Temos, pois, uma caixa contendo dez bolas, S das quais são pretas e
1 O -S brancas. Queremos, agora, estimar S usando o critério de Bayes, sabendo que, de
quatro bolas retiradas com reposição, uma foi preta e três foram brancas. Para tanto, devemos
conhecer a função de J)erda associada ao erro da estimativa, bem como uma distribuição de
probabilidade a prionFl para os possíveis valores do parâmetro S, isto é, do número de
bolas pretas na caixa. Como não temos qualquer informação a respeito de S, vamos admitir
como sendo equiprovável a distribuição de probabilidade a priori de S, ou seja,
P(S = i) = _!_ (i = 0,1,2, ... ,10).
11
Por outro lado, vamos admitir que a função de perda seja
v(S) = k(S -S)2, (A3.1)
ondeS é a estimativa adotada para o parâmetro Se k é uma constante. Vimos, no Cap. 4,
que a probabilidade de saírem três bolas brancas e uma bola preta é dada, em função
de S, por
1
:.f(S) = P(e IS) =- 2 --S(10-S)^3 ,
.500
(A3.2)
onde e está representando a particular evidência experimental admitida no nosso caso.
Usaremos, a seguir, a notação Si para designar a condição S = i (i = O, 1, 2, ... , 10).
Aplicando a fórmula de Bayes, dada em (A 1.12), temos
P(S· I ) = P(Si) · P(e I si)
z E P(e) ' (A3.3)
17J O termo "a prion" é comumente usado em indução bayesiana para indicar "antes de ser conhecido o
resultado experimental".