Pedro Luiz de Oliveira Costa Neto - Estatística (2002, Editora Blucher) - libgen.lc

(Flamarion) #1

Um exemplo de


indução


bayesiana


Vamos nos reportar ao exemplo apresentado em 4.2.2, como ilustração do critério de máxima
verossimilhança. Temos, pois, uma caixa contendo dez bolas, S das quais são pretas e
1 O -S brancas. Queremos, agora, estimar S usando o critério de Bayes, sabendo que, de
quatro bolas retiradas com reposição, uma foi preta e três foram brancas. Para tanto, devemos
conhecer a função de J)erda associada ao erro da estimativa, bem como uma distribuição de
probabilidade a prionFl para os possíveis valores do parâmetro S, isto é, do número de
bolas pretas na caixa. Como não temos qualquer informação a respeito de S, vamos admitir
como sendo equiprovável a distribuição de probabilidade a priori de S, ou seja,


P(S = i) = _!_ (i = 0,1,2, ... ,10).
11

Por outro lado, vamos admitir que a função de perda seja

v(S) = k(S -S)2, (A3.1)

ondeS é a estimativa adotada para o parâmetro Se k é uma constante. Vimos, no Cap. 4,
que a probabilidade de saírem três bolas brancas e uma bola preta é dada, em função
de S, por


1

:.f(S) = P(e IS) =- 2 --S(10-S)^3 ,

.500

(A3.2)

onde e está representando a particular evidência experimental admitida no nosso caso.


Usaremos, a seguir, a notação Si para designar a condição S = i (i = O, 1, 2, ... , 10).


Aplicando a fórmula de Bayes, dada em (A 1.12), temos


P(S· I ) = P(Si) · P(e I si)


z E P(e) ' (A3.3)

17J O termo "a prion" é comumente usado em indução bayesiana para indicar "antes de ser conhecido o
resultado experimental".

Free download pdf