[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]

Re: [obm-l] Um tema recorrente.



Oi Sergio, e demais colegas.
 
O conceito de probabilidade sempre esteve envolvido em uma névoa de ambiguidades. Penso que a idéia de Kolmogorov ao identificar a aleatoriedade com a complexidade de uma sequencia, foi a de obter uma definição operacional de probabilidade, livre de circularidades, possibilitando assim uma base firme para a formulação de uma teoria axiomática.
Dificilmente porém uma definição restritiva como esta abrangeria tudo aquilo que usualmente é considerado probabilidade. Por exemplo, ficaria fora a probabilidade subjetiva, seja la o que for que se entenda por isso.
Mas esse é o preço de qualquer teoria axiomatica.  Limpa-se bôa parte da poeira, e o que sobra é escondido embaixo do tapete.
Os autores do artigo a que me referi se propõe a identificar os números aleatorios com os numeros não computáveis. Não estou certo de que tenham logrado este objetivo, nos dois sentidos: todo aleatorio é não computavel e todo não computavel é aleatorio. O roteiro não me pareceu muito objetivo, e a linguagem é muito técnica para meu nível de conhnecimento.  Certamente outros colegas da lista estão muito mais credenciados do que eu para  emitir uma opinião com fundamento.  Por isso é que desenvolvi aquela linha de argumentação paralela.  Mais para me convencer do que por outra razão.
O questionamento colocado pelo Paulo Santa Rita sobre a possibilidade de haver um equivalente matemático ao principio da incerteza é instigante.
Afinal o acaso e suas leis estão presentes no fundamento de todo mundo físico, inclusive na vida e sua evolução. E pelo visto, para sempre.
 
Sds
Fernando
 
 


 
2008/1/17, Sergio Lima Netto <sergioln@xxxxxxxxxxx>:
>
> Na fisica existe uma relacao simples que liga estas coisas, isto e, o
> produto da incertezas deve ser maior que um valor conhecido : haveria
> uma relacao matematica analoga a incerteza fisica ?

Caros,
Talvez esteja forcando a barra, me parece que existe uma ponte
entre os conceitos de aleatoriedade e complexidade de Kolmogorov
(comprimento do menor programa que gera uma string (um numero)):
A teoria da informacao de Shannon. Estamos falando de coisas abstratas
e nada triviais; a ideia de fazer a ponte, entao, eh mais
abstrata ainda (pelo maior grau de generalidade). Uma tentativa,
bem feita nomeu entender, existe no livro de Teoria da Informacao
de Cover e Thomas, pela prentice-hall se nao me engano.

Em relacao a "relacao matematica analoga a incerteza fisica" eu imagino
que a medida de entropia definida por Shannon (nao confundir com a
entropia da termodinamica) eh uma medida do grau de incerteza
de uma variavel aleatoria - eh tambem uma medida da aleatoriedade
da variavel aleatoria e tambem o limite de compressao da mesma
variavel aleatoria. Qualquer livro de teoria da informacao
poderia ser usado aqui para desbravar este tema, sendo os principais:
i- artigo original do Shannon publicado em 48 no Bell Syst Tech Jrnl
ii- livro do Shannon com co-autor, com mesmo conteudo do artigo
iii- livro do Gallager (este eh o mais classico em termos didaticos)
iv- o supra-citado livro do Cover e Thomas (approach mais moderno).

Abracos,
sergio
=========================================================================
Instruções para entrar na lista, sair da lista e usar a lista em
http://www.mat.puc-rio.br/~obmlistas/obm-l.html
=========================================================================



--
Fernando A Candeias