Pesquisar

10 de abr de 2008

Qual é a diferença entre os primeiros computadores e os atuais?

A pergunta enseja outra questão de fundo: o que não mudou desde os primeiros computadores até os atuais? Não mudaram os princípios que mantém até hoje os computadores calculando e os humanos pensando.

Apesar de toda a coisa que pensa poder calcular, a capacidade de calcular por si mesma não é suficiente para chegar ao pensar. Graças a isto, o ramo da Inteligência Artificial está há anos embaralhado nos mesmos dilemas de décadas atrás, apesar dos aprimoramentos gigantescos em capacidade computacional.

Um exemplo que pode ser dado é na área dos tradutores eletrônicos. Para que um tradutor chegue a ser algo além de sofrível, ele precisa manipular conceitos. Um tradutor humano consegue extrair a idéia de um trecho e escolher as palavras que se adéqüem ao contexto similar escrito em outra língua. O tradutor humano entende o que está escrito na língua original e transporta o pensamento para a outra. O computador, por mais robusto que seja o dicionário de línguas armazenado nas suas bibliotecas, é incapaz de “entender” uma simples oração, portanto as suas traduções carecem de adaptações contextuais nas passagens mais complexas que envolvem manipulação de conceitos, na presença de expressões idiomáticas ou em relações lingüísticas complexas.

Outra impossibilidade da Inteligência Artificial é o reconhecimento de imagens. O ser humano mais medíocre consegue reconhecer uma casa em infinitas representações: pintura, desenho, miniatura, tamanhos, cores, escultura. Poucos traços esparsos esboçados num papel evocam o conceito de casa para o humano, enquanto que os programas de reconhecimento de imagem são mais burros do que crianças de berço.
À questão de fundo evocada pela pergunta, a resposta é não. Nada mudou em termos de computação desde o primeiro computador eletrônico posto em operação num edifício do Exercíto dos EUA, ENIAC versão I que fazia suas comutações usando 17468 válvulas a vácuo. A IA continua rigorosamente incapaz de “apreender” conceitos.

Quanto a resposta à pergunta principal a resposta é sim. A miniaturização eletrônica têm rompido muitos limites de velocidade e volume de processamento de informações. É possível rodar em minutos complexos modelos estatísticos de previsão climática, contra o prazo de dias que se levava para rodar modelos antigos, manipulando quantidade menor de parâmetros.

Porém, a indústria eletrônica está chegando aos limiares físicos de miniaturização das lâminas de silício empregadas. Por isso os grandes fabricantes de processadores estão multiplicando os núcleos de processamento dentro de um único chip, na ânsia de aumentar a capacidade computacional. Uma vez que eles não conseguem mais enfiar transistores num espaço já exaurido, apelam para o multiprocessamento espalhando núcleos de processadores contíguos, dando a ilusão de aumento de poder, quando na realidade estão lançando mão da estratégia de processamento paralelo.

Para dar um novo salto nas capacidades computacionais atuais é necessário quebrar o paradigma da lógica binária. Para tanto os centros de pesquisa estão completamente mergulhados na direção da computação quântica, que trabalhando com três estados fundamentais romperia dramaticamente todas as marcas atuais de tempo e capacidade de processamento: descobriria em segundos através de tentativa e erro uma senha de 128 bytes, que um supercomputador atual levaria milhares de anos de trabalho ininterrupto.

Computação, processadores, multinúcleo, ENIAC, Inteligência Artificial, conceituação, supercomputador, miniaturização, silício

Nenhum comentário:

Postar um comentário