composição para-simétrica 12

Recentemente, Stephen Wolfram, criador do popularíssimo software de análise e desenvolvimento matemático denominado “Mathematica”, começou a divulgar uma nova iniciativa, o sistema de “Conhecimento Computacional” denominado “WolframAlpha”.

O sistema tem sido divulgado, e analisado (avaliado), como um sistema de busca (Search) muitíssimo mais sofisticado do que qualquer coisa disponível hoje em dia, certamente muito mais avançado que o Google, que alguns chamam de “Concurso de Popularidade Automatizado”. Ou seja, pouquíssima “inteligência”, ou como Wolfram nos diz, “computação”, sofisticada é utilizada em sistema de Search simples. 

Wolfram insiste que seu sistema não é um “Search”, mas um “computational knowledge engine” – “sistema (engine, ‘motor’, ‘dispositivo’, etc.) de conhecimento computacional”. Ele diz isso porque seu sistema não faz um “Search”, mas sim uma complexa computação a partir de vastas bases de dados distribuídas (na Web, e em outros repositórios). Os detalhes dessa “computação” ainda estão nebulosos: Wolfram quer manter a coisa em segredo, porque ainda não decidiu como a colocará no mercado; e já está fazendo um tour de demonstrações.

Creio que há um erro semântico aí… E ele é bastante explícito. O sistema está sendo divulgado como um grande competidor aos sistemas tradicionais de Search (‘busca’), mas mesmo Wolfram nos diz que ele não faz uma busca, mas sim correlaciona um vasto banco de dados e produz computações bastante avançadas, dependendo do tipo de pergunta que se faz ao sistema (dá pra ter aquela sensação Science Fiction de “perguntar ao computador”, e ele responder…).

Ou seja, o Wolfram Alpha tem relação apenas marginal com os sistemas de busca. Ele é uma tremenda inovação, e vamos ainda ouvir falar bastante das conseqüências epistemológicas das assunções de Wolfram.

A grande questão me parece uma que permeia a Web, e suas origens: desde Vannevar Bush, um “sistema de agregação de informações de indexação e interrelações internas de teor arbitrário” (inicialmente denominado Memex) foi proposto porque reconheceu-se os limites da formalização lógica como resposta para a organização do conhecimento. Em outras palavras, a falência do modelo formalista de matemática indicou que fundamentalmente um sistema formal de agregação e correlação do conhecimento estaria além do horizonte de possibilidades da epistemologia. A saída encontrada não foi em procurar por mais um estrato de formalização, um suplemento formal que daria conta da complexidade, contradições e vastidão do conhecimento científico (sem falar do não-científico). Mas sim um sistema “para-formal” de agregação, indexação e correlação de informações, imagens e, posteriormente, sons, animações, interação, etc.

Na década de 1960, Ted Nelson cunha o termo “Hypertext”, para indicar uma variação neste tema, incluindo a proposta de que o sistema seja auto-regulado e que as infinitas revisões, disjunções, composições e entrecruzamentos do hipertexto fossem acompanhadas por um sistema informacional automático. Em fins da década de 1980, uma das primeiras implementações desse conceito, o Hypercard, programado por Bill Atkinson, é lançado pela Apple para o Macintosh, sendo uma versão muito, e assumidamente, simplificada do Hypertext de Nelson (um dos motivos para usar o termo “card”); mas o princípio da organização arbitrária, ou seja, para-formal, lá estava. No início da década de 1990, Tim Berners-Lee propôe o conceito da World Wide Web, em muito baseada no Hypercard de Atkinson, mas muito influenciado por Nelson e Bush. A WWW é, certamente, o serviço mais alastrado e popular da Internet, sendo que o próprio funcionamento hipertextual da Web é o que a torna tão apropriável e “alastrável”.

Certo. O quero dizer é que existe uma divergência aí: por um lado, os sistemas de Search, como o Google, partem do princípio de que está-se lidando com um vasto, complexo, contraditório, paradoxal, fragmentado e plural campo de informações que é a Internet pós-Web. Por outro lado, vemos um cientista crente na possibilidade da formalização absoluta do conhecimento, sendo que considera que o próprio universo é um Automato Celular; construindo um sistema epistemológico baseado nessa assunção.

Creio que existe uma carência filosófica nesse debate. E que, se houvesse maior cuidado, ficaria claro que o WolframAlpha é um poderoso sistema de correlação formal-matemática de dados “sob curadoria” (“curating”, como diz Wolfram), ou seja preparados para essa “computação produtora de conhecimento fomal”; e que sistemas de Search estão ligados a outra linha epistemológica, outra concepção do que venha ser conhecimento, banhando-se em um vasto universo, muito além das ilhas de formalidade que chamamos “ciências duras”.

Uma maneira fecunda de compreender isso é por meio dos “níveis de abstração”: em um nível de abstração (da programação , automação e telecomunicação), o hipertexto é um sistema formal-computacional, enquanto em outro nível (o da percepção do usuário e uso cotidiano) ele permite associações e disjunções sem que exista uma fundamentação lógico-matemática para sua existência. O “hiper-escritor” sobrepõe textos de acordo com critérios aquém e além da formalização.

(Imagem no início do Post é uma gravura de matriz digital, “Composição Para-Simétrica no.12”. Um exemplar de uma linha de gravuras que se baseia em um procedimento para produção de complexidade: opera-se a composição de elementos simétricos por meio de operações disjuntivas de simetria, procurando chegar a uma macro-composição Não-simétrica.)

To Search or not to Search…
Tagged on:                             

Leave a Reply