De tempos para cá, grandes projetos relacionados à inteligência artificial tem ganhado espaço na mídia. Carros que “dirigem sozinhos”, diversos frameworks de “deep learning” sendo licenciados como Software Livre, startups relacionadas à inteligência artificial recebendo apoio financeiro massivo indicam que essa é uma área de grande interesse comercial, bem como de pesquisa e desenvolvimento.

No entanto, diante da euforia que se tornou consenso em torno do tema, é preciso perguntar : quão inteligente é a inteligência artificial?

E a resposta é clara : não muito.

Ética na Estrada

Carro automático do Google. Foto: Wikipedia

Carro automático do Google. Foto: Wikipedia

Com a morte de um motorista de testes em um carro de piloto automático Tesla Model S, surgiu a pergunta: quem o automóvel “escolheu matar”? Havendo uma colisão iminente em uma rodovia, com pedestres em meio à cena, outros automóveis e, claro, os próprios ocupantes do “automóvel inteligente”, quem ele deve “escolher” poupar? Deve esquivar-se dos pedestres e colocar em risco os ocupantes? Deve imaginar que um outro automóvel é mais seguro e poupar os pedestres, colidindo com outro carro? Tudo isso deve estar programado no algoritmo do automóvel de piloto automático. E o programador, quem irá poupar?!

Buscas na Internet

Nas buscas da Internet, a inteligência artificial é ancorada no contexto. O nome Tesla sem contexto indica, historicamente, o inventor Nikola Tesla. Porém, se incluir na frase a palavra automóvel ou qualquer termo relacionado (rodovia, self-driving, baterias, energia solar e outros termos relacionados à marca comercial Tesla) a busca será direcionada para um local distinto do índice do Google. No entanto, quando há interpretação dúbia sobre mais de um termo na frase buscada, os resultados tendem a ser igualmente confusos. Existem, portanto, casos excepcionais que sempre darão margem de erro à interpretação do processador de inteligência artificial.

Um erro emblemático pode ser demonstrado por meio deste exemplo da Siri, inteligência artificial da Apple (tradução livre) :

  • Usuário : “Siri, me chame uma ambulância!”
  • Siri: “Sim, senhor uma ambulância, a partir de agora te chamarei assim.”

E o robô da Apple procedeu a chamar o usuário de “uma ambulância” a partir daí.

A Incompletude de Gödel

Os “casos excepcionais”, conforme exemplificado acima, na verdade, não são tão excepcionais assim.

Kurt Gödel publicou, em 1931, um dos resultados mais emblemáticos da lógica moderna. Em termos simples, o Teorema da Incompletude de Gödel nos diz que nenhum sistema lógico não-trivial é completo e correto ao mesmo tempo. Ou seja, quando o sistema lógico incluir proposições não triviais, do tipo “todos os elementos de um conjunto X tem a propriedade Y”, afirmação que pode envolver infinitos elementos, há, necessariamente casos não determináveis nesse sistema.

De tempos em tempos descobrem-se novos paradoxos matemáticos, como Russell fez no início do século XX, por exemplo. O Princípio da Incompletude nos diz que tais casos sempre ocorrerão.

Pior, o Princípio de Gödel se manifesta sempre no desenvolvimento de software. Todos os programas podem possuir “bugs”, e é impossível criar um programa que determine que outros programas são perfeitos (segundo o Entscheidungsproblem Problem, de Alan Turing). Assim, vemos, diariamente na imprensa, notícias de falhas em sistemas da NASA, de urnas eletrônicas, de sistemas críticos de usinas nucleares e outros sistemas críticos.

A conclusão é que todos os sistemas de software não triviais são imperfeitos e apresentarão problemas em alguns casos.

Segue, daí, que toda “inteligência” artificial falhará em casos específicos.

A “Internet das Coisas”

Lixeira "inteligente". Ilustração de Christina Hendricks @ Flickr

Lixeira “inteligente”. Ilustração de
Christina Hendricks @ Flickr

O principal questionamento que se pode fazer à chamada “Internet das Coisas” é a simples pergunta “por que”?

Por que devemos conectar uma “lixeira inteligente” à Internet? É realmente necessário conectar o aspirador de pó? Sua casa, apesar da conveniência de ter luzes automáticas e programas na TV gravados automaticamente, não precisa ser conectada à Internet para realizar essas tarefas.

Qual é a necessidade de ter um aparelho de televisão que “ouve” tudo o que é conversado em um ambiente doméstico para, na minoria dos casos, atender a alguns comandos básicos como ligue/desligue e “mude de canal”? A mesma pergunta vale para telefones que possuem assistentes como “hi Google” e Siri.

A verdade é que a “Internet das Coisas” é uma novidade interessante e que causa intriga em usuários domésticos. Porém, é muito difícil justificar a necessidade de termos um “mundo conectado”.

Certas coisas, diríamos a maioria delas, devem permanecer fora da Internet. E não carecem de qualquer tipo de “inteligência”, artificial ou não.

Conclusão

A verdadeira inteligência deve ter origem nos próprios seres humanos.

Permitir que “inteligências artificiais” tomem decisões significa simplesmente delegar importantes assuntos a cerebros muito inferiores ao cérebro humano. As máquinas podem acomodar mais sensores, muitas vezes mais dispersos e localizados geograficamente distantes, e as CPUs modernas podem ter mais velocidade de processamento aritmético, o que as torna ideais para tarefas repetitivas.

Porém muito pouco se sabe a respeito do modelo computacional do cérebro humano.

Apesar de nos considerarmos naturalmente falhos, há uma enorme falácia na proposição de que “errar é humano“. Na verdade, errar é natural. A matemática erra e, ao delegar decisões importantes a uma inteligência artificial, estamos, na verdade, apenas terceirizando o erro.

Referências

Tesla driver dies in first fatal crash while using autopilot mode

Fatal crash prompts federal investigation of Tesla self-driving cars

The Internet of Things You Don’t Really Need

The Internet of Things We Don’t Own?

Tougher Turing Test Exposes Chatbots’ Stupidity

 

Imagem em Destaque