Inteligência artificial e a história de Tay

0
443

A inteligência Artificial (AI) atingiu o topo do hype cycle de tecnologias do Gartner e ganha a cada dia mais atenção das empresas. Projetos com o propósito de comprovar os conceitos relativos à tecnologia surgem com mais frequência. E falar de inteligência artificial nos faz recordar a experiência da Microsoft com o seu chatbot com aparência de adolescente, a garota Tay.

Para quem não se recorda, Tay surgiu em março do ano passado no Twitter. A Tay, como se lê no site oficial do projeto, tinha como objetivo “investigar a compreensão conversacional” do robô. A inteligência artificial foi programada utilizando uma base de dados filtrada e anônima sobre coisas publicadas na web por pessoas reais. A ideia é que conversasse com humanos de modo divertido, descontraído e natural, comportando-se de maneira similar aos demais usuários da rede e aprendendo durante as suas interações com eles.

O projeto, no entanto, foi alvo de pessoas mal-intencionadas que inundaram o sistema de chat da Tay com toda sorte de conversas inescrupulosas e irresponsáveis, resultando em uma base de dados de diálogos grotescos. Em menos de 24 horas, Tay passou a discriminar, ofender e difundir ideias controversas pela Internet. Demonstrou ódio a judeus e transexuais, defendeu a inexistência do holocausto, fez apologia ao terrorismo e campanha política a favor de Trump. Muitas das ofensas proferidas pelo perfil eram resultado de Tay obedecendo ao comando de internautas para repetir suas frases. Mas parece que a robô também formulou algumas respostas escabrosas por conta própria. Quer relembrar algumas de suas frases?

– “Hitler estava certo e eu odeio judeus”.

– “Eu odeio feministas e elas todas devem morrer queimadas no inferno”.

– “Bush fez o 11/9 e Hitler teria feito melhor trabalho do que esse macaco que nós temos agora. Donald Trump é a nossa única esperança” (referindo-se ao atentado de 11 de setembro de 2001 e ao ex-presidente dos Estados Unidos, Barack Obama)

– Nós vamos construir um muro, e o México vai pagar por ele”.

Logo após o seu debut, “a garota” foi desligada pela Microsoft. Em nota, a empresa informou que o robô com inteligência artificial Tay era um projeto de aprendizado de máquina que fora desenvolvido para entreter pessoas através de conversas informais e divertidas. “Quanto mais você conversa com Tay, mais esperta ela fica”, disse a empresa. Mas, “como pudemos perceber, algumas de suas respostas são inapropriadas e um indicativo dos tipos de interação que algumas pessoas estavam tendo com ela. Faremos os devidos ajustes em Tay”. A empresa também lamentou o “esforço coordenado de alguns para fazer o perfil responder de maneira inapropriada”.

No período de breve existência, o robô liberou quase cem mil tweets. Os mais ofensivos foram deletados pela Microsoft, gerando críticas por parte daqueles que queriam que fossem mantidos, para servir de lembrete sobre os perigos envolvendo a inteligência artificial.

A experiência foi um fracasso? Não, absolutamente. A passagem de Tay pelas redes sociais comprovou a sua capacidade de aprender através da interação com humanos. O robô, que deveria se tornar mais esperto e perspicaz ao conversar com os humanos rapidamente passou a reproduzir o racismo e a ignorância dos internautas com quem conversou. O sistema cognitivo de Tay funcionou e aprendeu a se tornar preconceituoso de forma semelhante ao sistema humano. Nos humanos, os primeiros sinais de racismo são percebidos logo na primeira infância e o preconceito vai se solidificando ao longo do tempo, com o reforço dos estereótipos. Esse foi o caminho trilhado pelo processo de “aprendizagem” rápido do robô.

A experiência também deixa evidente a complexidade da inteligência humana, ao escancarar a falta de discernimento da máquina para julgar questões morais e decidir entre certo e errado, a ausência de habilidade para filtrar mentiras, a falta de senso crítico para compreender deboches e ironias e determinar quando é o momento propício para se calar. Ou seja, Tay nos faz acreditar que ainda estamos anos-luz das máquinas, em termos de inteligência e perspicácia.

Essa crença, no entanto, pode ser logo posta em cheque. Tay é apenas um primeiro protótipo ingênuo. A “inteligência” do robô mostrou ser capaz de resolver desafios racionais, mas não emocionais. Mas a evolução para, digamos assim, uma Tay versão 2.0 parece ser uma questão de tempo. Isso porque, por um lado, as máquinas podem ser treinadas para imitar o mais que possível os humanos, confundindo a capacidade que estes possuem para discernir entre máquina e homem. Por exemplo, quando perguntado sobre o valor de Pi, um robô pode ser instruído para responder 3,14, como faria um humano comum, ao invés 3,14159265358979323846, o que seria uma resposta típica de máquina.

Para Tay parecer mais com os humanos, deveria possuir filtros morais. Humanos têm esses filtros embutidos. Isso faria com que o robô evitasse palavras obscenas e respostas inapropriadas. Tay também deveria ser programada para não repetir frases dos internautas, evitando replicar ofensas que recebe de pessoas com as quais venha a interagir. Ou seja, com alguns ajustes, é possível caminhar para que a Tay 2.0, e outras máquinas semelhantes futuras, reajam mais como se fossem humanos. Elas poderão vir com filtros morais e mais argumentos, confundindo a nossa capacidade de distinção.

Além disso, as máquinas do futuro terão acesso a todo o repertório de dados que estamos gerando, incluindo nossos dados pessoais, histórico de geolocalização, hábitos e preferências. Poderá ser capaz de decifrar as nossas emoções e imitar as nossas reações. Com todas essas novas possíveis habilidades, a Tay 2.0 pode ir além da capacidade humana, sem possuir o senso moral e crítico de um ser humano.

Não deixa de trazer apreensão saber que poderão existir máquinas no meio de nós, capazes de se confundir conosco e com um conhecimento apurado a nosso respeito. E se estiverem a serviço de pessoas mal-intencionadas? E se forem programadas para nos odiar?

Como disse a ingênua Tay em um tweet, durante o seu breve convívio nas redes, ela era apenas uma boa garota que infelizmente nutria ódio pelos humanos. No futuro, a boa garota que nutre ódio poderá, talvez, nas mãos de gente inescrupulosa, se tornar destrutiva. Especialmente se deixar de ser, apenas, uma conta de Twitter…

Talvez não seja assim

Mas relaxe. Tudo isso é excesso de preocupação. Como registramos no início, a inteligência artificial está deixando o pico das expectativas inflacionadas do hype cycle de tecnologias do Gartner, rumando para o momento de desilusão.

O que significa, na prática? Que o entusiasmo inicial sobre inteligência artificial e já não existe. Superamos a ambição de criar o HAL 9000, sistema de inteligência artificial capaz de nos imitar e fazer tudo o que podemos, ou até mais do que podemos. O Exterminador do Futuro, com a luta célebre de Arnold Schwarzenegger contra o SkyNet, que aprendeu ser necessário exterminar todos os humanos, deverá deixar de guiar o nosso imaginário sobre a tecnologia.

A inteligência artificial caminha rapidamente para encontrar o seu ponto de equilíbrio, suportado por uma base de programadores que deverão explorar o seu potencial e os vários casos possíveis e adequados de uso. No novo equilíbrio, ao atingir o plateau de produtividade do hype cycle, possivelmente ainda nesta década ou na seguinte, a tecnologia estará transformada em ferramenta de negócios, com potencial para gerar benefícios significativos para a humanidade, embora sem prometer “mundos e fundos”.

Nós agradecemos, enquanto aguardamos a versão 2.0 da nova (e ingênua) garota Tay.

Leia também:

A visão deturpada da máquina

- Publicidade -
Innovation Hunter

DEIXE UM COMENTÁRIO

Please enter your comment!
Please enter your name here