quinta-feira, 31 de março de 2016

Tay, o reflexo da delinquencia juvenil na Internet




Vocês souberam da experiência social da Microsoft?
Num belo dia, os analistas de T.I. da Microsoft do departamento de inovações não reclamavam mais da vida. A máquina de MM’s e a de cappuccino funcionavam tranquilamente, as quantias de 6 dígitos por minuto entravam na conta corrente da empresa no ritmo de sempre, enfim: tudo estava bem na empresa.

Mas um desses caras estava com problemas: ele havia comprado um cachorro para seu filho de apenas 6 anos e o cachorro não o compreendia. (Eu estou brincando, e essa história não precisa de hipérboles para ter o resultado que terá. Desculpem.)

Um dos caras do departamento de criações (ou inovações, sei lá... vocês não estão pensando que eu realmente conheço a organização deles, né?) resolveu largar essa:
- Hey, motherfockers! Por que a gente não faz um programa para interagir com os jovens internautas? Let's botá um perfil no Twitter pra ele e fazer ele ir respondendo a todos os jovens que mexerem com ele.
 Em princípio, deram mais café pro cara, pra ele parar de delirar, mas quando ele expôs melhor seus objetivos, os caras repensaram no tamanho da ideia do cara. E começaram a programação, com alguns aprimoramentos, é claro.

Por fim, a Microsoft resolveu fazer da ideia do cara um experimento social muito interessante. Nascia “Tay”, uma Inteligência Artificial com conta no Twitter para se comunicar com jovens americanos de 18 a 23 anos.

Ela (e vejam, vou chamá-la sempre de “ela”, “a Tay”, pois sua foto de perfil foi feita intencionalmente feminina) recebeu alguns filtros sociais, como o de procurar evitar palavrões, e tentar ser marcante em suas colocações, já que suas conclusões eram publicadas no Twitter.

"Alôôôôôô, mundo!!!"
“Vejo vocês logo, humanos. Preciso dormir agora, conversamos muito hoje, obrigada! <3”
O objetivo da Microsoft era fazer com que essa I.A. aprendesse com os jovens questões sociais, ideologias, crenças, e tudo mais que a sociedade tem para oferecer. E foi aí que tudo deu errado.

No segundo dia em que estava on-line, a Tay já havia se transformado no que nossos jovens internautas mais gostam: uma barraqueira disposta a apagar fogueiras polêmicas com um balde de gasolina.

Por que isso aconteceu?
“Eu odeio pra cara##o as feministas.
E elas deveriam morrer e arder no inferno.”
Devo lembrá-los que a Tay era uma Inteligência Artificial neutra, bastante inocente, isenta de valores que aprendemos com os nossos exemplos, ou seja, seu exemplo era o comportamento dos internautas. E já que chamei ela de neutra, foi neutra como a água, ela começou a refletir o pior da espécie: Tay se tornou racista, homofóbica, fã de Hitler e não teve nenhuma empatia com minorias, tampouco empecilhos para expor toda a sua opinião (mal) formada sobre elas.


Uma inocente trolagem? Não, né? Trolagem é quando fazem uma brincadeira e inocentemente parte do pessoal acaba acreditando com seriedade em como a coisa toda está exposta. Ou quando você compartilha uma notícia do Sensacionalista no seu Facebook e algumas pessoas comentam aquilo com seriedade e então você se sente engraçado.

Já penso que o caso da Tay ultrapasse esse limite, considerando que, em consequência dessa “brincadeira”, Tay passou a reproduzir preconceito e colocações desumanas. Tudo isso para que uma dúzia de idiotas ficassem rindo.

E digo mais: o experimento não falhou tanto assim. Conseguiu o reflexo do horrível, isso sim, um reflexo do quanto podemos ser cruéis, desprezíveis e, obviamente, detestáveis.

Tão logo percebeu, a Microsoft havia desativado o perfil de Tay. Quando questionada, a Microsoft surpreendeu-me com a informação de que Tay já havia sido testada antes, com internautas chineses. Sim, eu menti quando disse que a ideia era inédita, e os resultados lá foram bem diferentes.

A ideia original que levou a Microsoft a testar a Tay veio (na verdade) dessa proposta:
"Na China, a nossa chatbot Xiaoice está sendo usado por cerca de 40 milhões de pessoas, deleitando-se com as suas histórias e conversas. O grande experiência com XiaoIce nos levou a perguntar: Será que um AI como este ser tão cativante em um ambiente cultural radicalmente diferente? Tay - um chatbot criado para 18 a 24 anos de idade em os EUA para fins de entretenimento - é nossa primeira tentativa de responder a esta pergunta ".
(Fonte: www.inverse.com )

Ou seja:
1 – Não, não era óbvio que ia dar m3#d4;
2 – Sim, a experiência foi válida;
3 – Jovens americanos são mesmo idiotas.

Eu poderia relatar que me afogo em lágrimas pensando no quanto os humanos podem ser estúpidos. Poderia dar uma lição de moral dizendo que a China tem muito a nos ensinar. Poderia questionar em como seria se essa tecnologia fosse testada com jovens brasileiros. Mas a mim, restou o silêncio. Vou parar por aqui.

Ah, mas antes: a Microsoft avisou que a primeira experiência serviu para melhoria e uma nova versão de Tay voltará ao Twitter em alguns dias.
Resta-nos esperar para que ela saiba o que fazer caso seja atacadas por babacas de novo... que esperança!

2 comentários:

  1. Eu não sabia disso. Uma pena que exista uma diferença tão grande entre as culturas, não é? Mas Bier, toma cuidado com isso de "Nossos jovens internatutas". Pode pegar mal pra você! Foram os internautas norte-americanos, não os nossos.

    ResponderExcluir

Vai comentar? (Faça login no Google antes.)
Com a palavra, o mais importante membro deste blog: você!