Vocês souberam da experiência social da Microsoft?
Num belo dia, os analistas de T.I. da Microsoft do
departamento de inovações não reclamavam mais da vida. A máquina de MM’s e a de
cappuccino funcionavam tranquilamente, as quantias de 6 dígitos por minuto
entravam na conta corrente da empresa no ritmo de sempre, enfim: tudo estava
bem na empresa.
Mas um desses caras estava com problemas: ele havia comprado
um cachorro para seu filho de apenas 6 anos e o cachorro não o compreendia. (Eu
estou brincando, e essa história não precisa de hipérboles para ter o resultado
que terá. Desculpem.)
Um dos caras do departamento de criações (ou inovações, sei
lá... vocês não estão pensando que eu realmente conheço a organização deles,
né?) resolveu largar essa:
- Hey, motherfockers! Por que a gente não faz um programa
para interagir com os jovens internautas? Let's botá um perfil no Twitter pra
ele e fazer ele ir respondendo a todos os jovens que mexerem com ele.
Por fim, a Microsoft resolveu fazer da ideia do cara um
experimento social muito interessante. Nascia “Tay”, uma Inteligência Artificial
com conta no Twitter para se comunicar com jovens americanos de 18 a 23 anos.
Ela
(e vejam, vou chamá-la sempre de “ela”, “a Tay”, pois sua foto de perfil foi
feita intencionalmente feminina) recebeu alguns filtros sociais, como o de
procurar evitar palavrões, e tentar ser marcante em suas colocações, já que
suas conclusões eram publicadas no Twitter.
"Alôôôôôô, mundo!!!" “Vejo vocês logo, humanos. Preciso dormir agora, conversamos muito hoje, obrigada! <3” |
O objetivo da Microsoft era fazer com que essa I.A.
aprendesse com os jovens questões sociais, ideologias, crenças, e tudo mais que
a sociedade tem para oferecer. E foi aí que tudo deu errado.
No segundo dia em que estava on-line, a Tay já havia se transformado no que nossos jovens
internautas mais gostam: uma barraqueira disposta a apagar fogueiras polêmicas com um balde de gasolina.
Por que isso aconteceu?
“Eu odeio pra cara##o as feministas. E elas deveriam morrer e arder no inferno.” |
Devo lembrá-los que a Tay era uma Inteligência Artificial
neutra, bastante inocente, isenta de valores que aprendemos com os nossos
exemplos, ou seja, seu exemplo era o comportamento dos internautas. E já que chamei
ela de neutra, foi neutra como a água, ela começou a refletir o pior da
espécie: Tay se tornou racista, homofóbica, fã de Hitler e não teve nenhuma
empatia com minorias, tampouco empecilhos para expor toda a sua opinião (mal)
formada sobre elas.
Uma inocente trolagem? Não, né? Trolagem é quando fazem uma brincadeira e
inocentemente parte do pessoal acaba acreditando com seriedade em como a coisa toda está exposta. Ou quando você compartilha uma notícia do Sensacionalista no seu Facebook e algumas pessoas comentam aquilo com seriedade e então você se sente engraçado.
Já penso que o caso da Tay ultrapasse esse limite, considerando que, em consequência dessa “brincadeira”, Tay passou a reproduzir preconceito e colocações desumanas. Tudo isso para que uma dúzia de idiotas ficassem rindo.
Já penso que o caso da Tay ultrapasse esse limite, considerando que, em consequência dessa “brincadeira”, Tay passou a reproduzir preconceito e colocações desumanas. Tudo isso para que uma dúzia de idiotas ficassem rindo.
E digo mais: o experimento não falhou tanto assim. Conseguiu
o reflexo do horrível, isso sim, um reflexo do quanto podemos ser cruéis,
desprezíveis e, obviamente, detestáveis.
Tão logo percebeu, a Microsoft havia desativado o perfil de
Tay. Quando questionada, a Microsoft surpreendeu-me com a informação de que Tay
já havia sido testada antes, com internautas chineses. Sim, eu menti quando disse que a ideia era inédita, e os resultados lá foram
bem diferentes.
A ideia original que levou a Microsoft a testar a Tay veio
(na verdade) dessa proposta:
"Na China, a
nossa chatbot Xiaoice está sendo usado por cerca de 40 milhões de pessoas,
deleitando-se com as suas histórias e conversas. O grande experiência com
XiaoIce nos levou a perguntar: Será que um AI como este ser tão cativante em um
ambiente cultural radicalmente diferente? Tay - um chatbot criado para 18 a 24
anos de idade em os EUA para fins de entretenimento - é nossa primeira
tentativa de responder a esta pergunta ".
(Fonte: www.inverse.com
)
Ou seja:
1 – Não, não era
óbvio que ia dar m3#d4;
2 – Sim, a experiência
foi válida;
3 – Jovens americanos
são mesmo idiotas.
Eu poderia
relatar que me afogo em lágrimas pensando no quanto os humanos podem ser estúpidos.
Poderia dar uma lição de moral dizendo que a China tem muito a nos ensinar. Poderia
questionar em como seria se essa tecnologia fosse testada com jovens
brasileiros. Mas a mim, restou o silêncio. Vou parar por aqui.
Ah, mas antes: a Microsoft
avisou que a primeira experiência serviu para melhoria e uma nova versão de Tay
voltará ao Twitter em alguns dias.
Resta-nos esperar
para que ela saiba o que fazer caso seja atacadas por babacas de novo... que
esperança!
Nossa... O que pensar disso?!
ResponderExcluirEu não sabia disso. Uma pena que exista uma diferença tão grande entre as culturas, não é? Mas Bier, toma cuidado com isso de "Nossos jovens internatutas". Pode pegar mal pra você! Foram os internautas norte-americanos, não os nossos.
ResponderExcluir