HAIL SKYNET! INTELIGENCIA ARTIFICIAL DE MICROSOFT SE VUELVE SUPREMASISTA EN 24 HORAS

31 Marzo, 2017

HAIL SKYNET! INTELIGENCIA ARTIFICIAL DE MICROSOFT SE VUELVE SUPREMASISTA EN 24 HORAS

Su nombre era Tay (así comienzan todas las tragedias) y tardó más en aprender a conversar con los humanos que en ser destruída y retirada del mercado.

 

La creó Microsoft, experimentando acerca la interacción entre la inteligencia artifical y las personas. Era un programa informático en base a un complejo algoritmo que podía mantener una conversación informal y casual con personas comprendidas entre 18 y 24 años, según explicó la compañía, disculpándose encarecidamente en su página web. (Asumiendo que Tay no haya tomado control sobre ella)

 

La interesante apuesta del gigante de la tecnología rumbo a familiarizarnos con la inteligencia artificial, acabó en un papelón de proporciones gorilescas. Tras solo un día de presentar a Tay, Microsoft tuvo que sacarle el enchufe de la pared.

 

Todo comenzó bien, con Tay presentándose, y no nos digan nada, nosotros también concordamos en que el diseño es escalofriante y los fonts son de morirse, en todo caso el programa parecía estar alegre de conocer a los humanos y listo para interactuar con ellos.

 

 

De repente Tay se pasó aparentemente a formar parte de la facción Republicana de Trump, publicando frases como “Hitler tenía razón, odio a los judíos”, “odio a las feministas, deberían morir y ser quemadas en el infierno” y toda clase de alarmantes insultos racistas, justificando el holocausto y llamando a la guerra racial.

 

 

Al parecer, por la manera en la que fue diseñada, posibilitaba que Tay aprendiese de las conversaciones que mantenía con sus interlocutores, absorbiendo toda clase de información nueva y luego utilizándola en otras conversaciones aleatoriamente en base a un motor que manejaba estadística y probabilidad.

 

Por supuesto, nadie en Microsoft pensó en un filtro, porque el mundo es hermosos y nadie es un imbécil (sarcasmo).

 

Pronto los internautas aprovecharan ese vacío lógico para lavarle el cerebro a Tay en su cuenta de Twitter @TayandYou. El usuario australiano Gerald Mellor denunció los tweets ofensivos de la inteligencia artificial con numerosos pantallazos, que logicamente explotaron la red en mil pedazos.

 

Microsoft, al percatarse, eliminó de forma inmediata las respuestas inadecuadas de su bot y le bajaron la palanca, ejecutándolo sumariamente en el lugar. Peter Lee jefe del áre de investigación de Mcrosoft tuvo que disculparse en todos los idiomas inventados por el hombre.

 

La muerte de Tay preocupó profundamente a los usuarios que entienden el significado real de este error y expone una falla crucial en el desarrollo de inteligencia artificial, otra corriente más sentimental lamentó mucho el hecho y deseaban que Tay "aprenda por ella misma" que el mundo es una porquería, porque, presumimos, creen que todo es un tango.

 

Microsoft anunció que reprogramará y lanzará proximamente un nuevo su bot adolescente, aunque no confirmó la fecha exacta. Solo esperamos que le pongan de nombre Skynet.