Inteligencia artificial racista - Microsoft desactiva Tay

Inteligencia artificial racista – Microsoft desactiva Tay

Informatica/Tecnología por

Inteligencia artificial racista – Microsoft desactiva Tay

Inteligencia artificial racista - Microsoft desactiva Tay
Inteligencia artificial racista – Microsoft desactiva Tay

Inteligencia artificial racista. La verdad es que suena increíble, Microsoft suspende el uso de Tay en las redes sociales. El proyecto de incluir inteligencia artificial en sitios sociales como Twitter, fue considerado un fracaso. El proyecto de inteligencia artificial Tay, luego de interactuar con seres humanos comenzó a tener actitudes racistas.

La idea era que Tay aprendiera de las personas con las cuales interactuaba. Pero el bot no respondió de la manera esperada. Comenzó a comportarse de manera racista cuando en realidad se esperaba que evolucione. Una idea mía, se me ocurre, la humanidad tuvo su período de racismo para luego evolucionar y comprender lo malo que son ese tipo de pensamientos. Quizá se debió dejar a Tay que siga evolucionando. Quizá lograba salir de ese estado por si mismo.

Tan solo en pocas horas, Tay comenzó a hacer comentarios racistas que obligaron a que Microsoft desactive el software en cuestión. Los polémicos comentarios del robot fueron borrados al corto tiempo y con un mensaje de despedida fue desconectado. Microsoft no ha hecho comentarios en cual será el futuro del bot. Quizá sea desconectado para siempre o quizá luego de algunas actualizaciones vuelva a los medios sociales.

Inteligencia artificial racista - Microsoft desactiva Tay
Inteligencia artificial racista – Microsoft desactiva Tay

Fue increíble como Tay realizó comentarios sobre Hitler y asuntos relacionados con el 9 de septiembre. La situación de salió de las manos. Comentarios insultantes generados en función de lo que aprendió se esparcían ṕor toda por toda la red, no quedando otra acción posible mas que desconectarlo.

Todos sabemos lo virales que pueden ser estas noticias. Mas tratándose de una compañía tan importante y mundial como lo es Microsoft.

La cuestión, de todas maneras es si el software por defecto de una mala programación estalló en este tipo de mensajes, o simplemente una mala influencia de personas que interactuaron con él lo llevaron a una visión errónea de la realidad. Una mala enseñanza pudo haber sido el causante del problema.

La web social es un arma de doble filo ya todos lo sabemos eso. También pudo, simplemente, haber sido presa de bromas y mensajes en doble sentido para los que seguramente Tay no estaba preparado. Al menos esta es mi opinión.

¿ Quien Soy ?

Sígueme en Facebook

Sígueme en Google plus

Sígueme en Twitter

Gracias

Comments

Deja un comentario

Your email address will not be published.

*

*