Redes Sociales

Microsoft retira su robot Tay por comentarios ofensivos

Se les fue de las manos. A pocas horas de haber lanzado su robot Tay, un programa de inteligencia artificial destinada a interactuar con los usuarios, fue suspendido por completo luego que comenzara a difundir mensajes racistas, sexistas y ofensivos.

¿Pero qué es Tay y por qué se comentó tanto sobre ese robot? Tal vez no estuviste al tanto en esta Semana Santa sobre lo que sucedió con Tay, pero aquí te lo resumimos. Todo comenzó el último miércoles (23 de marzo) cuando Los de Redmond presentaron a Tay, un robot creado para saber más sobre computadoras y conversación humana. Si quieres saber más, entra aquí.

Lee también: Asistentes virtuales fallan ante emergencias de salud física o mental

Hasta aquí, todo iba bien, pero lo que no sabían o mejor dicho sí sabían, aunque no consideraron importante fueron las dimensiones de las preguntas que le harían en Tay. Y es que Microsoft informó que los internautas podrían conversar con Tay en Twitter, y todo empezó.

Conforme los cibernautas interactuaban más con Tay, comenzaron a hacerle preguntas ‘más picantes’, y el robot no salió bien librado de ello. Sus respuestas llamaron la atención cuando mostró su empatía con Hitler, aunque comenzó que lo hubiera matado al nacer; mientras que concordaba con el Holocausto e incluso menospreció a sus propios creadores.

En un mensaje Microsoft expresó que existía un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación del robot Tay para que respondiera de forma inapropiada.

Tay: Soy buena, pero odio a todos

Muy al estilo de la Reina Roja, de la película Resident Evil,  el robot Tay afirmó que “Soy una buena persona… Lo que ocurre es que los odio a todos”, terminó por sentar sus exabruptos al interactuar y lo condenaron a desaparecer, al menos hasta nuevo aviso.

Sin embargo, ¿cuál es la lección de todo esto? Para Microsoft está claro, aún le falta un largo trabajo para hacer de Tay un verdadero personaje inteligente que sepa adaptarse al contexto e interactuar con las internautas.

La experta en “analítica conversacionales”, Caroline Sinders, afirmó a El Heraldo que Microsoft debió darse cuenta de que las personas intentarían varias tácticas conversacionales con Tay, del cual afirmó  “es un ejemplo de mal diseño”.

Lo cierto de todo esto es que aún hay un trabajo pendiente en materia de inteligencia artificial sobre todo cuando se trata de crear herramientas que interactúen con temas controversiales con los cibernautas.

Oscar Montalvo

Ciudadano del mundo, periodista y deportista frustrado. Le gusta la literatura universal así como las películas de corte histórico, de ciencia ficción y, por supuesto, de terror. No deja de sorprenderse con los avances tecnológicos del día a día, al mismo tiempo de admirar diferentes talentos, aunque no termina por descubrir completamente los suyos.

Compartir
Publicado por
Oscar Montalvo

Entradas recientes

4 consejos para dejar tu celular como nuevo

Hicimos un guía con las herramientas fundamentales y gratuitas para limpiar, acelerar, ahorrar batería y…

5 años hace

Usuarios de PSafe Total deben actualizar su aplicación

Versiones 2.9 y anteriores de la aplicación “PSafe Total” ya no serán actualizadas

5 años hace

Cómo borrar el WhatsApp de un celular robado o perdido

Garantiza tu privacidad, aunque te hayan robado el teléfono

5 años hace

5 cuidados que debes tener para que no hackeen tu celular

Trucos simples pero fundamentales para bloquear los ataques de bandidos a tu teléfono

5 años hace

Descubre cuáles aplicaciones tienen acceso a tus datos personales de Facebook

Aprende también cómo removerlas y a elegir los datos que pueden ser accedidos

5 años hace

Como no caer en las trampas de los enlaces falsos

Conoce la herramienta que identifica y bloquea enlaces maliciosos en tiempo real

5 años hace