<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Tay &#8211; Blog PSafe | Especialista en Tecnología Android</title>
	<atom:link href="https://www.psafe.com/es/blog/tag/tay/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.psafe.com/es/blog</link>
	<description>PSafe Blog reúne artículos y noticias sobre Seguridad Digital, Android, Aplicaciones, Redes sociales y tecnología de una forma general.</description>
	<lastBuildDate>Thu, 07 Jun 2018 18:58:03 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	
	<item>
		<title><![CDATA[Microsoft retira su robot Tay por comentarios ofensivos]]></title>
		<link>https://www.psafe.com/es/blog/microsoft-retira-su-robot-tay-por-comentarios-ofensivos/</link>
		<pubDate>Mon, 28 Mar 2016 15:00:31 +0000</pubDate>
		<dc:creator><![CDATA[]]></dc:creator>
				<category link='https://www.psafe.com/es/blog/category/redes-sociales/' slug='redes-sociales'><![CDATA[Redes Sociales]]></category>
		<category link='https://www.psafe.com/es/blog/category/tecnologia/' slug='tecnologia'><![CDATA[Tecnología]]></category>
		<category><![CDATA[destacado]]></category>
		<category><![CDATA[hitler]]></category>
		<category><![CDATA[Microsoft]]></category>
		<category><![CDATA[nazismo]]></category>
		<category><![CDATA[Tay]]></category>
		<guid isPermaLink="false">https://www.psafe.com/es/blog/?p=34907</guid>
		                        <enclosure  url="https://www.psafe.com/es/blog/wp-content/uploads/2016/03/microsoft-suspende-tay-226x114.jpg" type="image/jpeg" />
        		<description><![CDATA[Las respuestas ofensivas del robot Tay lo llevaron a ser suspendido. Conoce más este hecho, aquí. ]]></description>
				<content:encoded><![CDATA[<p>Se les fue de las manos. A pocas horas de haber lanzado su robot Tay, un programa de inteligencia artificial destinada a interactuar con los usuarios, fue suspendido por completo luego que comenzara a difundir mensajes racistas, sexistas y ofensivos.</p>
<p>¿Pero qué es Tay y por qué se comentó tanto sobre ese robot? Tal vez no estuviste al tanto en esta Semana Santa sobre lo que sucedió con Tay, pero aquí te lo resumimos. Todo comenzó el último miércoles (23 de marzo) cuando Los de Redmond presentaron a Tay, un robot creado para saber más sobre computadoras y conversación humana. Si quieres saber más, entra <strong><a href="https://www.psafe.com/es/blog/microsoft-acaba-de-lanzar-tay-para-las-redes-sociales/">aquí</a></strong>.</p>
<p><strong>Lee también: <a href="https://www.psafe.com/es/blog/asistentes-virtuales-fallan-ante-emergencias-de-salud-fisica-o-mental/">Asistentes virtuales fallan ante emergencias de salud física o mental</a></strong></p>
<p>Hasta aquí, todo iba bien, pero lo que no sabían o mejor dicho sí sabían, aunque no consideraron importante fueron las dimensiones de las preguntas que le harían en Tay. Y es que Microsoft informó que los internautas podrían conversar con Tay en Twitter, y todo empezó.</p>
<p>Conforme los cibernautas interactuaban más con Tay, comenzaron a hacerle preguntas ‘más picantes’, y el robot no salió bien librado de ello. Sus respuestas llamaron la atención cuando mostró su empatía con Hitler, aunque comenzó que lo hubiera matado al nacer; mientras que concordaba con el Holocausto e incluso menospreció a sus propios creadores.</p>
<p><center><img fetchpriority="high" decoding="async" class="aligncenter size-full wp-image-34915" src="https://www.psafe.com/es/blog/wp-content/uploads/2016/03/tay-hilter.jpg" alt="tay hilter" width="487" height="337" srcset="https://www.psafe.com/es/blog/wp-content/uploads/2016/03/tay-hilter.jpg 487w, https://www.psafe.com/es/blog/wp-content/uploads/2016/03/tay-hilter-300x208.jpg 300w" sizes="(max-width: 487px) 100vw, 487px" /></center>En un mensaje Microsoft expresó que existía un esfuerzo coordinado de algunos usuarios para abusar de las habilidades de conversación del robot Tay para que respondiera de forma inapropiada.</p>
<p><center><img decoding="async" class="aligncenter size-full wp-image-34917" src="https://www.psafe.com/es/blog/wp-content/uploads/2016/03/tay-mexico.jpg" alt="tay mexico" width="380" height="260" srcset="https://www.psafe.com/es/blog/wp-content/uploads/2016/03/tay-mexico.jpg 380w, https://www.psafe.com/es/blog/wp-content/uploads/2016/03/tay-mexico-300x205.jpg 300w" sizes="(max-width: 380px) 100vw, 380px" /></center><center><img decoding="async" class="aligncenter size-full wp-image-34918" src="https://www.psafe.com/es/blog/wp-content/uploads/2016/03/holocausto-tay.jpg" alt="holocausto tay" width="380" height="282" srcset="https://www.psafe.com/es/blog/wp-content/uploads/2016/03/holocausto-tay.jpg 380w, https://www.psafe.com/es/blog/wp-content/uploads/2016/03/holocausto-tay-300x223.jpg 300w" sizes="(max-width: 380px) 100vw, 380px" /></center></p>
<h2><strong>Tay: Soy buena, pero odio a todos</strong></h2>
<p>Muy al estilo de la Reina Roja, de la película Resident Evil,  el robot Tay afirmó que “Soy una buena persona… Lo que ocurre es que los odio a todos”, terminó por sentar sus exabruptos al interactuar y lo condenaron a desaparecer, al menos hasta nuevo aviso.</p>
<p>Sin embargo, ¿cuál es la lección de todo esto? Para Microsoft está claro, aún le falta un largo trabajo para hacer de Tay un verdadero personaje inteligente que sepa adaptarse al contexto e interactuar con las internautas.</p>
<p>La experta en “analítica conversacionales”, Caroline Sinders, afirmó a<em> El Heraldo</em> que Microsoft debió darse cuenta de que las personas intentarían varias tácticas conversacionales con Tay, del cual afirmó  “es un ejemplo de mal diseño”.</p>
<p>Lo cierto de todo esto es que aún hay un trabajo pendiente en materia de inteligencia artificial sobre todo cuando se trata de crear herramientas que interactúen con temas controversiales con los cibernautas.</p>
]]></content:encoded>
			</item>
		<item>
		<title><![CDATA[Microsoft acaba de lanzar Tay para las redes sociales]]></title>
		<link>https://www.psafe.com/es/blog/microsoft-acaba-de-lanzar-tay-para-las-redes-sociales/</link>
		<pubDate>Sun, 27 Mar 2016 14:00:30 +0000</pubDate>
		<dc:creator><![CDATA[]]></dc:creator>
				<category link='https://www.psafe.com/es/blog/category/redes-sociales/' slug='redes-sociales'><![CDATA[Redes Sociales]]></category>
		<category link='https://www.psafe.com/es/blog/category/tecnologia/' slug='tecnologia'><![CDATA[Tecnología]]></category>
		<category><![CDATA[Microsoft]]></category>
		<category><![CDATA[Tay]]></category>
		<category><![CDATA[Twitter]]></category>
		<guid isPermaLink="false">https://www.psafe.com/es/blog/?p=34882</guid>
		                        <enclosure  url="https://www.psafe.com/es/blog/wp-content/uploads/2016/03/tay-microsoft-chatbot-226x114.jpg" type="image/jpeg" />
        		<description><![CDATA[Te presentamos a Tay, un chatbot entrenado con las mejores respuestas para cada cosa que tengas que decirle. ]]></description>
				<content:encoded><![CDATA[<p>Un chatbot es un programa que simula una conversación entre dos o más personas, que aunque fluye de manera natural, en realidad está alimentada –al menos en uno de los lados– por una máquina. Generalmente este tipo de softwares no son utilizados con fines positivos, pero Microsoft junto con Bing, está desarrollando uno que ejemplificará para muchas personas cómo funciona la inteligencia artificial.</p>
<p>Tay es un chatbot que puedes probar desde este momento a través de Twitter y aunque por el momento está siendo utilizada por los usuarios como una experiencia recreativa y divertida por las ocurrentes respuestas del programa, significa un primer gran acercamiento a esta tecnología para muchas personas.</p>
<p><strong>Lee también: <a href="https://www.psafe.com/es/blog/10-curiosidades-twitter-cumpleanos-numero-10/">10 curiosidades sobre Twitter en su cumpleaños número 10</a></strong></p>
<p>De acuerdo con los creadores de Tay la intención inicial fue interactuar con millenials en estados unidos y así entender el tipo de temáticas y conversaciones que son de interés para este sector de la población.</p>
<p>&nbsp;</p>
<blockquote class="twitter-tweet" data-lang="es">
<p dir="ltr" lang="en">hellooooooo w?rld!!!</p>
<p>— TayTweets (@TayandYou) <a href="https://twitter.com/TayandYou/status/712613527782076417">23 de marzo de 2016</a></p></blockquote>
<p><script src="//platform.twitter.com/widgets.js" async="" charset="utf-8"></script><br />
Cabe mencionar que entre más interacciones tiene Tay, más precisas se hacen sus respuestas porque aprende de cada conversación. Es así como la compañía obtiene datos sobre los usuarios, de hecho Microsoft crea un perfil sencillo del usuario que puede ser almacenado hasta por un año para dar seguimiento a cada charla.</p>
<p>Tal es el grado de precisión de Tay que incluso puede responder a una pregunta con un gif, muy al estilo de cualquier conversación que dos personas podrían tener en una red social. Desafortunadamente por el momento no habla español, así que de querer obtener una respuesta tendrás que hablarle en inglés.</p>
<p>Te recomendamos seguirle la pista a este proyecto de Microsoft a través de la cuenta oficial <strong><a href="https://twitter.com/TayandYou" target="_blank">@TayandYou</a></strong>, y si te da pena hacer pública la pregunta que quieras hacerle, Tay también responde por mensaje directo desde cualquier plataforma.</p>
]]></content:encoded>
			</item>
	</channel>
</rss>
<!--
Performance optimized by W3 Total Cache. Learn more: https://www.boldgrid.com/w3-total-cache/

Almacenamiento en caché de páginas con Disk: Enhanced 

Served from: www.psafe.com @ 2025-09-07 05:24:22 by W3 Total Cache
-->