<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Stephen Hawking &#8211; Blog PSafe | Especialista en Tecnología Android</title>
	<atom:link href="https://www.psafe.com/es/blog/tag/stephen-hawking/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.psafe.com/es/blog</link>
	<description>PSafe Blog reúne artículos y noticias sobre Seguridad Digital, Android, Aplicaciones, Redes sociales y tecnología de una forma general.</description>
	<lastBuildDate>Thu, 07 Jun 2018 18:58:03 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	
	<item>
		<title><![CDATA[Los riesgos para la humanidad según Stephen Hawking]]></title>
		<link>https://www.psafe.com/es/blog/estos-son-los-riesgos-para-la-humanidad-segun-stephen-hawking/</link>
		<pubDate>Wed, 19 Aug 2015 17:55:11 +0000</pubDate>
		<dc:creator><![CDATA[]]></dc:creator>
				<category link='https://www.psafe.com/es/blog/category/tecnologia/' slug='tecnologia'><![CDATA[Tecnología]]></category>
		<category><![CDATA[Humanidad]]></category>
		<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[robots asesinos]]></category>
		<category><![CDATA[Stephen Hawking]]></category>
		<guid isPermaLink="false">https://www.psafe.com/es/blog/?p=13551</guid>
		                        <enclosure  url="https://www.psafe.com/es/blog/wp-content/uploads/2015/08/stephen2-226x114.jpg" type="image/jpeg" />
        		<description><![CDATA[La inteligencia artificial, la vida extraterrestre y la propia agresión humana son los riesgos para la humanidad según Stephen Hawking. Sepa más aquí.]]></description>
				<content:encoded><![CDATA[<p>Ya en una anterior oportunidad el <strong>astrofísico británico Stephen Hawking</strong> había mostrado su desacuerdo sobre los avances de la inteligencia artificial y su uso en el sector militar que algunos gobiernos están adoptando. Pues bien, este sería uno de los riesgos para la humanidad según<strong> Stephen Hawking .</strong></p>
<p>En una entrevista ofrecida a la BBC, el científico advirtió que “el fin de la raza humana” se produciría en un siglo y seria propiciado por tres aspectos principales: La <strong>inteligencia artificial</strong>, la <strong>vida extraterrestre</strong> y la propia <strong>agresión humana</strong>.</p>
<p>Stephen Hawking afirma que el desarrollo de la inteligencia artificial es un potencial muy peligroso para la existencia de la especie humana. Según él, la evolución de los humanos es más lenta que el avance de la tecnología y cuando esta llegue a desarrollarse a niveles sorprendes será muy difícil competir contra ella.</p>
<p><strong>Lee también: <a href="https://www.psafe.com/es/blog/inteligencia-artificial-por-que-los-cientificos-le-dicen-no-a-los-robots-asesinos/">Inteligencia Artificial: ¿Por qué los científicos le dicen NO a los robots asesinos?</a></strong></p>
<p>Por otra parte, los extraterrestres también son otra amenaza, pues tal como él afirma “si ellos existen su relación con nosotros no será amistosa porque podría tratarse de una civilización miles de años más avanzada que la nuestra”.</p>
<p>Comparó esta posibilidad con la llegada de Cristóbal Colón a América y como los nativos no pudieron combatir la conquista.</p>
<p>Finalmente, <strong>Hawking</strong>, afirma que la agresión humana también contribuirá con este fin. Comentó que uno de los mayores riesgos es la guerra nuclear, la cual fácilmente podría matar a gran parte de la población mundial, como resultado de la intolerancia, el odio y la destrucción  humana.</p>
]]></content:encoded>
			</item>
		<item>
		<title><![CDATA[Inteligencia Artificial: ¿Por qué los científicos le dicen NO a los robots asesinos?]]></title>
		<link>https://www.psafe.com/es/blog/inteligencia-artificial-por-que-los-cientificos-le-dicen-no-a-los-robots-asesinos/</link>
		<pubDate>Thu, 30 Jul 2015 15:00:00 +0000</pubDate>
		<dc:creator><![CDATA[]]></dc:creator>
				<category link='https://www.psafe.com/es/blog/category/seguridad/' slug='seguridad'><![CDATA[Seguridad]]></category>
		<category><![CDATA[Armas autónomas]]></category>
		<category><![CDATA[destacado]]></category>
		<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[robots asesinos]]></category>
		<category><![CDATA[Stephen Hawking]]></category>
		<guid isPermaLink="false">https://www.psafe.com/es/blog/?p=12391</guid>
		                        <enclosure  url="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/robots-asesinos-226x114.jpg" type="image/jpeg" />
        		<description><![CDATA[Un tema que tomó relevancia esta semana por el contundente rechazado de la comunidad científica a los adelantos tecnológicos que apuntan a la creación de robots asesinos. Conoce más sobre el tema, aquí. ]]></description>
				<content:encoded><![CDATA[<p>Si bien aún estamos lejos de convivir con Androides tipo Eva, de la película de ciencia ficción ‘Ex Machina’ o la robot Vicky de la recordada serie ‘La pequeña maravilla’, sí estamos muy cerca de presenciar la aparición de verdaderas <strong>máquinas asesinas</strong> que podrían en grande riesgo a la humanidad entera.</p>
<p>Es por ello que científicos, entre investigadores y académicos, destacándose personalidades como<strong> Elon Musk</strong> y el astrofísico <strong>Stephen Hawking</strong>, han expresado su total rechazo a los adelantos que tienen como fin la creación de los denominados robots asesinos, mediante una carta enviada a las Naciones Unidas.</p>
<p><strong>Lee también: <a href="https://www.psafe.com/es/blog/desafios-impuestos-inteligencia-artificial/">Empleo vulnerable: Los desafíos impuestos por la inteligencia artificial</a></strong></p>
<h3><strong>Justificaciones</strong></h3>
<p>Pero por qué la comunidad científica se opone al desarrollo de armas de inteligencia artificial. En este post queremos resumir algunos de los puntos que ellos exponen a fin de que tú, querido lector, forme su propia consideración frente a este tema que comienza a tener mayor relevancia en la opinión pública internacional.</p>
<p>Pues bien, primero debemos anotar que estos robots asesinos provienen de los adelantos de las llamadas <strong>armas autónomas</strong>, que no son otra cosa que tecnologías destinadas y programadas para matar y, esto es lo más alarmante, <strong>sin intervención humana</strong>.</p>
<p>Según anotaron los científicos las armas autónomas han sido descritas como la tercera revolución en la guerra, luego de la pólvora y las armas nucleares. “Hay mucho en juego, sobre todo porque una carrera mundial de armamento de este tipo es virtualmente inevitable si cualquiera de las grandes potencias militares sigue adelante con el desarrollo de armas de inteligencia artificial (IA)”, indicó el grupo en una carta abierta presentada en la Conferencias Internacional Conjunta de Inteligencia Artificial desarrollada en Buenos Aires.</p>
<figure id="attachment_12413" aria-describedby="caption-attachment-12413" style="width: 640px" class="wp-caption aligncenter"><a href="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/stephen-hawking.jpg"><img fetchpriority="high" decoding="async" class="wp-image-12413 size-full" src="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/stephen-hawking.jpg" alt="stephen hawking" width="640" height="299" srcset="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/stephen-hawking.jpg 640w, https://www.psafe.com/es/blog/wp-content/uploads/2015/07/stephen-hawking-300x140.jpg 300w" sizes="(max-width: 640px) 100vw, 640px" /></a><figcaption id="caption-attachment-12413" class="wp-caption-text"><em>El astrofísico Stephen Hawking también pide la prohibición del desarrollo de armas autónomas. </em></figcaption></figure>
<h3><strong>Tiempos</strong></h3>
<p>De acuerdo a la manifestación del grupo científico estas armas autónomas estarían a la vuelta de esquina, pues tal y como señala la carta, “algunos sistemas de armas son factibles dentro de unos años, no décadas”.</p>
<p>“Las armas autónomas son ideales para tareas tales como asesinatos, desestabilización de naciones, represión de habitantes y exterminio selectivo de grupos étnicos, por lo que creemos que una carrera militar con armas de IA no sería beneficiosa para la humanidad”, apunta la misiva.</p>
<p>Toby Walsh, profesor de Inteligencia Artificial de la Universidad de New South Wales de Australia, es uno de los firmantes e indica que la diferencia entre las armas autónomas y los drones, que están siendo utilizados en Irak con armas, radica en que las primeras no hay un ser humano que intervenga en el proceso.</p>
<p>“En estos casos tenemos un soldado con un control remoto manejado un dron, pero él es quiem decide si matar o no matar. En cambio, en las armas autónomas es la computadora quien tomará decisiones de vida o muerte, lo cual implica cruzar un límite moral”, destacó.</p>
<figure id="attachment_12416" aria-describedby="caption-attachment-12416" style="width: 640px" class="wp-caption aligncenter"><a href="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/iron-dome.jpg"><img decoding="async" class="wp-image-12416 size-full" src="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/iron-dome.jpg" alt="iron dome" width="640" height="299" srcset="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/iron-dome.jpg 640w, https://www.psafe.com/es/blog/wp-content/uploads/2015/07/iron-dome-300x140.jpg 300w" sizes="(max-width: 640px) 100vw, 640px" /></a><figcaption id="caption-attachment-12416" class="wp-caption-text"><em>El problemas de las armas autónomas es que será la máquina quien decidirá si matar o no.</em></figcaption></figure>
<p>Cabe indicar que actualmente las guerras de alta tecnología se libran mediante máquinas a control remoto. Por ejemplo, el ejército de los Estados Unidos posee un vehículo llamado MADSS, un rover de 635 kilos que lleva equipo y dispara con una ametralladora. Sin embargo, ya existen países que están experimentando con armas de IA, como es el caso de Israel que posee un “Iron Dome”, encargado de detectar y derribar cohetes entrantes.</p>
<p>Otras personalidades del mundo de la tecnología, entre miles de investigadores, profesores y científicos, como <strong><a href="https://www.psafe.com/es/blog/steve-wozniak-la-privacidad-esta-desapareciendo/">Steve Wozniak</a></strong> y el CEO de Google DeepMind,  Demis Hassabis, también firmaron el documento.</p>
]]></content:encoded>
			</item>
	</channel>
</rss>
<!--
Performance optimized by W3 Total Cache. Learn more: https://www.boldgrid.com/w3-total-cache/

Almacenamiento en caché de páginas con Disk: Enhanced 

Served from: www.psafe.com @ 2025-09-08 00:00:12 by W3 Total Cache
-->