<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Armas autónomas &#8211; Blog PSafe | Especialista en Tecnología Android</title>
	<atom:link href="https://www.psafe.com/es/blog/tag/armas-autonomas/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.psafe.com/es/blog</link>
	<description>PSafe Blog reúne artículos y noticias sobre Seguridad Digital, Android, Aplicaciones, Redes sociales y tecnología de una forma general.</description>
	<lastBuildDate>Thu, 07 Jun 2018 18:58:03 +0000</lastBuildDate>
	<language>es</language>
	<sy:updatePeriod>hourly</sy:updatePeriod>
	<sy:updateFrequency>1</sy:updateFrequency>
	
	<item>
		<title><![CDATA[Inteligencia Artificial: ¿Por qué los científicos le dicen NO a los robots asesinos?]]></title>
		<link>https://www.psafe.com/es/blog/inteligencia-artificial-por-que-los-cientificos-le-dicen-no-a-los-robots-asesinos/</link>
		<pubDate>Thu, 30 Jul 2015 15:00:00 +0000</pubDate>
		<dc:creator><![CDATA[]]></dc:creator>
				<category link='https://www.psafe.com/es/blog/category/seguridad/' slug='seguridad'><![CDATA[Seguridad]]></category>
		<category><![CDATA[Armas autónomas]]></category>
		<category><![CDATA[destacado]]></category>
		<category><![CDATA[Inteligencia artificial]]></category>
		<category><![CDATA[robots asesinos]]></category>
		<category><![CDATA[Stephen Hawking]]></category>
		<guid isPermaLink="false">https://www.psafe.com/es/blog/?p=12391</guid>
		                        <enclosure  url="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/robots-asesinos-226x114.jpg" type="image/jpeg" />
        		<description><![CDATA[Un tema que tomó relevancia esta semana por el contundente rechazado de la comunidad científica a los adelantos tecnológicos que apuntan a la creación de robots asesinos. Conoce más sobre el tema, aquí. ]]></description>
				<content:encoded><![CDATA[<p>Si bien aún estamos lejos de convivir con Androides tipo Eva, de la película de ciencia ficción ‘Ex Machina’ o la robot Vicky de la recordada serie ‘La pequeña maravilla’, sí estamos muy cerca de presenciar la aparición de verdaderas <strong>máquinas asesinas</strong> que podrían en grande riesgo a la humanidad entera.</p>
<p>Es por ello que científicos, entre investigadores y académicos, destacándose personalidades como<strong> Elon Musk</strong> y el astrofísico <strong>Stephen Hawking</strong>, han expresado su total rechazo a los adelantos que tienen como fin la creación de los denominados robots asesinos, mediante una carta enviada a las Naciones Unidas.</p>
<p><strong>Lee también: <a href="https://www.psafe.com/es/blog/desafios-impuestos-inteligencia-artificial/">Empleo vulnerable: Los desafíos impuestos por la inteligencia artificial</a></strong></p>
<h3><strong>Justificaciones</strong></h3>
<p>Pero por qué la comunidad científica se opone al desarrollo de armas de inteligencia artificial. En este post queremos resumir algunos de los puntos que ellos exponen a fin de que tú, querido lector, forme su propia consideración frente a este tema que comienza a tener mayor relevancia en la opinión pública internacional.</p>
<p>Pues bien, primero debemos anotar que estos robots asesinos provienen de los adelantos de las llamadas <strong>armas autónomas</strong>, que no son otra cosa que tecnologías destinadas y programadas para matar y, esto es lo más alarmante, <strong>sin intervención humana</strong>.</p>
<p>Según anotaron los científicos las armas autónomas han sido descritas como la tercera revolución en la guerra, luego de la pólvora y las armas nucleares. “Hay mucho en juego, sobre todo porque una carrera mundial de armamento de este tipo es virtualmente inevitable si cualquiera de las grandes potencias militares sigue adelante con el desarrollo de armas de inteligencia artificial (IA)”, indicó el grupo en una carta abierta presentada en la Conferencias Internacional Conjunta de Inteligencia Artificial desarrollada en Buenos Aires.</p>
<figure id="attachment_12413" aria-describedby="caption-attachment-12413" style="width: 640px" class="wp-caption aligncenter"><a href="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/stephen-hawking.jpg"><img fetchpriority="high" decoding="async" class="wp-image-12413 size-full" src="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/stephen-hawking.jpg" alt="stephen hawking" width="640" height="299" srcset="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/stephen-hawking.jpg 640w, https://www.psafe.com/es/blog/wp-content/uploads/2015/07/stephen-hawking-300x140.jpg 300w" sizes="(max-width: 640px) 100vw, 640px" /></a><figcaption id="caption-attachment-12413" class="wp-caption-text"><em>El astrofísico Stephen Hawking también pide la prohibición del desarrollo de armas autónomas. </em></figcaption></figure>
<h3><strong>Tiempos</strong></h3>
<p>De acuerdo a la manifestación del grupo científico estas armas autónomas estarían a la vuelta de esquina, pues tal y como señala la carta, “algunos sistemas de armas son factibles dentro de unos años, no décadas”.</p>
<p>“Las armas autónomas son ideales para tareas tales como asesinatos, desestabilización de naciones, represión de habitantes y exterminio selectivo de grupos étnicos, por lo que creemos que una carrera militar con armas de IA no sería beneficiosa para la humanidad”, apunta la misiva.</p>
<p>Toby Walsh, profesor de Inteligencia Artificial de la Universidad de New South Wales de Australia, es uno de los firmantes e indica que la diferencia entre las armas autónomas y los drones, que están siendo utilizados en Irak con armas, radica en que las primeras no hay un ser humano que intervenga en el proceso.</p>
<p>“En estos casos tenemos un soldado con un control remoto manejado un dron, pero él es quiem decide si matar o no matar. En cambio, en las armas autónomas es la computadora quien tomará decisiones de vida o muerte, lo cual implica cruzar un límite moral”, destacó.</p>
<figure id="attachment_12416" aria-describedby="caption-attachment-12416" style="width: 640px" class="wp-caption aligncenter"><a href="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/iron-dome.jpg"><img decoding="async" class="wp-image-12416 size-full" src="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/iron-dome.jpg" alt="iron dome" width="640" height="299" srcset="https://www.psafe.com/es/blog/wp-content/uploads/2015/07/iron-dome.jpg 640w, https://www.psafe.com/es/blog/wp-content/uploads/2015/07/iron-dome-300x140.jpg 300w" sizes="(max-width: 640px) 100vw, 640px" /></a><figcaption id="caption-attachment-12416" class="wp-caption-text"><em>El problemas de las armas autónomas es que será la máquina quien decidirá si matar o no.</em></figcaption></figure>
<p>Cabe indicar que actualmente las guerras de alta tecnología se libran mediante máquinas a control remoto. Por ejemplo, el ejército de los Estados Unidos posee un vehículo llamado MADSS, un rover de 635 kilos que lleva equipo y dispara con una ametralladora. Sin embargo, ya existen países que están experimentando con armas de IA, como es el caso de Israel que posee un “Iron Dome”, encargado de detectar y derribar cohetes entrantes.</p>
<p>Otras personalidades del mundo de la tecnología, entre miles de investigadores, profesores y científicos, como <strong><a href="https://www.psafe.com/es/blog/steve-wozniak-la-privacidad-esta-desapareciendo/">Steve Wozniak</a></strong> y el CEO de Google DeepMind,  Demis Hassabis, también firmaron el documento.</p>
]]></content:encoded>
			</item>
	</channel>
</rss>
<!--
Performance optimized by W3 Total Cache. Learn more: https://www.boldgrid.com/w3-total-cache/

Almacenamiento en caché de páginas con Disk: Enhanced 

Served from: www.psafe.com @ 2025-09-08 03:36:39 by W3 Total Cache
-->