Archivo del sitio

Drones Asesinos y Armas Autónomas

drones-maduro-chidos-6meg2oqyioo4td4698dkyhjpq22h326i36b5xqckvxs

El sábado pasado, el presidente venezolano, Nicolás Maduro, pronunció un discurso cuando supuestamente se convirtió en víctima de un intento de asesinato. En este caso, Maduro no fue blanco de un pistolero solitario ni de ninguna persona en absoluto: su “atacante” fueron un par de drones que portaban explosivos.

Ambos drones explotaron, y mientras Maduro escapó ileso, el ataque hirió a siete soldados, según las autoridades venezolanas.

Este es el primer intento conocido de asesinato de drones contra un presidente.

Más tarde, Maduro alegó durante un discurso nacional que Colombia y los Estados Unidos eran responsables del ataque. Según The South China Morning Post, un alto funcionario colombiano calificó la acusación de “infundada”, mientras que el asesor de Seguridad Nacional de Estados Unidos, John Bolton, negó la participación de la nación. El gobierno de Venezuela también acusó a los miembros del partido opositor de jugar un papel en el ataque.

El domingo, las autoridades venezolanas detuvieron a seis personas por su presunta implicación en el intento de asesinato y, aparte de la afirmación del ministro del Interior Reverol de que los arrestados son “terroristas y asesinos a sueldo”, sabemos muy poco sobre ellos.

La naturaleza del ataque significa que realmente no hay mucha información de identificación sobre quiénes podrían ser los asesinos. El tipo de dron utilizado para los ataques fue un DJI M600. Su precio de $ 5,000 no es demasiado barato, pero tampoco es demasiado caro, y cualquiera puede pedir uno en línea. Cada dron transportaba 1 kilogramo de C-4, un explosivo plástico que cualquier persona con acceso a Internet puede aprender a hacer en casa.

Este tampoco es el primer ataque con drones armados. En julio, los rebeldes en Yemen atacaron el aeropuerto internacional de Abu Dhabi con un avión no tripulado armado. Nadie murió durante ese intento, tampoco, pero es poco probable que desaliente a los futuros atacantes.

Mientras que los drones armados alguna vez solo fueron accesibles para poderosos militares, están en camino de estar disponibles para casi todos.

Por otra parte, es necesario recordar que los drones inteligentes ya son una realidad, muchos de los principales investigadores de Inteligencia Artificial y organizaciones humanitarias a nivel mundial están preocupados de las consecuencias potencialmente catastróficas de permitir el desarrollo de armas letales autónomas (LAWS).

Recordemos que en agosto de 2017, 116 especialistas en robótica e IA, incluidos el fundador de SpaceX Elon Musk y el cofundador de Google Deepmind, Mustafa Suleyman, han firmado una carta a las Naciones Unidas pidiendo una supervisión estricta de las armas autónomas, también conocidas como “robots asesinos”. Un comunicado de prensa adjunto dice que el grupo quiere “una prohibición de su uso a nivel internacional”. Otros firmantes de la carta incluyen ejecutivos y fundadores de Universal Robotics de Dinamarca, Element AI de Canadá y Aldebaran Robotics de Francia.

La carta describe los riesgos del armamento robótico en términos nefastos, y dice que la necesidad de una acción fuerte es urgente.

“Una vez desarrolladas, las armas letales autónomas (LAWS) permitirán que se libren conflictos armados a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos pueden comprender”.

Anuncios

Slaughterbots | Robots Asesinos (Subtitulado Español)

Muchos de los principales investigadores de Inteligencia Artificial y organizaciones humanitarias a nivel mundial están preocupados de las consecuencias potencialmente catastróficas de permitir el desarrollo de armas letales autónomas (LAWS).

Recordemos que en agosto de 2017, 116 especialistas en robótica e IA, incluidos el fundador de SpaceX Elon Musk y el cofundador de Google Deepmind, Mustafa Suleyman, han firmado una carta a las Naciones Unidas pidiendo una supervisión estricta de las armas autónomas, también conocidas como “robots asesinos”. Un comunicado de prensa adjunto dice que el grupo quiere “una prohibición de su uso a nivel internacional”. Otros firmantes de la carta incluyen ejecutivos y fundadores de Universal Robotics de Dinamarca, Element AI de Canadá y Aldebaran Robotics de Francia.

La carta describe los riesgos del armamento robótico en términos nefastos, y dice que la necesidad de una acción fuerte es urgente.

“Una vez desarrolladas, las armas letales autónomas (LAWS) permitirán que se libren conflictos armados a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos pueden comprender”.

Se podría decir que los guerreros robóticos podrían reducir las bajas entre los soldados humanos, al menos, los de las naciones más ricas y más avanzadas. Pero el riesgo para los civiles es la preocupación principal del grupo de Musk y Suleyman, que escribe que:

“estas pueden ser armas de terror, armas que los déspotas y terroristas usan contra poblaciones inocentes, y armas hackeadas para comportarse de maneras no deseadas”.

También el presidente ruso Vladimir Putin se ha unido a la guerra de palabras sobre la carrera internacional para desarrollar inteligencia artificial. Putin predijo que cualquiera que sea el país que lidere la investigación en IA llegará a dominar los asuntos globales.

“La inteligencia artificial es el futuro, no solo para Rusia, sino para toda la humanidad. Viene con oportunidades colosales, pero también amenazas que son difíciles de predecir. Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo”.

Visita: http://autonomousweapons.org/

Elon Musk lidera expertos de IA con carta urgiendo a la ONU a considerar las amenazas de las armas autónomas

1430

En una carta abierta dirigida a una convención especial creada por las Naciones Unidas para estudiar las implicaciones de las armas autónomas, un grupo de 116 expertos de AI instó a una regulación decisiva e inmediata.

Elon Musk hace tiempo que nos está advirtiendo sobre los peligros que cree que son inherentes al desarrollo de la inteligencia artificial no regulada. Él la ha llamado la mayor amenaza para la humanidad, e incluso dijo que es mayor que cualquier amenaza planteada por Corea del Norte. Aunque algunos expertos en IA han criticado a Musk por esto, el CEO de OpenAI no es el único en la industria que ofrece advertencias sobre el peligro potencial de los sistemas de IA.

De hecho, otros 115 expertos, entre ellos el cofundador de DeepMind, Mustafa Suleyman, se han unido a Musk para pedir una regulación más fuerte para la IA. “Mientras empresas están construyendo las tecnologías de Inteligencia Artificial y Robótica que pueden ser reutilizadas para desarrollar armas autónomas, nos sentimos especialmente responsables al despertar esta alarma”, escribió el grupo en una carta abierta a la Convención de Naciones Unidas sobre Ciertas Armas Convencionales (CCW). “Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra”.

La ONU acaba de crear el Grupo de Expertos Gubernamentales (GGE) sobre Sistemas de Armas Autónomas Letales (LAWS), que discutirá y estudiará las implicaciones de las armas modernas impulsadas por IA. Musk, Suleyman y otros expertos instan a la ONU a actuar de manera decisiva y clara sobre la cuestión, instándoles a “trabajar duro para encontrar medios para prevenir una carrera armamentista en estas armas, proteger a los civiles de su mal uso y evitar los efectos de desestabilización de estas tecnologías”.

Mal uso de la IA

El grupo de expertos, obviamente, no está en contra del desarrollo de la IA – después de todo, todos ellos están involucrados en el trabajo de la IA de 26 países. El problema es cómo se usa la IA: el grupo está desconfiado de usar la tecnología para construir sistemas de armas autónomas, una tendencia que ya está comenzando.

“A diferencia de otras manifestaciones potenciales de la IA que aún permanecen en el reino de la ciencia ficción, los sistemas de armas autónomas están en la cúspide del desarrollo ahora y tienen un potencial muy real para causar daño significativo a personas inocentes junto con la inestabilidad global”, dijo a The Guardian Ryan Gariepy fundador de Clearpath Robotics y uno de los firmantes.

Su carta continúa: “Una vez desarrollados, permitirán que el conflicto armado se libre a una escala mayor de lo que nunca hemos visto, y a intervalos de tiempo más rápidos de lo que los humanos pueden comprender. Éstas pueden ser armas de terror, armas que los déspotas y los terroristas usan contra poblaciones inocentes, y armas cortadas para comportarse de manera indeseable”.

Y como Musk ha estado diciendo en lo que respecta a la IA todo el tiempo – ahora es el mejor momento de implementar todas las regulaciones necesarias. “No tenemos mucho tiempo para actuar”, dijo a principios de este mes, “Una vez que se abra esta caja de Pandora, será difícil de cerrar”.

A %d blogueros les gusta esto: