Archivo del sitio

Los ataques informáticos mejorados con IA son una amenaza inminente

cyber-attack

El avance de la inteligencia artificial podría conducir a ciberataques mejorados para  los que no estamos preparados. Aunque tales ataques podrían estar muy lejos, muchos expertos creen que comenzarán muy pronto.

En la conferencia de ciberseguridad Black Hat de este año, se entrevistó a 100 asistentes sobre varios aspectos de la inteligencia artificial, y el 62% afirmó firmemente que la IA será utilizada por los hackers en los próximos doce meses. A pesar de la idea de que la IA puede ser la mejor defensa contra tales ataques, su creciente disponibilidad probablemente conducirá a técnicas de hacking más avanzadas.

A medida que el Internet de las Cosas agrega nuevos dispositivos cada día, la conjunto potencial para hacks de IA también está creciendo exponencialmente. El CEO de SpaceX y Tesla Elon Musk ha hablado sobre los peligros de la IA en múltiples ocasiones, llamándola la mayor amenaza para nuestra sociedad, así como instando a los líderes mundiales a imponer regulaciones antes de que sea demasiado tarde.

Jeremy Straub, Director Asociado del Instituto para la Educación y la Investigación en Seguridad Cibernética de la NDSU, explicó cómo el uso de la IA podría mejorar los ataques cibernéticos en The Conversation. En comparación con los seres humanos, que necesitan alimentos, sueño y otras cosas que imponen limitaciones, la IA puede actuar en cualquier momento y no es necesario tomar descansos. La AI también es capaz de procesar grandes cantidades de datos rápidamente, lo que hace que los ataques a las bases de datos sean más rápidos y más fáciles de lograr.

Incluso si se encuentran con oposición, o programación específica de las vulnerabilidades que han sido cambiadas desde entonces, la IA puede adaptarse con mayor rapidez y eficacia que cualquier humano – y hacerlo sin aportación humana. Los seres humanos que se defienden contra ataques cibernéticos serán superados por la IA, e incapaces de mantenerse al día con la velocidad a la que opera.

Empresas como Google e IBM también han tomado medidas para fortalecer nuestra seguridad cibernética. Google ha creado un “AI Fight Club” que capacitará a los sistemas para combatir más eficazmente la IA dañina, mientras que el nuevo sistema IBM Z mainframe de IBM puede ejecutar más de 12 mil millones de transacciones cifradas por día para evitar el robo de datos financieros.

Anuncios

Aprendizaje Profundo: La caja negra de la Inteligencia Artificial

mj17-aiblackbox1

Nadie, ni siquiera los desarrolladores saben realmente cómo los algoritmos más avanzados de inteligencia artifical hacen lo que hacen. Eso podría ser un problema.

En 2016, un extraño automóvil de conducción automática fue lanzado en las tranquilas calles del condado de Monmouth, Nueva Jersey. El vehículo experimental, desarrollado por los investigadores del fabricante de chips Nvidia, no se veía diferente de otros autos autónomos, pero no era nada similar a lo demostrado por Google, Tesla o General Motors, y mostró el creciente poder de la inteligencia artificial. El coche no siguió una sola instrucción proporcionada por un ingeniero o un programador. En su lugar, se basó enteramente en un algoritmo que él mismo se había enseñado para conducir viendo cómo lo hacía un humano.

Conseguir que un coche condujera de esta manera fue una hazaña impresionante. Pero también es un poco inquietante, ya que no está completamente claro cómo el automóvil toma sus decisiones. La información de los sensores del vehículo va directamente a una enorme red de neuronas artificiales que procesan los datos y luego entregan los comandos necesarios para operar el volante, los frenos y otros sistemas. El resultado parece coincidir con las respuestas que esperarías de un conductor humano. Pero ¿qué pasaría si un día hiciera algo inesperado: se estrellara contra un árbol o se detuviera con la luz en verde? Tal y como están las cosas ahora, podría ser difícil averiguar por qué. El sistema es tan complicado que incluso los ingenieros que lo diseñaron pueden tener dificultades para aislar la razón de una sola acción. Y no se puede preguntar: no hay forma obvia de diseñar un sistema de este tipo para que siempre se pudiera explicar por qué hizo lo que hizo.

La misteriosa mente de este vehículo señala un problema inminente con la inteligencia artificial. La tecnología subyacente de IA del automóvil, conocida como aprendizaje profundo, la cuál ha demostrado ser muy poderosa para resolver problemas en los últimos años y ha sido ampliamente implementada para tareas como la clasificación de imágenes, el reconocimiento de voz y la traducción de idiomas.

El aprendizaje profundo es especialmente críptico debido a su increíble complejidad. Se inspira más o menos en el proceso por el cual las neuronas en un cerebro aprenden en respuesta a la entrada. Muchas capas de neuronas simuladas y sinapsis son datos etiquetados y su comportamiento se sintoniza hasta que aprenden a reconocer, digamos, un gato en una fotografía. Pero el modelo aprendido por el sistema está codificado en los pesos de muchos millones de neuronas, y por lo tanto es muy difícil de examinar. Cuando una red de aprendizaje profundo reconoce a un gato, por ejemplo, no está claro si el sistema puede enfocarse en los bigotes, las orejas o incluso la manta del gato en una imagen.

El aprendizaje profundo, el más común de estos enfoques, representa una manera fundamentalmente diferente de programar computadoras. “Es un problema que ya es relevante, y va a ser mucho más relevante en el futuro”, dice Tommi Jaakkola, profesor del MIT que trabaja en aplicaciones de aprendizaje automático. “Ya sea una decisión de inversión, una decisión médica, o tal vez una decisión militar, no quisieras confiar en un método de  caja negra”.

Ya existe un argumento de que ser capaz de interrogar a un sistema de IA sobre cómo llegó a sus conclusiones es un derecho legal fundamental. A partir del verano de 2018, la Unión Europea puede exigir que las empresas puedan dar a los usuarios una explicación de las decisiones que los sistemas automatizados alcanzan. Esto podría ser imposible, incluso para sistemas que parecen relativamente simples en la superficie, como las aplicaciones y los sitios web que utilizan el aprendizaje profundo para publicar anuncios o recomendar canciones. Los ordenadores que ejecutan esos servicios se han programado y lo han hecho de formas que no podemos entender. Incluso los ingenieros que construyen estas aplicaciones no pueden explicar completamente su comportamiento.

Nunca antes hemos construido máquinas que operan de manera que sus creadores no entienden. ¿Qué tan bien podemos esperar comunicarnos – y llevarnos bien – con máquinas inteligentes que podrían ser impredecibles e inescrutables?

En 2015, un grupo de investigación en el Mount Sinai Hospital en Nueva York se inspiró para aplicar el aprendizaje profundo a la vasta base de datos del hospital de los registros de pacientes. Este conjunto de datos presenta cientos de variables sobre los pacientes, extraídos de los resultados de las pruebas, visitas al médico, etc. El programa resultante, que los investigadores llamaron Deep Patient, fue entrenado usando datos de alrededor de 700,000 individuos, y cuando fue probado en nuevos registros, resultó increíblemente bueno en la predicción de la enfermedad. Sin ninguna instrucción experta, Deep Patient había descubierto patrones ocultos en los datos del hospital que parecían indicar cuando la gente estaba en el camino a una amplia gama de dolencias, incluyendo el cáncer de hígado.

Al mismo tiempo, Deep Patient es un poco desconcertante. Parece anticipar la aparición de trastornos psiquiátricos como la esquizofrenia sorprendentemente bien. Pero dado que la esquizofrenia es notoriamente difícil de predecir para los médicos, Joel Dudley, líder del proyecto Deep Patient se preguntó cómo era esto posible. Todavía no lo sabe. La nueva herramienta no ofrece ninguna pista sobre cómo lo hace.

Si algo como Deep Patient realmente va a ayudar a los médicos, idealmente les dará la razón de su predicción, para tranquilizarlos de que es precisa y para justificar, digamos, un cambio en las drogas que a alguien le están recetando. “Podemos construir estos modelos”, dice Dudley tristemente, “pero no sabemos cómo funcionan”.

Pero Nvidia está trabajando para abrir esta caja negra. Se ha desarrollado una manera de resaltar visualmente a lo que el sistema está prestando atención. Como se ha explicado en un artículo publicado, la arquitectura de redes neuronales desarrollada por los investigadores de Nvidia está diseñada para que pueda destacar las áreas de una imagen de vídeo que contribuyen más fuertemente al comportamiento de la red neuronal profunda del coche. Sorprendentemente, los resultados muestran que la red se está enfocando en los bordes de caminos, las marcas de carriles y los autos estacionados, justo el tipo de cosas a las que un buen conductor humano desearía prestar atención.

“Lo revolucionario de esto es que nunca le dijimos directamente a la red que se preocupara por estas cosas”, escribió en un blog Urs Muller, el arquitecto jefe de Nvidia para automóviles autodirigidos.

No es una explicación completa de cómo las razones de la red neuronal, pero es un buen comienzo. Como Muller dice: “No puedo explicar todo lo que necesito que haga el auto, pero puedo mostrarlo, y ahora puede mostrarme lo que aprendió”.

Támbien la Agencia de Investigación de Proyectos Avanzados de Defensa (DARPA), que realiza investigaciones a largo plazo para los militares estadounidenses, financia varios esfuerzos de investigación similares a través de un programa llamado Explainable Artificial Intelligence (XAI).

XAI_Cartoon_C007

Un equipo seleccionado para recibir financiamiento de DARPA proviene de Charles River Analytics, una compañía que desarrolla herramientas de alta tecnología para varios clientes, incluyendo el ejército estadounidense. Este equipo está explorando nuevos sistemas de profundización que incorporan una explicación, como aquellos que destacan áreas de una imagen que parecen más relevantes para una clasificación. Los investigadores también están experimentando con interfaces de computadora que hacen que el funcionamiento de sistemas de aprendizaje de máquina sea más explícito con datos, visualizaciones e incluso explicaciones de lenguaje natural.

Cabe mencionar que IBM ha anunciado que han desarrollado una IA que hace que todo el proceso de aprendizaje de la máquina sea más rápido. En lugar de ejecutar complejos modelos de aprendizaje profundo en un solo servidor, el equipo, liderado por el director de aceleración de sistemas y memoria de IBM Research, Hillery Hunter, logró ampliar eficientemente el aprendizaje profundo distribuido (DDL) utilizando múltiples servidores.

El primer álbum musical compuesto y producido por IA ha sido revelado

1673173-inline-750-music

Un álbum de música llamado I AM AI, cuyo single se estrenó el 21 de agosto, es el primer álbum que está compuesto y producido por una inteligencia artificial. Trabaja en colaboración con un artista humano, que proporciona entradas que Amper utiliza como parámetros de composición.

“Break Free” es el primer single lanzado en un nuevo álbum de Taryn Southern. La canción, de hecho, todo el álbum, cuenta con un artista conocido como Amper, pero lo que parece una típica colaboración entre artistas es mucho más que eso.

Taryn no es ajeno a la industria de la música y el entretenimiento. Ella es una cantante y narradora digital que ha acumulado más de 500 millones de visitas en YouTube, y tiene más de 450 mil suscriptores. Por otro lado, Amper está haciendo su debut… excepto que no es (¿ser?) una persona.

Amper es un compositor, productor y ejecutante de música artificialmente inteligente. La IA fue desarrollada por un equipo de músicos profesionales y expertos en tecnología, y es la primera AI en componer y producir un álbum de música entero. El álbum se llama I AM AI, y el single presentado se ha lanzado el 21 de agosto de 2017.

Echa un vistazo a la canción “Break Free” en el video a continuación:

Elon Musk lidera expertos de IA con carta urgiendo a la ONU a considerar las amenazas de las armas autónomas

1430

En una carta abierta dirigida a una convención especial creada por las Naciones Unidas para estudiar las implicaciones de las armas autónomas, un grupo de 116 expertos de AI instó a una regulación decisiva e inmediata.

Elon Musk hace tiempo que nos está advirtiendo sobre los peligros que cree que son inherentes al desarrollo de la inteligencia artificial no regulada. Él la ha llamado la mayor amenaza para la humanidad, e incluso dijo que es mayor que cualquier amenaza planteada por Corea del Norte. Aunque algunos expertos en IA han criticado a Musk por esto, el CEO de OpenAI no es el único en la industria que ofrece advertencias sobre el peligro potencial de los sistemas de IA.

De hecho, otros 115 expertos, entre ellos el cofundador de DeepMind, Mustafa Suleyman, se han unido a Musk para pedir una regulación más fuerte para la IA. “Mientras empresas están construyendo las tecnologías de Inteligencia Artificial y Robótica que pueden ser reutilizadas para desarrollar armas autónomas, nos sentimos especialmente responsables al despertar esta alarma”, escribió el grupo en una carta abierta a la Convención de Naciones Unidas sobre Ciertas Armas Convencionales (CCW). “Las armas autónomas letales amenazan con convertirse en la tercera revolución en la guerra”.

La ONU acaba de crear el Grupo de Expertos Gubernamentales (GGE) sobre Sistemas de Armas Autónomas Letales (LAWS), que discutirá y estudiará las implicaciones de las armas modernas impulsadas por IA. Musk, Suleyman y otros expertos instan a la ONU a actuar de manera decisiva y clara sobre la cuestión, instándoles a “trabajar duro para encontrar medios para prevenir una carrera armamentista en estas armas, proteger a los civiles de su mal uso y evitar los efectos de desestabilización de estas tecnologías”.

Mal uso de la IA

El grupo de expertos, obviamente, no está en contra del desarrollo de la IA – después de todo, todos ellos están involucrados en el trabajo de la IA de 26 países. El problema es cómo se usa la IA: el grupo está desconfiado de usar la tecnología para construir sistemas de armas autónomas, una tendencia que ya está comenzando.

“A diferencia de otras manifestaciones potenciales de la IA que aún permanecen en el reino de la ciencia ficción, los sistemas de armas autónomas están en la cúspide del desarrollo ahora y tienen un potencial muy real para causar daño significativo a personas inocentes junto con la inestabilidad global”, dijo a The Guardian Ryan Gariepy fundador de Clearpath Robotics y uno de los firmantes.

Su carta continúa: “Una vez desarrollados, permitirán que el conflicto armado se libre a una escala mayor de lo que nunca hemos visto, y a intervalos de tiempo más rápidos de lo que los humanos pueden comprender. Éstas pueden ser armas de terror, armas que los déspotas y los terroristas usan contra poblaciones inocentes, y armas cortadas para comportarse de manera indeseable”.

Y como Musk ha estado diciendo en lo que respecta a la IA todo el tiempo – ahora es el mejor momento de implementar todas las regulaciones necesarias. “No tenemos mucho tiempo para actuar”, dijo a principios de este mes, “Una vez que se abra esta caja de Pandora, será difícil de cerrar”.

Simulación Sensible del Mundo

digital_globe_2_590_300

“Si no tienes nada que ocultar, entonces no tienes nada que temer”, ha sido siempre el grito de alarma para aquellos que tienen demasiado miedo de cuestionar la presunta autoridad gubernamental para hablar en contra del estado de vigilancia y la suposición implícita de culpabilidad que va junto con ella. Con fingido desconcierto estos cortos morales inevitablemente preguntan: “¿Qué tiene de malo que el gobierno te espie?”

La respuesta, por supuesto, es que la misma pregunta implica que las agencias encargadas de llevar a cabo esta vigilancia constante del Gran Hermano están por encima de todo reproche, luces brillantes de rectitud moral que nunca abusarían de este increíble poder para fines nefastos. Para los sin imaginación que hay, hilos de Hollywood como “Enemigo del Estado” han proporcionado ejemplos ficticios de lo que puede salir mal si alguien, en algún lugar, abusa de este poder de información y vigilancia para apuntar a una persona inocente en el lugar equivocado en el momento equivocado.

Sin duda, el poder que estas tecnologías otorgan a las agencias o grupos corruptos dentro de esas agencias, para destruir la vida de los individuos objetivo, es una respuesta adecuada a la pregunta de por qué la vigilancia del gobierno debe ser preocupante para nosotros. Sin embargo, más allá de lo que puede suceder a individuos específicos en este escenario, existe una pregunta mucho más amplia: ¿Qué pasa si estos datos, nuestros correos electrónicos, nuestras llamadas telefónicas, nuestras transacciones con tarjetas de crédito, nuestros mensajes de redes sociales, y todos los cientos de otras piezas de datos que, sin duda, se están recogiendo en nosotros todos los días, fueran puestos en una base de datos tan gigantesca que contiene una versión digital de cada persona en el planeta? ¿Y  que tal si esa base de datos estuviera siendo utilizada por el Departamento de Defensa de los EE.UU. en varios escenarios de juego de guerra, desde reacciones públicas a desastres naturales hasta la probabilidad de disturbios civiles a raíz de una declaración de ley marcial?

Sorprendentemente, esto es precisamente lo que está sucediendo.

Es llamada la “simulación sensible del mundo (sentient world simulation)“. El objetivo del programa, según su creador, es ser un “modelo espejo del mundo real ejecutándose y actualizándose de manera continua que puede usarse para predecir y evaluar eventos futuros y presentes”. “En términos prácticos esto equivale a una simulación por computadora del planeta completo con miles de millones de” nodos “que representan a cada persona en la tierra.

El proyecto se origino en la Universidad de Purdue en Indiana en el Laboratorio de Ambiente Sintético para Análisis y Simulaciones. Está dirigido por Alok Chaturvedi, quien además de dirigir el laboratorio de Purdue también hace que el proyecto esté disponible comercialmente a través de su compañía privada, Simulex, Inc., que cuenta con una variedad de clientes gubernamentales, incluyendo el Departamento de Defensa y el Departamento de Justicia, Así como clientes del sector privado como Eli Lilly y Lockheed Martin.

ControlRoom

La ambición de Chatruvedi es crear pronósticos confiables de futuros eventos mundiales basados ​​en escenarios imaginarios. Para hacer esto, las simulaciones “devoran noticias de última hora, datos de censos, indicadores económicos y eventos climáticos en el mundo real, junto con información propietaria como la inteligencia militar”. Aunque no se ha indicado explícitamente, el tipo específico de datos en las comunicaciones digitales y transacciones que ahora son devoradas por la NSA, el DHS y otras agencias gubernamentales tienen los datos ideales para crear modelos confiables de los hábitos, preferencias y comportamientos de cada individuo que podrían utilizarse para afinar estas simulaciones y dar resultados más confiables. Usando estos datos, el Laboratorio SEAS y su derivación Sentient World Simulation son capaces de crear simulaciones detalladas y operables en tiempo real de al menos 62 naciones. “Los modelos informáticos de Irak y Afganistán”, según un informe de 2007 del Register sobre el proyecto, “cada uno tiene cerca de cinco millones de nodos individuales que representan cosas tales como hospitales, mezquitas, tuberías y personas”.

En el momento de los informes iniciales sobre el programa, sólo había 62 simulaciones a nivel nacional dirigidas por el Departamento de Defensa de los Estados Unidos. Estas simulaciones agruparon a los seres humanos en compuestos, con 100 individuos actuando como un solo nodo. Pero ya en ese momento, el Ejército de los Estados Unidos había utilizado los sistemas para crear una simulación de uno a uno de potenciales reclutas del Ejército. El objetivo final sería archivar suficientes datos sobre cada individuo para poder hacer un modelo informático de todos en el planeta, uno que podría ser usado para predecir los comportamientos y reacciones de cada persona en el caso de varios escenarios.

El programa puede usarse para predecir lo que sucedería en caso de un tsunami a gran escala, por ejemplo, o cómo reaccionarían las personas durante un ataque bioterrorista. Las empresas pueden usar los modelos para predecir cómo un nuevo producto vendría en el mercado, qué tipo de planes de marketing sería más eficaz, o la mejor manera de racionalizar la organización de una empresa.

El documento conceptual original para el proyecto fue publicado en 2006 y en 2007 se informó que tanto la Seguridad Nacional como el Departamento de Defensa ya estaban utilizando el sistema para simular la reacción del público estadounidense ante varias crisis. Sin embaargo, en los años posteriores transcurridos no ha habido casi ninguna cobertura de la Simulación Sensible del Mundo o su progreso en el logro de un modelo de la Tierra.

Una de las grandes ironías de nuestro tiempo, como lo señala Glenn Greenwald en su discurso sobre el estado de vigilancia, es que aunque vivimos en una época en que es posible que las nebulosas agencias gubernamentales conozcan todos los detalles de su vida, desde Que comiste para el desayuno a donde compraste anoche a quiénes son tus amigos, estamos viviendo también en una edad de la ignorancia sin precedente sobre qué están haciendo realmente nuestros gobiernos.

La simulación sensible del mundo es sólo un ejemplo de un programa administrado por una empresa para varios clientes gubernamentales y Fortune 500. Pero es una ojeada importante detrás de la cortina en lo que aquellos que realmente están dirigiendo nuestra sociedad quieren: el control completo sobre cada faceta de nuestras vidas logrado a través de una invasión completa de todo lo que una vez se conoció como “privacidad”. Pensar que este es el único programa que existe, o incluso que tengamos detalles significativos sobre las formas en que el SWS ya se ha utilizado, sería irremediablemente ingenuo.

¿La IA borrará las líneas entre la realidad física y la virtual?

hyper-reality-movie-keiichi-matsuda-virtual-physical-reality-future-vision-media-concept_dezeen_936_0

A medida que las tecnologías como la Inteligencia Artificial (AI), la realidad aumentada y la realidad virtual (AR / VR), los grandes datos, 5G, y el Internet de las cosas (IoT) avanzan en la próxima generación, se reforzarán y se estimularán. Un escenario plausible es un mundo físico tan potenciado por contenidos digitales personalizados, dirigidos por IA (experimentados con lo que hoy llamamos realidad aumentada) que hará que la misma noción de realidad sea cuestionada.

La inmersión puede cambiar la manera en que interactuamos con el contenido de maneras fundamentales. Por ejemplo, un entorno de total inmersión con AR del futuro, conseguido con un audífono de amplio campo de visión y lleno de contenido en directo integrado con el entorno construido, sería concebido por su diseño para crear en el usuario una ilusión de que todo lo que se percibió era “real”. La evolución hacia este tipo de ambiente plantea una serie de preguntas éticas, específicamente con atención a la IA que subyace en una ilusión tan inteligente e irresistible

Al ver una película, el espectador está físicamente separado de la ilusión. La pantalla está enmarcada, claramente es distinta del espectador. El marco es una parte de formas de arte tradicionales; desde el libro a la pintura hasta el rascacielos, cada uno está explícitamente separado de la audiencia. Está delimitado y físicamente definido.

Pero con las gafas digitales, las cosas cambian. Las gafas digitales mueven la distancia de la mediación digital de la pantalla (aproximadamente 20 pies) a la cara humana, que está a distancia cero, y casi elimina el marco. Comienza a plantear preguntas inevitables sobre lo que constituye la “realidad” cuando gran parte de la entrada sensorial se superpone al mundo físico por la IA. En esa etapa de la evolución de la tecnología, uno podría simplemente optar por retirar la gafas. Aunque casi indistinguible del mundo físico, ese mundo cercano al futuro todavía se aferraría precariamente al rostro humano.

El siguiente paso sería mover la fuente de la ilusión digital dentro del cuerpo humano – una distancia de menos de cero – a través de lentes de contacto, implantes y, en última instancia, la comunicación directa. En ese punto, el marco ha desaparecido hace tiempo. La fuente digital capta los sentidos, y se hace muy difícil argumentar que el contenido digital no es tan “real” como un edificio en la esquina, lo que, francamente, podría ser una ilusión en un ambiente así. Los entusiastas probablemente argumentarán que nuestra percepción ya es una ilusión electroquímica, y los implantes simplemente mejoran nuestro yo natural. Esta es la etapa de la tecnología que planteará cuestiones prácticas que nunca hemos tenido que abordar antes.

Fuente: https://futurism.com/will-ai-blur-the-lines-between-physical-and-virtual-reality/

IBM acaba de lograr un avance en el aprendizaje profundo de las IAs

deep-learning-shutterstock-700x-675x380

Los investigadores de IBM lograron una hazaña que podría mejorar la forma en que los sistemas de inteligencia artificial aprenden a través de una tonelada de datos. En lugar de ejecutar algoritmos de aprendizaje profundo utilizando sólo un servidor, lograron que funcione eficientemente en varios servidores.

Hoy en día las tecnologías de inteligencia artificial (AI) se ejecutan generalmente utilizando algoritmos de aprendizaje automático. Estos operan en lo que se llama una red neuronal – sistemas diseñados para imitar el funcionamiento del cerebro humano – como parte de lo que se llama aprendizaje profundo. Actualmente, la mayoría de los avances de IA son en gran parte debido al aprendizaje profundo, con desarrollos como AlphaGo, el jugador de GO con IA creado por DeepMind de Google.

Ahora, IBM ha anunciado que han desarrollado una IA que hace que todo el proceso de aprendizaje de la máquina sea más rápido. En lugar de ejecutar complejos modelos de aprendizaje profundo en un solo servidor, el equipo, liderado por el director de aceleración de sistemas y memoria de IBM Research, Hillery Hunter, logró ampliar eficientemente el aprendizaje profundo distribuido (DDL) utilizando múltiples servidores.

“La idea es cambiar la velocidad de la rapidez con que se puede entrenar un modelo de aprendizaje profundo y realmente aumentar esa productividad”, dijo Hunter a Fortune. Anteriormente, era difícil implementar configuraciones DDL debido a la complejidad necesaria para mantener los procesadores en sincronía. El equipo de IBM Research logró utilizar 64 de sus servidores Power 8 para facilitar el procesamiento de datos. Cada procesador se conectó usando procesadores gráficos Nvidia y una interconexión rápida NVLink, resultando en lo que el equipo de Hillery llama PowerAI DDL.

En lugar de tomar días para que una red de aprendizaje profundo procese modelos, ahora podría tomar sólo horas. “Nuestro objetivo es reducir el tiempo de espera asociado con el entrenamiento de aprendizaje profundo de días u horas a minutos o segundos, y permitir una mayor precisión de estos modelos de IA”, escribió Hunter en un blog de IBM Research.

En su estudio publicado en línea, el equipo afirmó que lograron una eficiencia de escala de 95% a través de 256 procesadores cuando se ejecutó la configuración utilizando un marco de aprendizaje profundo desarrollado en la Universidad de California en Berkeley. También registraron un 33.8% de precisión de reconocimiento de imágenes, procesando 7.5 millones de imágenes en poco más de siete horas, superando el récord de Microsoft de 29.8% en 10 días.

Algunos, sin embargo, son escépticos sobre el logro. Patrick Moorhead, presidente y fundador de una empresa de investigación tecnológica con sede en Texas, dijo a Fortune que el 95% parecía muy bueno para ser cierto.

Elon Musk desvela la Interfaz Cerebro / Computadora

Elon-musk-human-brain-computer-784709

…esta tecnología llega como una espada de doble filo, y cuando esa espada es manejada para el mal, la posibilidad para el control absoluto de la especie humana (o la nueva subespecie de cyborgs), está allí, también…

Bill Kochevar acaba de introducir un bocado de puré de patatas en su propia boca. No hay motivo para celebrar podrías decir. Bueno, es ahora que tienes que considerar que Kochevar es tetrapléjico, paralizado por debajo de sus hombros en un accidente de ciclismo hace ocho años. Desde entonces no ha introducido un bocado de puré de patatas o cualquier otra cosa en su propia boca por su cuenta.

Entonces, ¿qué cambió? Sólo los dos electrodos de 96 canales del tamaño de dos píldoras, implantados en la superficie de su cerebro por un equipo de neurocirujanos. Bueno, eso y el “sistema de activación muscular” de 36 electrodos que ayuda a traducir los pensamientos de Kochevar en actividad muscular.

Como explicó Case Western Reserve University en su comunicado de prensa sobre el caso, “las matrices registran las señales cerebrales creadas cuando Kochevar imagina el movimiento de su propio brazo y mano.” La interfaz cerebro-computadora extrae información desde las señales cerebrales sobre qué movimientos tiene intención de hacer, luego pasa la información para ordenar el sistema de estimulación eléctrica “.

Es difícil disputar que esto es algo menos que un milagro médico moderno…

…que es exactamente por lo que vamos a escuchar mucho más acerca de estos tipos de “hacer lisiados caminar de nuevo” – historias en el futuro cercano, y mucho menos sobre el potencial verdaderamente horrible de las tecnologías de interfaz cerebro / computadora que poco a poco se están revelando al público.

¿Polvo inteligente neuronal? ¿Tecnologías de lectura mental? ¿Tranhumanismo? No importa todo eso, mira a este tipo lisiado! ¿Qué tienes contra la gente paralizada, monstruo fanático y desalmado?

Entra Elon Musk. Como todos deberíamos saber ahora, él es el vendedor de varios esquemas Ponzi patrocinados por el gobierno en los que él se puede salir estratégicamente cuando los tiempos se pongan difíciles, dejando a los contribuyentes sosteniendo la bolsa.

Después de haber hecho sus primeros $ 22 millones con la venta de su empresa de software web “Zip2” en febrero de 1999, Musk lanzó X.com, una de las primeras compañías de servicios financieros en línea, al mes siguiente. X.com luego se fusionó con su principal competidor, Confinity, que tenía un servicio de transferencia de dinero llamado PayPal. Musk se desempeñó como CEO del conglomerado de PayPal hasta el año 2000 y se mantuvo como su mayor accionista hasta que fue comprado por eBay en 2002 por $ 1.5 mil millones. Musk se embolsó 165 millones de dólares del acuerdo.

A partir de ahí, Musk fundó SpaceX, que toma prestado dinero del gobierno a tasas de interés ridículamente bajas, y Tesla, que toma prestado dinero del gobierno a tasas de interés ridículamente bajas, y SolarCity, que toma prestado de SpaceX y Tesla. Ni Tesla ni SolarCity realmente ganan dinero, pero en la era de entidades como YouTube, que cuenta con mil millones de usuarios pero todavía no tiene “calendario” para alcanzar la rentabilidad, tal vez podamos calificar eso hasta la “nueva normalidad”.

Como señaló MarketSlant en su exposición del sistema de arbitraje de Musk en tres partes patrocinado por el gobierno en el otoño pasado: “Elon Musk ahora tiene 2 compañías que no ganan dinero [Tesla y SolarCity]. Él tiene una que hace dinero de pagos anticipados por servicios aún por ser entregados [SpaceX]. Todas son financiadas por el contribuyente de los EE.UU. con intereses ridículamente por debajo de las tasas de mercado. La mesa está ahora acomodada para el financiamiento utilizando moneda inflada en la forma de acciones de Tesla para obtener efectivo real en los bolsillos de Musk.

Ahora la historia de cómo Musk apostó su fortuna de Tesla creada por el gobierno, para ayudar a rescatar a su empresa SpaceX patrocinada por el gobierno a través de su empresa SolarCity, es un fascinante ejemplo de un juego de “¿dónde quedo la bolita?” multimillonario en acción. La verdadera pregunta que debe hacerse es cómo este sujeto que abandonó su doctorado fue capaz de fundar una compañía de servicios financieros a finales de 1990 que recibió seguro de FDIC. O cómo él trabajó el financiamiento excepcionalmente bajo del gobierno para su empresa de SpaceX. O cómo hizó Musk para después estafar otros $ 5 mil millones del tío Sam para asegurar su (sin ganacias) Tesla venture.

Si usted respondió diciendo que todos estos improbables negocios habrían sido imposibles para la persona promedio sin conexiones, usted tendría toda la razón. Pero Musk no es la persona promedio desconectada. Es como Beelzebú, apareciendo cada vez que los mundos del financiamiento del gobierno, la investigación militar y los tecnócratas de Bilderberg chocan.

Cuando Larry Page, Travis Kalanick y otros multimillonarios del Silicon (Spy) Valley se reunieron para el Desafío Robótico de DARPA en 2015, ahí estaba Musk, explorando la escena.

elon10a

Cuando la criminal convicta del FMI Christine Lagarde, el jefe del Banco Mundial Jim Kim y otros 100 líderes mundiales del engaño se reunieron en los Emiratos Árabes Unidos para la Cumbre del Gobierno Mundial a principios de este año (sí, realmente existe tal cosa), ahí estaba Musk, argumentando que los humanos tendrán que fusionarse con las máquinas mientras trabajan hacia la utopía del gobierno mundial.

H E Mohammed Al-Gergawi, Minister of Cabinet Affairs and Future, UAE with Elon Musk at the World Government Summit, Dubai (Photo - ME NewsWire)

Y ahora que las tecnologías de interfaz de cerebro / computadora están haciendo titulares, aquí está Musk para cobrar por la tendencia. Y, como de costumbre, tiene un gran respaldo financiero.

La nueva empresa se llama “Neuralink“. Se está facturando como una “compañía de investigación médica” que trabaja en la fabricación de tecnología de interfaz cerebro-computadora. Como con todo lo demás que rodea todo lo que Musk hace, la orgía de publicidad para Neuralink en la prensa principal ha hecho que esta nueva compañía suene como la más taquillera y cambiante empresa desde… bueno, desde la última aventura de Musk. Ya sabes, el de aburridos túneles… o algo así. ¿O era una broma?

Neuralink está promocionando la idea de “encaje neural”, una invención imaginaria de la ciencia ficción del novelista británico Iain M. Banks. El encaje neural se refiere a una malla semi-orgánica que se cultiva en la corteza cerebral, lo que permite una interfaz directa cerebro-ordenador. Perdido en el bombo sobre el anuncio de Musk de Neuralink esta semana es que la investigación de tipo encaje neural ya ha estado sucediendo durante años y la “invención de encaje neural” se anunció por primera vez en 2015. Pero aquí viene Musk para llevar la conversación a la arena pública, y oh, por cierto, cura el Parkinson en el camino. O algo así.

Es importante entender que lo que estamos presenciando es el delgado borde de una masiva campaña de adoctrinamiento público para amar y aceptar el chip cerebral. Tan extravagante como pueda sonar a la gente que no está prestando atención, les aseguro que estamos más cerca de la aplicación de esta tecnología de lo que muchos quisieran creer.

Han pasado 50 años desde que José Delgado demostró la capacidad de hacer que lo toros dejaran de embestir a través de electrodos implantados en su cerebro.

Han pasado 15 años desde que los investigadores anunciaron el nacimiento de la “Robo Rata“, una rata controlada por radio que podría ser dirigida en cualquier dirección mediante la implantación de electrodos en su cerebro.

Y han pasado 5 años desde que los primeros tutoriales en línea aparecieron enseñando a los niños emprendedores cómo controlar remotamente cucarachas por medio de alguna neurocirugía simple y reutilización de placas de circuitos Hexbug.

Pero si crees que el juego de este niño es la vanguardia de la tecnología de interfaz cerebro-computadora, entonces no has estado prestando atención.

Nuestros buenos amigos de D.A.R.P.A. han inyectado cientos de millones de dólares en su “Iniciativa B.R.A.I.N.“, una iniciativa de investigación para mapear, entender y manipular el cerebro, incluyendo un proyecto para diseñar implantes que monitorean y analizan la actividad cerebral en tiempo real y múltiples programas para aumentar la velocidad y reducir el tamaño de la tecnología de interfaz cerebro-computadora.

El polvo neural“, los dispositivos diminutos que se pueden implantar en el cuerpo humano para analizar su actividad, ya existen, y ya son tan pequeños como un grano de arena. Como su nombre indica, el objetivo es una miniaturización más para permitir la implantación directamente en el cerebro.

Mientras tanto, la antigua compañía de Musk, Paypal, reflexiona sobre los implantes cerebrales como la mejor solución para el problema de tener que recordar todas esas molestas contraseñas.

Estas tecnologías ya están aquí, sólo necesitan una cara dinámica y relaciones públicas amigables para venderlas al público. Y ese es el papel de Elon Musk en esto.

No sería la primera vez que Musk ha estado a la vanguardia preparando al público, con el estilo problema-reacción-solución, por un futuro que de otro modo nunca aceptarían. ¿Recuerdan cómo el partidario del gobierno mundial Stephen Hawking y el multimillonario eugenecista Bill Gates se unieron a Musk para advertirnos sobre la potencial amenaza de extinción de la Inteligencia Artificial en 2015? Y recuerdan cómo Musk entonces formó “OpenAI“, una compañía de investigación sin fines de lucro, para ayudar a desarrollar la tecnología de IA de una manera abierta, transparente, responsable y con rendición de cuentas para que todos puedan respirar con tranquilidad? ¿Y recuerda cómo el Bilderberger Peter Thiel ayudó a financiar esa iniciativa?

Bueno, ¿has visto a que conclusión ha llegado Musk de lo que necesitamos hacer para resolver el problema de la IA? ¡Fusionarse con las máquinas, por supuesto! (Si no puedes vencerlos, hazte uno de ellos, ¿hey?!)

Problema. Reacción. Solución.

Y ahora tenemos interfaces cerebro-computadora que están ayudando a los paralizados a moverse y prometiendo curar el Parkinson y revolucionar la medicina en todo tipo de otras formas asombrosas. Y esas promesas son reales, y están aquí, y son importantes.

Pero esta tecnología viene como una espada de doble filo, y cuando esa espada es manejada para mal, la posibilidad para el control absoluto de la especie humana (o la nueva subespecie de cyborgs, o lo que se está creando) está allí, también, y está siendo supervisada por las amistosas agencias del gobierno / militares como DARPA.

Oh, pero aquí está la mejor parte: Neuralink está siendo respaldado por el Bilderberger Peter Thiel, también.

Entonces, ¿quién quiere ser el primer voluntario para tener un chip cerebral implantado por los Bilderbergers? Es por una buena causa, honesta…

Por James Corbett

Elon Musk: Esta realidad podría ser una simulación

Implantes Nanobot podrían conectar nuestros cerebros a Internet y convertirnos en “¿Dioses?”

5605619a1300004700ea76e7

Según los investigadores, pronto, los implantes nanobots podrían conectar nuestros cerebros a Internet y ayudarnos a convertirnos en el siguiente paso en la evolución, dando a los seres humanos una super-inteligencia parecida a “Dios”. Todo esto podría convertirse en una realidad de acuerdo con científicos de la computación, permitiendo a las personas literalmente respaldar recuerdos a través de la tecnología nanobot e incluso comunicarse a través de ella al tiempo que permite a la humanidad expandir la creatividad, las emociones y eliminar los límites psicológicos.

Según el científico e inventor Ray Kurzweil, quien se describe como un futurista trabajando en el proyecto de la inteligencia artificial de Google, el siguiente paso podría convertirnos en súper-humanos. Kurzweil predice que para 2030, los seres humanos se basarán en los nanobots que serían insertados en el neocórtex, conectando y desconectando a los humanos directamente al mundo que nos rodea.

Esto permitirá a las personas enviar mensajes de correo electrónico y fotos de cerebro a cerebro. Esta revolucionaria tecnología podría permitir a las personas crear archivos de respaldo“de los recuerdos y pensamientos en caso de que algo sucediera.

Kurzweil explicó que los nanobots podrían, en teoría, ampliar nuestra capacidad de emoción y creatividad. La información almacenada en la nube combinada con el poder de la inteligencia artificial convertiría a los seres humanos en dioses”.

Kurzweil dijo: Hay belleza, amor, creatividad e inteligencia en el mundo, y todo viene de la neocorteza.”

“Vamos a ser capaces de ampliar la neocorteza y así vamos a ser más semejantes a Dios.”

“Vamos a añadir otros niveles de abstracción y crear más profundos medios de expresión, así que vamos a ser más musicales, vamos a ser más divertidos, vamos a ser más sexys y seremos mejores en la expresión de los sentimientos más amorosos.”

Kurzweil cree firmemente que en un futuro próximo, sería posible utilizar el poder extra del cerebro proporcionada por los nanobots para aumentar la inteligencia humana a otro nivel.

Kurzweil concluye que el progreso tecnológico sigue un patrón de crecimiento exponencial, a raíz de lo que él llama la “Ley de Retornos en Aceleración“. Cada vez que la tecnología se acerca una barrera, las nuevas tecnologías la van a superar. Él predice que los cambios de paradigma se harán más y más comúnes, conduciendo al “cambio tecnológico rápido y profundo que representa una ruptura en el tejido de la historia de la humanidad.”

La realidad de la tecnología de la información es que progresa de forma exponencial“, dijo a The Financial Times. 30 pasos linealmente te lleva al 30. Uno, dos, tres, cuatro, en el paso 30 estás en 30. Con un crecimiento exponencial, que es uno, dos, cuatro y ocho. En el paso 30, estás en mil millones.”

Al igual que muchas otras tecnologías, el concepto de nanomáquinas que se insertan en el cuerpo humano, en este caso el cerebro humano, ha estado presente en las películas de ciencia ficción y en las series durante décadas. ¿Recuerdas Star Trek? Bueno, pequeños robots moleculares que se conocen como nanos” se utilizan para reparar las células dañadas en el cuerpo. Esto, como se pensaba de muchas otras invenciones se creían imposible y sólo alcanzables en las películas. La ciencia ha demostrado hoy, que estas tecnologías no sólo son posibles, sino que podrían cambiar la definición de “seres humanos.”

Otra impactante afirmación de Ray Kurzweil es que la inteligencia artificial generará más puestos de trabajo para los humanos y no menos como muchos afirman.

Fuente: http://www.ewao.com/a/1-superhuman-abilities-nanobot-implants-could-connect-our-brains-to-the-internet-and-turn-us-into-gods/

A %d blogueros les gusta esto: