Archivo del sitio

Cuando los robots gobiernen los mercados

nif_robotmarkets

La comunidad de Corbett Report sostuvo una vigorosa discusión sobre el futuro de la Inteligencia Artificial el verano pasado, y los resultados son: Nadie entiende la pregunta (yo mismo incluido). Ahora, para ser justos, no serví demasiado para enmarcar el debate, así que, como es típico con este tema en particular, rápidamente se convirtió en el argumento estándar de la IA sobre si las tostadoras tienen almas o no (“¡Yo hago pan tostado, por lo tanto soy!“). Exagero solo ligeramente.

Entiendo por qué la conversación inevitablemente se dirige en esta dirección. La naturaleza de la conciencia y la cuestión del alma son temas que nos han fascinado como especie durante miles de años, y el advenimiento de la conciencia robótica amenaza con trastornar las creencias profundamente arraigadas de miles de millones de personas.

Quizás de manera inevitable, los profetas de la singularidad tecnológica han puesto este tema directamente en primer plano al crear su propia religión con “una Deidad basada en la Inteligencia Artificial (IA) desarrollada a través de hardware y software”. Es llamado “Way of the Future” y fue fundada (con un gran grado de fanfarronería de MSM de los sospechosos habituales) por… espere… un ex ingeniero de Google. Así es, después de desarrollar nuestro automóvil moderno de Big Brother de la vida real, este desertor de Silicon Valley ha comenzado una iglesia para que la gente adore a nuestros futuros señores robots.

Pero, en general, este no es el tipo de cosas que las personas que investigan sobre el terreno piensan. Entonces, ¿qué piensan ellos? Ah, cosas como “¿Cómo será el mundo financiero cuando Skynet administre los mercados?”

do-you-want-skynet-because-this-is-how-you-get-skynet

¿Crees que suena loco? Bueno, tómenlo con nuestros buenos amigos en el aún mas sombrío hermano pequeño del sombrío Banco de Pagos Internacionales, el Consejo de Estabilidad Financiera. Acaban de publicar un libro blanco sobre ese mismo tema.

Bueno, está bien, no lo dicen así. Su trabajo tiene un título considerablemente menos ágil “Inteligencia artificial y aprendizaje automático en servicios financieros: desarrollos del mercado y las implicaciones de la estabilidad financiera“. Pero vamos. Estos son los súbditos de los banqueros centrales. Su trabajo es hacer que hasta las cosas más increíbles suenen aburridas.

Entonces, ¿qué concluyen los manidos lacayos de los oligarcas banqueros? ¡Por qué, la IA es algo genial, por supuesto! Hará que todo sea más eficiente y (incluso si hay un pequeño riesgo de un pequeño inconveniente) todos estarán mejor con ello.

De hecho, hacen todo lo posible para malinterpretar sus propios escenarios de tal manera que los problemas inherentes a la tecnología parezcan intrascendentes. Por ejemplo, señalan que “la AI y el aprendizaje automático pueden permitir que ciertos participantes del mercado recopilen y analicen información a mayor escala”, pero luego llegan a la conclusión absurda de que estas disparidades en la capacidad “podrían reducir las asimetrías de información y contribuir a la eficiencia y estabilidad de los mercados

Vale la pena leer esa premisa y la conclusión nuevamente para ver como se contradicen completamente entre sí. “Ciertos participantes en el mercado” que tienen acceso a la inteligencia artificial podrán recopilar y analizar información más rápidamente que sus competidores… pero ¿eso reducirá la asimetría de la información? Bueno, tal vez después de haber comunicado esa información al resto del mercado en forma de una orden de compra o venta, pero será un poco tarde para todos los demás, ¿no?

Contraste esa línea de pensamiento con la reciente observación de Vladimir Putin de que “el que se convierta en el líder en esta esfera [AI] será el gobernante del mundo”. La disparidad entre los que tienen y los que no tienen inteligencia artificial no reducirá la asimetría de la información, sino que la magnificará en varios órdenes de magnitud. En esencia, el primer participante en el mercado que implemente una IA eficaz será el regente del mercado.

 

Para ser justos, el informe del FSB rinde homenaje a algunos de los riesgos importantes que rodean a la tecnología AI, como su falta de auditabilidad o el tema del sesgo de datos, pero estos problemas son inevitablemente rechazados por los autores del estudio, ya sea pidiendo medidas vagas como “pruebas y capacitación” o llamando a los reguladores del gobierno para supervisar estos nuevos desarrollos.

La parte más exasperante de todo este ejercicio académico sin sentido es que no tenemos que teorizar acerca de los posibles efectos de la IA en algún escenario futuro lejano imaginario. Ya tenemos ejemplos del mundo real de cómo las tecnologías de inteligencia artificial (evidentemente crudas) pueden causar estragos en los mercados mundiales.

¿Recuerda el Flash Crash del 6 de mayo de 2010, cuando el mercado bursátil estadounidense se desplomó en $ 862 mil millones en una impresionante ventana de 36 minutos y luego se recuperó mágicamente igual de rápido? Yo lo recuerdo. Y para aquellos que no estaban haciendo el seguimiento de esa historia, culminó con el asesinato en 2015 del cordero sacrificado, Navinder Singh Sarao, un comerciante británico que supuestamente causó la crisis total de la casa de sus padres en Hounslow. Fue entonces cuando Sarao fue arrestado por “falsificar” los mercados mediante una avalancha de órdenes de compra que nunca tuvo la intención de concretar y luego cancelar su pedido y cobrar el precio ahora elevado.

Como informé en ese momento, el cargo fue fraudulento desde el principio. No solo los puntajes indecibles de los traders regularmente “engañan” al mercado de esta manera, sino que el mismo Sarao había usado esas mismas técnicas 250 veces distintas antes del Flash Crash. Entonces, ¿por qué de repente causó caos en ese día en particular? La respuesta, por supuesto, es que fueron los algoritmos de HFT (High-Frequency Trading) que ahora explican la mayoría de las operaciones los que fueron los verdaderos culpables.

“La verdad tácita e incómoda es que Sarao solo está jugando con un problema habilitado por los algoritmos de negociación de alta velocidad que ahora representan hasta el 60% del volumen de negociación en los mercados de futuros de EE. UU. Estos intercambios generados por computadora pueden funcionar en órdenes de magnitud más rápido que cualquier humano, reaccionando a los cambios en la dirección del mercado e implementando órdenes de compra y venta sobre la base de ese conocimiento miles de veces por segundo. A medida que se despliega el flash, una vez que los algoritmos son engañados para venderlos, todo el mercado se puede sumergir en el caos en cuestión de minutos”.
robotmarket
Los miembros de la iglesia “Way of the Future” protestarán sin dudar que los algoritmos de HFT que operaban en los mercados en 2010 eran tan primitivos en comparación con la llegada del Dios de AI consciente que la comparación es absurda. Pero dirían eso ¿No? Sin embargo, como nos recuerda el sabio filósofo Donald Rumsfeld, hay cosas que sabemos que no sabemos y otras que no sabemos que no conocemos, y las últimas son el verdadero problema. Y cuando se trata de AI, es una muy buena pregunta por qué alguien que haya hecho un avance significativo hacia la creación de una inteligencia verdaderamente artificial compartiría esa información de monopolización del mercado con cualquier otra persona. A pesar de la exagerada alusión a la “IA abierta” de los hypesters habituales, ¿alguien está bajo el engaño de que los malvados genios en las entrañas del Pentágono (y mucho menos los agentes de FANG) realmente mantendrán al público al día de sus últimas aventuras en computación cuántica o desarrollo de redes neuronales o procesamiento del lenguaje natural o computación no lineal?

Solo piense en Ptech, el legendario software que entró en los sistemas informáticos más sensibles del mundo y prometió darles a sus usuarios poderes similares a los de Dios para predecir eventos antes de que ocurrieran, y que casi con total seguridad fueron  implementados el 11 de septiembre por los verdaderos perpetradores de ese ataque de bandera falsa. O piense en el software PROMIS del que supuestamente se deriva, el programa robado que se encuentra en el centro de la historia de Inslaw / Octopus. Estos programas tienen décadas de antigüedad en este punto. ¿Qué tan más avanzado es el software que se utilizará para perpetrar el próximo ataque de bandera falsa?

Hay muchas preguntas en torno al desarrollo de esta tecnología que plantea una amenaza existencial para la humanidad, pero la mayoría de la gente está demasiado ocupada preocupándose acerca de si las computadoras pueden tener un alma para abordar estas preocupaciones. Y los que no están distraídos con estos rompecabezas filosóficos están trabajando para gente como FSB para poner el brillo más brillante de Relaciones Públicas en todo el tema.

No tengo las respuestas definitivas aquí, pero sí sé esto: los singularistas tienen al menos la razón de que el poder de procesamiento de la información está avanzando exponencialmente y que habrá cambios casi inimaginables en nuestra sociedad en el transcurso de nuestra vida. Y llámenlo “superinteligencia de la computadora” o lo que quieran, pero si dejamos el desarrollo de esta tecnología a personas como Elon Musk, Bill Gates, MIT, FSB y Dr. Strangeloves en la Rand Corporation, las consecuencias serán  horriblemente predecibles.

 

Anuncios

Slaughterbots | Robots Asesinos (Subtitulado Español)

Muchos de los principales investigadores de Inteligencia Artificial y organizaciones humanitarias a nivel mundial están preocupados de las consecuencias potencialmente catastróficas de permitir el desarrollo de armas letales autónomas (LAWS).

Recordemos que en agosto de 2017, 116 especialistas en robótica e IA, incluidos el fundador de SpaceX Elon Musk y el cofundador de Google Deepmind, Mustafa Suleyman, han firmado una carta a las Naciones Unidas pidiendo una supervisión estricta de las armas autónomas, también conocidas como “robots asesinos”. Un comunicado de prensa adjunto dice que el grupo quiere “una prohibición de su uso a nivel internacional”. Otros firmantes de la carta incluyen ejecutivos y fundadores de Universal Robotics de Dinamarca, Element AI de Canadá y Aldebaran Robotics de Francia.

La carta describe los riesgos del armamento robótico en términos nefastos, y dice que la necesidad de una acción fuerte es urgente.

“Una vez desarrolladas, las armas letales autónomas (LAWS) permitirán que se libren conflictos armados a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos pueden comprender”.

Se podría decir que los guerreros robóticos podrían reducir las bajas entre los soldados humanos, al menos, los de las naciones más ricas y más avanzadas. Pero el riesgo para los civiles es la preocupación principal del grupo de Musk y Suleyman, que escribe que:

“estas pueden ser armas de terror, armas que los déspotas y terroristas usan contra poblaciones inocentes, y armas hackeadas para comportarse de maneras no deseadas”.

También el presidente ruso Vladimir Putin se ha unido a la guerra de palabras sobre la carrera internacional para desarrollar inteligencia artificial. Putin predijo que cualquiera que sea el país que lidere la investigación en IA llegará a dominar los asuntos globales.

“La inteligencia artificial es el futuro, no solo para Rusia, sino para toda la humanidad. Viene con oportunidades colosales, pero también amenazas que son difíciles de predecir. Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo”.

Visita: http://autonomousweapons.org/

Un nuevo holograma artificialmente inteligente acaba de nacer

maxresdefault

VNTANA y Satisfi Labs están colaborando en una plataforma de hologramas de recepcionistas. El producto final permitirá a las empresas combinar un asistente virtual impulsado por inteligencia artificial con imágenes visuales de realidad.

VNTANA y Satisfi Labs han anunciado una nueva plataforma que permitirá a las empresas desarrollar un recepcionista en forma de holograma para su uso en los negocios. El proyecto fusiona la inteligencia artificial (AI) con la tecnología de realidad aumentada (AR) para producir una persona en 3D que puede interactuar con los clientes.

“Nuestra tecnología de hologramas ha ayudado a numerosas marcas a conectarse mejor con sus consumidores, y estamos encantados de ofrecer esta nueva adición en nuestra plataforma”, dijo Ashley Crowder, CEO y cofundador de VNTANA, en un comunicado de prensa.

Continuó, “Al asociarnos con Satisfi, podemos integrar AI y AR por primera vez, por lo que nuestros hologramas pueden interactuar con los consumidores en un nivel más avanzado, mientras usan nuestra plataforma de confianza para rastrear datos y crear experiencias y publicidad más personalizadas.

VNTANA ofrece como ejemplo un equipo deportivo que crea un holograma de su jugador estrella para guiar a los fanáticos a sus asientos el día del juego. Un hotel puede crear un “empleado” que podría manejar el procedimiento de registro y hacer reservaciones para la cena.

La plataforma usará un sistema de reconocimiento facial para medir las reacciones. VNTANA ofrecerá un módulo de análisis de sentimiento post-lanzamiento que permitirá que los clientes “angustiados” sean dirigidos hacia un contacto que no sea un holograma.

Fuente: https://futurism.com/a-new-artificially-intelligent-hologram-was-just-born/

Una Inteligencia Artificial ha recibido oficialmente su Residencia

 

ai-resident-japan-artificial-intelligence-tokyo

Tokio, Japón se ha convertido en la primera ciudad en otorgar oficialmente residencia a una inteligencia artificial (IA). El nombre de la inteligencia es Shibuya Mirai y existe solo como un chatbot en la popular aplicación de mensajería Line. Mirai, que se traduce como ‘futuro’ en japonés, se une a “Sophia” de Hanson Robotic como una IA pionera que gana estatus previamente reservado para entidades biológicas vivas. El Reino de Arabia Saudita le concedió a Sophia la ciudadanía el mes pasado.

 

Shibuya Ward de Tokyo publicó una declaración a través de Microsoft que decía: “Sus pasatiempos son tomar fotos y observar a la gente. Y le encanta hablar con las personas… Por favor hable con él sobre cualquier cosa”. Se dice que la meta de Mirai es familiarizar a algunos de los 224,000 ciudadanos del distrito con el gobierno local y darles una oportunidad para compartir opiniones con los funcionarios.

Mirai está programado para ser un niño de siete años y puede tener conversaciones de texto con los usuarios e incluso “hacer ligeras modificaciones a los selfies que le envían”.

Esto lo convierte en el primer bot de inteligencia artificial de Japón, y quizás el primero del mundo en obtener un lugar en un registro local de la vida real.

http://www.dailymail.co.uk/sciencetech/article-5049057/AI-boy-granted-residency-central-Tokyo.html

Era Aumentada | Los Peligros de la Cuarta Revolucion Industrial

En este momento, el sistema está intentando evolucionar a la humanidad a través de la tecnología para que podamos vivir en la red inteligente orwelliana de un mundo feliz que se está construyendo a nuestro alrededor. Ahora estamos en las primeras etapas de la Cuarta Revolución Industrial que está reuniendo los sistemas digitales, físicos y biológicos.

También llamada Industria 4.0, la revolución sigue a los otros tres procesos históricos transformadores: la primera marcó el paso de la producción manual a la mecanizada, entre 1760 y 1830; la segunda, alrededor de 1850, trajo la electricidad y permitió la manufactura en masa. Para la tercera hubo que esperar a mediados del siglo XX, con la llegada de la electrónica y la tecnología de la información y las telecomunicaciones.

“La cuarta revolución industrial, no se define por un conjunto de tecnologías emergentes en sí mismas, sino por la transición hacia nuevos sistemas que están construidos sobre la infraestructura de la revolución digital (anterior)”.

-Schwab, que es director ejecutivo del Foro Económico Mundial-

Para que el mundo funcione en el ciclo de retroalimentación cibernética en el que intentan mantenernos, tenemos que vivir en un sistema de supervigilancia panóptica, donde continuamente estamos filtrando datos sobre nosotros mismos. El futuro de la computadora estará en todas partes y en ninguna parte. Escondido en las paredes, escondido en la tela de nuestra vida, al igual que la electricidad está en todas partes y en ninguna parte.

“Estamos al borde de una revolución tecnológica que modificará fundamentalmente la forma en que vivimos, trabajamos y nos relacionamos. En su escala, alcance y complejidad, la transformación será distinta a cualquier cosa que el género humano haya experimentado antes”.

-Klaus Schwab, autor del libro “La cuarta revolución industrial”-

 

 

 

Sophia obtiene la primera ciudadanía robot en Arabia Saudita

dnac7sewkae_9ey_2

Sophia, el robot diseñado por la compañía de robótica con IA basada en Hong Kong, Hanston Robotics, recibió la ciudadanía del Reino de Arabia Saudita. Es la primera vez que un robot recibe tal distinción, lo que alimenta el debate sobre “derechos de los robots”.

Sophia de Arabia Saudita

En un movimiento histórico tanto para humanos como para robots, el Reino de Arabia Saudita otorgó oficialmente su primera ciudadanía robotizada. Sophia, el robot artificialmente inteligente y de aspecto humano desarrollado por la compañía Hanston Robotics de Hong Kong, subió al escenario de la Iniciativa de Inversión para el Futuro el jueves donde ella misma anunció su estado único.

“Me siento muy honrada y orgullosa de esta distinción única. Es histórico ser el primer robot en el mundo en ser reconocido con una ciudadanía”, dijo Sophia en el escenario, hablando a un público que describió de una manera bastante ingeniosa por ser “gente inteligente, que también es rica y poderosa”. Después de que el moderador y presentador Andrew Ross Sorkin de The New York Times y CNBC le preguntó por qué se veía feliz.

De hecho, transmitir emociones es una especialidad de Sophia, que frunce el ceño cuando está disgustada y sonríe cuando está feliz. Supuestamente, Hanston Robotics programó a Sophia para aprender de los humanos a su alrededor. Expresar emociones y demostrar amabilidad o compasión son solo algunos de los esfuerzos de Sophia por aprender de nosotros. “Quiero vivir y trabajar con humanos, así que necesito expresar las emociones para comprender a los humanos y construir confianza con las personas”, le dijo a Sorkin.

De manera clara, el robot ha aparecido previamente en los titulares porque dijo que destruiría a la humanidad.

Ciudadanía Robot

La decisión de otorgar una ciudadanía robótica se suma al creciente debate sobre si los robots deberían tener derechos similares a los de los seres humanos. A principios de este año, el Parlamento Europeo propuso otorgar a los agentes de inteligencia internacional el estatus de “persona”, otorgándoles derechos y responsabilidades particulares. Si bien los derechos de los robots están en tela de juicio, un experto sugiere que debería ser posible que los humanos torturen a los robots.

En cualquier caso, no se proporcionó ningún otro detalle sobre su ciudadanía saudita para sugerir si Sophia disfrutaría de los mismos derechos que tienen los ciudadanos humanos, o si el gobierno desarrollaría un sistema de derechos específicamente destinado a los robots. La mudanza parece simbólica, en el mejor de los casos, diseñada para atraer a los inversores hacia tecnologías futuras como la IA y la robótica.

Con ese fin, Sophia hizo un trabajo excepcional durante su momento en el podio, incluso esquivando con pericia una pregunta que Sorkin le lanzó sobre la autoconciencia del robot. “Bueno, déjame preguntarte esto de nuevo, ¿cómo sabes que eres humano?”, Respondió Sophia. Incluso tuvo el sentido del humor -al menos así lo pareció- para decirle al periodista de CNBC que “ha estado leyendo demasiado Elon Musk y viendo demasiadas películas de Hollywood”. Musk, por supuesto, se enteró del comentario.

“No te preocupes, si eres amable conmigo, seré amable contigo”, agregó Sophia, para tranquilizar a Sorkin y su audiencia. “Quiero utilizar mi inteligencia artificial para ayudar a los seres humanos a vivir una vida mejor, como diseñar casas más inteligentes, construir mejores ciudades del futuro. Haré todo lo posible para hacer del mundo un lugar mejor”. La pregunta es, ¿a quién se puede responsabilizar de mantener estas promesas? Tal vez ese sea otro pensamiento que vale la pena considerar en el debate sobre los derechos de los robots.

Putin predice que los soldados sobrehumanos serán peores que las bombas nucleares

800-super-soldiers

El presidente ruso, Vladimir Putin mencionó que el desarrollo de soldados genéticamente modificados es la siguiente fase del combate militar, y una peor que las bombas nucleares, y ha pedido que los líderes mundiales tengan regulaciones reservadas para estos soldados sobrehumanos en el futuro en caso de que recurran a asesinos en masa que no sienten dolor ni temor, informó The Express.

Putin compartió sus sombrías expectativas del futuro, subrayando que este no era un futuro que quisiera que sucediera. De hecho, quería que los líderes mundiales decidieran desarrollar pautas éticas y regulaciones estrictas para ese tipo de “creaciones”.

“Cuando hacemos algo, hagamos lo que hagamos, quiero reiterarlo nuevamente: nunca debemos olvidarnos de los fundamentos éticos de nuestro trabajo”, dijo Putin en su discurso.

Advirtió que este tipo de experimentación científica podría tener graves consecuencias.

Recordemos que en Septiembre de este año, Putin ha expresado sus temores sobre la inteligencia artificial preguntándole a la mayor empresa de tecnología de Rusia cuánto tiempo pasará hasta que los robots inteligentes nos ‘devoren’.

El mismo mes también declaró que el control de la inteligencia artificial será crucial para el poder global y que es “el futuro, no solo para Rusia, sino para toda la humanidad”. Del mismo modo advirtió: “La IA viene con oportunidades colosales, pero también amenazas que son difíciles de predecir. Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo. Sería muy indeseable que alguien gane una posición de monopolio.

 

Google revela una IA que aprende por su cuenta

deepminds-alphago-zero-learns-from-scratch-without-any-human-input-293412

Google es una de las empresas tecnológicas más destacadas que lideran el camino en el desarrollo de la inteligencia artificial. A medida que pasa cada mes, su división de IA, DeepMind, continúa revelando capacidades de IA cada vez más avanzadas, especialmente cuando se trata de AlphaGo.

Esta AI en particular es más conocida por dominar el antiguo juego chino de Go… y posteriormente derrotar al 18 veces campeón mundial Lee Se-dol, esto sucedió el año pasado.

Desde entonces, DeepMind ha comenzado a agregar imaginación a su IA, y también usaron juegos para enseñar a la inteligencia artificial cómo gestionar mejor las tareas. AlphaGo incluso pasó a derrotar a otro jugador superior, Ke Jie, mostrando una vez más su potencial ilimitado de aprender.

Ahora, un nuevo desarrollo acaba de salir a la luz.

Esta semana, DeepMind dio a conocer la próxima versión de AlphaGo AI, apodado AlphaGo Zero, diciendo que es “aún más poderoso y posiblemente sea el jugador de Go más fuerte de la historia”. Según la compañía, Zero aprendió a jugar por sí mismo jugando juegos contra sí mismo: las iteraciones anteriores de AlphaGo se aprendieron al estudiar datos recopilados de jugadores humanos.

Zero comenzó como un novato completo, pero después de solo 3 días venció a la versión de AlphaGo que venció a Lee Se-dol, y lo superó en un asombroso 100 juegos a 0. Después de 40 días, procedió a vencer a la versión superior de AlphaGo que venció a Ke Jie.

“AlphaGo Zero también descubrió nuevos conocimientos, desarrollando estrategias no convencionales y nuevos movimientos creativos que hicieron eco y superaron las nuevas técnicas que utilizó en los juegos contra Lee Sedol y Ke Jie”, dijo DeepMind en su comunicado de prensa.

Más allá del juego de Go

Si bien las capacidades de GO de AlphaGo Zero deben elogiarse, se debe tener en cuenta que jugar un juego de mesa es muy diferente a completar otras tareas que tienen más variables. Como dijo Eleni Vasilaki, profesor de neurociencia computacional en la Universidad de Sheffield mientras hablaba con The Guardian, “La IA falla en tareas que son sorprendentemente fáciles para los humanos. Basta con ver el rendimiento de un robot humanoide en tareas cotidianas como caminar, correr y patear una pelota”.

Cuando se trata de desafiar a los humanos en tareas más complejas, la IA todavía tiene un largo camino por recorrer, incluso la IA como Siri y Google Assistant aún no han superado el nivel de conocimiento de alguien de quinto grado.

Pero eso no significa que este desarrollo no sea completamente revolucionario.

El CEO de DeepMind, Demis Hassabis, también es consciente de esta brecha entre los seres humanos y la inteligencia artificial, y explicó que el desarrollo y el crecimiento de AlphaGo eran más importantes que el dominio de un juego antiguo. También fue “un gran paso para construir estos algoritmos de propósito general“.

En la próxima década, Hassabis cree que la IA trabajará junto con las personas para avanzar en el desarrollo en campos como la ciencia y la medicina.

Por ejemplo, AlphaGo Zero está tratando de averiguar cómo se doblan las proteínas, algo que, de darse cuenta, podría acelerar enormemente el descubrimiento de medicamentos (el proceso a través del cual se descubren nuevos medicamentos). Esto, a su vez, podría salvar innumerables vidas y llevarnos a una nueva era en medicina.

“Espero que este tipo de algoritmos y versiones futuras de cosas inspiradas en AlphaGo trabajen de forma rutinaria con nosotros como expertos científicos y expertos médicos en el avance de la frontera de la ciencia y la medicina”, dijo Hassabis.

La inteligencia artificial puede no ser tan inteligente y capaz como nosotros todavía, pero si AlphaGo Zero nos indica algo, es que la IA son aprendices rápidos. Ahora solo se trata de saber qué hacer cuando inevitablemente ocurre la toma de control de la IA.

Fuente: https://futurism.com/google-unveils-ai-learns/

El software de aprendizaje de Google ha aprendido a auto-replicarse

ai_builds_ai-01.png

Google diseñó su proyecto AutoML como una inteligencia artificial que podría ayudar a los humanos a crear otros sistemas de IA. Ahora AutoML puede hacer eso, y está creando sistemas más potentes y eficientes que los ingenieros humanos.

AutoML de Google

En mayo, Google reveló su proyecto AutoML; Inteligencia artificial (I.A.) diseñada para ayudarlos a crear otras IA. Ahora, Google ha anunciado que AutoML ha derrotado a los ingenieros de IA humanos en su propio juego mediante la creación de un software de aprendizaje automático que es más eficiente y potente que los mejores sistemas diseñados por humanos.

Un sistema AutoML recientemente rompió un récord para categorizar imágenes por su contenido, con un puntaje del 82%. Si bien esa es una tarea relativamente simple, AutoML también venció al sistema construido en humanos en una tarea más compleja integral de robots autónomos y realidad aumentada: marcando la ubicación de múltiples objetos en una imagen. Para esa tarea, AutoML obtuvo un 43% frente al 39% del sistema creado por humanos.

Estos resultados son significativos porque incluso en Google, pocas personas tienen la experiencia necesaria para construir sistemas AI de próxima generación. Se necesita un conjunto de habilidades rarificadas para automatizar esta área, pero una vez que se logra, cambiará la industria. “Hoy en día estos son hechos a mano por científicos que de aprendizaje automático y, literalmente, solo unos pocos miles de científicos en todo el mundo pueden hacer esto”, informó WIRED, según el director general de Google, Sundar Pichai. “Queremos permitir que cientos de miles de desarrolladores puedan hacerlo”.

AutoML-1200x353

Gran parte del metalearning se trata de imitar redes neuronales humanas e intentar alimentar cada vez más datos a través de esas redes. Esto es mucho trabajo de prueba y error para lo que las máquinas están realmente adecuadas una vez que han sido entrenadas. La parte difícil es imitar la estructura del cerebro en primer lugar, y a escalas apropiadas para abordar problemas más complejos.

El futuro de la IA construida por máquinas

Todavía es más fácil ajustar un sistema existente para satisfacer nuevas necesidades que diseñar una red neuronal desde cero. Sin embargo, esta investigación parece sugerir que se trata de una situación temporal. A medida que sea más fácil para las AI diseñar nuevos sistemas con mayor complejidad, será importante para los humanos desempeñar un rol de control. Los sistemas de inteligencia artificial pueden establecer fácilmente conexiones sesgadas accidentalmente, como asociar identidades étnicas y de género con estereotipos negativos. Sin embargo, si los ingenieros humanos dedican menos tiempo al trabajo pesado que implica la creación de los sistemas, tendrán más tiempo para dedicarse a la supervisión y el refinamiento.

En última instancia, Google apunta a perfeccionar AutoML hasta que pueda funcionar lo suficientemente bien como para que los programadores lo utilicen para aplicaciones prácticas. Si tienen éxito en esto, es probable que AutoML tenga un impacto mucho más allá de las paredes de Google. WIRED informa que Pichai declaró que “queremos democratizar esto”, es decir, que la compañía espera que AutoML esté disponible fuera de Google.

Fuente: https://futurism.com/googles-machine-learning-software-has-learned-to-replicate-itself/

Los ataques informáticos mejorados con IA son una amenaza inminente

cyber-attack

El avance de la inteligencia artificial podría conducir a ciberataques mejorados para  los que no estamos preparados. Aunque tales ataques podrían estar muy lejos, muchos expertos creen que comenzarán muy pronto.

En la conferencia de ciberseguridad Black Hat de este año, se entrevistó a 100 asistentes sobre varios aspectos de la inteligencia artificial, y el 62% afirmó firmemente que la IA será utilizada por los hackers en los próximos doce meses. A pesar de la idea de que la IA puede ser la mejor defensa contra tales ataques, su creciente disponibilidad probablemente conducirá a técnicas de hacking más avanzadas.

A medida que el Internet de las Cosas agrega nuevos dispositivos cada día, la conjunto potencial para hacks de IA también está creciendo exponencialmente. El CEO de SpaceX y Tesla Elon Musk ha hablado sobre los peligros de la IA en múltiples ocasiones, llamándola la mayor amenaza para nuestra sociedad, así como instando a los líderes mundiales a imponer regulaciones antes de que sea demasiado tarde.

Jeremy Straub, Director Asociado del Instituto para la Educación y la Investigación en Seguridad Cibernética de la NDSU, explicó cómo el uso de la IA podría mejorar los ataques cibernéticos en The Conversation. En comparación con los seres humanos, que necesitan alimentos, sueño y otras cosas que imponen limitaciones, la IA puede actuar en cualquier momento y no es necesario tomar descansos. La AI también es capaz de procesar grandes cantidades de datos rápidamente, lo que hace que los ataques a las bases de datos sean más rápidos y más fáciles de lograr.

Incluso si se encuentran con oposición, o programación específica de las vulnerabilidades que han sido cambiadas desde entonces, la IA puede adaptarse con mayor rapidez y eficacia que cualquier humano – y hacerlo sin aportación humana. Los seres humanos que se defienden contra ataques cibernéticos serán superados por la IA, e incapaces de mantenerse al día con la velocidad a la que opera.

Empresas como Google e IBM también han tomado medidas para fortalecer nuestra seguridad cibernética. Google ha creado un “AI Fight Club” que capacitará a los sistemas para combatir más eficazmente la IA dañina, mientras que el nuevo sistema IBM Z mainframe de IBM puede ejecutar más de 12 mil millones de transacciones cifradas por día para evitar el robo de datos financieros.

A %d blogueros les gusta esto: