Archivo del sitio

Google cancela el panel de ética de IA después de alboroto

1024px-Georges_de_La_Tour_French_-_The_Musicians_Brawl_-_Google_Art_Project-777x437

El panel de ética de Google se vio inundado por miles de no participantes (¿no éticos?) Que atacaron a miembros individuales de su panel de ética. El resultado fue un caos total, renuncias y finalmente, cancelando todo el asunto. La gran tecnología y la ética se acercan al estado oximorónico.

Esta semana, Vox y otros medios informaron que la recién creada junta de ética de AI de Google se estaba desmoronando en medio de la controversia sobre varios de sus miembros.

Bueno, oficialmente se ha hecho añicos, se ha cancelado. Google le dijo a Vox el jueves que está desconectando el consejo de ética.

La junta sobrevivió por poco más de una semana. Fundada para guiar el “desarrollo responsable de la IA” en Google, habría tenido ocho miembros y se habría reunido cuatro veces en el transcurso de 2019 para considerar las preocupaciones sobre el programa de IA de Google. Esas preocupaciones incluyen cómo la IA puede habilitar a los estados autoritarios, cómo los algoritmos de la IA producen resultados dispares, ya sea para trabajar en aplicaciones militares de la IA, y más. Pero se topó con problemas desde el principio.

Miles de empleados de Google firmaron una petición pidiendo la remoción de un miembro de la junta, el presidente de la Fundación Heritage, Kay Coles James, por sus comentarios sobre las personas trans y el escepticismo de su organización sobre el cambio climático. Mientras tanto, la inclusión del CEO de la compañía de aviones no tripulados Dyan Gibbens reabrió viejas divisiones en la compañía sobre el uso de la inteligencia artificial de la compañía para aplicaciones militares.

El consejero Alessandro Acquisti renunció. Otra miembro, Joanna Bryson, defendiendo su decisión de no renunciar, dijo de James: “Créanlo o no, sé lo peor de una de las otras personas”. Otros miembros de la junta directiva se vieron abrumados por las demandas de justificar su decisión de permanecer en el consejo.

El jueves por la tarde, un portavoz de Google le dijo a Vox que la compañía había decidido disolver por completo el panel, llamado el Consejo Consultivo Externo de Tecnología Avanzada (ATEAC). Aquí está la declaración de la compañía en su totalidad:

Ha quedado claro que en el entorno actual, ATEAC no puede funcionar como queríamos. Así que estamos terminando el consejo y volviendo a la mesa de dibujo. Continuaremos siendo responsables en nuestro trabajo en los temas importantes que la IA plantea, y encontraremos diferentes maneras de obtener opiniones externas sobre estos temas.

Se suponía que el panel agregaría perspectivas externas al trabajo en curso de ética de IA por parte de los ingenieros de Google, todo lo cual continuará. Con suerte, la cancelación de la junta no representa un retroceso del trabajo de ética de AI de Google, sino una oportunidad para considerar cómo involucrar de manera más constructiva a los interesados externos.

El consejo se estaba convirtiendo en una gran responsabilidad para Google.

La credibilidad de la junta se vio afectada por primera vez cuando Alessandro Acquisti, un investigador de la privacidad, anunció en Twitter que estaba renunciando, argumentando: “Si bien estoy dedicado a la investigación que trata temas éticos clave de justicia, derechos e inclusión en IA, no creo que este sea el foro adecuado para mí para participar en este importante trabajo”.

Mientras tanto, la petición para retirar a Kay Coles James ha atraído más de 2,300 firmas de los empleados de Google hasta el momento y no muestra signos de perder fuerza.

A medida que la ira sobre la junta se intensificaba, los miembros de la junta se vieron envueltos en extensos debates éticos sobre por qué estaban en la junta, lo que pudo haber sido algo que Google no esperaba. En Facebook, el miembro de la junta Luciano Floridi, un filósofo de la ética en Oxford, reflexionó:

Solicitar el consejo [de Kay Coles James] fue un grave error y envía un mensaje equivocado sobre la naturaleza y los objetivos de todo el proyecto ATEAC. Desde una perspectiva ética, Google ha juzgado mal lo que significa tener vistas representativas en un contexto más amplio. Si la Sra. Coles James no renuncia, como espero que lo haga, y si Google no la elimina, como lo he recomendado personalmente, la pregunta es: ¿cuál es la postura moral correcta a tomar en vista de este grave error?

Terminó decidiendo permanecer en el panel, pero ese no era el tipo de debate ético que Google esperaba provocar, y se hizo difícil imaginar a los dos trabajando juntos.

Ese no fue el único problema. Hace un día se argumento que, aparte de la indignación, la junta no estaba bien preparada para el éxito. Las juntas de ética de IA como las de Google, que están de moda en Silicon Valley, parecen no estar equipadas para resolver, o incluso avanzar, en cuestiones difíciles sobre el progreso ético de la IA.

Un rol en la junta de IA de Google era una posición no remunerada y sin dientes que no tenía la posibilidad, en cuatro reuniones a lo largo de un año, de poder llegar a una comprensión clara de todo lo que está haciendo Google, y mucho menos ofrecer una orientación matizada sobre ello. Hay preguntas éticas urgentes sobre el trabajo de IA que está haciendo Google, y no hay una vía real a través de la cual el consejo pueda abordarlas satisfactoriamente. Desde el principio, fue mal diseñado para la meta.

Ahora ha sido cancelado.

Redes Generativas Antágonicas, nueva arma de la IA: fotos de la Tierra “falsificadas profundamente”

860x394

Paso 1: Usa IA para hacer cambios indetectables en fotos al aire libre. Paso 2: libéralos en el mundo del código abierto y disfruta del caos.

Las preocupaciones sobre falsificaciones profundas (videos manipulados por máquinas de celebridades y líderes mundiales  que supuestamente dicen o hacen cosas que realmente no hicieron) son pintorescas en comparación con una nueva amenaza: imágenes tergiversadas de la Tierra misma.

China es el líder reconocido en el uso de una técnica emergente llamada redes generativas antágonicas (GAN) para engañar a las computadoras para que vean objetos en paisajes o imágenes satelitales que no están allí, dice Todd Myers, director de automatización y director de información en la Oficina del Director de Tecnología en la Agencia Nacional de Inteligencia Geoespacial.

“Los chinos están muy por delante de nosotros. Esta no es información clasificada”, dijo Myers el jueves en la segunda cumbre anual de Genius Machines, organizada por Defense One y Nextgov. “Los chinos ya han diseñado; Ya lo están haciendo en este momento, usando redes GAN, que son redes de confrontación generativas, para manipular escenas y píxeles para crear cosas por razones nefastas”.

Por ejemplo, dijo Myers, un adversario podría engañar a los analistas de imágenes asistidas por computadora para que informen que un puente cruza un río importante en un punto determinado.

“Entonces, desde una perspectiva táctica o una planificación de la misión, entrenas a tus fuerzas para ir por un camino determinado, hacia un puente, pero no está ahí. Luego te espera una gran sorpresa”, dijo.

Las GAN, descritas por primera vez en 2014, representan una gran evolución en la forma en que las redes neuronales aprenden a ver y reconocer objetos e incluso a detectar la verdad desde la ficción.

Digamos que le pide a su red neuronal convencional que averigüe qué objetos son cuáles en las fotos de satélite. La red dividirá la imagen en varias partes, o grupos de píxeles, calculará cómo esas partes rotas se relacionan entre sí y luego determinará cuál es el producto final, o si las fotos son reales o modificadas. Todo se basa en la experiencia de mirar muchas fotos de satélite.

Las GAN invierten ese proceso al unir dos redes entre sí, de ahí la palabra “antagónica”. Una red convencional podría decir: “La presencia de x, y y z en estos grupos de píxeles significa que esta es una imagen de un gato”. Pero una red GAN podría decir: “Esta es una imagen de un gato, por lo que x, y, y z deben estar presentes. ¿Qué son x, y, y z, y cómo se relacionan? “La red antagónica aprende cómo construir, o generar, x, y, y z de una manera que convence a la primera red neuronal, o al discriminador, de que algo está ahí. cuando, tal vez, no lo está.

Muchos estudiosos han encontrado que las GANs son útiles para detectar objetos y clasificar imágenes válidas de las falsas. En 2017, los académicos chinos utilizaron GAN para identificar carreteras, puentes y otras características en las fotos satelitales.

La preocupación, como los tecnólogos de IA le dijeron a Quartz el año pasado, es que la misma técnica que puede distinguir los puentes reales de los falsos también puede ayudar a crear puentes falsos que la IA no puede distinguir de los reales.

Cuando se trata de videos falsos de personas, los indicadores biométricos como el pulso y el habla pueden vencer el efecto falso. Pero el paisaje falso no es vulnerable a las mismas técnicas.

Incluso si puede derrotar a los GAN, muchos sistemas de reconocimiento de imagen pueden ser engañados al agregar pequeños cambios visuales a los objetos físicos en el ambiente, como los adhesivos agregados a las señales de alto que son apenas perceptibles para los conductores humanos pero que puede deshacerse de los sistemas de visión artificial, como ha demostrado el gerente del programa DARPA, Hava Siegelmann.

Ahora existe una computadora diseñada específicamente para programar robots inteligentes

Ahora simplemente se ha hecho más fácil construir robots “inteligentes”.

Cada año, los máximos representantes del mundo de la tecnología se reúnen en Computex, un escaparate de tecnología de la información y las comunicaciones en Taiwán. El domingo, Jensen Huang, fundador y CEO de la compañía estadounidense de tecnología NVIDIA, subió al escenario de la conferencia para anunciar dos nuevos productos diseñados para facilitar (y abaratar) que los desarrolladores creen y entrenen robots inteligentes: Jetson Xavier y NVIDIA Isaac.

Según un comunicado de prensa de NVIDIA, Jetson Xavier es “la primera computadora del mundo diseñada específicamente para robótica”. Incluye 9 mil millones de transistores y media docena de procesadores, incluyendo una GPU Volta Tensor Core y una CPU ARM64 de ocho núcleos.

nvidia2-1200x681

Traducción: esta computadora es poderosa y eficiente; de hecho, puede procesar 30 billones de operaciones por segundo (TOPS) (para comparar, el iMac más potente del mercado puede procesar hasta 22 TOPS y cuesta alrededor de $ 5,000). Y para hacerlo, necesita menos de la mitad de la electricidad que necesitaría para encender una bombilla. Y aunque eso puede no ser necesario para una computadora en la que básicamente solo utilizas Facebook y Microsoft Word, podría significar mucho para la llegada de robots más avanzados y más accesibles.

“Este nivel de rendimiento es esencial para que un robot tome la información de los sensores, se ubique, perciba su entorno, reconozca y prediga el movimiento de los objetos cercanos, razone qué acción realizar y se articule de forma segura”, según el comunicado.

El hardware realmente increíble como el Jetson Xavier solo puede impulsar la tecnología hasta el momento. Necesita un software avanzado para que coincida. Ahí es donde entra NVIDIA Isaac.

NVIDIA Isaac es una plataforma de desarrollo dividida en tres componentes:

  • Isaac SDK (kit de desarrollo de software), una colección de herramientas que los desarrolladores pueden usar para crear su propio software de IA.
  • Isaac IMX (aplicaciones de aceleración inteligente de máquinas), una biblioteca de software de algoritmos robóticos desarrollada por NVIDIA, que la empresa afirma en su sitio web podría ahorrar a los desarrolladores “meses de tiempo y esfuerzo de desarrollo”.
  • Isaac SIM, un entorno de simulación virtual donde los desarrolladores pueden entrenar y probar sus sistemas de IA.

La empresa de IA más valiosa del mundo también pasa a ser parte del “Sistema de vigilancia más grande del mundo”

SenseTime_Logo

Aquí hay un grupo de personas que acaba de ganar más dinero de lo que jamás hayas visto: la compañía china SenseTime anunció recientemente que recaudó $600 millones en una reciente ronda de recaudación de fondos, duplicando la valoración de la compañía, informa Bloomberg. Probablemente no sea una coincidencia que la compañía también fabrique una herramienta que ayudará al gobierno a espiar a sus ciudadanos.

sensetimematch

Sí, SenseTime se especializa en software de reconocimiento facial, del tipo que atrapa (luego multa) a los ciudadanos por cruzar la calle. En solo tres años, la compañía aparentemente se volvió extremadamente exitosa: “Si alguna vez te fotografiaron con un teléfono fabricado en China o caminaste por las calles de una ciudad china, es probable que tu rostro haya sido capturado digitalmente por el software integrado de SenseTime en más de 100 millones de dispositivos móviles “, escribe Bloomberg.

Ya se asoció con Honda para trabajar en autos autónomos, y el gigante de las telecomunicaciones Qualcomm respaldó a la compañía con la esperanza de poner reconocimiento facial en los dispositivos inteligentes de la compañía.

El éxito de SenseTime es un importante trampolín hacia el plan de China para dominar el campo de la inteligencia artificial para el año 2030. Existen muchas razones por las cuales esto podría ser deseable, pero una puede ser impulsar su sistema de crédito social. Ese sistema, que estará en vigencia para todos los ciudadanos para 2020, determinará todo, desde dónde los niños pueden ir a la escuela hasta si pueden abandonar el país.

Para hacer eso, el país necesita una tonelada de datos. Ya comenzó a reunirlo, a través de sitios de tecnología como Alibaba y Tencent. ¿SenseTime se unirá a ellos? Parece que ya lo tiene: SenseTime ya reconoció públicamente haber trabajado con las ramas del gobierno local y federal. Y aunque no sabemos con certeza si la empresa está ayudando a proporcionar información para construir los puntajes de crédito social, es una apuesta bastante segura de que será, si no lo es aún. Bloomberg está bastante seguro de que es así: “[SenseTime] contribuye al mayor sistema de vigilancia del mundo”.

Con esta inversión más reciente, liderada por el sitio de comercio masivo de China Alibaba (hmm, ¿otra coincidencia quizás?), SenseTime planea mejorar su plataforma de inteligencia artificial, construir infraestructura y “abrir nuevas oportunidades de negocios”, según CNBC.

Eso casi seguramente significa que el software de SenseTime se volverá más sofisticado y omnipresente. El reconocimiento facial se está volviendo rápidamente tan avanzado que elude los intentos de burlarlo, dejando a los ciudadanos preocupados por la privacidad con menos formas de evitar la vigilancia. Eso ya puede ser cierto para las personas en China, una nación que parece estar tratando de ganar el título de Nación más distopiana en la Tierra, y no es para menos el título, recordemos que el gobierno de China obligó a una parte de sus ciudadanos a instalar un software de espinaje en sus teléfonos móviles, tiene al presidente de por vida Xi Jinping, el sistema de vigilancia y reconocimiento facial para ciudadanos mas grande del mundo, un sistema de credito social para controlar el comportamiento de sus ciudadanos, el gran firewall y la prohibición de VPNs para evitar que sus ciudadanos obtengan acceso libre a internet, un sistema pre-crimen, la prohibición de la letra N, entre otras muchas curiosidades.

Dragonfly Eye: La máquina de Inteligencia Artificial que puede identificar a 2 mil millones de personas en segundos

65b781be-d8bd-11e7-91af-f34de211f924_4000x1584_131333

Yitu Technology ha creado un algoritmo de inteligencia artificial que se puede conectar a millones de cámaras de vigilancia y reconocer instantáneamente a las personas. La compañía, con sede en Shanghai, China, desarrolló Dragonfly Eye para escanear millones de fotografías que han sido registradas en la base de datos nacional del país.

Esto significa que tiene una colección de 1,800 millones de fotos en el archivo, incluidos los visitantes del país y las que se toman en los puertos y aeropuertos. También puede tener acceso a las fotos de cada uno de los titulares de la tarjeta de identidad de Hong Kong, aunque Yitu se ha negado a confirmarlo. La tecnología de vanguardia ahora se utiliza para rastrear delincuentes, y las primeras etapas de uso demuestran que ha sido un gran éxito.

“Nuestras máquinas pueden reconocer fácilmente entre al menos 2 mil millones de personas en cuestión de segundos”, dijo el director ejecutivo y cofundador de Yitu, Zhu Long, al South China Morning Post.

“Lo que hubiera sido increíble hace solo tres años”.

Se informa que el primer día en que Dragonfly Eye estuvo en funcionamiento en el Metro de Shanghai, pudo rastrear a un hombre buscado por policías y envió a la policía a su ubicación exacta.

Otros 567 presuntos delincuentes fueron capturados en el sistema de metro de la ciudad.

Zhu continuó: “Digamos que vivimos en Shanghai, una ciudad de 24 millones de personas.

“Es un desafío para el gobierno controlar a una población tan grande”. Y sería imposible sin tecnología. Incluso cuando tenemos muchas cámaras instaladas, es una tarea difícil.

“No se pueden ver todos los videos, y hacer una búsqueda consume mucho tiempo y requiere demasiados recursos para obtener resultados significativos a partir de una gran cantidad de datos. Pero la inteligencia artificial puede hacerlo fácilmente y utilizando la infraestructura existente”.

Y el futuro de la tecnología Dragonfly no se detiene en la captura de delincuentes.

Se cree que podría usarse para identificar a las personas en los cajeros automáticos en el futuro, haciendo que llevar una tarjeta bancaria sea cosa del pasado (Cashless Society).

Añadió: “La gente pierde el tiempo discutiendo si todo es publicidad o es real, pero el reconocimiento facial ya muestra lo real que puede llegar a ser. En 2015, la IA ya había vencido a humanos en tareas de verificación facial.

“Nuestro algoritmo es más preciso que los funcionarios de aduanas para indicar si dos imágenes muestran a la misma persona. Incluso puede encontrar un sujeto entre millones de personas usando una imagen de 25 o 30 años.

“Y en los últimos dos años, el rendimiento de las máquinas se ha incrementado 1,000 veces”.

La Inteligencia Artificial de Google construyó una IA que supera a todas las fabricadas por humanos

 

shutterstock_626404406

El proyecto AutoML de Google, diseñado para hacer que una IA construya otras IAs, ahora ha desarrollado un sistema de visión por computadora que supera ampliamente a los modelos más avanzados. El proyecto podría mejorar la forma en que los vehículos autónomos y los robots de inteligencia artificial de la próxima generación “ven”.

Una IA que puede construir IAs

En mayo de 2017, los investigadores de Google Brain anunciaron la creación de AutoML, una inteligencia artificial (IA) que es capaz de generar sus propias IA. Más recientemente, decidieron presentar AutoML con su mayor desafío hasta la fecha, y la IA que puede construir AI creó un “niño” que superó a todos sus contrapartes hechas por el hombre.

Los investigadores de Google automatizaron el diseño de modelos de aprendizaje automático utilizando un enfoque llamado aprendizaje reforzado. AutoML actúa como una red neuronal controladora que desarrolla una red infantil de inteligencia artificial para una tarea específica. Para esta IA infantil en particular, que los investigadores llamaron NASNet, la tarea consistía en reconocer objetos (personas, automóviles, semáforos, bolsos, mochilas, etc.) en un video en tiempo real.

image2-1200x799

AutoML evaluaría el rendimiento de NASNet y usaría esa información para mejorar su IA infantil, repitiendo el proceso miles de veces. Cuando se probaron en la clasificación de imágenes ImageNet y los conjuntos de datos de detección de objetos COCO, que los investigadores de Google llaman “dos de los conjuntos de datos académicos a gran escala más respetados en visión artificial”, NASNet superó a todos los demás sistemas de visión por computadora.

Según los investigadores, NASNet tenía un 82.7% de precisión en la predicción de imágenes en el conjunto de validación de ImageNet. Esto es un 1.2 por ciento mejor que cualquier resultado publicado previamente, y el sistema también es un 4% más eficiente, con un promedio de Precisión media (mAP) del 43.1%. Además, una versión menos computacionalmente exigente de NASNet superó a los mejores modelos de tamaño similar para plataformas móviles en un 3.1%.

Una vista del futuro

El aprendizaje automático es lo que le da a muchos sistemas de inteligencia artificial la capacidad de realizar tareas específicas. Aunque el concepto detrás de esto es bastante simple, un algoritmo aprende al ser alimentado con una tonelada de datos, el proceso requiere una gran cantidad de tiempo y esfuerzo. Al automatizar el proceso de creación de sistemas de inteligencia artificial precisos y eficientes, una IA que puede construir IA se lleva la peor parte de ese trabajo. En última instancia, eso significa que AutoML podría abrir el campo del aprendizaje automático y la inteligencia artificial a los no expertos.

En cuanto a NASNet específicamente, los algoritmos de visión por computadora precisos y eficientes son muy buscados debido a la cantidad de aplicaciones potenciales. Podrían utilizarse para crear sofisticados robots con inteligencia artificial o para ayudar a las personas con discapacidad visual a recuperar la vista, como sugirió un investigador. También podrían ayudar a los diseñadores a mejorar las tecnologías de los vehículos autónomos. Cuanto más rápido un vehículo autónomo puede reconocer objetos en su camino, más rápido puede reaccionar ante ellos, aumentando así la seguridad de dichos vehículos.

Los investigadores de Google reconocen que NASNet podría resultar útil para una amplia gama de aplicaciones y tiene una fuente abierta de AI para la inferencia en la clasificación de imágenes y la detección de objetos. “Esperamos que la comunidad más grande de aprendizaje automático pueda basarse en estos modelos para abordar multitud de problemas de visión artificial que aún no hemos imaginado”, escribieron en su publicación de blog.

A pesar de que las aplicaciones para NASNet y AutoML son abundantes, la creación de una IA que pueda construir inteligencia artificial plantea algunas preocupaciones. Por ejemplo, ¿qué impide que el padre transmita sesgos no deseados a su hijo? ¿Qué pasa si AutoML crea sistemas tan rápido que la sociedad no pueda mantener el ritmo? No es muy difícil ver cómo NASNet podría emplearse en sistemas de vigilancia automatizados en un futuro próximo, tal vez antes de que se establezcan regulaciones para controlar dichos sistemas.

 

Una Inteligencia Artificial ha recibido oficialmente su Residencia

 

ai-resident-japan-artificial-intelligence-tokyo

Tokio, Japón se ha convertido en la primera ciudad en otorgar oficialmente residencia a una inteligencia artificial (IA). El nombre de la inteligencia es Shibuya Mirai y existe solo como un chatbot en la popular aplicación de mensajería Line. Mirai, que se traduce como ‘futuro’ en japonés, se une a “Sophia” de Hanson Robotic como una IA pionera que gana estatus previamente reservado para entidades biológicas vivas. El Reino de Arabia Saudita le concedió a Sophia la ciudadanía el mes pasado.

 

Shibuya Ward de Tokyo publicó una declaración a través de Microsoft que decía: “Sus pasatiempos son tomar fotos y observar a la gente. Y le encanta hablar con las personas… Por favor hable con él sobre cualquier cosa”. Se dice que la meta de Mirai es familiarizar a algunos de los 224,000 ciudadanos del distrito con el gobierno local y darles una oportunidad para compartir opiniones con los funcionarios.

Mirai está programado para ser un niño de siete años y puede tener conversaciones de texto con los usuarios e incluso “hacer ligeras modificaciones a los selfies que le envían”.

Esto lo convierte en el primer bot de inteligencia artificial de Japón, y quizás el primero del mundo en obtener un lugar en un registro local de la vida real.

http://www.dailymail.co.uk/sciencetech/article-5049057/AI-boy-granted-residency-central-Tokyo.html

Brainternet: Investigadores han vinculado un cerebro humano a Internet por primera vez

ab7d2118284e0c6f2db0088f94dd86a3

Los investigadores de la Wits University han vinculado un cerebro directamente a Internet. Los datos recolectados de este proyecto podrían ayudar a impulsar los próximos pasos en el aprendizaje de máquinas e interfaces cerebro-computadora.

Un equipo de investigadores de la Universidad de Wits en Johannesburgo, Sudáfrica han hecho un gran avance en el campo de la ingeniería biomédica. Según un comunicado publicado en Medical Express, por primera vez en la historia, los investigadores han ideado una forma de conectar el cerebro humano con Internet en tiempo real. Ha sido llamado el proyecto “Brainternet“, y esencialmente convierte el cerebro… “en un nodo Internet de Cosas (IoT) en la World Wide Web”.

El proyecto funciona mediante la toma de las señales de ondas cerebrales EEG recopiladas por un dispositivo EEG Emotiv conectado a la cabeza del usuario. Las señales se transmiten a una computadora de bajo costo Raspberry Pi, que transmite los datos a una interfaz de programación de aplicaciones y muestra los datos en un sitio web abierto donde cualquiera puede ver la actividad. Adam Pantanowitz, profesor de la Facultad de Ingeniería Eléctrica y de Información de Wits y supervisor del proyecto, dijo:

Brainternet es una nueva frontera en los sistemas de interfaz cerebro-computadora. Hay una carencia de datos fácilmente comprensibles sobre cómo un cerebro humano trabaja y procesa información. Brainternet busca simplificar la comprensión de una persona de su propio cerebro y el cerebro de otros. Lo hace a través de la supervisión continua de la actividad cerebral, así como la habilitación de cierta interactividad.

Pantanowitz dijo que esto es sólo el comienzo de las posibilidades del proyecto. Él agrega que el equipo ahora está apuntando permitir una experiencia más interactiva entre el usuario y su cerebro. Una parte de esta funcionalidad ya se ha incorporado al sitio, pero es muy estrecha, limitada a estímulos como el movimiento del brazo. “Brainternet se puede mejorar aún más para clasificar las grabaciones a través de una aplicación de teléfono inteligente que proporcionará datos para un algoritmo de aprendizaje automático. En el futuro, podría haber información transferida en ambas direcciones – entradas y salidas al cerebro “, dijo Pantanowitz.

Las futuras aplicaciones para este proyecto podrían conducir a algunos avances muy emocionantes en el aprendizaje de máquinas y las interfaces cerebro-computadora, como el lazo neural de Elon Musk y el kernel de Bryan Johnson. Los datos recolectados de este proyecto podrían conducir a una mejor comprensión de cómo funcionan nuestras mentes y cómo podemos aprovechar ese conocimiento para aumentar nuestro poder cerebral.

Fuente: https://futurism.com/researchers-have-linked-a-human-brain-to-the-internet-for-the-first-time-ever/

IBM acaba de lograr un avance en el aprendizaje profundo de las IAs

deep-learning-shutterstock-700x-675x380

Los investigadores de IBM lograron una hazaña que podría mejorar la forma en que los sistemas de inteligencia artificial aprenden a través de una tonelada de datos. En lugar de ejecutar algoritmos de aprendizaje profundo utilizando sólo un servidor, lograron que funcione eficientemente en varios servidores.

Hoy en día las tecnologías de inteligencia artificial (AI) se ejecutan generalmente utilizando algoritmos de aprendizaje automático. Estos operan en lo que se llama una red neuronal – sistemas diseñados para imitar el funcionamiento del cerebro humano – como parte de lo que se llama aprendizaje profundo. Actualmente, la mayoría de los avances de IA son en gran parte debido al aprendizaje profundo, con desarrollos como AlphaGo, el jugador de GO con IA creado por DeepMind de Google.

Ahora, IBM ha anunciado que han desarrollado una IA que hace que todo el proceso de aprendizaje de la máquina sea más rápido. En lugar de ejecutar complejos modelos de aprendizaje profundo en un solo servidor, el equipo, liderado por el director de aceleración de sistemas y memoria de IBM Research, Hillery Hunter, logró ampliar eficientemente el aprendizaje profundo distribuido (DDL) utilizando múltiples servidores.

“La idea es cambiar la velocidad de la rapidez con que se puede entrenar un modelo de aprendizaje profundo y realmente aumentar esa productividad”, dijo Hunter a Fortune. Anteriormente, era difícil implementar configuraciones DDL debido a la complejidad necesaria para mantener los procesadores en sincronía. El equipo de IBM Research logró utilizar 64 de sus servidores Power 8 para facilitar el procesamiento de datos. Cada procesador se conectó usando procesadores gráficos Nvidia y una interconexión rápida NVLink, resultando en lo que el equipo de Hillery llama PowerAI DDL.

En lugar de tomar días para que una red de aprendizaje profundo procese modelos, ahora podría tomar sólo horas. “Nuestro objetivo es reducir el tiempo de espera asociado con el entrenamiento de aprendizaje profundo de días u horas a minutos o segundos, y permitir una mayor precisión de estos modelos de IA”, escribió Hunter en un blog de IBM Research.

En su estudio publicado en línea, el equipo afirmó que lograron una eficiencia de escala de 95% a través de 256 procesadores cuando se ejecutó la configuración utilizando un marco de aprendizaje profundo desarrollado en la Universidad de California en Berkeley. También registraron un 33.8% de precisión de reconocimiento de imágenes, procesando 7.5 millones de imágenes en poco más de siete horas, superando el récord de Microsoft de 29.8% en 10 días.

Algunos, sin embargo, son escépticos sobre el logro. Patrick Moorhead, presidente y fundador de una empresa de investigación tecnológica con sede en Texas, dijo a Fortune que el 95% parecía muy bueno para ser cierto.

A %d blogueros les gusta esto: