Archivo del sitio

Los secretos de Silicon Valley: Lo que Big Tech no quiere que sepas

Alguna vez fue una región agrícola somnolienta, Silicon Valley es ahora el centro de una industria global que está transformando la economía, dando forma a nuestro discurso político y cambiando la naturaleza misma de nuestra sociedad. ¿Entonces qué pasó? ¿Cómo se produjo este notable cambio? ¿Por qué esta área es el epicentro de esta transformación?

Silicon Valley. Ubicado en el sur de la Bahía de San Francisco, en el norte de California, el Valle no es solo una ubicación geográfica. Es una idea. Es una expresión de la necesidad de digitalizar toda la información del mundo, y de hacer una base de datos, rastrear y almacenar esa información. Y como ahora estamos empezando a aprender, el resultado de esa digitalización de todo es un mundo sin privacidad. Un mundo donde nuestra capacidad para participar en el debate público está sujeta a los caprichos de los grandes multimillonarios de la tecnología. Un mundo donde la libertad es cosa del pasado y nadie está fuera del alcance del Gran Hermano.

Para muchos, esto es solo una feliz coincidencia para las agencias de inteligencia que buscan capturar y almacenar cada detalle de cada momento de nuestras vidas. Es solo una casualidad que el complejo industrial de la información ahora tiene suficiente información para rastrear cada movimiento, escuchar nuestras conversaciones, mapear nuestras redes sociales y, cada vez más, predecir nuestros planes futuros. Es solo una serie de eventos aleatorios que llevaron al mundo de hoy.

Pero lo que las masas no saben es que Silicon Valley tiene una historia muy especial. Una que explica cómo llegamos a nuestra situación actual y otra que habla del futuro en el que estamos dormidos. Un futuro de vigilancia total y control total por parte de los multimillonarios de Big Tech y sus sombríos partidarios.

Estos son los secretos de Silicon Valley: Lo que Big Tech no quiere que sepas.

Una vez conocido como “El valle del deleite del corazón”, el valle de Santa Clara era una zona bucólica y agraria conocida por su clima templado y árboles frutales en flor. Hasta la década de 1960, fue la mayor región productora y empacadora de frutas del mundo.

Hoy en día hay pocos recordatorios del durmiente pasado agrícola del valle. Ahora llamado “Silicon Valley”, es el hogar de muchas de las compañías de tecnología y redes sociales más grandes del mundo, desde Google y Facebook hasta Apple y Oracle, desde Netflix y Cisco Systems hasta PayPal y Hewlett-Packard. Es el centro de una industria global que está transformando la economía, dando forma a nuestro discurso político y cambiando la naturaleza misma de nuestra sociedad.

¿Entonces qué pasó? ¿Cómo se produjo este notable cambio? ¿Por qué es Silicon Valley el epicentro de esta transformación?

La respuesta es sorprendentemente simple: la Segunda Guerra Mundial sucedió.

El influjo de la investigación y la industria de alta tecnología en la región es el resultado directo del advenimiento de la Segunda Guerra Mundial y las acciones de un solo hombre: Frederick Terman.

Frederick era el hijo de Lewis Terman, un pionero de la psicología educativa en la Escuela de Graduados de Educación de Stanford. Lewis Terman, un eugenista declarado, popularizó las pruebas de inteligencia en Estados Unidos, y ayudó a realizar la primera administración masiva de una prueba de inteligencia para el Ejército de los EE. UU. durante el ingreso de Estados Unidos a la Primera Guerra Mundial.

Frederick Terman asistió a Stanford, donde obtuvo una licenciatura en química y una maestría en ingeniería eléctrica antes de dirigirse al MIT para obtener su doctorado en ingeniería eléctrica con Vannevar Bush. Esta conexión entró en juego en el estallido de la Segunda Guerra Mundial, cuando Bush, ahora al frente de la Oficina de Investigación y Desarrollo de los EE. UU., que gestionó casi toda la investigación y el desarrollo del ejército de EE. UU. durante la guerra, le pidió a Terman que dirigiera el Laboratorio de investigación de radio alto secreto en la Universidad de Harvard. Allí, Terman dirigió a 800 de los principales investigadores del país en el campo emergente de la guerra electrónica. Su trabajo incluyó el desarrollo de algunos de los primeros equipos de inteligencia de señales e inteligencia electrónica, incluidos detectores de radar, perturbadores de radar y elementos de aluminio para ser utilizados como contramedidas contra las defensas antiaéreas alemanas.

El valle, tal como lo conocemos hoy, nació en la era posterior a la Segunda Guerra Mundial, cuando Terman regresó a Stanford como decano de la Escuela de Ingeniería y comenzó a transformar la escuela en el “MIT de Occidente”.

STEVE BLANK: Terman, con su experiencia en la guerra, decidió convertir a Stanford en un centro de excelencia en microondas y electrónica, y él era el hombre para hacerlo. El laboratorio de investigación de radio de Harvard fue el pináculo en los Estados Unidos de cada transmisor y receptor de microondas avanzado que puedas imaginar. Y lo que hace es reclutar a once ex miembros del laboratorio de investigación de radio y dice: “Saben, realmente no tenemos un laboratorio, ¡pero enhorabuena! ¡Ya están todos en el cuerpo docente de Stanford!”. “Oh, genial, gracias”. Se unieron a Stanford y crearon su propio laboratorio: el Laboratorio de Investigación de Electrónica para la investigación básica y no clasificada. Y consiguen que la Oficina de Investigación Naval les otorgue su primer contrato, para financiar en realidad la investigación de Stanford de la posguerra sobre microondas. Para 1950, Terman convierte el departamento de ingeniería de Stanford en el MIT of the West, básicamente al tomar toda la I + D innovadora de la guerra en microondas, al trasladarlo a Stanford, al tomar los jefes de departamento y el personal clave.

SOURCE: Secret History of Silicon Valley

Con los fondos de investigación militar que fluyen en la región, Terman comenzó a transformar el área de la Bahía de San Francisco en un punto caliente de investigación de alta tecnología. En 1951, encabezó la creación del Parque Industrial de Stanford, ahora conocido como Parque de Investigación de Stanford, una empresa conjunta entre Stanford y la Ciudad de Palo Alto para atraer grandes corporaciones de tecnología al área. El parque fue un gran éxito, finalmente atrajo a Hewlett-Packard, General Electric, Kodak y otras importantes empresas de tecnología, y consolidó a Silicon Valley como un nexo entre Stanford, la gran tecnología y la investigación patrocinada por el gobierno.

Y esta conexión no era tangencial. Como el investigador Steve Blank escribe en su propia historia de las raíces militares de Silicon Valley:

“Durante la década de 1950, Fred Terman fue asesor de todas las ramas principales del ejército de los Estados Unidos. Formó parte del Consejo Asesor de I + D del Cuerpo de Señales del Ejército, en el Consejo Asesor Científico de Contramedidas Electrónicas de la Fuerza Aérea, un Fideicomisario del Instituto de Análisis de Defensa, en el Comité Asesor de Investigación Naval, en el Consejo Científico de Defensa y un asesor del Comité Asesor Científico del Presidente. Sus actividades comerciales lo tuvieron en la junta directiva de HP, Watkins-Johnson, Ampex y Director y Vicepresidente de SRI. Es increíble que este tipo haya dormido alguna vez. Terman fue la máquina de redes definitiva para Stanford y sus contratos militares”.

No es un secreto que Silicon Valley ha prosperado desde el principio con los fondos de investigación del Pentágono y las conexiones del Departamento de Defensa. Desde William Shockley (un eugenista rabioso que pasó la Segunda Guerra Mundial como director del Grupo de Operaciones de Guerra Antisubmarina de la Universidad de Columbia y que a veces es citado como el otro padre fundador de Silicon Valley por su trabajo en semiconductores de silicio) al Instituto de Investigación de Stanford (un contratista militar clave que tenía vínculos estrechos con la Agencia de Proyectos de Investigación Avanzada [ARPA]). El Departamento de Defensa de los Estados Unidos ha desempeñado un papel clave en la configuración del desarrollo de la región.

El Instituto de Investigación de Stanford fue encabezado por Terman y creado por los fideicomisarios de la Universidad de Stanford en 1946. Desde su inicio, el SRI recibió instrucciones de evitar la celebración de contratos federales que pudieran enredar a Stanford en asuntos políticos. Pero dentro de seis meses ya había roto esta directiva, buscando contratos con la Oficina de Inteligencia Naval. En la década de 1960, al mismo tiempo que el Centro de Inteligencia Artificial del instituto estaba creando “Shakey“, el “primer robot móvil que podía razonar sobre su entorno”. Los manifestantes de la Guerra de Vietnam seleccionaron a SRI por su trabajo de contrato con ARPA, el brazo del Pentágono dedicado a desarrollar tecnología de punta. La presión hizo que la Universidad de Stanford cortara formalmente sus vínculos con el SRI en la década de 1970, pero la investigación financiada por el ejército del instituto no se detuvo allí.

El Instituto de Investigación de Stanford se convertiría en el segundo nodo de ARPANET, la red de conmutación de paquetes creada por el Pentágono que dio origen a la Internet de hoy en día. El primer mensaje enviado entre dos computadoras fue enviado en ARPANET entre una computadora en UCLA y una en SRI.

Fue el jefe de la división de comando y control de ARPA, Robert Kahn, quien creó la primera red móvil experimental (conocida como “PRNET”) alrededor de Silicon Valley y formó la red de satélites inicial (“SATNET”) que conectó internacionalmente la Internet antigua. En 1973, Kahn contó con la ayuda de Vint Cerf, un profesor asistente en la Universidad de Stanford, para desarrollar, como un proyecto del Departamento de Defensa, el conjunto de protocolos TCP / IP que ayudaría a hacer posible Internet.

En una reciente mesa redonda organizada por DARPA, el último apodo para lo que originalmente fue ARPA, Vint Cerf admitió que todo el proyecto ARPANET fue dictado por las necesidades del Pentágono de un sistema de comando y control que respondiera a los requisitos militares:

VINT CERF: Internet estaba motivada por la creencia de que Comando y Control podía usar las computadoras para permitir que el Departamento de Defensa usara sus recursos mejor que un oponente. En ese caso particular, Bob, en particular, comenzó el programa en DARPA a principios de la década de 1970, [nos] dimos cuenta de que teníamos que tener las computadoras en los barcos en el mar, en los aviones y en los vehículos móviles, y ARPANET solo había, arreglado… ya sabes, máquinas que estaban en habitaciones con aire acondicionado conectadas entre sí, ya sabes, en términos generales, circuitos telefónicos dedicados. Así que no puedes conectar los tanques con cables porque pasan sobre ellos y se rompen, y los aviones, nunca lo harán desde el suelo, ya sabes, puedes ver todo… Por lo tanto, esto llevó a la necesidad de comunicación por radio móvil y comunicación por satélite en un entorno de red.

La pregunta sobre la naturaleza global aquí es fácil de responder. Al menos pensé que estábamos haciendo esto para el Departamento de Defensa, tendría que operar en todo el mundo. Y, por lo tanto, no podría ser un diseño que de alguna manera se limitara a CONUS, por ejemplo. Y tampoco podría ser un diseño que dependiera en absoluto de la cooperación de otros países que asignaran, por ejemplo, espacio de direcciones. Quiero decir, el tipo de modelo tonto de esto es si usamos códigos de países para indicar diferentes redes. . . Diferentes identificadores de red. Imagina que tienes que invadir el país B y antes de hacerlo tienes que ir y decir: “Hola, vamos a invadir tu país en un par de semanas y necesitamos un espacio de direcciones para ejecutar otro sistema de llamadas”. Sí, ya sabes, probablemente no iba a funcionar. Así que sabíamos que tenía que ser de alcance global.

SOURCE: From ARPAnet to the Internet, Web, Cloud, and Beyond: What’s Next?

Una de las primeras demostraciones del protocolo: una prueba de 1977 que involucró una camioneta equipada con equipo de radio por SRI que ahora se conoce como el nacimiento del Internet moderno, incluso simuló “una unidad móvil en el campo, digamos en Europa, en medio de algún tipo de acción tratando de comunicarse a través de una red de satélite a los Estados Unidos”.

Pero mientras que la inversión directa en esta revolución tecnológica se ajustaba a los propósitos del Pentágono, la comunidad de inteligencia de los Estados Unidos buscaba otras vías más ocultas para aprovechar el increíble potencial de Silicon Valley y sus tecnologías de vigilancia. Con el advenimiento de la Guerra Fría y el aumento de las tensiones entre los EE. UU. y la URSS en un nuevo juego altamente tecnológico de “espía contra espía”, la financiación para la investigación y el desarrollo de tecnología de punta se colocó bajo una cobertura de seguridad nacional y clasificado.

BLANK: Pero a principios de la década de 1950, la Guerra de Corea cambia el juego. Después de la Segunda Guerra Mundial, aquellos que conocen su historia, básicamente desmovilizamos a nuestras tropas, empaquetamos a nuestros bombarderos y nuestros combatientes, y dijimos: “Vamos a disfrutar de los beneficios de la posguerra”. En 1949, los soviéticos explotaron su primer arma nuclear. La Guerra Fría, con la Guerra de Corea, se calienta. De repente, los Estados Unidos se dan cuenta de que el mundo ha cambiado de nuevo y el trabajo espía llega a Stanford.

El ejército se acerca a Terman y le pide que establezca el Applied Electronics Lab para hacer programas militares clasificados, y duplica el tamaño del programa de electrónica en Stanford. Dijeron: “Bueno, mantendremos esto separado del Laboratorio de Investigación de Electrónica sin clasificar”. Pero por primera vez, la Universidad de Stanford se convirtió en un socio completo con los militares en la investigación y desarrollo del gobierno.

SOURCE: Secret History of Silicon Valley

La llegada del dinero de inversión de la agencia de inteligencia creó una nueva relación entre el gobierno y los investigadores en el Valle. En lugar de contratar directamente a las compañías de tecnología para producir la tecnología, la electrónica de consumo sería regulada, dirigida, supervisada e infiltrada cada vez más por los trabajadores del gobierno, quienes podrían utilizar esa tecnología como base para una operación de inteligencia de señales a nivel mundial, dirigida no solo a los militares de países extranjeros, sino a la población del mundo en su conjunto.

Ahora, envuelto en un manto de seguridad nacional, el papel del gobierno en el desarrollo de Big Tech ha sido en gran parte oculto. Pero, si sabe dónde buscar, las huellas digitales de las agencias de inteligencia siguen siendo visibles en casi todas las compañías y tecnologías importantes que emergen de Silicon Valley.

Tomemos Oracle Corporation, por ejemplo. La tercera corporación de software más grande del mundo, Oracle es famosa por su software de base de datos homónimo. Lo que muchos no saben es que el nombre de “Oracle” proviene del primer cliente de la empresa: la CIA. “Proyecto Oracle” era el nombre en código de la CIA para una base de datos relacional gigante que estaba siendo construida bajo contrato por Ampex, una firma de Silicon Valley. Asignados al proyecto fueron Larry Ellison, Bob Miner y Ed Oates. Aunque el Proyecto Oracle “fue algo así como un desastre“, llevó a Ellison y sus socios a escindir Oracle Corporation, que hasta el día de hoy recibe el 25% de su negocio de los contratos del gobierno.

O tomemos Sun Microsystems. Fundada en 1982, la estación de trabajo Unix del gigante del software y hardware de Silicon Valley, el “Sun-1”, como explica ComputerWorld, “debe sus orígenes directamente a media docena de las principales tecnologías desarrolladas en varias universidades y empresas, todas financiadas por ARPA. ”Sun fue adquirida por Oracle en 2010 por $ 7.4 mil millones.

Pero para toda una generación que crece hoy, esta es historia antigua. Claro, las agencias de inteligencia y el Departamento de Defensa participaron en la fundación de estas incondicionales de Silicon Valley. Pero ¿qué pasa con el Silicon Valley de hoy? ¿Qué tiene esto que ver con Google, Facebook, PayPal o los gigantes de Big Tech que se han convertido en sinónimo de informática en la era de Internet?

La era moderna de Silicon Valley comenzó en la década de 1990, cuando el advenimiento de la World Wide Web trajo todo el potencial de la revolución informática a los hogares de Estados Unidos y de todo el mundo. Esta fue la era de la burbuja punto com, cuando las pequeñas empresas sin plan de negocios y sin ingresos podían convertirse en compañías de un millón de dólares de la noche a la mañana. Y detrás de todo esto, dando la bienvenida a la revolución desde las sombras, estaban las agencias de inteligencia, que ayudaron a financiar las tecnologías y plataformas principales de la Internet moderna.

Uno de los primeros problemas a los que se enfrentaron los primeros usuarios de la web fue cómo buscar a través de la increíble variedad de sitios web personales, sitios web corporativos, sitios gubernamentales y otros contenidos que se publicaban en línea todos los días. Para que la web se convierta de un patio de recreo para fanáticos de la tecnología y aficionados en una herramienta de comunicación ubicua, tendría que haber una manera de clasificar rápidamente la gran cantidad de información disponible y devolver una lista relevante de sitios web que lleve a los usuarios a información útil. Las primeras iteraciones de la búsqueda en línea, incluidas las listas curadas personalmente de sitios interesantes y motores de búsqueda primitivos que se basaban en la simple concordancia de palabras clave, no cumplían con la tarea.

Por una feliz coincidencia, el problema de la catalogación, indexación, clasificación y consulta de grandes cantidades de información fue un problema en el que las agencias de inteligencia también estaban trabajando. A medida que las masas de datos que fluyen a través de Internet dieron origen a la era del Big Data, la NSA, la CIA y otros miembros de la comunidad de inteligencia de los Estados Unidos reclutaron a las mejores y más inteligentes mentes jóvenes del país para ayudarles a almacenar, buscar y analizar esta informacion… y a los que la buscan. Y, como de costumbre, pidieron ayuda a la Universidad de Stanford y a los niños genios de Silicon Valley.

Google, como relata la ahora historia familiar, comenzó como un proyecto de investigación de Larry Page y Sergey Brin, dos estudiantes graduados de la Universidad de Stanford. Como era de esperar, uno no tiene que cavar mucho para encontrar la conexión con el Departamento de Defensa. DARPA, el nombre actual de la renombrada ARPA, fue uno de los siete patrocinadores militares, civiles y de aplicación de la ley del “Proyecto de Bibliotecas Digitales de Stanford“, que ayudó a financiar la investigación de Page y Brin. A DARPA incluso se le agradeció por su nombre en el libro blanco donde se presentó por primera vez la idea de Google: “La anatomía de un motor de búsqueda web hipertextual a gran escala“.

Menos conocido es el proyecto “Sistemas de datos digitales masivos” encabezado por la comunidad de inteligencia de los Estados Unidos y financiado a través de agencias no clasificadas como la National Science Foundation. Como lo explica un correo electrónico que presenta el proyecto a investigadores de las principales universidades de EE. UU. en 1993, fue diseñado para ayudar a las agencias de inteligencia a “desempeñar un papel proactivo en estimular la investigación en la gestión eficiente de bases de datos masivas y garantizar que los requisitos de la Comunidad de Inteligencia pueden ser incorporados o adaptados en productos comerciales”.

Como Jeff Nesbit, ex director de asuntos legislativos y públicos de la Fundación Nacional de Ciencia, detalla en un artículo revelador de 2017 para qz.com sobre el verdadero origen de Google:

“Los brazos de investigación de la CIA y la NSA esperaban que las mejores mentes informáticas de la academia pudieran identificar lo que llamaron ‘aves de una pluma:’ [sic] Así como los gansos vuelan juntos en grandes formas en V, o bandadas de gorriones hacen repentinamente movimientos juntos en armonía, predijeron que grupos de humanos con ideas afines se moverían juntos en línea. . .”

“El objetivo de su investigación fue rastrear las huellas digitales dentro de la red de información global en rápida expansión, que en ese momento se conocía como la World Wide Web. ¿Podría organizarse un mundo entero de información digital para que las solicitudes que los humanos hicieron dentro de una red de este tipo puedan ser rastreadas y clasificadas? ¿Podrían sus consultas ser vinculadas y clasificadas en orden de importancia? ¿Se podrían identificar las “aves de una pluma” dentro de este mar de información para que las comunidades y los grupos puedan ser rastreados de manera organizada?

El proyecto distribuyó más de una docena de subvenciones de varios millones de dólares cada una, para ayudar a lograr este objetivo de rastrear, clasificar y extraer el comportamiento en línea para identificar y categorizar comunidades y rastrear grupos en la vida real. ¿Y uno de los primeros destinatarios de esta subvención de dinero? El equipo de Sergey Brin en Stanford y su investigación sobre la optimización de consultas de búsqueda.

Desde su fundación y continuidad hasta el presente, Google ha mantenido estrechos vínculos con los aparatos de inteligencia, militares y policiales de los Estados Unidos. Sin embargo, como ocurre con todos los asuntos de la llamada “seguridad nacional”, solo tenemos una ventana a esa relación por parte del registro público y desclasificado de contratos y acuerdos que el gigante tecnológico ha dejado a su paso.

En 2003, Google firmó un contrato de $ 2.1 millones con la Agencia de Seguridad Nacional, el brazo de vigilancia de la comunidad de inteligencia de los EE. UU. que es responsable de recopilar, almacenar y analizar señales de inteligencia en operaciones de inteligencia extranjera y contrainteligencia. Google creó para la agencia una herramienta de búsqueda personalizada “capaz de buscar 15 millones de documentos en veinticuatro idiomas”. Tan importante fue esta relación con Google que, cuando el contrato expiró en abril de 2004, lo extendió por un año más sin costo para el gobierno.

En 2005, se reveló que In-Q-Tel, el brazo de capital de riesgo de la CIA y la encapsulación perfecta de la relación de las agencias de inteligencia con Silicon Valley, había vendido más de 5,000 acciones de Google. No está exactamente claro cómo la firma de capital de riesgo de la CIA terminó con 5,000 acciones de Google, pero se cree que se produjo cuando Google compró Keyhole Inc., el desarrollador del software que más tarde se convertirá en Google Earth. El nombre de la compañía, “Keyhole”, es una referencia no muy sutil a la clase de satélites de reconocimiento de Keyhole que las agencias de inteligencia de los EE. UU. han estado utilizando durante décadas para obtener imágenes en 3D y análisis de mapas. Keyhole, Inc. trabajó estrechamente con la comunidad de inteligencia de los EE. UU. e incluso se jactó de que el Pentágono estaba utilizando su tecnología para apoyar la invasión de Irak. Hasta el día de hoy, la propia CIA describe a Google Earth como “tecnología asistida por la CIA” en su propia página dedicada al “Impacto de la tecnología de la CIA“.

En 2010, comenzaron a surgir los detalles de una relación formal entre NSA y Google, pero ambas partes se negaron a divulgar más información sobre la relación. Informes posteriores sugirieron que Google había “acordado proporcionar información sobre el tráfico en sus redes a cambio de información de la NSA sobre lo que sabía de hackers extranjeros”. Más detalles surgieron de una solicitud de la Ley de Libertad de Información en 2014, que reveló que Sergey Brin y Eric Schmidt no solo se relacionaron con el primer nombre del entonces jefe general de la NSA, Keith Alexander, sino que Google fue parte de una “iniciativa secreta del gobierno conocida como el Marco de Seguridad Duradera”, y que esta iniciativa involucró a Silicon Valley asociándose con el Pentágono y la comunidad de inteligencia de Estados Unidos para compartir información “a la velocidad de la red”.

La iniciativa Enduring Security Freedom es solo una ventana a la manera en que Big Tech puede obtener grandes cantidades de dinero de su relación con la NSA. En 2013, surgió que los participantes en el programa PRISM, el programa de vigilancia ilegal que permitía a la NSA acceder a toda la información y los datos de los usuarios de todas las compañías de Big Tech, fueron reembolsados ​​por los gastos del programa por un brazo de la agencia conocido como “Operaciones de Fuente Especial”.

MARINA PORTNAYA: El proceso completo supuestamente costó a los participantes de PRISM millones de dólares para implementar cada extensión exitosa, y esos costos, según los documentos de EE. UU., fueron cubiertos por un brazo de la NSA conocido como “Operaciones de fuente especial”. Según el periódico The Guardian, el denunciante de la NSA Edward Snowden describió a Special Source Operations como la “joya de la corona” de la agencia que maneja todos los programas de vigilancia que dependen de la asociación corporativa con los proveedores de telecomunicaciones e Internet para acceder a los datos de comunicación. Ahora, esta revelación se considera una evidencia de que ha existido una relación financiera entre las empresas de tecnología y la NSA. Y como lo expresó el periódico The Guardian, la revelación de que el dinero de los contribuyentes se utilizó para cubrir los costos de cumplimiento de la compañía plantea nuevas preguntas sobre la relación entre Silicon Valley y la NSA.

SOURCE: NSA Paid Google, Microsoft, Facebook, Yahoo To Spy On You

El programa PRISM en sí mismo demuestra que los vínculos de la agencia militar y de inteligencia con el actual Silicon Valley no terminan con Google. De hecho, cada uno de los incondicionales de Silicon Valley que dominan la web hoy en día tienen vínculos similares con el sombrío mundo de los espías.

En junio de 2003, la Oficina de Técnicas de Procesamiento de la Información, el ala de tecnología de la información de DARPA que había supervisado el proyecto original de ARPANET en la década de 1960, publicó silenciosamente un “Anuncio general de la agencia” en su sitio web para solicitar propuestas para un ambicioso nuevo proyecto. Con la etiqueta “BAA # 03-30“, este “folleto de información para el proponente” solicitó propuestas de los desarrolladores para construir un “(sub) sistema basado en ontología” llamado LifeLog que “capture, almacene y haga accesible el flujo de la experiencia de una persona e interacciones con el mundo”.

La idea, que parecía algo fantástica en 2003, era que los usuarios de LifeLog usarían un dispositivo que capturara y registrara todas sus transacciones e interacciones, movimientos físicos, correos electrónicos y llamadas telefónicas, y una variedad de otra información. El LifeLog se presentaría a los usuarios “como un sistema independiente que servirá como un poderoso diario multimedia automatizado y un álbum de recortes”, pero, a medida que el anuncio se revela, los datos recopilados se utilizarán para ayudar a DARPA a crear una nueva clase de sistemas verdaderamente “cognitivos” que pueden razonar de varias maneras”.

Si hubiera seguido adelante, LifeLog habría sido un diario virtual de todos los lugares a los que iban sus usuarios, todo lo que hicieron, todos con los que hablaron, lo que hablaron, lo que compraron, lo que vieron y escucharon, y lo que planearon hacer en el futuro. De inmediato creó críticas como un obvio intento por parte del gobierno de crear una herramienta para perfilar a los enemigos del estado, e incluso los partidarios del plan se vieron forzados a admitir que LifeLog “podría llamar la atención si [DARPA] no dejaba en claro cómo se resolverían los problemas de privacidad”.

Pero luego, sin explicación, el anuncio fue retirado y el proyecto fue abandonado. El portavoz de DARPA, Jan Walker, atribuyó la cancelación a “Un cambio en las prioridades” en la agencia, pero los investigadores cercanos al proyecto admitieron que estaban desconcertados por la repentina detención del programa. “Estoy seguro de que dicha investigación continuará siendo financiada con algún otro título”, escribió un investigador del MIT cuyo colega había pasado semanas trabajando en la propuesta. “No puedo imaginar a DARPA ‘abandonando’ un área de investigación tan importante”.

Wired.com informó sobre la cancelación de LifeLog el 4 de febrero de 2004. Ese mismo día, un estudiante universitario de Harvard llamado Mark Zuckerberg lanzó oficialmente “TheFacebook.com”, la primera encarnación de Facebook, que recopila grandes cantidades de datos sobre sus usuarios, ofreciéndoles la promesa de “un potente diario multimedia automatizado y un álbum de recortes”, pero, como se ha hecho cada vez más evidente en los últimos años, utilizando y vendiendo esos datos por motivos ulteriores.

Pero no es solo esta interesante coincidencia lo que conecta a Facebook con DARPA. Una vez más, el dinero que ayudó a “TheFacebook” a pasar de un “proyecto estudiantil” de Harvard a un multimillonario usuario de internet involucró una reubicación en Silicon Valley y abundantes inyecciones de capital de riesgo por parte de personas con acceso a inteligencia. Facebook se mudó a Palo Alto, California, en 2004 y recibió su primera inversión de $ 500,000 de parte de Peter Thiel, cofundador de PayPal. Pero el dinero real, y el interés real en Facebook, llegaron en 2005, en forma de una inversión de $ 12.7 millones de Accel Partners y $ 1 millón adicional de Jim Breyer de Accel. Resulta que Breyer tenía algunas conexiones interesantes propias.

NARRADOR: El primer dinero de capital de riesgo por un total de $ 500,000 llegó a Facebook del capitalista de riesgo Peter Thiel, fundador y ex CEO de PayPal. También es miembro de la junta directiva del grupo conservador radical Vanguard DAC. La financiación adicional llegó en forma de $ 12.7 millones de dólares de la firma de capital de riesgo Accel Partners. El gerente de Accel, James Breyer, fue presidente de la National Venture Capital Association. Breyer fue miembro de la junta de la Asociación Nacional de Capital de Riesgo con Gilman Louie, CEO de In-Q-Tel, una firma de capital de riesgo establecida por la Agencia Central de Inteligencia en 1999. Esta firma trabaja en varios aspectos de tecnología de la información e inteligencia, entre los que se incluyen: fomentar las tecnologías de minería de datos. Breyer también formó parte de la junta directiva de BBN Technologies, una firma de investigación y desarrollo conocida por encabezar ARPANET, o lo que hoy conocemos como Internet.

En octubre de 2004, la Dra. Anita Jones subió a bordo de BBN junto con Gilman Louie, pero lo más interesante es la experiencia de la Dra. Jones antes de unirse a BBN. La propia Jones se desempeñó en la junta directiva de In-Q-Tel y anteriormente fue directora de investigación e ingeniería de defensa del Departamento de Defensa de EE. UU. Sus responsabilidades incluían servir como asesora del Secretario de Defensa y supervisar la Agencia de Proyectos de Investigación Avanzada de la Defensa.

Esto va más allá de las apariencias iniciales. DARPA se lanzó a la fama nacional en 2002, cuando se conoció la existencia de la Oficina de Conocimiento de la Información (IAO). La IAO declaró que su misión era recopilar la mayor cantidad de información posible sobre todos en un lugar centralizado para que el gobierno de los Estados Unidos los pueda leer fácilmente, incluida, entre otras cosas, la actividad de Internet; historial de compra de tarjetas de crédito; compras de boletos de avión; alquiler de coches; registros médicos; transcripciones educativas; licencias de conducir; facturas de servicios públicos; declaraciones de impuestos; y cualquier otro dato disponible.

SOURCE: Facebook CIA connection

No debería sorprender, entonces, que la ex directora de DARPA, Regina Dugan, fue contratada por Google en 2012 para dirigir su grupo de Tecnología y Proyectos Avanzados, y que luego fue contratada por Facebook en 2016 para dirigir su Grupo de investigación “Edificio 8” que se centra en tecnologías experimentales como sensores cerebrales e inteligencia artificial. Tampoco es una sorpresa saber que DARPA ya está trabajando para militarizar la tecnología de realidad virtual Oculus de Facebook para combatir la guerra cibernética.

Tampoco es una sorpresa que el inversionista de Facebook, Peter Thiel, cofundador de PayPal, desarrolló Palantir, una herramienta de análisis y extracción de datos utilizada por la NSA, el FBI, la CIA y otras agencias de inteligencia, contraterrorismo y militares, a partir del propio algoritmo de detección de fraude de PayPal. O que In-Q-Tel fue uno de los primeros inversionistas externos en la tecnología Palantir, que ha ganado notoriedad en los últimos años por “usar las herramientas de Guerra contra el Terror para rastrear a los ciudadanos estadounidenses”.

Tampoco es una sorpresa saber que Eric Schmidt, ex CEO de Google y actual asesor técnico de Alphabet, empresa matriz de Google, es ahora el presidente de la “Junta de Innovación de Defensa” del Pentágono, que busca brindar la eficiencia y la visión de Silicon Valley a las iniciativas de innovación de alta tecnología del Departamento de Defensa.

Tampoco es sorprendente que Schmidt, además de ser miembro de la elitista Comisión Trilateral, forme parte del comité directivo del Grupo Bilderberg, una camarilla de financieros, industriales, funcionarios públicos de alto rango, miembros militares y miembros de la realeza que se han reunido anualmente, en un secreto casi total desde 1954. Tampoco es sorprendente que el Grupo Bilderberg ahora cuente con un número de incondicionales de Silicon Valley entre sus filas, desde Schmidt y Thiel hasta el CEO de Palantir, Alex Karp y la ex presidenta de la Fundación Electronic Frontiers, Esther Dyson.

De hecho, sería más sorprendente encontrar una importante compañía de Silicon Valley que no estuviera relacionada con el ejército de los EE. UU. o con las agencias de inteligencia de los EE. UU. de una forma u otra. Esto no es un accidente de la historia o una mera coincidencia. Los orígenes de Internet estaban en los sombríos programas del Pentágono para desarrollar las tecnologías perfectas de comando y control. Desde los primeros intentos de formar bases de datos electrónicas de información sobre los contrainsurgentes en Vietnam hasta el día de hoy, esta tecnología, como explica Yasha Levine, autor de Surveillance Valley: The Secret Military History of Internet, fue diseñada para ser utilizada como una herramienta de Guerra contra poblaciones objetivo.

YASHA LEVINE: Para comprender qué es Internet y en qué se ha convertido, debemos volver al principio. En la década de 1960, cuando el Pentágono estaba creando internet. En aquel entonces, Estados Unidos era un imperio global relativamente nuevo que se enfrentaba a un mundo cada vez más caótico y violento. Estaba la guerra de Vietnam, que era central, pero Estados Unidos enfrentaba insurgencias en todo el mundo, desde América Latina hasta el sudeste asiático. También se enfrentaba a un entorno doméstico cada vez más volátil y violento. Tenías el movimiento contra la guerra. Tenías activismo negro militante. Tenías grupos como The Weather Underground que lanzaban bombas aparentemente a diario en ciudades de todo el país. Tenías disturbios raciales en las principales ciudades.

Y los generales paranoicos de Estados Unidos vieron esto, y vieron una vasta conspiración comunista, por supuesto. Vieron a la Unión Soviética expandirse globalmente, respaldando insurgencias en todo el mundo, respaldando a los países que se oponían a Estados Unidos. Al mismo tiempo, estaban respaldando  movimientos de oposición en América, y vieron esto como un nuevo tipo de guerra que estaba ocurriendo. Esta no es una guerra tradicional con la que podrías pelear con armas tradicionales. Esta no es una guerra en la que podrías lanzar un arma nuclear. No era una guerra a la que se podía enviar una división de tanques, porque los combatientes no llevaban uniformes y no marchaban en formación. Formaban parte de la población civil del conflicto en el que participaban.

Así fue como surgió un nuevo tipo de guerra y un nuevo tipo de insurgencia global. Y en ciertos círculos en el ejército, personas que estaban familiarizadas con el nuevo tipo de tecnología informática que se está desarrollando, creen que la única forma de luchar y ganar esta nueva guerra era desarrollar nuevas armas de información, una tecnología informática que podría: ingerir datos sobre las personas y los movimientos políticos; que podría combinar encuestas de opinión, datos económicos, antecedentes penales, borradores de historias, fotografías, conversaciones telefónicas interceptadas por los servicios de seguridad; y poner todo eso en bases de datos que podrían permitir a los analistas realizar análisis sofisticados sobre ellas y ejecutar encuestas predictivas. La idea era que tienes que descubrir quién es el enemigo y aislarlo de la población general, y luego sacar a ese enemigo. Y en ese momento, algunos incluso soñaban con crear un sistema de administración global que pudiera observar el mundo en tiempo real e interceptar amenazas antes de que ocurrieran de la misma manera que lo hacía el sistema de defensa por radar de alerta temprana de Estados Unidos para aviones hostiles.

Este es el trasfondo general del que surgió internet. Hoy en día los orígenes de la contrainsurgencia de internet se han ocultado. Se han perdido en su mayor parte. Muy pocas historias lo mencionan, aunque sea un poco. Pero en el momento en que se creó en la década de 1960, los orígenes de Internet y los orígenes de esta tecnología como una herramienta de vigilancia y como una herramienta de control eran muy obvios para las personas en ese entonces. Cuando la gente no veía las computadoras y las redes de computadoras como herramientas de liberación o tecnologías utópicas, las veía como herramientas de control político y social, y eso incluía específicamente a ARPANET, la red que más tarde crecería en Internet.

SOURCE: Yasha Levine: Surveillance Valley: The Secret Military History of the Internet

El internet nunca fue pensado como una herramienta de liberación. Desde su inicio, se pretendía que fuera una herramienta para rastrear, vigilar y, en última instancia, controlar una población objetivo. Y en el entorno volátil de la década de 1960, esa “población objetivo” se transformó rápidamente de los contrainsurgentes del Viet Cong en el propio público estadounidense y cualquier otra persona que pudiera representar una amenaza para las ambiciones del Pentágono en el país o en el extranjero.

Visto a la luz de esta historia, los desarrollos recientes en Internet tienen más sentido. Silicon Valley no brotó del suelo de California por sí solo. Fue cuidadosamente sembrado allí por las agencias militares y de inteligencia que requieren esta tecnología para combatir la guerra de información del siglo XXI.

El Departamento de Defensa no anunció en 2003 que iban a “luchar contra la red” como si se tratara de un sistema de armas enemigo porque temían que sus enemigos armaran internet. Sabían que ya era un arma porque ellos mismos la habían armado.

El gobierno de EE. UU. no teme a los rusos ni a su capacidad de “socavar la democracia estadounidense” mediante la compra de miles de dólares en publicidad en Facebook. Fueron ellos los que imaginaron un sistema LifeLog para observar y controlar a la población en primer lugar.

El Pentágono no se preocupa por las vulnerabilidades de seguridad de Internet. Aprovecha esas vulnerabilidades para desarrollar algunas de las armas cibernéticas más destructivas que se hayan desatado, incluido el Stuxnet desarrollado por Estados Unidos e Israel.

Y, dado que la próxima generación de tecnologías de red amenaza con agregar no solo nuestros datos de Facebook y nuestras búsquedas en Google y nuestros tweets y nuestras compras a las bases de datos del gobierno, sino que en realidad conecta todos los objetos del mundo directamente a esas bases de datos, los militares de nuevo están a la vanguardia de la próxima revolución de internet.

SEAN O’KEEFE: Internet of Things está penetrando en una franja cada vez más amplia de la vida cotidiana y la economía global. Nuestros buenos amigos y útiles generadores de información en Wikipedia definen Internet de las Cosas como la red de objetos físicos, cosas integradas con componentes electrónicos (sensores de software, conectividad de red), que permiten que estos objetos recopilen e intercambien datos. Esencialmente, permite que los objetos se detecten y controlen de forma remota, lo que crea una integración entre el mundo físico y los sistemas informáticos. Piense en una red inteligente: sistemas de energía relacionados entre sí para maximizar la eficiencia y todo lo relacionado con ese objetivo. Internet of Things está transformando los negocios modernos, aprovechando los sensores integrados, la conectividad, el análisis digital y la automatización para ofrecer una mayor eficiencia y eficacia en una amplia gama de frentes de mercado.

El ejército ha sido un líder en el desarrollo de muchas de las tecnologías de componentes de Internet de las Cosas, pero puede hacer más para aprovechar los beneficios de las soluciones de Internet de las Cosas. El establecimiento de seguridad nacional más amplio también enfrenta desafíos únicos al adoptar las tecnologías de Internet de las cosas que van desde la seguridad y la garantía de la misión hasta la infraestructura y las limitaciones de costos y los obstáculos culturales. Ahora, en septiembre, hace apenas un par de meses, el Programa de Tecnologías Estratégicas del CSIS publicó un informe: Aprovechando el Internet de las Cosas para un Ejército Más Eficiente y Efectivo, que describe cómo los militares pueden adoptar lecciones del sector privado para aprovechar estos beneficios más amplios del Internet de las cosas.

SOURCE: Leveraging the Internet of Things for a More Efficient and Effective Military – Opening Keynote

Desde los primeros días de la computación en red -cuando ARPANET aún era solo un brillo a los ojos de sus ingenieros y el famoso científico de computación ARPA JCR Licklider escribía notas a sus colegas en Palo Alto actualizándolos en su visión de una “Red de Computadoras Intergaláctica” – hasta hoy, cuando los científicos de DARPA están tramando usos militares para el Internet de las cosas, la tecnología que sustenta los planes del gobierno de los Estados Unidos para dominar todo el espectro del mundo cibernético ha avanzado a pasos agigantados. Pero la visión misma sigue siendo la misma.

En esta visión, se realiza un seguimiento de cada persona, se registran sus conversaciones, se monitorean sus compras, se mapean sus redes sociales, se estudian sus hábitos, y en última instancia, se prevén sus comportamientos, para que el Pentágono y los espías de Silicon Valley puedan controlar mejor la población humana. Y, con el advenimiento de tecnologías que aseguran que cada elemento que poseemos nos estará espiando y transmitiendo esos datos a través de redes que están comprometidas por las agencias de inteligencia, esa visión está más cerca que nunca de una realidad.

Y allí, ayudando a que esa visión se convierta en realidad, están los gigantes de Big Tech que fueron fundados, financiados, ayudados y, cuando fue necesario, comprometidos por los espías y soldados que desean un control completo sobre el mundo cibernético.

Este es el secreto de Silicon Valley. En un sentido clave, los gigantes de Big Tech son el Pentágono y la comunidad de inteligencia. El DoD y las agencias de inteligencia son los gigantes de Big Tech. Fue así desde los albores de la computación moderna, y sigue siéndolo hoy.

No debemos sorprendernos de que el mundo de Internet, el mundo que nos legó ARPANET, se parece cada vez más a un dispositivo de vigilancia siempre encendido. Eso era lo que pretendía ser.

Sin embargo, el público, felizmente inconsciente de esta realidad (o deliberadamente ignorante) continúa registrando cada uno de sus movimientos en su LifeLog de Facebook, se reúnen como pájaros de una pluma para formular sus preguntas más íntimas de Google, e introducen sus datos personales en las fauces abiertas de la bestia PRISM.

Puede ser demasiado tarde para alejarse del borde de este precipicio de red inalámbrica siempre encendida, siempre vigilado y conectado… pero hasta que veamos directamente los hechos que muestran que Big Tech es un frente para el gobierno de los EE. UU., nunca esperaremos escapar de la trampa de silicio que nos han tendido.

-James Corbett-

Anuncios

El Pentágono puede identificarte a través de tu latido del corazón usando rayos láser

hearbeatid-01

Las fuerzas especiales de los EE. UU. están adoptando un enfoque más “íntimo” para identificar a los objetivos de forma remota, utilizando láseres para detectar sus latidos.

De acuerdo con MIT Technology Review, el Pentágono ha desarrollado un prototipo de la tecnología, cuyo nombre en código es ‘Jetson’, que usa láseres infrarrojos para leer la firma cardíaca de una persona.

Aunque son mucho menos obvios que las huellas dactilares o los rostros, los latidos del corazón de las personas tienen un perfil distinto, lo que los convierte en los elementos biométricos más útiles para identificar a una persona de manera única.

Sin embargo, lo que separa a la firma de otros similares es el hecho de que, a diferencia de una cara, que puede tener muchas características similares a otras, los latidos del corazón son completamente distintos.

Como lo señaló el MIT, compañías como Nymi ya están utilizando firmas cardíacas, tomadas a través de un sensor de pulso montado en la muñeca, para identificar a las personas por motivos de seguridad.

Otra ventaja que ha hecho que el tipo de detección sea particularmente deseable para los militares de EE. UU. es el uso de láseres, lo que permite un alcance relativamente largo.

Los prototipos actuales funcionan a partir de unos 200 metros (219 yardas) y con modificaciones adicionales que podrían ampliarse.

“No quiero decir que podría hacerlo desde el espacio”, dijo el Comisario Steward Remaly, de la Oficina de Apoyo Técnico para Combatir el Terrorismo del Pentágono. “Pero deberían ser posibles rangos más largos”.

Los patrones de latido del corazón que se detectan al detectar los cambios en la luz infrarroja causados ​​por el flujo sanguíneo de una persona, no solo son altamente precisos, aproximadamente del 95 al 98 por ciento, sino que también son versátiles.

A diferencia del reconocimiento facial, que puede requerir una visión clara de la cara de una persona o que puede ser ofuscado por el vello facial u otras afecciones, los latidos del corazón detectados con láser pueden capturarse a través de la ropa normal y en varios ángulos.

El método requiere que un láser invisible apunte a un sujeto durante unos 30 segundos para obtener una lectura suficiente, lo que significa que la tecnología solo se puede usar de manera viable en alguien que está parado.

MIT crea un psicópata impulsado por IA llamado ‘Norman’

norman-640x353

Los investigadores de inteligencia artificial hasta ahora han intentado hacer algoritmos completos que pueden ser útiles para la humanidad. Sin embargo, un equipo del MIT ha emprendido un proyecto para hacer exactamente lo contrario. Investigadores del MIT Media Lab han entrenado a una IA para ser un psicópata al exponerlo a imágenes de violencia y muerte. Es como una caja de horror de Skinner para la IA, que el equipo ha llamado “Norman” en honor al psicópata de la película Norman Bates. Como era de esperar, Norman no es una IA muy bien ajustada.

Norman comenzó con el mismo potencial que cualquier otra red neuronal: a medida que se alimenta con datos, puede discernir patrones similares que encuentra. Las empresas de tecnología han utilizado IAs para ayudar a buscar a través de fotos y crear una síntesis de voz más creíble, entre muchas otras aplicaciones. Estas IAs completas fueron diseñadas con un propósito específico en mente. Norman nació para ser un psicópata.

El equipo del MIT alimentó a Norman con una dieta constante de datos extraídos de subreddits truculentos que existen para compartir fotos de muerte y destrucción. Debido a preocupaciones éticas, el equipo no manejó ninguna foto de personas muriendo. Norman solo obtuvo subtítulos de las imágenes del subreddit que coincidían con las manchas de tinta, y esto es lo que formó la base de su inquietante personalidad.

Después del entrenamiento, a Norman y a una IA “regular” se les mostró una serie de manchas de tinta. Los psicólogos a veces usan estas “pruebas de Rorschach” para evaluar el estado mental de un paciente. Norman y la IA habitual son esencialmente bots de subtitulado de imágenes, que es una aplicación popular de aprendizaje profundo para AI. La IA común vio cosas como un avión, flores y un pequeño pájaro. Norman vio personas muriendo por heridas de bala, saltando de edificios, y así sucesivamente.

norman1

norman2

norman3

norman4

norman5

Norman no fue corrompido para hacer ningún tipo de comentario sobre la psicología humana en internet: una red neuronal es una pizarra en blanco. No tiene ningún deseo innato como un ser humano. Lo que Norman aborda es el peligro de que la inteligencia artificial se vuelva peligrosamente sesgada. Con AI, obtienes lo que ingresas, por lo que es importante que estas plataformas estén capacitadas para evitar el sesgo, y preferiblemente que no se les permita navegar por los rincones más oscuros de Reddit durante largos períodos de tiempo.

El equipo ahora quiere ver si puede arreglar a Norman. Puede tomar la misma prueba de Rorschach y agregar sus propios subtítulos. El equipo usará estos datos para ajustar el modelo de Norman y ver si empieza a ver menos asesinatos. Solo podemos esperar.


LÍNEA DE TIEMPO

1921. Prueba de Rorschach es creada: Hermann Rorschach creó la prueba de Rorschach en 1921 como una prueba psicológica en la que las percepciones de los sujetos de las manchas de tinta se registran y luego se analizan utilizando la interpretación psicológica para examinar las características de la personalidad de una persona y el funcionamiento emocional.

Rorschach_blot_01

1956. Nace la inteligencia artificial: El verano de 1956 reúne a Marvin Minsky y otras mentes brillantes en Darthmouth College. En una explosión de creatividad, plantan las semillas de lo que se convertiría en la Inteligencia Artificial.

0 3O57gUjYVKPlfLlb

1960. Psicópata: Alfred Hitchcock dirigió la película de terror psicológico más célebre, Psycho, que se centra en el encuentro entre una secretaria que termina en un motel apartado y Norman Bates, el inquilino gerente del motel.

8341c1dc4c2b7b3e9f2eaa7d48119a203_675_489.png

2015. Black Box Society: Frank Pasquale escribió The Black Box Society que destaca los peligros de los datos desbocados, los algoritmos de recuadro negro y el sesgo de aprendizaje automático causado por los datos de origen.

bigdata

2016. Imágenes de terror generadas con IA: En 2016, presentamos la máquina de pesadillas: imágenes aterradoras generadas por IA, donde obtuvimos más de 2 millones de votos de personas de todo el mundo. Nightmare Machine es uno de los primeros proyectos de IA que aborda un desafío específico: ¿puede la inteligencia artificial no solo detectar sino provocar emociones extremas (como el miedo) en los seres humanos?

Screen-Shot-2016-10-31-at-4.35.42-PM-980x420

nightmare-machine-796x398

2016. Historias de terror generadas con IA: En 2017, presentamos a Shelley: ¡el primer escritor colaborativo de IA Horror Writer! Shelley es una IA de aprendizaje profundo que se crió leyendo historias espeluznantes recogidas de r/nosleep. Escribió más de 200 historias de terror en colaboración con humanos, aprendiendo de sus ideas de pesadilla y creando los mejores cuentos de miedo de todos los tiempos. ¡Visita Shelley.ai para buscar la primera antología de horror IA-Humana alguna vez hecha!

dims

2017. Empatía impulsada por IA: En 2017, trabajamos en el otro lado del espectro y presentamos Deep Empathy. Deep Empathy explora si la IA puede aumentar la empatía para las víctimas de desastres lejanos mediante la creación de imágenes que simulen los desastres más cerca de casa.

syria1

Abril 2018. Psicópata impulsado por IA: Norman es una IA que está entrenada para realizar subtítulos de imágenes; un popular método de aprendizaje profundo para generar una descripción textual de una imagen. Capacitamos a Norman en ubtítulo de imágenes de un subreddit infame (el nombre está censurado debido a su contenido gráfico) que se dedica a documentar y observar la inquietante realidad de la muerte. Luego, comparamos las respuestas de Norman con una red neuronal de subtítulos de imagen estándar (entrenada en el conjunto de datos de MSCOCO) en manchas de tinta Rorschach; una prueba que se usa para detectar trastornos de pensamiento subyacentes.

screen-shot-2018-06-06-10

Por qué debemos enseñar a los niños a codificar biología, no sólo software

2016-igem_from_above-cropped980-jpg

Hace casi diez años, Freeman Dyson aventuró un pronóstico salvaje:

“Predigo que la domesticación de la biotecnología dominará nuestras vidas durante los próximos cincuenta años al menos tanto como la domesticación de computadoras ha dominado nuestras vidas durante los últimos cincuenta años”.

Recientemente, los investigadores del MIT crearon un lenguaje de programación para células vivas que pueden ser utilizadas incluso por personas sin conocimientos previos de ingeniería genética. Esto es parte de un creciente cuerpo de pruebas apuntando a una tendencia innegable, la visión de Dyson está empezando a hacerse realidad.

Durante las próximas décadas desarrollaremos herramientas que harán que la biotecnología sea asequible y accesible para cualquiera, no sólo en una universidad o incluso en un laboratorio de biohacking, sino literalmente en casa.

“Domesticando” computadoras

Para apreciar el poder del pronóstico de Dyson, vamos primero a retroceder en el tiempo. No hace mucho tiempo, las únicas computadoras alrededor eran cosas masivas que ocupaban habitaciones enteras o incluso pisos de un edificio. Ellas eran complicadas de usar y requerían múltiples títulos universitarios sólo para hacerlas hacer tareas sencillas.

En los últimos 50 años, los seres humanos han diseñado colectivamente innumerables herramientas, desde lenguajes de programación hasta hardware y software, que permiten a cualquier persona operar una computadora sin conocimiento previo. Todo el mundo de la edad de 3 a 95 puede recoger un iPad e intuitivamente empezar a usarlo.

El ordenador personal trajo una explosión de negocios, arte, música, películas, escritura y conectividad entre personas como las que nunca habíamos visto antes.

Dadas herramientas accesibles y asequibles, la persona promedio encontró muchos usos para su computadora personal – usos que hace varias décadas no podíamos ni siquiera haber imaginado.

Ahora, estamos viendo una “domesticación” similar sucediendo en la biotecnología. Y asimismo, no tenemos idea de lo que crearán nuestros hijos con el equivalente biotecnológico de una computadora personal.

“Domesticando” la Biotecnología

“Lo que estamos encontrando con el tiempo es que la biología no es este tipo de misterioso sustrato impredecible; simplemente nos sentimos de esa manera porque realmente no teníamos las herramientas para ver lo que estaba pasando.”

Christopher Voigt, MIT

Desde 2003, cuando el genoma humano fue secuenciado y el costo de la secuenciación comenzó a desplomarse, los científicos y un número creciente de científicos ciudadanos han estado construyendo sobre este logro para crear nuevas herramientas que puedan leer, escribir y editar el ADN.

Muchas de estas herramientas se han construido con ciencia “seria” en mente, pero muchos también se construyen para el improvisador casual y el principiante de biotecnología.

Hoy, casi cualquier persona (incluso estudiantes de secundaria) pueden…

Usted puede aprender acerca de su composición ancestral y la predisposición a ciertas condiciones hereditarias como la fibrosis quística y la anemia de células falciformes en 23andMe.

Biobuilder es un libro reciente diseñado para enseñar a la escuela secundaria y estudiantes universitarios los fundamentos de la ingeniería de ADN y biodesign, con instrucciones sobre cómo hacer sus propias bacterias brillantes y otros experimentos.

Tome una clase sobre cómo usar CRISPR para sus propios experimentos en Genspace, un laboratorio de ciencias ciudadano en Nueva York (o una clase similar en muchos laboratorios comunitarios de ciencia en todo el mundo). No se necesita experiencia.

IGEM es una organización mundial de biología sintética inicialmente creada para estudiantes universitarios y ahora abierta a empresarios, laboratorios comunitarios y escuelas secundarias.

Descargue el software del compilador del genoma gratis y experimente con la “ingeniería genética de arrastrar-y-soltar.”

La próxima generación de biohackers

“[En el futuro] diseñar genomas será una cosa personal, una nueva forma de arte tan creativa como la pintura o la escultura.”

-Freeman Dyson-

Para la mayoría de la gente, las palabras ingeniería genética y biotecnología no traen a la mente una visión de una nueva generación de artistas diseñando una nueva variedad de flores o una nueva raza de mascota.

Si esta tendencia de “domesticación” de la biotecnología continúa, sin embargo, la próxima generación de ingenieros podría estar escribiendo código no sólo para aplicaciones, sino también nuevas especies de plantas y animales.

Y el potencial aquí es mucho más grande y más importante que jugar con el color de las bacterias y las flores o el diseño de nuevas mascotas.

El año pasado, un equipo de iGEM de Israel propuso un proyecto para “desarrollar una terapia contra el cáncer que sea altamente específica para las células cancerosas, eficiente y personalizada para cada tumor y genética del paciente”.  Otro equipo propuso convertir el metanol en una fuente de carbono universal. Y el ganador del primer premio del año pasado en el nivel de escuela secundaria preparó prevenir el daño de tejido de la inflamación crónica en el cuerpo humano.

Para ser claros, estos son objetivos nobles, pero el punto es que los jóvenes ya están trabajando hacia ellos. Y si están trabajando para resolver enormes desafíos utilizando la biología sintética hoy en día, ¿imagina lo que serán capaces de lograr con herramientas mejoradas como adultos?

No sólo los adolescentes ya están reescribiendo el código de la vida, su interés en hacer más y aprender más está creciendo rápidamente. Hasta el momento, 18,000 personas han participado en iGem. La competencia ha crecido de 5 equipos en 2004 a 245 equipos en más de 32 países en 2014.

¿Qué puede salir mal?

Si la predicción de Dyson demuestra ser correcta, ya estamos criando una generación de diseñadores, ingenieros y artistas que van a utilizar nuevos y sorprendentes conjuntos de herramientas para crear en un nuevo lienzo, la vida en sí.

Entonces, ¿qué podría salir mal?

En un artículo del New York Times de 2007 “Our Biotech Future”, Dyson cuestiona la ética de domesticar la biología. Él pregunta: ¿puede o debe ser detenido? Si no vamos a detenerlo, ¿qué límites se deben imponer? Si es así, ¿por quién y cómo se deben hacer cumplir los límites?

La comparación con las computadoras es útil hasta cierto punto, pero la biología es obviamente mucho más complicada y hubo menos preguntas éticas cuando estábamos construyendo los primeros microchips.

Domesticar la biotecnología significa llevarla a las masas, y eso significa que tendríamos menos control sobre ella que cuando se limitaba a los laboratorios financiados por la universidad o el gobierno.

La respuesta a la primera pregunta de Dyson parece clara: esta tendencia no va a detenerse. Hay demasiado impulso. Hemos aprendido mucho sobre cómo controlar nuestra propia biología para volver atrás.

Y esta es una razón más para enseñar a la próxima generación sobre el poder y la ética de la reescritura del código de la vida.

https://singularityhub.com/2016/04/07/we-should-be-teaching-kids-to-code-biology-not-just-software/

A %d blogueros les gusta esto: