Google cancela el panel de ética de IA después de alboroto

1024px-Georges_de_La_Tour_French_-_The_Musicians_Brawl_-_Google_Art_Project-777x437

El panel de ética de Google se vio inundado por miles de no participantes (¿no éticos?) Que atacaron a miembros individuales de su panel de ética. El resultado fue un caos total, renuncias y finalmente, cancelando todo el asunto. La gran tecnología y la ética se acercan al estado oximorónico.

Esta semana, Vox y otros medios informaron que la recién creada junta de ética de AI de Google se estaba desmoronando en medio de la controversia sobre varios de sus miembros.

Bueno, oficialmente se ha hecho añicos, se ha cancelado. Google le dijo a Vox el jueves que está desconectando el consejo de ética.

La junta sobrevivió por poco más de una semana. Fundada para guiar el “desarrollo responsable de la IA” en Google, habría tenido ocho miembros y se habría reunido cuatro veces en el transcurso de 2019 para considerar las preocupaciones sobre el programa de IA de Google. Esas preocupaciones incluyen cómo la IA puede habilitar a los estados autoritarios, cómo los algoritmos de la IA producen resultados dispares, ya sea para trabajar en aplicaciones militares de la IA, y más. Pero se topó con problemas desde el principio.

Miles de empleados de Google firmaron una petición pidiendo la remoción de un miembro de la junta, el presidente de la Fundación Heritage, Kay Coles James, por sus comentarios sobre las personas trans y el escepticismo de su organización sobre el cambio climático. Mientras tanto, la inclusión del CEO de la compañía de aviones no tripulados Dyan Gibbens reabrió viejas divisiones en la compañía sobre el uso de la inteligencia artificial de la compañía para aplicaciones militares.

El consejero Alessandro Acquisti renunció. Otra miembro, Joanna Bryson, defendiendo su decisión de no renunciar, dijo de James: “Créanlo o no, sé lo peor de una de las otras personas”. Otros miembros de la junta directiva se vieron abrumados por las demandas de justificar su decisión de permanecer en el consejo.

El jueves por la tarde, un portavoz de Google le dijo a Vox que la compañía había decidido disolver por completo el panel, llamado el Consejo Consultivo Externo de Tecnología Avanzada (ATEAC). Aquí está la declaración de la compañía en su totalidad:

Ha quedado claro que en el entorno actual, ATEAC no puede funcionar como queríamos. Así que estamos terminando el consejo y volviendo a la mesa de dibujo. Continuaremos siendo responsables en nuestro trabajo en los temas importantes que la IA plantea, y encontraremos diferentes maneras de obtener opiniones externas sobre estos temas.

Se suponía que el panel agregaría perspectivas externas al trabajo en curso de ética de IA por parte de los ingenieros de Google, todo lo cual continuará. Con suerte, la cancelación de la junta no representa un retroceso del trabajo de ética de AI de Google, sino una oportunidad para considerar cómo involucrar de manera más constructiva a los interesados externos.

El consejo se estaba convirtiendo en una gran responsabilidad para Google.

La credibilidad de la junta se vio afectada por primera vez cuando Alessandro Acquisti, un investigador de la privacidad, anunció en Twitter que estaba renunciando, argumentando: “Si bien estoy dedicado a la investigación que trata temas éticos clave de justicia, derechos e inclusión en IA, no creo que este sea el foro adecuado para mí para participar en este importante trabajo”.

Mientras tanto, la petición para retirar a Kay Coles James ha atraído más de 2,300 firmas de los empleados de Google hasta el momento y no muestra signos de perder fuerza.

A medida que la ira sobre la junta se intensificaba, los miembros de la junta se vieron envueltos en extensos debates éticos sobre por qué estaban en la junta, lo que pudo haber sido algo que Google no esperaba. En Facebook, el miembro de la junta Luciano Floridi, un filósofo de la ética en Oxford, reflexionó:

Solicitar el consejo [de Kay Coles James] fue un grave error y envía un mensaje equivocado sobre la naturaleza y los objetivos de todo el proyecto ATEAC. Desde una perspectiva ética, Google ha juzgado mal lo que significa tener vistas representativas en un contexto más amplio. Si la Sra. Coles James no renuncia, como espero que lo haga, y si Google no la elimina, como lo he recomendado personalmente, la pregunta es: ¿cuál es la postura moral correcta a tomar en vista de este grave error?

Terminó decidiendo permanecer en el panel, pero ese no era el tipo de debate ético que Google esperaba provocar, y se hizo difícil imaginar a los dos trabajando juntos.

Ese no fue el único problema. Hace un día se argumento que, aparte de la indignación, la junta no estaba bien preparada para el éxito. Las juntas de ética de IA como las de Google, que están de moda en Silicon Valley, parecen no estar equipadas para resolver, o incluso avanzar, en cuestiones difíciles sobre el progreso ético de la IA.

Un rol en la junta de IA de Google era una posición no remunerada y sin dientes que no tenía la posibilidad, en cuatro reuniones a lo largo de un año, de poder llegar a una comprensión clara de todo lo que está haciendo Google, y mucho menos ofrecer una orientación matizada sobre ello. Hay preguntas éticas urgentes sobre el trabajo de IA que está haciendo Google, y no hay una vía real a través de la cual el consejo pueda abordarlas satisfactoriamente. Desde el principio, fue mal diseñado para la meta.

Ahora ha sido cancelado.

Anuncios

Publicado el 9 abril, 2019 en Texto y etiquetado en , , , , . Guarda el enlace permanente. Deja un comentario.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: