Otro despido entre el AI Brain Trust de Google y más discordia


Menos de dos años después de que Google despidiera a dos investigadores que criticaban los sesgos integrados en los sistemas de inteligencia artificial, la compañía despidió a un investigador que cuestionó un artículo que publicó sobre las capacidades de un tipo especializado de inteligencia artificial que se usa para fabricar chips de computadora.

El investigador, Satrajit Chatterjee, dirigió un equipo de científicos para desafiar el célebre trabajo de investigaciónque apareció el año pasado en la revista científica Nature y decía que las computadoras podían diseñar ciertas partes de un chip de computadora más rápido y mejor que los seres humanos.

El Dr. Chatterjee, de 43 años, fue despedido en marzo, poco después de que Google le dijera a su equipo que no publicaría un artículo que refutara algunas de las afirmaciones hechas en Nature, dijeron cuatro personas familiarizadas con la situación a las que no se les permitió hablar abiertamente sobre el tema. materia. Google confirmó en una declaración escrita que el Dr. Chatterjee había sido «despedido con causa».

Google se negó a dar más detalles sobre el despido del Dr. Chatterjee, pero ofreció una defensa total de la investigación que criticó y de su falta de voluntad para publicar su evaluación.

“Examinamos minuciosamente el artículo original de Nature y respaldamos los resultados revisados ​​por pares”, dijo Zoubin Ghahramani, vicepresidente de Google Research, en una declaración escrita. “También investigamos rigurosamente las afirmaciones técnicas de una presentación posterior, y no cumplió con nuestros estándares de publicación”.

El despido del Dr. Chatterjee fue el último ejemplo de discordia dentro y alrededor de Google Brain, un grupo de investigación de IA considerado clave para el futuro de la empresa. Después de gastar miles de millones de dólares para contratar a los mejores investigadores y crear nuevos tipos de automatización informática, Google se ha enfrentado a una amplia variedad de quejas sobre cómo construye, usa y presenta esas tecnologías.

La tensión entre los investigadores de IA de Google refleja luchas mucho mayores en la industria tecnológica, que enfrenta innumerables preguntas sobre las nuevas tecnologías de IA y los espinosos problemas sociales que han enredado estas tecnologías y las personas que las construyen.

La disputa reciente también sigue un patrón familiar de despidos y denuncias de irregularidades entre los investigadores de inteligencia artificial de Google, una preocupación creciente para una empresa que ha apostado su futuro a infundir inteligencia artificial en todo lo que hace. Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet, comparó la IA con la llegada de la electricidad o el fuego, calificándola como uno de los esfuerzos más importantes de la humanidad.

Google Brain comenzó como un proyecto paralelo hace más de una década cuando un grupo de investigadores construyó un sistema que aprendió a reconocer gatos en videos de YouTube. Los ejecutivos de Google estaban tan entusiasmados con la perspectiva de que las máquinas pudieran aprender habilidades por sí mismas que rápidamente expandieron el laboratorio, estableciendo una base para rehacer la empresa con esta nueva inteligencia artificial. El grupo de investigación se convirtió en un símbolo de las mayores ambiciones de la empresa.

Antes de que la despidieran, la Dra. Gebru buscaba permiso para publicar un artículo de investigación sobre cómo los sistemas de lenguaje basados ​​en IA, incluida la tecnología creada por Google, pueden terminar usando el lenguaje sesgado y odioso que aprenden de los textos en libros y sitios web. La Dra. Gebru dijo que se había exasperado por la respuesta de Google a tales quejas, incluida su negativa a publicar el artículo.

Unos meses más tarde, la empresa despidió a la otra jefa del equipo, Margaret Mitchell, quien denunció públicamente el manejo de la situación por parte de Google con el Dr. Gebru. La compañía dijo que el Dr. Mitchell había violado su código de conducta.

El artículo en Nature, publicado en junio pasado, promovió una tecnología llamada aprendizaje reforzado, que según el artículo podría mejorar el diseño de chips de computadora. La tecnología fue aclamada como un gran avance para la inteligencia artificial y una gran mejora en los enfoques existentes para el diseño de chips. Google dijo que usó esta técnica para desarrollar sus propios chips para computación de inteligencia artificial.

Google había estado trabajando en la aplicación de la técnica de aprendizaje automático al diseño de chips durante años y publicó un papel similar el año anterior. Por esa época, Google le preguntó al Dr. Chatterjee, quien tiene un doctorado en ciencias informáticas de la Universidad de California, Berkeley, y había trabajado como científico investigador en Intel, para ver si el enfoque podía venderse o licenciarse a una empresa de diseño de chips. , dijeron las personas familiarizadas con el asunto.

Pero el Dr. Chatterjee expresó reservas en un correo electrónico interno sobre algunas de las afirmaciones del artículo y cuestionó si la tecnología se había probado rigurosamente, dijeron tres de las personas.

Mientras continuaba el debate sobre esa investigación, Google presentó otro artículo a Nature. Para la presentación, Google hizo algunos ajustes al artículo anterior y eliminó los nombres de dos autores, que habían trabajado en estrecha colaboración con el Dr. Chatterjee y también habían expresado su preocupación por las principales afirmaciones del artículo, dijeron las personas.

Cuando se publicó el artículo más reciente, algunos investigadores de Google se sorprendieron. Creían que no había seguido un proceso de aprobación de publicación que Jeff Dean, el vicepresidente senior de la compañía que supervisa la mayoría de sus esfuerzos de inteligencia artificial, dijo que era necesario después del despido del Dr. Gebru, dijeron las personas.

Google y una de las dos autoras principales del artículo, Anna Goldie, quien lo escribió con otra científica informática, Azalia Mirhoseini, dijeron que los cambios del artículo anterior no requerían el proceso de aprobación completo. Google permitió que el Dr. Chatterjee y un puñado de investigadores internos y externos trabajaran en un documento que cuestionaba algunas de sus afirmaciones.

El equipo envió el documento de refutación a un llamado comité de resolución para la aprobación de su publicación. Meses después, el artículo fue rechazado.

Los investigadores que trabajaron en el artículo de refutación dijeron que querían llevar el problema a la junta directiva de Pichai y Alphabet. Argumentaron que la decisión de Google de no publicar la refutación violó su propia principios de IA, incluido el mantenimiento de altos estándares de excelencia científica. Poco después, se le informó al Dr. Chatterjee que ya no era un empleado, dijeron las personas.

La Sra. Goldie dijo que el Dr. Chatterjee había pedido administrar su proyecto en 2019 y que se habían negado. Cuando más tarde lo criticó, dijo, no pudo fundamentar sus quejas e ignoró las pruebas que presentaron en respuesta.

“Sat Chatterjee ha emprendido una campaña de desinformación contra mí y Azalia durante más de dos años”, dijo la Sra. Goldie en una declaración escrita.

Ella dijo que el trabajo había sido revisado por pares por Nature, una de las publicaciones científicas más prestigiosas. Y agregó que Google había usado sus métodos para construir nuevos chips y que estos chips se usaban actualmente en los centros de datos informáticos de Google.

Laurie M. Burgess, abogada de la Dra. Chatterjee, dijo que era decepcionante que «ciertos autores del artículo de Nature estén tratando de cerrar la discusión científica difamando y atacando a la Dra. Chatterjee simplemente por buscar la transparencia científica». La Sra. Burgess también cuestionó el liderazgo del Dr. Dean, quien fue uno de los 20 coautores del artículo de Nature.

“Las acciones de Jeff Dean para reprimir la publicación de todos los datos experimentales relevantes, no solo los datos que respaldan su hipótesis favorita, deberían ser profundamente preocupantes tanto para la comunidad científica como para la comunidad más amplia que consume los servicios y productos de Google”, dijo Burgess.

El Dr. Dean no respondió a una solicitud de comentarios.

Después de que el documento de refutación se compartió con académicos y otros expertos fuera de Google, la controversia se extendió por toda la comunidad global de investigadores que se especializan en el diseño de chips.

El fabricante de chips Nvidia dice que ha utilizado métodos para el diseño de chips que son similares a los de Google, pero algunos expertos no están seguros de qué significa la investigación de Google para la industria tecnológica más grande.

“Si esto realmente funciona bien, sería una gran cosa”, dijo Jens Lienig, profesor de la Universidad Tecnológica de Dresden en Alemania, refiriéndose a la tecnología de inteligencia artificial descrita en el artículo de Google. “Pero no está claro si está funcionando”.



Source link

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *