banner
Hogar / Blog / El embajador de IA de Google camina en una delgada línea entre el revuelo y la fatalidad
Blog

El embajador de IA de Google camina en una delgada línea entre el revuelo y la fatalidad

Jun 22, 2024Jun 22, 2024

MOUNTAIN VIEW, California – En medio del entusiasmo sobre la inteligencia artificial en la conferencia anual de desarrolladores de Google en mayo, le tocó a James Manyika, el nuevo jefe de “tecnología y sociedad” de la compañía, hablar sobre las desventajas de la IA.

Ante miles de personas apiñadas en un estadio al aire libre, Manyika habló sobre el flagelo de las imágenes falsas y cómo la IA se hace eco del racismo y el sexismo de la sociedad. Advirtió que surgirán nuevos problemas a medida que la tecnología mejore.

Pero tengan la seguridad de que Google está adoptando “un enfoque responsable respecto de la IA”, dijo a la multitud. Las palabras “audaz y responsable” aparecieron en una pantalla enorme, eclipsando a Manyika mientras hablaba.

La frase se ha convertido en el lema de Google para la era de la IA, una especie de reemplazo de "no seas malvado", el mantra que la compañía eliminó del preámbulo de su código de conducta en 2018. La frase resume el mensaje general de Silicon Valley sobre la IA. , mientras muchos de los líderes más influyentes de la industria tecnológica se apresuran a desarrollar versiones cada vez más poderosas de la tecnología, al tiempo que advierten sobre sus peligros y piden supervisión y regulación gubernamental.

Manyika, un ex asesor tecnológico de la administración Obama que nació en Zimbabwe y tiene un doctorado en IA de Oxford, ha adoptado esta dualidad en su nuevo papel como embajador de IA de Google. Insiste en que la tecnología traerá beneficios asombrosos a la civilización humana y que Google es el administrador adecuado para este brillante futuro. Pero poco después de la conferencia de desarrolladores, Manyika firmó una declaración de una frase, junto con cientos de investigadores de IA, advirtiendo que la IA plantea un "riesgo de extinción" a la par de "pandemias y guerras nucleares".

La IA es “una tecnología sorprendente, poderosa y transformadora”, dijo Manyika en una entrevista reciente. Al mismo tiempo, admitió, “podrían suceder cosas malas”.

Los críticos dicen que ya están sucediendo cosas malas. Desde su lanzamiento en noviembre pasado, ChatGPT de OpenAI ha inventado una gran cantidad de información falsa, incluido un escándalo de acoso sexual falso que nombró a un verdadero profesor de derecho. Las versiones de código abierto del modelo de Difusión Estable de Stability AI han creado una avalancha de imágenes realistas de abuso sexual infantil, lo que socava los esfuerzos para combatir los delitos en el mundo real. Una de las primeras versiones de Bing de Microsoft se volvió inquietantemente oscura y hostil entre los usuarios. Y una investigación reciente del Washington Post encontró que varios chatbots, incluido Bard de Google, recomendaban dietas peligrosamente bajas en calorías, cigarrillos e incluso tenias como formas de perder peso.

“Los productos de inteligencia artificial de Google, incluido Bard, ya están causando daño. Y ese es el problema de la 'audacia' en yuxtaposición con el desarrollo 'responsable' de la IA”, dijo Tamara Kneese, investigadora principal y directora de proyectos de Data & Society, una organización sin fines de lucro que estudia los efectos de la IA.

"Las grandes empresas de tecnología están pidiendo regulación", dijo Kneese. "Pero al mismo tiempo, envían productos rápidamente con poca o ninguna supervisión".

Los reguladores de todo el mundo ahora están luchando por decidir cómo regular la tecnología, mientras que investigadores respetados advierten sobre daños a largo plazo, incluido el hecho de que la tecnología algún día podría superar la inteligencia humana. Casi todas las semanas se celebra en el Capitolio una audiencia centrada en la IA.

Si la IA tiene problemas de confianza, también los tiene Google. La compañía ha luchado durante mucho tiempo para persuadir a los usuarios de que puede salvaguardar la gran cantidad de datos que recopila de sus historiales de búsqueda y bandejas de entrada de correo electrónico. La reputación de la empresa es particularmente tambaleante en lo que respecta a la IA: en 2020, despidió a la conocida investigadora de ética de la IA, Timnit Gebru, después de que publicara un artículo en el que argumentaba que la IA de la empresa podría estar infectada por el racismo y el sexismo debido a los datos con los que estaba entrenada.

Mientras tanto, el gigante tecnológico se encuentra bajo una importante presión competitiva: Google lanzó su chatbot a principios de este año en un apuro por ponerse al día después de que ChatGPT y otros competidores ya habían capturado la imaginación del público. Rivales como Microsoft y una serie de empresas emergentes bien financiadas ven la IA como una forma de romper el control de Google sobre la economía de Internet.

Manyika ha entrado con calma y confianza en este momento de olla a presión. Un veterano del circuito global de conferencias, forma parte de una sorprendente cantidad de juntas directivas de alto nivel, incluido el consejo asesor de inteligencia artificial de la Casa Blanca, donde es vicepresidente. En junio habló en el Festival Cannes Lions; en abril apareció en “60 Minutes”. Se ha presentado ante las Naciones Unidas y es un habitual de Davos.

Y en cada entrevista, charla en conferencia y entrada de blog, ofrece tranquilidad sobre el papel de Google en la fiebre del oro de la IA, describiendo el enfoque de la empresa con esas mismas tres palabras: "audaz y responsable".

La frase "audaz y responsable" debutó en una publicación de blog en enero y desde entonces ha aparecido en todas las entrevistas ejecutivas sobre IA y en los informes financieros trimestrales de la compañía. Surgió de discusiones que se remontan a meses atrás entre Manyika, el director ejecutivo de Google, Sundar Pichai, y un pequeño grupo de otros ejecutivos, incluido el ahora científico jefe de Google, Jeff Dean; Marian Croak, vicepresidenta de IA responsable de la empresa; y Demis Hassabis, director de DeepMind, una nueva empresa de inteligencia artificial que Google adquirió en 2014.

Los críticos han notado la contradicción inherente.

“¿Qué significa honestamente?” dijo Rebecca Johnson, investigadora de ética de la IA en la Universidad de Sydney, que trabajó el año pasado como investigadora visitante en Google. "Simplemente suena como un eslogan".

En la conferencia de desarrolladores de mayo, Manyika reconoció "una tensión natural entre los dos". Pero, dijo, “creemos que no sólo es posible, sino que, de hecho, es fundamental aceptar esa tensión. La única manera de ser verdaderamente audaz a largo plazo es ser responsable desde el principio”.

Manyika, de 57 años, creció en el segregado Zimbabwe, entonces conocido como Rhodesia, una experiencia que, según él, le mostró “las posibilidades de lo que el avance tecnológico y el progreso pueden aportar a la vida de la gente común” y lo hizo sumamente sensible a sus peligros.

Zimbabwe estaba entonces gobernado por un gobierno blanco autocrático que reprimió brutalmente a la población mayoritariamente negra del país, excluyéndola de servir en el gobierno y vivir en barrios blancos. "Sé lo que un sistema discriminatorio puede hacer" con la tecnología, dijo, mencionando herramientas de inteligencia artificial como el reconocimiento facial. "Piensa en lo que podrían haber hecho con eso".

Cuando el régimen del apartheid se desmoronó en 1980, Manyika fue uno de los primeros niños negros en asistir a la prestigiosa Escuela Prince Edward, que educó a generaciones de la clase dominante blanca de Zimbabwe. “De hecho, llevamos escolta policial”, dijo, lo que le recordó en aquel momento las películas sobre la abolición de la segregación en Estados Unidos.

Manyika estudió ingeniería en la Universidad de Zimbabwe, donde conoció a un estudiante de posgrado de Toronto que trabajaba en inteligencia artificial. Fue su primera introducción a la ciencia de hacer que las máquinas piensen por sí mismas. Conoció a Geoffrey Hinton, un investigador que décadas más tarde sería conocido como “el padrino de la IA” y trabajaría junto a Manyika en Google. Hinton estaba trabajando en redes neuronales (tecnología basada en la idea de que se podía hacer que las computadoras aprendieran diseñando programas que imitaran vagamente vías en el cerebro humano) y Manyika quedó cautivada.

Ganó una beca Rhodes para estudiar en Oxford y profundizó en esa idea, primero con una maestría en matemáticas e informática y luego un doctorado en inteligencia artificial y robótica. La mayoría de los científicos que trabajaban para hacer que las computadoras fueran más capaces creían que las redes neuronales y la IA habían sido desacreditadas años antes, y Manyika dijo que sus asesores le advirtieron que no lo mencionara "porque nadie te tomará en serio".

Escribió su tesis sobre el uso de IA para gestionar la entrada de diferentes sensores para un vehículo, lo que le ayudó a conseguir un puesto de científico visitante en los Jet Propulsion Labs de la NASA. Allí, contribuyó a la misión Pathfinder para aterrizar el rover Sojourner en Marte. Luego, él y su socia, la novelista británico-nigeriana Sarah Ladipo Manyika, se mudaron a Silicon Valley, donde se convirtió en consultor de McKinsey y tuvo un asiento de primera fila en la burbuja de las puntocom y su posterior colapso. Escribió extensamente sobre cómo los avances tecnológicos impactaron el mundo real y publicó un libro en 2011 sobre cómo la enorme cantidad de datos generados por Internet se volvería fundamental para los negocios.

En Silicon Valley, se hizo conocido como un conector, alguien que puede hacer una presentación clave o sugerir una amplia gama de candidatos para un puesto en la junta directiva, dijo Erik Brynjolfsson, director del Laboratorio de Economía Digital de Stanford, que conoce a Manyika desde hace años. “Quizás tenga la mejor lista de contactos de todos en este campo”, dijo Brynjolfsson.

Su trabajo también lo colocó en la órbita de personas poderosas en Washington. Comenzó a tener conversaciones sobre tecnología y economía con altos funcionarios de la administración Obama, y ​​fue nombrado miembro del consejo asesor de la Casa Blanca sobre innovación y economía digital, donde ayudó a producir un informe de 2016 para el Departamento de Comercio advirtiendo que la IA podría desplazar millones de puestos de trabajo. . Renunció al cargo en 2017 después de que el presidente Donald Trump se negara a condenar una protesta de supremacistas blancos que se volvió violenta en Charlottesville.

Para entonces, la tecnología de IA estaba empezando a despegar. A principios de la década de 2010, la investigación de Hinton y otros pioneros de la IA condujo a importantes avances en el reconocimiento de imágenes, la traducción y los descubrimientos médicos. "Tenía ganas de volver mucho más de cerca y por completo a la investigación y al campo de la IA porque las cosas estaban empezando a ponerse realmente interesantes", dijo Manyika.

En lugar de limitarse a investigar tendencias y escribir informes desde fuera, quería estar en Google. Habló con Pichai, quien anteriormente había intentado reclutarlo, y aceptó el puesto el año pasado.

Podría decirse que Google es la empresa más importante en IA: haber entrado en este campo mucho antes de que OpenAI fuera un destello en los ojos de Elon Musk. Hace aproximadamente una década, la compañía intensificó sus esfuerzos en este espacio y lanzó una costosa guerra de talentos con otras empresas de tecnología para contratar a las mejores mentes en la investigación de IA. Científicos como Hinton dejaron sus trabajos en las universidades para trabajar directamente para Google, y la empresa pronto se convirtió en una máquina innovadora.

En 2017, los investigadores de Google publicaron un artículo sobre los “transformadores”, un avance clave que permitió a los modelos de IA digerir muchos más datos y sentó las bases para la tecnología que permite a la cosecha actual de chatbots y generadores de imágenes aprobar exámenes profesionales y volver a trabajar. crear pinturas de Van Gogh. Ese mismo año, Pichai comenzó a presentar la empresa a inversores y empleados como "la IA primero".

Pero la compañía se abstuvo de hacer pública la tecnología y la utilizó para mejorar sus productos existentes como fuente de ingresos. Cuando escribes "película con ogro verde" en la Búsqueda de Google y el sitio muestra un enlace a "Shrek", eso es IA. Los avances en traducción también están directamente relacionados con el trabajo de inteligencia artificial de Google.

Entonces el suelo se movió bajo los pies de Google.

En noviembre, ChatGPT fue lanzado al público por OpenAI, una empresa mucho más pequeña fundada inicialmente por Musk y otros líderes tecnológicos para actuar como contrapeso al dominio de la IA de las grandes tecnologías. Por primera vez, la gente tuvo acceso directo a esta tecnología de vanguardia. El robot captó la atención tanto de los consumidores como de los líderes tecnológicos, lo que impulsó a Google a lanzar su propia versión, Bard, en marzo.

Meses después, Bard está disponible en 40 idiomas y en casi todos los países que no están en la lista de sanciones de Estados Unidos. Aunque está disponible para millones de personas, Google todavía etiqueta al robot como un “experimento”, un reconocimiento de problemas persistentes. Por ejemplo, Bard a menudo inventa información falsa.

Mientras tanto, Google ha perdido a algunos de los investigadores estrella de IA que contrató durante las guerras de talentos, incluidos los ocho autores del artículo sobre transformadores de 2017. Hinton se fue en mayo, diciendo que quería tener libertad para hablar sobre los peligros de la IA. La empresa también socavó su reputación de fomentar la disidencia académica al despedir a Gebru y a otros, incluida Margaret Mitchell, coautora del artículo que Gebru escribió antes de su despido.

"Han perdido gran parte del beneficio de la duda de que... eran buenos", dijo Mitchell, ahora científico jefe de ética en la startup de inteligencia artificial Hugging Face.

Sentada para una entrevista, Manyika se disculpa por "vestirse demasiado" con una camisa a cuadros y una chaqueta de traje. Es formal para San Francisco. Pero es el uniforme que porta en muchas de sus apariciones públicas.

La conversación, como la mayoría en Silicon Valley estos días, comienza con Manyika declarando lo emocionante que es el reciente aumento de interés en la IA. Cuando se unió a la empresa, la IA era solo una parte de su trabajo como director de tecnología y sociedad. El puesto no existía antes de que lo contrataran; Es en parte embajador y en parte estratega interno: Manyika comparte el mensaje de Google con académicos, grupos de expertos, medios de comunicación y funcionarios gubernamentales, mientras explica a los ejecutivos de Google cómo su tecnología interactúa con el resto del mundo. Depende directamente de Pichai.

A medida que la carrera hacia la IA ha desplazado a Silicon Valley y a Google junto con él, Manyika de repente se encuentra en el centro del trabajo más importante de la empresa.

"El momento no podría haber sido mejor", dijo Kent Walker, quien como presidente de asuntos globales de Google dirige los equipos legales y de cabildeo de la compañía. Walker y Manyika se han estado reuniendo con políticos en Estados Unidos y en el extranjero para abordar el creciente clamor por la regulación de la IA. Manyika, dijo, “ha sido una portavoz externa muy considerada para nosotros”.

El papel de Manyika creció sustancialmente en abril cuando Hassabis se hizo cargo de la investigación central de IA en la empresa. El resto de la división de investigación de clase mundial de Google quedó en manos de Manyika. Ahora dirige sus esfuerzos al cambio climático, la atención sanitaria, la privacidad y la computación cuántica, así como a la responsabilidad de la IA.

A pesar del ritmo vertiginoso de Google en la carrera armamentista de la IA durante los últimos ocho meses, Manyika insistió en que la compañía lanza productos sólo cuando están listos para el mundo real. Cuando Google lanzó Bard, por ejemplo, dijo que funcionaba con un modelo más antiguo que había pasado por más entrenamiento y ajustes, no una versión más potente pero no probada.

Ser audaz “no significa darse prisa”, afirmó. “Para mí, audaz significa: beneficiar a todos. Haz las cosas útiles. Empujemos las fronteras para que esto sea útil”.

El lanzamiento de noviembre de ChatGPT presentó al público la IA generativa. "Y creo que eso es realmente genial", dijo. "Pero también estoy agradecido por el enfoque reflexivo y mesurado que seguimos adoptando con estas cosas".

Una versión anterior de esta historia decía incorrectamente que Google eliminó la frase "no seas malvado" de su código de conducta y describió que el papel del presidente de Asuntos Globales, Kent Walker, incluía el control del equipo de relaciones públicas de la empresa. Google eliminó la frase sólo del preámbulo de su código de conducta y Walker no supervisa las relaciones públicas. Esta historia ha sido corregida.