En la carrera por desarrollar la superinteligencia (una tecnología que convertirá el planeta de forma más esencial que la electricidad o Internet) resaltan dos figuras: Sam Altman, director de OpenAI, y Demis Hassabis, director de DeepMind. Los dos son refulgentes, ambiciosos y resueltos a crear máquinas que puedan meditar, razonar y aprender como lo hacen los humanos. En su nuevo libro, “Supremacy: AI, ChatGPT, and the Race That Will Change the World”, la cronista Parmy Olson explora su rivalidad y las fuerzas que dan forma al futuro de la IA. Charló de su trabajo en el podcast London Futurists.
“Se trata verdaderamente de una batalla por el control de la tecnología”, explica Olson, “y la gobernanza sobre el futuro de la IA”. La competencia entre Altman y Hassabis se desarrolla en el contexto de una industria dominada por los gigantes tecnológicos estadounidenses, con Google y Microsoft en la primera situación, y Meta, Amazon, Apple y Nvidia deseosas por alcanzarlos.
El libro de Olson revela un planeta de poderosas ambiciones, problemas éticos y competencia de alto peligro, en el que las tensiones entre U.S.A. y China lo transforman en una batalla geopolítica vital aparte de corporativa.
El costoso viaje cara la superinteligencia
Inteligencia General Artificial (AGI) es un término que se usa para referirse a una pluralidad de cosas distintas, mas la mejor forma de comprenderlo es una máquina que indica la llegada de la superinteligencia. Un AGI tiene todas y cada una de las capacidades cognitivas de un humano adulto, y ciertas de ellas a nivel sobrehumano. Prontísimo una vez que llegue AGI vamos a tener superinteligencia, y muy seguramente una explosión de inteligencia, conforme las máquinas mejoren velozmente.
Desarrollar superinteligencia no solo es un reto tecnológico excepcional, sino más bien asimismo enormemente costoso. Como apunta Olson, el capital preciso para desarrollar modelos avanzados, administrar una gran potencia informática y captar los mejores talentos quiere decir que los creadores y las compañías con frecuencia se hallan atrapados entre el idealismo y la realidad comercial.
Por ejemplo, OpenAI empezó su vida como una organización sin fines de lucro, apoyada por esenciales donaciones, incluyendo una gran donación de Elon Musk. No obstante, cuando se negó la demanda de Musk de ser puesto a cargo, renunció y se llevó su dinero. OpenAI precisaba miles y miles de millones para mantener su investigación, por lo que se remodeló cara un modelo de “ganancias limitadas”, donde las ganancias se restringen para atraer financiamiento comercial mientras que se busca sostener sus ideales sin fines de lucro. De forma afín, DeepMind empezó con grandes ambiciones de edificar AGI para el beneficio de la humanidad, mas una vez que Google adquirió la compañía, estuvo inevitablemente sosten a las demandas de sus gerentes y accionistas corporativos.
“Desarrollar IA es carísimo”, explica Olson. “Es prácticamente imposible hacerlo sin verse arrastrado por la fuerza de gravedad de empresas como Microsoft o Google”. La necesidad de financiación, conjuntada con la ambición de desarrollar sistemas poco a poco más avanzados, con frecuencia conduce a compromisos que prueban seriamente los ideales originales de los creadores.
Mentes estratégicas y poder corporativo
Como líderes de OpenAI y DeepMind, Altman y Hassabis se han transformado en iconos en el planeta de la IA, no solo por su inteligencia, sino más bien asimismo por su obligación de lidiar con los peligros éticos y existenciales que plantea la AGI. Hassabis, que empezó su carrera como neurocientífico y alguna vez fue vencedor de ajedrez, tiene fama de meditar con múltiples movimientos por delante. Olson apunta que quienes han trabajado con él lo describen como un profesor estratega, alguien que sobresale en “administrar tanto cara arriba como cara abajo”, lo que podría explicar su capacidad para ascender en las filas de Google.
Después de una lucha de poder entre DeepMind y Google Brain, Hassabis lidera toda la división de IA de Google, responsable no solo de DeepMind sino más bien de la estrategia general de IA de Google. Su liderazgo lo ha puesto en una situación poderosa, y ciertos especulan que cualquier día podría tomar el mando de Alphabet en conjunto. Mientras, Altman asimismo se ha ganado la reputación de ser abierto y pragmático, advirtiendo sobre los peligros existenciales que la IA podría proponer si se maneja mal, mas ciertos lo critican por mudar su enfoque para amoldarse a los requisitos financieros de su empresa.
“Tanto Altman como Hassabis son honestos en sus pretensiones de producir un impacto positivo”, afirma Olson. “Pero asimismo encaran intensas presiones y enfrentamientos de intereses. Tratan de aferrarse a sus ideales y al tiempo compensar la atracción de enormes interes de tipo comercial, que con frecuencia los empujan en direcciones opuestas”.
Navegando por los peligros existenciales de la superinteligencia
Un aspecto único de esta carrera es que tanto Altman como Hassabis reconocen que la superinteligencia podría representar un peligro existencial para la humanidad. Aunque son optimistas sobre su potencial, asimismo saben que una vez que exista la superinteligencia, es prácticamente seguro que va a estar fuera de nuestro control.
Esta paradoja (competir por desarrollar superinteligencia mientras que se procura asegurar su seguridad) refleja las complejas motivaciones de estos dos líderes. Los dos piensan que si la superinteligencia es ineludible, es mejor que la desarrollen actores responsables en vez de dejarla a cargo de “malos actores”, incluidos algunos gobiernos extranjeros. No obstante, su prosecución plantea preguntas bastante difíciles sobre cuánta cautela están ejercitando verdaderamente.
“Están atrapados en este increíble acto de equilibrio”, afirma Olson. “Están comprometidos con el avance de la IA, mas son continuamente siendo conscientes de los peligros que plantea. Es tal y como si tuviesen que hacer gimnasia mental para conciliar sus ambiciones con sus preocupaciones”.
La creciente repercusión de los gigantes tecnológicos y el fantasma de China
Si bien la rivalidad entre Altman y Hassabis podría ser la competencia más perceptible, la lucha de poder más extensa entre Microsoft y Google se ha acentuado. Las dos empresas han invertido mucho en IA y las dos están de forma profunda implicadas con sus respectivos laboratorios AGI: Microsoft con OpenAI y Google con Google DeepMind.
Para complicar aún más las cosas, está la carrera global entre los gigantes tecnológicos estadounidenses y China, donde el gobierno brinda un extenso apoyo a las ideas de IA. Si bien los modelos chinos se quedan atrás en sofisticación, los gigantes tecnológicos chinos como Baidu y Alibaba se favorecen de subsidios que hacen que sus grandes modelos lingüísticos sean alcanzables para las compañías a una fracción del costo. Mientras, el papel que va a jugar el gobierno estadounidense es solo uno de los múltiples imponderables ahora que Trump ha asegurado su regreso a la Casa Blanca.
¿Intervendrán los gobiernos?
Dado el enorme poder y el impacto que va a tener la superinteligencia, probablemente las agencias de inteligencia y los gobiernos intervengan una vez que piensen que su llegada es inminente, tratando de eludir perder el control de la tecnología misma y tratando de asegurarse de no quedarse atrás de las autoridades extranjeras. contendientes.
Olson sugiere que esto podría tomar la manera de una cooperación enmascarada entre empresas de tecnología y agencias de inteligencia, afín a lo que descubrieron las revelaciones de Edward Snowden. Últimamente, OpenAI nombró a un exfuncionario de la NSA para su junta directiva, lo que probablemente indique una apertura a una mayor supervisión gubernativo.
La idea de nacionalizar las compañías que desarrollan IA sería muy discutida. “El lobby tecnológico en Washington es impresionantemente poderoso, probablemente aun más influyente que el propio gobierno”, apunta Olson, “pero semeja poco a poco más probable alguna forma de cooperación o supervisión”.