Ya sea que crea que la inteligencia artificial salvará al mundo o acabará con él, no hay duda de que estamos en un momento de gran entusiasmo. La IA, como sabemos, puede que no hubiera existido sin Yoshua Bengio.
Bengio, de 60 años, llamado el “padrino de la inteligencia artificial”, es un informático canadiense que ha dedicado su investigación a las redes neuronales y los algoritmos de aprendizaje profundo. Su trabajo pionero ha abierto el camino para los modelos de IA que utilizamos hoy en día, como ChatGPT de OpenAI. y Claude de Anthropic.
“La inteligencia da poder y quienquiera que controle ese poder, ya sea a nivel humano o superior, será muy, muy poderoso”, dijo Bengio en una entrevista con Yahoo Finance. “La tecnología en general es utilizada por personas que quieren más poder: dominio económico, dominio militar, dominio político. Así que antes de crear tecnología que pueda concentrar el poder de maneras peligrosas, debemos tener mucho cuidado”.
En 2018, Bengio y dos colegas, el ex vicepresidente de Google (GOOG) Geoffrey Hinton (ganador del Premio Nobel de Física 2024) y el científico jefe de IA de Meta (META), Yann LeCun, ganaron el Premio Turing (conocido como el Premio Noble). de informática). En 2022, Bengio fue el informático más citado del mundo. Y la revista Time lo nombró una de las 100 personas más influyentes del mundo.
A pesar de ayudar a inventar la tecnología, Bengio se ha convertido ahora en una voz de cautela en el mundo de la IA. Esa cautela se produce cuando los inversores continúan mostrando un gran entusiasmo en el espacio: las acciones de IA alcanzaron nuevos récords este año.
Las acciones de Nvidia (NVDA), la favorita de los chips de IA, han subido un 162% en lo que va del año, por ejemplo, en comparación con la ganancia del 21% del S&P 500.
La empresa está ahora valorada en la asombrosa cifra de 3,25 billones de dólares según datos de Yahoo Finance, ligeramente por detrás de Apple (AAPL) en el título de empresa más valiosa del mundo.
Entrevisté a Bengio sobre las posibles amenazas de la IA y qué empresas de tecnología lo están haciendo bien.
La entrevista ha sido editada para mayor extensión y claridad.
¿Por qué deberíamos preocuparnos por la inteligencia a nivel humano?
“Si esto cae en las manos equivocadas, sea lo que sea lo que eso signifique, podría ser muy peligroso. Estas herramientas podrían ayudar a los terroristas muy pronto, y podrían ayudar a los actores estatales que desean destruir nuestras democracias. Y luego está el problema que muchos científicos tienen Hemos estado señalando, cuál es la forma en que los estamos entrenando ahora; no vemos claramente cómo podríamos evitar que estos sistemas se vuelvan autónomos y tengan sus propios objetivos de preservación, y podríamos perder el control de estos sistemas. en el camino de tal vez crear monstruos que podrían ser más poderosos que nosotros”.
OpenAI, Meta, Google, Amazon: ¿qué gran actor de IA lo está haciendo bien?
“Moralmente, diría que la empresa que mejor se está comportando es Anthropic [major investors include Amazon and Google]. Pero creo que todos tienen sesgos debido a la estructura económica en la que su supervivencia depende de estar entre las empresas líderes e idealmente ser las primeras en llegar a AGI. Y eso significa una carrera, una carrera armamentista entre corporaciones, donde la seguridad pública probablemente sea el objetivo perdedor.
Anthropic está dando muchas señales de que les importa mucho evitar resultados catastróficos. Fueron los primeros en proponer una política de seguridad en la que existe el compromiso de que si la IA termina teniendo capacidades que podrían ser peligrosas, entonces detendrían ese esfuerzo. También son los únicos junto con Elon Musk que han estado apoyando la SB 1047. En otras palabras, decir 'sí, con algunas mejoras estamos de acuerdo en tener más transparencia en los procedimientos de seguridad y los resultados y la responsabilidad si causamos un daño mayor'.
¿Está pensando en el gran aumento de las acciones de IA, como Nvidia?
“Lo que creo que es muy seguro es la trayectoria a largo plazo. Así que si estás en esto a largo plazo, es una apuesta bastante segura, excepto si no logramos proteger al público… [Then] La reacción podría ser tal que todo podría colapsar ¿verdad? Ya sea porque hay una reacción de las sociedades contra la IA en general o porque suceden cosas realmente catastróficas y nuestra estructura económica se desmorona.
De cualquier manera, sería malo para los inversores. Así que creo que los inversores, si fueran inteligentes, entenderían que debemos actuar con cautela y evitar el tipo de errores y catástrofes que podrían dañar nuestro futuro colectivamente”.
¿Pensaste en la carrera de los chips de IA?
“Creo que los chips claramente se están convirtiendo en una pieza importante del rompecabezas y, por supuesto, es un cuello de botella. Es muy probable que la necesidad de enormes cantidades de computación no desaparezca con los tipos de eventos, los avances científicos que puedo imaginar en los próximos años, por lo que será un valor estratégico tener capacidades de chips de IA de alta gama, y todos los pasos en la cadena de suministro serán importantes. Hay muy pocas empresas capaces de hacerlo en este momento, así que espero que así sea. “Vemos muchas más inversiones en marcha y, con suerte, un poco de diversificación”.
¿Qué opinas de que Salesforce introduzca mil millones de agentes autónomos para 2026?
“La autonomía es uno de los objetivos de estas empresas, y es una buena razón económica y comercial. Esto va a suponer un gran avance en términos de la cantidad de aplicaciones que esto abre. Piense en todas las aplicaciones de asistente personal. Requiere mucha más autonomía de la que pueden proporcionar los sistemas actuales de última generación. Por lo tanto, es comprensible que apunten a algo como esto. El hecho de que Salesforce (CRM) piense que pueden lograrlo en dos años, para mí, es preocupante. “Necesitamos tener barreras de seguridad, tanto en términos gubernamentales como tecnológicos, antes de que eso suceda”.
El gobernador Newsom vetó la SB 1047 de California. ¿Fue un error?
“No me dio razones que tuvieran sentido para mí, como querer regular no sólo los sistemas grandes sino también todos los pequeños… Existe la posibilidad de que las cosas avancen rápidamente; hablamos de unos cuantos años. Y tal vez incluso si es una pequeña posibilidad, como el 10% [chance of disaster] necesitamos estar preparados. Necesitamos tener regulación. Necesitamos que las empresas ya estén tomando medidas para documentar lo que están haciendo de una manera que sea consistente en toda la industria.
La otra cosa es que las empresas estaban preocupadas por las demandas. Hablé con muchas de estas empresas, pero ya existe una ley de daños, por lo que podría haber demandas en cualquier momento, si crean daño. Y lo que el proyecto de ley estaba haciendo con respecto a la responsabilidad es reducir el alcance de las demandas… Había 10 condiciones, es necesario tener todas estas condiciones para que la ley respalde la demanda. Entonces creo que en realidad estaba ayudando. Pero hay una resistencia ideológica contra cualquier participación: cualquier cosa que no sea el status quo, cualquier participación del Estado en los asuntos de estos laboratorios de IA”.
Yasmin Khorram es reportera senior de Yahoo Finance. Sigue a Yasmin en Twitter/X M61" rel="nofollow noopener" target="_blank" data-ylk="slk:@YasminKhorram;cpos:10;pos:1;elm:context_link;itc:0;sec:content-canvas" class="link ">@YasminKhorram y en LinkedIn. Envíe consejos de interés periodístico a Yasmin: yasmin.khorram@yahooinc.com
¿Aún estás interesado en la IA? Escuche este episodio de la Oferta de apertura podcast para charlar con el científico y fundador de You.com, Richard Socher. Socher comparte su perspectiva sobre la IA y sus mayores preocupaciones.
Haga clic aquí para conocer las últimas noticias tecnológicas que afectarán al mercado de valores
Lea las últimas noticias financieras y comerciales de Yahoo Finanzas