Estamos 'creando monstruos más poderosos que nosotros'

Ya sea que crea que la inteligencia sintético salvará al mundo o acabará con él, no hay duda de que estamos en un momento de gran entusiasmo. La IA, como sabemos, puede que no hubiera existido sin Yoshua Bengio.

Bengio, de 60 primaveras, llamado el “padrino de la inteligencia sintético”, es un informático canadiense que ha dedicado su investigación a las redes neuronales y los algoritmos de formación profundo. Su trabajo pionero ha independiente el camino para los modelos de IA que utilizamos hoy en día, como ChatGPT de OpenAI. y Claude de Anthropic.

“La inteligencia da poder y quienquiera que controle ese poder, ya sea a nivel humano o superior, será muy, muy poderoso”, dijo Bengio en una entrevista con Yahoo Finance. “La tecnología en caudillo es utilizada por personas que quieren más poder: dominio crematístico, dominio marcial, dominio político. Así que antiguamente de crear tecnología que pueda concentrar el poder de maneras peligrosas, debemos tener mucho cuidado”.

En 2018, Bengio y dos colegas, el ex vicepresidente de Google (GOOG) Geoffrey Hinton (vencedor del Premio Nobel de Física 2024) y el sabio caudillo de IA de Meta (META), Yann LeCun, ganaron el Premio Turing (conocido como el Premio Egregio). de informática). En 2022, Bengio fue el informático más citado del mundo. Y la revista Time lo nombró una de las 100 personas más influyentes del mundo.

A pesar de ayudar a inventar la tecnología, Bengio se ha convertido ahora en una voz de cautela en el mundo de la IA. Esa cautela se produce cuando los inversores continúan mostrando un gran entusiasmo en el espacio: las acciones de IA alcanzaron nuevos récords este año.

Las acciones de Nvidia (NVDA), la favorita de los chips de IA, han subido un 162% en lo que va del año, por ejemplo, en comparación con la rendimiento del 21% del S&P 500.

La empresa está ahora valorada en la asombrosa emblema de 3,25 billones de dólares según datos de Yahoo Finance, sutilmente por detrás de Apple (AAPL) en el título de empresa más valiosa del mundo.

Entrevisté a Bengio sobre las posibles amenazas de la IA y qué empresas de tecnología lo están haciendo correctamente.

La entrevista ha sido editada para longevo extensión y claridad.

¿Por qué deberíamos preocuparnos por la inteligencia a nivel humano?

“Si esto cae en las manos equivocadas, sea lo que sea lo que eso signifique, podría ser muy peligroso. Estas herramientas podrían ayudar a los terroristas muy pronto, y podrían ayudar a los actores estatales que desean destruir nuestras democracias. Y luego está el problema que muchos científicos tienen Hemos estado señalando, cuál es la forma en que los estamos entrenando ahora; no vemos claramente cómo podríamos evitar que estos sistemas se vuelvan autónomos y tengan sus propios objetivos de preservación, y podríamos perder el control de estos sistemas. en el camino de tal vez crear monstruos que podrían ser más poderosos que nosotros”.

OpenAI, Meta, Google, Amazon: ¿qué gran actor de IA lo está haciendo correctamente?

“Moralmente, diría que la empresa que mejor se está comportando es Anthropic [major investors include Amazon and Google]. Pero creo que todos tienen sesgos correcto a la estructura económica en la que su supervivencia depende de estar entre las empresas líderes e idealmente ser las primeras en conmover a AGI. Y eso significa una carrera, una carrera armamentista entre corporaciones, donde la seguridad pública probablemente sea el objetivo perdedor.

Anthropic está dando muchas señales de que les importa mucho evitar resultados catastróficos. Fueron los primeros en proponer una política de seguridad en la que existe el compromiso de que si la IA termina teniendo capacidades que podrían ser peligrosas, entonces detendrían ese esfuerzo. Encima son los únicos conexo con Elon Musk que han estado apoyando la SB 1047. En otras palabras, aseverar 'sí, con algunas mejoras estamos de acuerdo en tener más transparencia en los procedimientos de seguridad y los resultados y la responsabilidad si causamos un daño longevo'.

¿Está pensando en el gran aumento de las acciones de IA, como Nvidia?

“Lo que creo que es muy seguro es la trayectoria a dispendioso plazo. Así que si estás en esto a dispendioso plazo, es una envite suficiente segura, excepto si no logramos proteger al claro… [Then] La reacción podría ser tal que todo podría colapsar ¿verdad? Ya sea porque hay una reacción de las sociedades contra la IA en caudillo o porque suceden cosas en sinceridad catastróficas y nuestra estructura económica se desmorona.

De cualquier estilo, sería malo para los inversores. Así que creo que los inversores, si fueran inteligentes, entenderían que debemos interpretar con cautela y evitar el tipo de errores y catástrofes que podrían dañar nuestro futuro colectivamente”.

¿Pensaste en la carrera de los chips de IA?

“Creo que los chips claramente se están convirtiendo en una cámara importante del rompecabezas y, por supuesto, es un cuello de botella. Es muy probable que la condición de enormes cantidades de computación no desaparezca con los tipos de eventos, los avances científicos que puedo imaginar en los próximos primaveras, por lo que será un valencia táctico tener capacidades de chips de IA de adhesión tono, y ​​todos los pasos en la dependencia de suministro serán importantes. Hay muy pocas empresas capaces de hacerlo en este momento, así que espero que así sea. “Vemos muchas más inversiones en marcha y, con suerte, un poco de diversificación”.

¿Qué opinas de que Salesforce introduzca mil millones de agentes autónomos para 2026?

“La autonomía es uno de los objetivos de estas empresas, y es una buena razón económica y comercial. Esto va a suponer un gran avance en términos de la cantidad de aplicaciones que esto abre. Piense en todas las aplicaciones de asistente personal. Requiere mucha más autonomía de la que pueden proporcionar los sistemas actuales de última vivientes. Por lo tanto, es comprensible que apunten a poco como esto. El hecho de que Salesforce (CRM) piense que pueden lograrlo en dos primaveras, para mí, es preocupante. “Necesitamos tener barreras de seguridad, tanto en términos gubernamentales como tecnológicos, antiguamente de que eso suceda”.

El regidor Newsom vetó la SB 1047 de California. ¿Fue un error?

“No me dio razones que tuvieran sentido para mí, como querer regular no sólo los sistemas grandes sino asimismo todos los pequeños… Existe la posibilidad de que las cosas avancen rápidamente; hablamos de unos cuantos primaveras. Y tal vez incluso si es una pequeña posibilidad, como el 10% [chance of disaster] necesitamos estar preparados. Necesitamos tener regulación. Necesitamos que las empresas ya estén tomando medidas para documentar lo que están haciendo de una estilo que sea consistente en toda la industria.

La otra cosa es que las empresas estaban preocupadas por las demandas. Hablé con muchas de estas empresas, pero ya existe una ley de daños, por lo que podría activo demandas en cualquier momento, si crean daño. Y lo que el plan de ley estaba haciendo con respecto a la responsabilidad es empequeñecer el significación de las demandas… Había 10 condiciones, es necesario tener todas estas condiciones para que la ley respalde la demanda. Entonces creo que en verdad estaba ayudando. Pero hay una resistor ideológica contra cualquier décimo: cualquier cosa que no sea el status quo, cualquier décimo del Estado en los asuntos de estos laboratorios de IA”.

Yasmin Khorram es reportera senior de Yahoo Finance. Sigue a Yasmin en Twitter/X @YasminKhorram y en LinkedIn. Envíe consejos de interés periodístico a Yasmin: yasmin.khorram@yahooinc.com

¿Aún estás interesado en la IA? Escuche este episodio de la Propuesta de transigencia podcast para charlar con el sabio y fundador de You.com, Richard Socher. Socher comparte su perspectiva sobre la IA y sus mayores preocupaciones.

Haga clic aquí para conocer las últimas informativo tecnológicas que afectarán al mercado de títulos

Lea las últimas informativo financieras y comerciales de Yahoo Finanzas

Leave a Comment