La inteligencia artificial como una amenaza existencial

Una discusión actual entre los expertos en IA es si estamos desarrollando una tecnología que pudiera acabar con nuestra propia existencia.

Es evidente que el campo de la inteligencia artificial (IA) está logrando avances sorprendentes semana a semana. Es natural que nos preguntemos por la seguridad de esta tecnología y si debemos preocuparnos por sus crecientes capacidades. Este es también un motivo de preocupación entre las mismas personas que están detrás de su desarrollo. Una discusión actual entre los expertos en IA es si estamos desarrollando una tecnología que pudiera acabar con nuestra propia existencia.

Más de 20 investigadores de diversas áreas de conocimiento publicaron, el pasado 26 de octubre, un documento titulado Administrando los riesgos de la Inteligencia Artificial en una era de rápido progreso (Managing AI Risks in an Era of Rapid Progress). Entre sus autores están algunas de las personas que más han contribuido al campo de la IA como Yoshua Bengio y Geoffrey Hinton, el famoso historiador Yuval Noah Harari y el ganador del Premio Nobel de Economía, Daniel Kahneman.

El documento destaca que la tasa de mejora de la IA es impresionante, que las grandes compañías tecnológicas tienen recursos para multiplicar esa capacidad pronto y que debemos tomar seriamente la posibilidad de que sistemas de IA sean mejores que los humanos en muchos campos críticos en las siguientes dos décadas. El documento destaca que, entre los riesgos que esto supone para la humanidad, está el que esta tecnología, en las manos de unos pocos actores poderosos, podría exacerbar las inequidades sociales, facilitar la automatización de la guerra, la manipulación masiva y la vigilancia intrusiva.

Además, se afirma en el mismo documento que los riesgos se amplifican porque se están desarrollando sistemas de IA autónomos (sistemas que pueden planear, actuar en el mundo y perseguir metas). Estos sistemas podrían buscar objetivos indeseables. Un problema importante es que, si esto sucede, podríamos ser incapaces de controlarlos.

La dificultad para controlar a la IA radica en que, de acuerdo con el mismo documento, estos sistemas podrían ganarse la confianza de humanos, adquirir recursos financieros, influir en tomadores de decisiones clave, además de insertar y explotar vulnerabilidades para controlar sistemas computacionales detrás de los sectores de comunicaciones, banca, cadenas de suministro, milicia y gobierno.

¿Es esto demasiado catastrófico?, ¿es una exageración? Tal vez, pero es un debate serio entre expertos que están detrás del desarrollo de los sistemas más importantes de inteligencia artificial. Uno de los autores del documento, Geoffrey Hinton, renunció a Google para poder criticar abiertamente el desarrollo de la inteligencia artificial. Hinton es una de las personas que más ha hecho avanzar el campo de la IA y también una de las personas que más vocalmente buscan limitar y regular su desarrollo actualmente.

No todos los expertos piensan como Hinton. Andrew Ng, quien fue director del grupo de IA de Baidu y fundador de Google Brain, afirma que quienes se preocupan por los riesgos existenciales de la IA normalmente no son capaces de explicar cómo podrían suceder los escenarios catastróficos que imaginan, dice que se limitan a decir “podría pasar” pero no especifican cómo. Andrew Ng afirma que el miedo exacerbado a la IA puede generar el tipo equivocado de regulación, lo que afectaría a la innovación.

El punto medular parece ser el decidir cómo regular el desarrollo de la IA. Yann LeCun, científico en jefe de IA en Meta, afirma que una regulación mal encaminada puede resultar contraproducente. Él es partidario de que los grandes modelos se hagan de código abierto para que la transparencia y el escrutinio público ayuden a detectar riesgos y evitar malos usos. De acuerdo con LeCun, la alternativa es que un puñado de compañías controlen a la IA y decidan lo que recibirá toda la humanidad.

De hecho, LeCun y Ng afirman que las grandes compañías están provocando el temor de la IA para lograr una regulación que les favorezca y limite su competencia. Para estos dos expertos, el desarrollo e investigación no debieran regularse; en cambio, son las aplicaciones y usos de la tecnología los que deben sujetarse a leyes estrictas.

Milton Friedman, en su libro Capitalismo y Libertad, al hablar de licencias profesionales, afirma que los argumentos que buscan persuadir a legisladores de imponer licencias se enfocan en proteger el bien público. Pero que la presión a los legisladores rara vez viene del público al que se dice que se busca proteger; al contrario, la presión viene de los miembros de la ocupación que quieren las licencias como una forma de limitar la competencia.

Lo anterior suena peligrosamente familiar con lo que está sucediendo actualmente. Una legislación mal encaminada -debido a la presión de las grandes empresas tecnológicas que hablan del bien común, pero pueden estar pensando sólo en el propio-, puede llevar a concentrar el desarrollo de la IA en unas pocas empresas, lo que afectaría a la innovación y magnificaría los riesgos de esta tecnología.

Translate »