Artificial Intelligence
Desde algoritmos de recomendación hasta chatbots y automóviles autónomos, la IA está cambiando nuestras vidas. A medida que crezca el impacto de esta tecnología, también lo harán los riesgos.
La inteligencia artificial está avanzando. Las empresas están creando cada vez más sistemas de IA de propósito general que pueden realizar muchas tareas diferentes. Los modelos de lenguaje grandes (LLM) pueden componer poesía, crear recetas para cenas y escribir código informático. Algunos de estos modelos ya plantean riesgos importantes, como la erosión de los procesos democráticos, el sesgo y la desinformación desenfrenados, y una carrera armamentista en armas autónomas. Pero lo peor está por venir.
Los sistemas de IA solo serán más capaces. Las corporaciones están buscando activamente la "inteligencia artificial general" (AGI), que puede funcionar tan bien o mejor que los humanos en una amplia gama de tareas. Estas empresas prometen que esto traerá beneficios sin precedentes, desde curar el cáncer hasta acabar con la pobreza mundial. Por otro lado, más de la mitad de los expertos en IA creen que hay una posibilidad entre diez de que esta tecnología provoque nuestra extinción.
Esta creencia no tiene nada que ver con los robots malvados o las máquinas sensibles que se ven en la ciencia ficción. A corto plazo, la IA avanzada puede permitir a quienes buscan hacer daño, por ejemplo, los bioterroristas, ejecutar fácilmente tareas de procesamiento complejas sin conciencia.
A largo plazo, no debemos obsesionarnos con un método particular de daño, porque el riesgo proviene de una mayor inteligencia en sí misma. Considere cómo los humanos dominan a los animales menos inteligentes sin depender de un arma en particular, o un programa de ajedrez de IA derrota a los jugadores humanos sin depender de un movimiento específico.
Los militares podrían perder el control de un sistema de alto rendimiento diseñado para hacer daño, con un impacto devastador. Un sistema avanzado de IA encargado de maximizar las ganancias de la empresa podría emplear métodos drásticos e impredecibles. Incluso una IA programada para hacer algo altruista podría seguir un método destructivo para lograr ese objetivo. Actualmente no tenemos una buena forma de saber cómo actuarán los sistemas de IA, porque nadie, ni siquiera sus creadores, entiende cómo funcionan.
La seguridad de la IA se ha convertido en una preocupación principal. Los expertos y el público en general están unidos en su alarma por los riesgos emergentes y la necesidad apremiante de gestionarlos. Pero la preocupación por sí sola no será suficiente. Necesitamos políticas que ayuden a garantizar que el desarrollo de la IA mejore la vida en todas partes, en lugar de simplemente aumentar las ganancias corporativas. Y necesitamos una gobernanza adecuada, incluida una regulación sólida e instituciones capaces que puedan alejar esta tecnología transformadora de los riesgos extremos y acercarla al beneficio de la humanidad.
