En una reciente declaración publicada en la web del Centro para la Seguridad de la IA, expertos en inteligencia artificial han expresado preocupación sobre los posibles alcances y límites de esta tecnología, llegando a señalar que “podría llevar a la extinción de la humanidad”.
Entre quienes apoyan esta declaración se encuentran reconocidos nombres como Sam Altman, director ejecutivo de OpenAI, Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei, de Anthropic. El objetivo de este llamado es mitigar el riesgo y establecer la IA como una prioridad mundial junto con otros desafíos globales como las pandemias y la guerra nuclear.
Los diversos escenarios de desastre que plantean los firmantes incluyen el potencial uso de la IA como arma para intervenir sistemas de control automático, la propagación de desinformación que socava la toma de decisiones colectiva y la dependencia excesiva de la IA por parte de los seres humanos. El Dr. Geoffrey Hinton, exvicepresidente de IA de Google, quien ya había advertido de los riesgos de la IA superinteligente, también respaldó esta declaración, al igual que Yoshua Bengio.
Hinton y Bengio, junto a Yann LeCun, son conocidos como los “padrinos de la IA” por su trabajo pionero en este campo; sin embargo, el Dr. LeCun, que también trabaja en Meta, ha dicho que estas advertencias apocalípticas son exageradas.
El debate está plenamente activo a nivel global y progresa en la medida que avanza la tecnología. Tomás Pérez-Acle -profesor titular de la Escuela de Ingeniería, director del Doctorado en Biología Computacional USS y del Centro Basal Ciencia & Vida- aclara que, hoy, “la inteligencia artificial no existe, al menos no todavía”. A pesar de los notables avances en este campo, sostiene que lo que tenemos actualmente son sistemas de aprendizaje automatizado y reconocimiento de patrones. Máquinas que pueden realizar tareas complejas y mejorar su desempeño a través de entrenamiento, pero que todavía carecen de capacidad de razonamiento abstracto y resolución de problemas nuevos de manera novedosa o innovadora.
La “singularidad” es un concepto clave en esta discusión. Popularizado por el futurista Ray Kurzweil, describe un escenario en el que la inteligencia artificial, o cualquier otra forma de superinteligencia, alcance y supere la capacidad intelectual humana y adquiera conciencia de sí misma. Una vez que se alcance la singularidad, las máquinas o sistemas de IA podrían mejorar y replicarse a sí mismos de manera autónoma, generando un crecimiento exponencial en su capacidad, lo que podría dar lugar a un cambio abrupto y trascendental en la civilización humana.
El Dr. Pérez-Acle sostiene que este hito podría ocurrir en un plazo no mayor a diez años.
A pesar de sus limitaciones actuales, la IA ha demostrado ser una herramienta poderosa y transformadora en diversas áreas. Sin ir más lejos, en biología computacional y otras disciplinas científicas, destacan oportunidades como el análisis masivo de datos genómicos, el diseño de nuevas moléculas, la interpretación de imágenes para fines médicos, el modelamiento y simulación de sistemas biológicos, entre otros.
El uso de modelos de lenguaje como ChatGPT se está masificando en diversas esferas, facilitando muchos procesos, e incluso, comenta el Dr. Pérez-Acle, “está generando respuestas creativas, con lo cual podría decirse que estamos en los albores de la inteligencia artificial general (AGI), el paso previo a la singularidad”.
Los beneficios son evidentes, como también lo son los riesgos, alertas y legítimas preocupaciones frente al desarrollo de estas tecnologías que parecen impredecibles. Sus alcances, impacto y potenciales usos dañinos conforman una dimensión que debe abordarse desde una perspectiva ética. Así lo señala Andrea Leisewitz, doctora en Ciencias Biológicas y directora de Integridad, Seguridad y Ética de la Investigación en la USS, quien afirma que “el temor hacia la IA proviene del desconocimiento sobre su desarrollo y posibles usos”.
En ese sentido, destaca la importancia de establecer lineamientos éticos y una gobernanza adecuada que considere las implicaciones éticas y sociales de la IA. La especialista subraya que “así como la IA puede ser una herramienta positiva y útil, también puede ser una fuente de información falsa o dar pie a decisiones no contextualizadas, por lo que es fundamental educar en su buen uso y regular su mal uso”.
La Dra. Leisewitz coincide con el Dr. Pérez-Acle respecto a que, así como cualquier otro desarrollo tecnológico, la IA no es inherentemente buena ni mala, sino que su impacto depende del uso que se le dé y de las decisiones que se tomen en relación a ella. “Además de los temores en torno a cómo podría ser utilizada de manera perjudicial, surgen interrogantes respecto de quién es responsable sobre esos mal usos y productos generados por sistemas de IA”, comenta. En ese sentido, la falta de transparencia y la opacidad en los algoritmos también plantean interrogantes sobre la toma de decisiones automatizada y su potencial sesgo.
En este escenario, ambos especialistas señalan que es esencial contar con marcos regulatorios acordados, no prohibitivos, pero sí actualizados y que vayan a la par de los rápidos avances de la tecnología. Al mismo tiempo, es necesario fortalecer el aspecto formativo en los establecimientos educacionales y la población en general; educar en alfabetización tecnológica, pero sin dejar de lado el cultivo del razonamiento crítico y la reflexión respecto al impacto -potencialmente desastroso- que nosotros mismos podemos generar al mal utilizar estas herramientas, o al dejar que éstas tomen decisiones por nosotros.
.