Vaticano

La moralidad de la IA depende de las decisiones humanas, afirma el Vaticano en un nuevo documento

El Vaticano advierte sobre el uso ético de la inteligencia artificial, recordando que debe servir al bien común y no causar daño. Aunque reconoce su potencial positivo, el documento insta a una regulación que garantice la dignidad humana y evite abusos.

Cindy Wooden·30 de enero de 2025·Tiempo de lectura: 4 minutos
IA

(OSV News). «El progreso tecnológico es parte del plan de Dios para la creación», dijo el Vaticano, pero la gente debe asumir la responsabilidad de utilizar tecnologías como la inteligencia artificial (IA) para ayudar a la humanidad y no dañar a individuos o grupos.

«Como cualquier herramienta, la IA es una extensión del poder humano, y aunque sus capacidades futuras son impredecibles, las acciones pasadas de la humanidad proporcionan claras advertencias», dice el documento firmado por los cardenales Víctor Manuel Fernández, prefecto del Dicasterio para la Doctrina de la Fe, y José Tolentino de Mendonça, prefecto del Dicasterio para la Cultura y la Educación.

El documento, aprobado por el Papa Francisco el 14 de enero y hecho público por el Vaticano el 28 de enero -el día después del Día Internacional de la Memoria del Holocausto- dice que «las atrocidades cometidas a lo largo de la historia son suficientes para suscitar una profunda preocupación por los posibles abusos de la IA».

Antiqua et Nova

Titulada «Antiqua et Nova (antigua y nueva): Nota sobre la relación entre la inteligencia artificial y la inteligencia humana», el documento se centra especialmente en el uso moral de la tecnología y en el impacto que la inteligencia artificial ya está teniendo o podría tener en las relaciones interpersonales, la educación, el trabajo, el arte, la atención sanitaria, el derecho, la guerra y las relaciones internacionales.

La tecnología de la IA no sólo se utiliza en aplicaciones como ChatGPT y motores de búsqueda, sino también en la publicidad, los coches autoconducidos, los sistemas de armas autónomos, los sistemas de seguridad y vigilancia, la robótica en las fábricas y el análisis de datos, incluso en la atención sanitaria.

Los Papas y las instituciones vaticanas, en particular la Pontificia Academia de las Ciencias, llevan más de 40 años vigilando y expresando su preocupación por el desarrollo y el uso de la inteligencia artificial.

«Como cualquier producto de la creatividad humana, la inteligencia artificial puede orientarse hacia fines positivos o negativos», afirma el documento vaticano. «Cuando se utiliza de manera que respete la dignidad humana y promueva el bienestar de las personas y las comunidades, puede contribuir positivamente a la vocación humana».

Decisiones humanas

«Sin embargo, como en todos los ámbitos en los que los seres humanos están llamados a tomar decisiones, también aquí se cierne la sombra del mal», dijeron los dicasterios. «Allí donde la libertad humana permite la posibilidad de elegir lo que está mal, la evaluación moral de esta tecnología deberá tener en cuenta cómo se dirige y utiliza».

Los seres humanos, no las máquinas, toman las decisiones morales, decía el documento. Por lo tanto, «es importante que la responsabilidad última de las decisiones tomadas utilizando la IA recaiga en los responsables humanos y que haya una rendición de cuentas sobre el uso de la IA en cada etapa del proceso de toma de decisiones».

El documento vaticano insistía en que, aunque la inteligencia artificial puede realizar rápidamente algunas tareas muy complejas o acceder a grandes cantidades de información, no es verdaderamente inteligente, al menos no de la misma manera que lo son los seres humanos.

«Una comprensión adecuada de la inteligencia humana no puede reducirse a la mera adquisición de hechos o a la capacidad de realizar tareas específicas. Por el contrario, implica la apertura de la persona a las cuestiones últimas de la vida y refleja una orientación hacia lo verdadero y lo bueno».

Lo específicamente humano

La inteligencia humana también implica escuchar a los demás, empatizar con ellos, entablar relaciones y emitir juicios morales, acciones que ni siquiera los programas de IA más sofisticados pueden realizar, afirma.

«Entre una máquina y un ser humano, sólo el ser humano puede ser suficientemente consciente de sí mismo hasta el punto de escuchar y seguir la voz de la conciencia, discernir con prudencia y buscar el bien que es posible en cada situación», decía el documento.

Los dicasterios vaticanos lanzaron varias advertencias o avisos en el documento, pidiendo a los usuarios individuales, a los desarrolladores e incluso a los gobiernos que ejerzan un control sobre cómo se utiliza la IA y que se comprometan «a garantizar que la IA siempre apoye y promueva el valor supremo de la dignidad de todo ser humano y la plenitud de la vocación humana».

En primer lugar, señalaron, «debe evitarse siempre hacer pasar a la IA por una persona; hacerlo con fines fraudulentos es una grave violación ética que podría erosionar la confianza social. Del mismo modo, utilizar la IA para engañar en otros contextos -como en la educación o en las relaciones humanas, incluida la esfera de la sexualidad- también debe considerarse inmoral y requiere una cuidadosa supervisión para evitar daños, mantener la transparencia y garantizar la dignidad de todas las personas».

Nuevas discriminaciones

Los dicasterios advirtieron que «la IA podría utilizarse para perpetuar la marginación y la discriminación, crear nuevas formas de pobreza, ampliar la ‘brecha digital’ y empeorar las desigualdades sociales existentes».

Aunque la IA promete aumentar la productividad en el lugar de trabajo «haciéndose cargo de tareas mundanas», según el documento, «con frecuencia obliga a los trabajadores a adaptarse a la velocidad y las exigencias de las máquinas, en lugar de que las máquinas estén diseñadas para ayudar a quienes trabajan».

Padres, profesores y alumnos también deben tener cuidado con su dependencia de la IA, afirma, y deben conocer sus límites.

«El uso generalizado de la IA en la educación podría aumentar la dependencia de los alumnos respecto a la tecnología, mermando su capacidad para realizar algunas tareas de forma autónoma y agravando su dependencia de las pantallas», afirma el documento.

Y aunque la IA puede proporcionar información, según el documento, en realidad no educa, lo que requiere pensar, razonar y discernir.

IA e desinformación

Los usuarios también deben ser conscientes del «grave riesgo de que la IA genere contenidos manipulados e información falsa, que puede inducir fácilmente a error a las personas por su parecido con la verdad». Esta desinformación puede producirse de forma no intencionada, como en el caso de la «alucinación» de la IA, en la que un sistema de IA generativa arroja resultados que parecen reales pero no lo son, ya que está programada para responder a todas las solicitudes de información, independientemente de si tiene acceso a ella o no.

Por supuesto, según el documento, la falsedad de la IA también «puede ser intencionada: individuos u organizaciones generan y difunden intencionadamente contenidos falsos con el objetivo de engañar o causar daño, como imágenes, vídeos y audio deepfake -en referencia a una representación falsa de una persona, editada o generada por un algoritmo de IA-«.

Las aplicaciones militares de la tecnología de IA son especialmente preocupantes, según el documento, por «la facilidad con que las armas autónomas hacen más viable la guerra», el potencial de la IA para eliminar la «supervisión humana» del despliegue de armas y la posibilidad de que las armas autónomas se conviertan en objeto de una nueva «carrera armamentística desestabilizadora, con consecuencias catastróficas para los derechos humanos».

El autorCindy Wooden

OSV News

Newsletter La Brújula Déjanos tu mail y recibe todas las semanas la actualidad curada con una mirada católica