Imagen de Muhammad Usman Nazeer Gilani en Pixabay
[He publicado esta entrada en el Blog de EiTB de Inteligencia Emocional el 12.06.2024. Este Blog fue cerrado el 01/07/2024]
Hace
unos días me encontré con un artículo periodístico de José Carlos Castillo que
me inquietó. El título: “Estoy en el
infierno, rodeado de adictos” y otras jugarretas de la I(-nteligencia) A(-rtificial)
que ‘resucita’ muertos.
“Algunos programadores llevan tiempo entrenando a la IA para que replique personalidades; más concretamente la de aquellos seres queridos que ya no están entre nosotros, como método para aliviar el dolor de quienes siguen vivos. (...) James Vlahos, quien tras perder a su padre en 2016 a causa de un cáncer de pulmón decidió crear un 'chatbot' (...) utilizó todas las conversaciones escritas, fotografías y vídeos del difunto a su disposición, lo que le permitió mantener diálogos coherentes y realistas con su homónimo digital. Esto, asegura, le proporcionó un consuelo sin el que no hubiese sido capaz de seguir adelante.
Tan reveladora le resultó la experiencia que decidió fundar HereAfter AI, una empresa especializada en la creación de avatares virtuales.”
Javier García-Manglano, Lulu McMillan y Albert Vidal presentaron tres artículos en torno a “la inteligencia artificial emocional” hace cuatro años presentando Replika que “quiere ser lo que su nombre indica, una réplica de ti mismo, una oportunidad de hablar con ‘alguien’ que, de lo bien que te conoce, se va convirtiendo en la materialización de ese diálogo interior que te permite conocerte y entenderte mejor”.
Como estos autores también señalan, conviene no olvidar que estas aplicaciones no son otra cosa que un “producto comercial, destinado a generar negocio. Detrás de Replika (y de HereAfter AI y otras del género) hay una startup y unos emprendedores que necesitan, para atraer inversores y desarrollar su negocio, rendir beneficios en un entorno competitivo (...). El modelo de negocio prevalente entre empresas tecnológicas es la ‘economía de la atención’”.
En estas andaba esos días, cuando la mañana del pasado 5 de junio tuvo lugar la presentación oficial del I Decálogo para el uso Ético de la Inteligencia Artificial en los medios de comunicación fruto de la reflexión iniciada hace aproximadamente un año por la diócesis de Bilbao y la Euskal Kazetarien Elkartea - Asociación Vasca de Periodistas, Colegio Vasco de Periodistas. En esta reflexión también se ha contado con las tres universidades vascas (Deusto, Mondragon y del País Vasco), así como con los medios de comunicación.
Imagen de Tharanga Adikari en Pixabay
Tras
su lectura, reescribo brevemente y a mi modo los doce puntos del decálogo:
1. Alinear
el uso de la IA con valores humanos, derechos fundamentales y códigos
deontológicos periodísticos promoviendo la autorregulación responsable.
2. Respetar
y mantener la confianza de los destinatarios de la información en quienes la
emiten.
3. Ser
transparentes con la audiencia en cuanto al uso de la IA.
4. En
decisiones editoriales clave, que sean personas quienes controlen y supervisen.
5. Extremar
las medidas de ciberseguridad para quienes accedan y usen la IA.
6. Esforzarse
en proteger la privacidad de la audiencia y de los informantes.
7. Utilizar
la IA como apoyo para la mejora de la calidad informativa, siendo conscientes
de sus limitaciones.
8. Promoción
de la formación continua de las/os periodistas sobre la IA, sus capacidades y
riesgos.
9. Monitorización
y evaluación del impacto del uso de la IA.
10. Apoyar
la investigación y el debate independiente en torno a ese impacto.
11. Abrir
a la audiencia canales de cuestionamiento y crítica del uso de la IA y hacerlos
públicos.
12. Dada
la rápida evolución de la IA y sus aplicaciones, será necesaria la revisión
periódica de este decálogo.
Por la tarde, en un acto celebrado por los promotores de este documento en la Universidad de Deusto, Andrea Ciucci, secretario general de la Fundación Vaticana RenAIssance para la Ética de la Inteligencia Artificial, fue invitado a dar una conferencia. El título, Algorética, Inteligencia Artificial y una comunicación plenamente humana (Recomiendo la lectura del texto íntegro, cuyo enlace se encuentra en esta página web).
En ella informó de que desde 2016 la Pontificia Academia para la Vida, donde él desarrolla su tarea, “inició una compleja y articulada reflexión sobre el nexo entre las nuevas tecnologías y la vida humana”. La ética de la IA debe fundamentarse en principios como la transparencia, la inclusión, la responsabilidad, la imparcialidad, la trazabilidad, la seguridad y la privacidad. Principios que se enmarcan en una perspectiva antropológica y social, que abarcan el derecho, la educación y la ética. En este sentido, el Papa Francisco ha acuñado un neologismo, "algorética", para referirse a la ética de los algoritmos en contraposición al riesgo de la soberanía y prevalencia de los mismos, la "algocracia".
“La cuestión de la algorética es ante todo una cuestión de ética social, que sin duda tiene importantes implicaciones antropológicas pero que poco tienen que ver con los apocalípticos escenarios posthumanos de los que hablamos con demasiada frecuencia. Cuestiones como la recogida, posesión y custodia de datos, así como la protección de menores y personas frágiles, el aumento de las desigualdades y el riesgo de reducción de las libertades individuales, y el debilitamiento de los procesos democráticos, son sólo algunos de los temas que exigen una atención urgente y seria.”
Según sus datos, casi el 70% de la población mundial dispone de un teléfono inteligente y de conexión a Internet y es evidente que esto ha cambiado de facto de forma globalizada los vínculos sociales integrando diversas culturas y tradiciones en una única red.
El corazón del trabajo de Ciucci se centra en poner en el centro de estos avances tecnológicos a la persona, proponiendo que la IA respete principios éticos universales y que contribuya al bien común.
Hablar de ética de la IA no es hablar de máquinas, sino de las personas que las diseñan, programan sus algoritmos y las utilizan. Es hablar de una herramienta, la IA, que desarrollada y usada con principios éticos sólidos puede contribuir significativamente al bienestar de la sociedad y no solo a una parte de ella. La ética debe estar presente desde el inicio del proceso tecnológico para asegurar que las innovaciones realmente beneficien a la humanidad en su conjunto.
Una herramienta no tiene ética. La tiene quien la diseña, quien la fabrica, quien la usa. Un cuchillo es una herramienta que no se inventó para apuñalar personas...
Referencias
Bilboko
Elizbarrutia – Diócesis de Bilbao (2024, 5 de junio). Presentado un decálogo
para el uso ético de la Inteligencia Artificial en los medios. https://bizkeliza.org/noticia/presentado-un-decalogo-para-el-uso-etico-de-la-inteligencia-artificial-en-los-medios/
Bilboko Elizbarrutia – Diócesis de Bilbao (2024, 6 de junio). “La transformación actual es un fenómeno global, ante todo por su difusión instantánea”. https://bizkeliza.org/noticia/la-transformacion-actual-es-un-fenomeno-global-ante-todo-por-su-difusion-instantanea/
Castillo, José Carlos. (2024, 23 mayo). «Estoy en el infierno, rodeado de adictos» y otras jugarretas de la IA que 'resucita' muertos. https://www.elcorreo.com/vivir/tecnologia/infierno-rodeado-adictos-jugarretas-ia-resucita-muertos-20240520000452-ntrc.html
García-Manglano, Javier et al. (2020, 1 Jan). Tu mejor amigo… digital. Replika, lo último en inteligencia artificial emocional https://medium.com/thinktech/tu-mejor-amigo-digital-1-3-69a7add89362
García-Manglano, Javier et al. (2020, 2 Jan). Bienvenidos a la Petnología. https://medium.com/thinktech/bienvenidos-a-la-petnolog%C3%ADa-86624acd25f1
García-Manglano, Javier et al. (2020,
3 Jan). Hiperconectados y solos. https://medium.com/thinktech/hiperconectados-y-solos-3c61f410d455
Laboratorio
de Periodismo Luca de Tena (2024, 5 de junio). Decálogo para el uso Ético de la
Inteligencia Artificial en los medios de comunicación.
https://laboratoriodeperiodismo.org/wp-content/uploads/2024/06/Decalogo-uso-inteligencia-artificial.pdf