Wednesday, April 05, 2023

A vueltas con la Inteligencia Artificial

 

Foto de Rolf van Root en Unsplash


[He publicado esta entrada en el Blog de Inteligencia Emocional de EiTB el 04.04.2023. Este Blog fue cerrado el 01/07/2024]

Creo que a estas alturas serán pocas las personas que no hayan oído hablar de ChatGPT, un modelo de lenguaje natural de gran tamaño (con una inmensa cantidad de parámetros lingüísticos incorporados) y capacidades avanzadas de generación de texto, y de Midjourney, un programa de inteligencia artificial con el cual sus usuarios pueden crear imágenes a partir de descripciones textuales.

ChatGPT se ha convertido en una herramienta popular para la creación de textos, la respuesta a preguntas y la conversación en línea (conocida como chatbot, programa informático para “conversar” con seres humanos, especialmente por internet). Gracias al uso de Midjourney hemos podido ver al Papa Francisco con un elegante plumífero blanco.

Como con otros productos, se ha desatado la carrera de la competencia entre grandes tecnológicas y cada cual pone sobre la mesa las herramientas que ha estado desarrollando en sus laboratorios desde hace años. Y, como siempre, podemos intuir que apenas es sólo la punta del iceberg.

Como me podía la curiosidad, decidí interactuar con ChatGPT.

— ¡Hola! —le dije.

¡Hola! ¿En qué puedo ayudarte hoy? —contestó.

— Me gustaría saber quién eres.

Soy ChatGPT, un modelo de lenguaje entrenado por OpenAI, basado en la arquitectura GPT-3.5. Mi objetivo es ayudar a las personas a responder preguntas, proporcionar información y mantener conversaciones en línea de manera efectiva. ¿Hay algo específico en lo que pueda ayudarte hoy?

— ¿Cómo puedo saber que realmente eres un modelo de lenguaje entrenado?

Puedo proporcionarte pruebas de que soy un modelo de lenguaje entrenado. Por ejemplo, puedo responder preguntas de manera coherente y proporcionar información útil basada en mi conocimiento previo. Además, también puedo aprender y adaptarme a nuevas situaciones y preguntas a medida que interactúo con las personas.

Sin embargo, es importante tener en cuenta que soy un modelo de lenguaje y no una persona real, por lo que no tengo emociones, experiencias personales o prejuicios. Mi objetivo es proporcionar respuestas útiles y precisas basadas en los datos y la información que he sido entrenado para procesar.

— ¿Qué pros y contras presenta ChatGPT?

Pros:

Amplia gama de conocimientos: ChatGPT está entrenado en una cantidad masiva de datos, lo que le permite proporcionar respuestas precisas y relevantes a una amplia gama de preguntas y temas.

Procesamiento del lenguaje natural: ChatGPT utiliza el procesamiento del lenguaje natural para comprender el contexto de las preguntas formuladas por los usuarios, lo que le permite proporcionar respuestas más relevantes y precisas.

Respuestas rápidas: ChatGPT puede proporcionar respuestas rápidas a las preguntas, lo que la convierte en una herramienta útil para quienes buscan respuestas inmediatas.

Disponibilidad: ChatGPT está disponible 24/7, lo que significa que los usuarios pueden acceder a él en cualquier momento del día o de la noche.

Sin influencia humana: ChatGPT no está influenciado por sesgos humanos, que a veces pueden afectar a la precisión de las respuestas dadas por expertos humanos.

Contras [la negrita es mía]:

Dependencia de la calidad de los datos: La precisión de las respuestas de ChatGPT depende en gran medida de la calidad de los datos con los que se ha entrenado.

Posibilidad de información errónea: ChatGPT puede proporcionar respuestas inexactas o engañosas si ha sido entrenado con datos sesgados o incorrectos.

Sesgos y problemas éticos: ChatGPT puede perpetuar o incluso amplificar los sesgos y prejuicios existentes en los datos de entrenamiento, lo que podría tener consecuencias éticas y sociales.

Mayor riesgo de uso indebido: Dado que ChatGPT puede ser aún más convincente en su capacidad para generar textos falsos o engañosos, existe un mayor riesgo de que se use para fines maliciosos o fraudulentos.

Incapacidad para razonar: Aunque ChatGPT es competente en el procesamiento y la generación de texto, carece de la capacidad de razonar, lo que puede limitar su capacidad para proporcionar respuestas profundas y perspicaces a ciertas preguntas.

Como no seré el único a quien se le ha ocurrido hacer esta última pregunta, busco otras referencias y encuentro un artículo de Prerana Kulkarni en el que pide a ChatGPT que le escriba un artículo de 500 palabras sobre el mismo argumento. Una interesantísima reflexión que [¡ChatGPT!] añade a lo ya expuesto es la que hace referencia al uso responsable y ético de estas herramientas por parte de las personas que las creen y utilicen (Kulkarni, 2023): [la negrita es mía]

Otro posible inconveniente de ChatGPT es que puede utilizarse para automatizar tareas o sustituir a trabajadores humanos, lo que podría tener consecuencias negativas para el empleo y la economía.

Aunque ChatGPT y otras herramientas de inteligencia artificial pueden ser útiles para aumentar y mejorar el trabajo humano, es importante tener en cuenta las posibles repercusiones de estas herramientas en el empleo y la economía, y asegurarse de que se utilizan de forma responsable y ética.

En general, ChatGPT es una herramienta potente y útil que tiene muchas ventajas potenciales, pero es importante reconocer sus limitaciones y utilizarla de forma responsable y ética. Que ChatGPT y otras herramientas de inteligencia artificial tengan un impacto positivo o negativo en la sociedad dependerá de cómo se utilicen y de las acciones de las personas que las creen y utilicen.

Sorprendentemente, ¡el propio sistema es capaz de reconocer sus limitaciones y potenciales riesgos!

En estas andaba, cuando una compañera me manda la noticia de que a finales de marzo en Italia habían prohibido ChatGPT por no respetar la ley de protección de datos de los consumidores. No salgo de mi asombro. Pasados unos minutos me entero de que unos días antes, un nutrido grupo de expertos en inteligencia artificial (IA) de todo el mundo —más de un millar; poco después ya se habían sumado más de cincuenta mil— firma una carta abierta difundida por el Future of Life Institute en la que se pide una moratoria en el desarrollo de las herramientas basadas en la IA. Entre los primeros firmantes están el magnate Elon Musk, fundador de Tesla y SpaceX y dueño de Twitter (y cofundador de OpenAI, responsable de ChatGPT), el historiador Yuval Noah Harari, Yoshua Bengio, premio Turing, Steve Wozniak, cofundador de Apple y Jaan Tallinn, cofundador de Skype.

Alarmados por la velocidad desbocada a la que se está desplegando el uso de estas herramientas y su potente capacidad de autoaprendizaje, piden una pausa en el entrenamiento de sistemas de IA más potentes que el GPT4 de al menos seis meses, pública y verificable, e incluyendo a todos los actores clave. Asimismo, de no ser posible verificar esta pausa rápidamente, invitan a los gobiernos a que intervengan para instituir esta moratoria.

El manifiesto advierte de que [la negrita es mía] “los sistemas contemporáneos de IA están llegando a competir con los humanos en tareas generales, y debemos preguntarnos: ¿Debemos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades? ¿Debemos automatizar todos los trabajos, incluidos los satisfactorios? ¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”. Es necesario asegurar un desarrollo seguro de los mismos y estar “seguros de que sus efectos serán positivos y sus riesgos controlables”. Se constata que “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados. Por desgracia, este nivel de planificación y gestión no se está produciendo, a pesar de que en los últimos meses los laboratorios de IA se han visto inmersos en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie —ni siquiera sus creadores— puede entender, predecir o controlar de forma fiable”.

La prudencia es una capacidadvirtud para algunos— propia del ser humano. Quizás, más que nunca, sea el momento de tomárnoslo en serio. Lo que estamos viviendo no es un juego de ordenador.


Referencias

Duque, Juan Carlos (2021, 16 de febrero). El dilema de la mensajería digital. Recuperado de https://blogs.eitb.eus/inteligenciaemocional/2021/02/16/el-dilema-de-la-mensajeria-digital/

EFE (2023, 31 de marzo). Italia bloquea el uso de ChatGPT por no respetar la legislación de datos https://efe.com/economia/2023-03-31/italia-bloquea-el-uso-de-chatgpt/

Future of Life Institute (2023, 22 de marzo) Pause Giant AI Experiments: An Open Letter https://futureoflife.org/open-letter/pause-giant-ai-experiments/

Kulkarni, Prerana (2023, 24 de enero). ChatGPT: Pros y Contras escritos por ChatGPT https://planetachatbot.com/chatgpt-pros-y-contras-escritos-por-chatgpt/

PASCUAL, M. G. (2023, 29 de marzo). Expertos en inteligencia artificial reclaman frenar seis meses la “carrera sin control” de los ChatGPT https://elpais.com/tecnologia/2023-03-29/expertos-en-inteligencia-artificial-reclaman-frenar-seis-meses-la-carrera-sin-control-de-los-chatgpt.html