Las cajas negras de la  Inteligencia Artificial 

Muchas de las preguntas sobre el ChatGPT se responden a la luz de lo que hemos dicho de qué es la inteligencia y qué es un ser humano. Mira que empezamos hablando de si podíamos ver a ChatGPT como a una persona. Esa es una pregunta filosófica con tradición amplia.

La filosofía de la inteligencia artificial es filosofía que está buscando entender esto. Tiene un comienzo a mediados del siglo XX, cuando la idea de la inteligencia artificial era muy diferente a la que tenemos en este momento, pero también podría tener sus orígenes en Thomas Hobbes, quien decía que pensar es calcular y daba una respuesta materialista a la pregunta sobre qué es el pensamiento. Desde ese punto de vista, nosotros también somos máquinas que pensamos. Pero, si nosotros pensamos que no somos únicamente máquinas, debemos acudir otra vez a la tradición para responder qué es la persona, qué es un ser humano.

Otro de los temas que aborda la filosofía de la inteligencia artificial es el de los derechos: ¿cómo puede la inteligencia artificial afectar los derechos de las personas? Una de las consecuencias que se advierten es que las personas podrán pagar por un tratamiento, atención o interacción con seres humanos, mientras que una masa de personas o de consumidores terminará solamente recibiendo respuestas de inteligencia artificial. Entonces, ¿vamos a aumentar desigualdades de esa manera?, ¿qué tipo de desigualdades?, ¿qué significa ser tratado por un terapeuta basado en inteligencia artificial frente a ser tratado por un humano? La interacción humana puede convertirse en un producto de exclusividad, algo similar a lo que sucede con los productos fabricados en masa, frente a los que se elaboran a mano.

Aunque Chat GPT da respuestas verosímiles, a veces estas son verídicas y otras veces no. En la Facultad de Filosofía y Ciencias Humanas le pedimos escribir un ensayo citando fuentes académicas. Y así procedió, pero ninguna de las fuentes era real. También le pedimos reseñar un libro reciente y entregó un texto que hablaba de otro libro, aunque del mismo autor. ¿Cuál es el reto al que nos enfrenta la adopción de esta tecnología ante el cuidado de la verdad?

Si uno le pide al ChatGPT que haga algo falso, o algo que la mayoría de las fuentes consideraría razonablemente falso, se resiste. «Se resiste a mentir», como cuando le pedimos argumentar que la luna está hecha de queso. Pero el cuidado de la verdad no solo consiste en evadir las cosas abiertamente falsas, sino en cuidar que lo dicho no parezca verdadero cuando no lo es. ChatGPT no expresa duda, por ejemplo. No señala que pueda haber una razón para pensar que lo que está diciendo no es verdad. Nos puede dar afirmaciones como «hay dos visiones al respecto…», pero nunca pone en duda el que pueda haber una tercera o cuarta visión de las mismas cosas.

El cuidado de la verdad no solo se trata de cuidar las opiniones expresadas, sino en dejar de decir cosas cuando no se tiene información suficiente. Los ejemplos mencionados son un tipo de respuesta que se da mucho con el ChatGPT: puede que la máquina no sepa o no tenga esa información, pero no se niega a responder.

La realidad es que, cuando se abstiene de dar alguna opinión, es porque responde a un filtro que le fue agregado, quizás debido a alguna alerta sobre una petición anterior. El acceso gratuito a la tecnología permite que haya millones de usuarios probándola para perfeccionar la herramienta y añadir los filtros necesarios. Por lo tanto, hay cosas que se descubrirán con el uso. Para el ChatGPT es crucial ofrecer respuestas que parezcan verdaderas, pero no necesariamente que sean verdaderas. Entonces, aunque hoy la máquina ni elabora juicios de valor ni da opiniones, eso podría cambiar si sus fabricantes así lo desean.

¿Cómo deberíamos discutir sobre los alcances éticos de estas decisiones?

Esa es una de las discusiones contemporáneas al respecto: la inteligencia artificial está en manos de muy pocas personas, pero sus decisiones afectan a millones de personas. En la actualidad, no sabemos si se están discutiendo estos puntos dentro de estas compañías. Y, si lo están haciendo, no sabemos con base en qué. La inteligencia artificial está en manos de empresas sin mucha regulación, y la regulación tampoco existe. Esto nos devuelve al problema de la explicabilidad de la inteligencia artificial (XAI). No es fácil regular lo que no se puede entender. Si no sabemos cómo se está haciendo algo, no podemos decir si está cumpliendo con los reglamentos. Las discusiones de la ética de la inteligencia artificial también se basan en la naturaleza de la tecnología. Hoy, es una caja negra que funciona de una manera que le permite esconderse de muchas cosas, entre ellas, la regulación.