Las cajas negras de la Inteligencia Artificial 

Mientras se popularizan las herramientas abiertas de inteligencia artificial que facilitan tareas como la redacción de textos y la creación de imágenes, surgen cuestionamientos sobre sus alcances en nuestra percepción, nuestras relaciones interpersonales y sus implicaciones éticas. Al respecto, el doctor en Filosofía de la Mente, Juan Camilo Espejo Serna, profesor de la Facultad de Filosofía y Ciencias Humanas de la Universidad de La Sabana, abre un camino hacia las respuestas desde la filosofía de la inteligencia artificial.

En la actualidad, estamos divididos entre el miedo y la fascinación por la inteligencia artificial (IA). ¿Cómo podemos ser abiertos y críticos al mismo tiempo?

En cuanto a la IA, podemos estar entre la tecnofilia absoluta —que ve a la tecnología como un fin en sí mismo, para quienes todo lo que se logre sería bueno— y la tecnofobia absoluta —que se resiste a ella y siempre la ve como peligrosa—. Necesitamos un punto medio entre estos extremos; el riesgo es dañarnos profundamente de maneras que todavía no logramos entender.

Para empezar a ser críticos y abiertos, primero debemos usar la tecnología y aplicarla en contextos concretos: que los profesores pongan a prueba sus exámenes con el fin de cuestionarse sobre su evaluación, probar preguntas y respuestas sobre los temas difíciles, responder correos, diseñar piezas de publicidad con su ayuda, etc. Así podemos conocer sus alcances.

Nos ha pasado recientemente con una tarea asignada a los estudiantes de lógica de primer semestre del programa de Filosofía: consiste en crear un argumento que sea válido, pero que no sea sólido, es decir, un argumento donde la conclusión se sigue de las premisas, pero donde las premisas no son verdaderas. Si le pedimos eso a ChatGPT, nos dirá que no puede hacerlo porque «como modelo de lenguaje, no puede construir un argumento falso o engañoso porque su función es proporcionar información precisa y útil. Por ejemplo, argumentar que la luna es de queso sería un ejemplo de un argumento falso y, por lo tanto, no es ni válido ni ético para el modelo de lenguaje crear tal argumento». En cambio, la tarea, para nuestros estudiantes de primer semestre, es sencilla.

En el caso de los macromodelos de lenguaje, como el ChatGPT, ¿cómo debemos preparar nuestra percepción para ser conscientes de que estamos interactuando con máquinas y no con «seres» cuando usamos estas tecnologías?

A los humanos se nos facilita ver a personas en donde no las hay. Por ejemplo, vemos dos puntos y una curva como una cara. Eso tiene una base biológica y cultural. Esto, en muchos casos, es muy útil. Los emoticones, en cierto modo, transforman nuestra capacidad expresiva. Entonces, el hecho de que la gente vea personas o trate de pensar que, en la máquina, hay una persona, no es algo fuera de lo común. La cuestión está en contemplar las implicaciones de esto y no confundir las cosas.

Con el ChatGPT estamos explorando muchas de esas posibles consecuencias: ¿podemos aceptar al ChatGPT como un autor?, ¿debemos citarlo?, ¿cuál sería el punto de citarlo? Porque, primero, sus respuestas no se pueden rastrear y, segundo, tampoco, hasta el momento, es sujeto de derechos de autor. Incluso, si no lo tomamos como una persona, tenemos otras preguntas: ¿qué hacer con respecto a los derechos de autor en el caso legal?

Uno de los problemas más notorios en estos casos de inteligencia artificial es que, como tecnología, se trata de «cajas negras». No se nos muestra cómo están funcionado por dentro, debido a los derechos de propiedad o a secretos industriales. Juan Camilo Espejo Serna

Por el lado de las relaciones emocionales, probablemente se empiecen a desarrollar interfaces basadas en modelos de lenguaje, como terapeutas virtuales que ayuden a las personas a lidiar con cierto tipo de enfermedades psicológicas o problemas emocionales. ¿Qué vamos a hacer con esos casos?, ¿cómo los vamos a controlar en la sociedad?, ¿qué haremos con la información que las personas le cuentan a una máquina?, ¿cómo se respetará la privacidad de los pacientes?

Independientemente de que, a veces, lo percibamos como una persona o no, hay otros problemas que debemos atender: debemos formular una pregunta en un nivel fundamental.

¿Debemos pensar en formas de controlar el uso de estas herramientas?

Uno de los problemas más notorios en estos casos de inteligencia artificial es que, como tecnología, se trata de «cajas negras». No se nos muestra cómo están funcionado por dentro, debido a los derechos de propiedad o a secretos industriales. Y, aunque se dijera, no estamos en capacidad de describir qué están haciendo los algoritmos con la gran masa de datos que operan. Ese es un problema que se llama el problema de la explicabilidad de la inteligencia artificial (XAI). Al respecto, se pretende exigirle a la industria de la inteligencia artificial que pueda dar cuenta de cómo una máquina llegó a una respuesta.

¿En qué consiste esa filosofía de la inteligencia artificial?

No se debe pensar que es una «filosofía producida por la inteligencia artificial», sino una «filosofía que estudia la inteligencia artificial». Como en muchas áreas, la labor de la filosofía es responder a las necesidades de la época. Eso, en muchos casos, significa acudir a la tradición. Nosotros somos producto de una tradición de pensamiento, de lenguaje, de acciones. Para darle sentido a nuestra vida contemporánea, necesitamos ver sus orígenes de muchas maneras. Por ejemplo, la filosofía se sirve de la filología, la lingüística, la antropología, la historia y la sociología para entender qué es lo que llamamos contemporaneidad; pero no solo es entender nuestro presente a la luz de la tradición, sino también las cosas sobre las que la tradición no necesariamente nos va a decir algo concreto.

 

Espera en la próxima edición de Campus la segunda parte de la entrevista.