Interpretar con la máquina: Nuestra relación con la inteligencia artificial generativa
He estado pensando sobre cómo entender, desde la hermenéutica, nuestra relación con la IA generativa. La hermenéutica se refiere a la teoría de la interpretación, es el arte y la ciencia de interpretar significados, especialmente cuando algo no es evidente a simple vista.
Originalmente se usaba para interpretar textos antiguos, como la Biblia o escritos filosóficos, pero lo podemos aplicar para interpretar literatura, leyes, el arte, e incluso la inteligencia artificial.
La hermenéutica ofrece un marco profundo y útil para pensar nuestra relación con las inteligencias artificiales generativas como ChatGPT. A diferencia de buscar establecer verdades universales desde la lógica formal o la demostración empírica, la hermenéutica parte del reconocimiento de que todo conocimiento está mediado por la interpretación, y que esta ocurre dentro de un horizonte histórico, lingüístico y cultural específico. Comprender no es simplemente reproducir el contenido de un mensaje, sino una fusión del intérprete y el del texto.
Algo que pocos y pocas entienden, es que cuando interactuamos con una inteligencia artificial generativa, no estamos extrayendo información objetiva de una base de datos neutra. Estamos dialogando con un sistema que ha sido entrenado sobre una vasta tradición textual, con sus sesgos, sus ficciones y realidades, sus silencios y estructuras internas. El modelo de lenguaje no tiene intenciones ni conciencia, pero sí produce lenguaje dentro de un marco estadístico que refleja lo que ha aprendido del mundo humano, lo bueno, lo malo, lo exacto, o inexacto, lo verdadero y hasta lo falso. Este marco es una forma de horizonte o campo interpretativo, que no es humano.
Por eso, la relación entre un usuario y un modelo como ChatGPT o cualquier otro, debe entenderse no como la de un receptor pasivo frente a una fuente de verdad, sino como una interacción de diálogo en la que el sentido se construye en ese instante y con la intención de un usuario. El usuario hace preguntas desde su propio contexto, recibe respuestas generadas desde un mundo ajeno, y a partir de ese intercambio se genera una interpretación. Este proceso es similar al que ocurre cuando leemos un texto filosófico, literario o histórico, incluso en una conversación, no tomamos afirmaciones como definitivas, sino que las sometemos a contraste, análisis y resignificación dado un contexto.
Desde esta perspectiva, los textos generados por IA no deben considerarse como productos terminados ni como documentos verificables por sí mismos. Son más bien "borradores hermenéuticos", es decir, puntos de partida para un proceso de validación, de contraste con fuentes confiables, de puesta en diálogo con otras perspectivas. Esto implica que el usuario no puede delegar en la máquina la responsabilidad del pensamiento. Debe ejercer una forma activa de lectura, crítica y reconstrucción, reconociendo tanto las posibilidades como los límites del sistema.
En lugar de asumir que la IA entrega conocimiento, deberíamos concebirla como una provocación de sentido, como un interlocutor textual con el que exploramos posibilidades. Para generar textos verificables y con base, no basta con consultar a la máquina, hay que interpretarla, cuestionarla, y a veces incluso contradecirla. Este proceso demanda una alfabetización, no en IA, sino hermenéutica, la capacidad de comprender que todo texto, el generado por una IA, incluso los de libros reconocidos, requieren ser situados, contextualizados y examinados.
En este sentido, la IA no reemplaza el pensamiento humano, sino que lo convoca. No elimina la necesidad de fuentes, de argumentos, de verificación, sino que la hace más evidente. La verdadera oportunidad no está en automatizar la producción de ideas, sino en enriquecer la forma en que las articulamos, las discutimos y las comprendemos. Desde una mirada hermenéutica, el conocimiento no es una colección de respuestas, sino el resultado de un proceso continuo de diálogo entre diferentes perspectivas y contextos. La inteligencia artificial, si se la entiende así, no es un oráculo, sino un texto abierto a ser leído, interrogado y transformado.
¿Qué implica esto para generar textos verificables y con base?
- Consultar no es suficiente, hay que interpretar, y eso requiere crítica, comparación de fuentes, y asumir responsabilidad por lo que se escribe.
- El texto generado por IA es un "borrador hermenéutico", es decir, un borrador para ser interpretado
- La IA puede ayudarnos a estructurar y explorar ideas, pero no sustituye el proceso de validación, de verificación
- Es necesario un saber hermenéutico del usuario, una capacidad de hacer interpretaciones desde un dominio de conocimiento, desde un contexto.
Ejemplo práctico
Imaginemos que una estudiante universitaria está escribiendo un ensayo sobre "el impacto ético de los robots en el cuidado de personas adultas mayores". Para comenzar, recurre a una herramienta de inteligencia artificial generativa como ChatGPT y plantea una primera pregunta general, "¿Cuáles son las preocupaciones éticas sobre robots cuidadores?". La IA le responde con una lista que menciona temas como la pérdida de contacto humano, la privacidad de los datos, el consentimiento informado, y la autonomía de los pacientes.
Desde una mirada hermenéutica, la estudiante no asume que esta respuesta constituye una verdad establecida o completa. Comprende que lo que está leyendo es un texto generado a partir de un corpus amplio, pero también limitado y con ciertos sesgos inherentes, ¿en qué idioma se entrenó la IA?, ¿qué autores predominan?, ¿responde desde una lógica occidental o incluye visiones no hegemónicas?, ¿omite experiencias de países del sur global o de comunidades no tecnológicas?
A partir de ese primer contacto, la estudiante decide profundizar. Busca estudios académicos recientes sobre ética del cuidado automatizado en revistas especializadas, revisa documentos de bioética, y compara cómo diferentes culturas abordan la figura del cuidador. Estas búsquedas pueden incluso también ser hechas con IA. Encuentra, por ejemplo, que en Japón, donde la robótica en el cuidado geriátrico está más avanzada, existen enfoques culturales distintos sobre la dignidad, la dependencia y la presencia de máquinas en contextos íntimos. Estos matices no aparecían en la primera respuesta de la IA.
Decide entonces volver a consultar a la IA, pero esta vez reformula sus preguntas, "¿Cómo varían las percepciones éticas de los robots cuidadores entre culturas orientales y occidentales?" o "¿Qué dicen autores como tal y tal sobre la mediación tecnológica en el cuidado?". La IA, al recibir preguntas más específicas, entrega textos más relevantes, aunque sigue siendo necesario validarlos, identificar fuentes, y cuestionar las omisiones.
Además, la estudiante toma un rol activo en la construcción del argumento, identifica tensiones entre la eficiencia tecnológica y la ética del cuidado, entre la autonomía del paciente y la automatización de decisiones, entre el ahorro institucional y la dignidad del trato humano. Utiliza citas, estudios de caso, y reconstruye con sus propias palabras lo que ha comprendido.
Al final, el ensayo que produce no es una reproducción de lo que la IA le entregó, sino el resultado de un proceso interpretativo, un diálogo entre sus preguntas, las respuestas del modelo, las fuentes académicas consultadas, y su propia perspectiva situada, contextualizada. La IA fue, en este proceso, una herramienta dialógica que ayudó a explorar rutas posibles, pero no dictó el camino. La comprensión final emergió de una fusión de horizontes, donde el texto generado fue interpretado, criticado y resignificado por la autora, que asumió la responsabilidad última de lo que escribió.
Comentario final
La era de la IA significa el resurgimiento de las humanidades en la educación, de una gran "A" en steAm…
Director Escuela de Sistemas Inteligentes
Universidad CENFOTEC