El ChatGPT ha llegado a la universidad

Josefa Dolores Ruiz Resa
Profesora de Filosofía del Derecho. Universidad de Granada (España).

Mucho se está hablando de las virtudes y también de los peligros del ChatGPT. Se trata de una reciente tecnología de robot conversacional (chatbot) que, siguiendo a Yubal Fernández, periodista experto en tecnología, se basa en “el modelo de lenguaje por Inteligencia Artificial GPT-3.5, desarrollado por la empresa OpenAI. Es un modelo con más de 175 millones de parámetros, y entrenado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje, desde la traducción hasta la generación de texto” (1). El sistema, que puede generar contenido original con referenciación de las fuentes, se va perfeccionando gracias al entrenamiento que representan las correcciones que se introducen con su uso y, por el momento, su capacidad para expresarse resulta tan natural y el nivel de información que proporciona se muestra tan exacto que parece complicado distinguir los textos que genera esta tecnología de los que generan los seres humanos.

Ante este nivel de desempeño del ChatGTP, no extraña que profesorado y autoridades universitarias se alarmen si el alumnado utiliza semejante tecnología (como parece que está haciendo ya) en la realización de sus trabajos de investigación (por ejemplo, trabajos fin de grado, tesis de máster o tesis doctorales).

Aunque muchas de las personas que están probando la herramienta han mostrado ya que también tiene fallos o limitaciones, nos encaminamos hacia un contexto educativo con fuerte presencia de inteligencia artificial, una denominación -la de inteligencia artificial- no exenta de connotaciones animistas que invitan a atribuirle características típicas de los seres vivos, olvidando su carácter de tecnología. En todo caso, hay que considerar que el uso por el estudiantado universitario de tecnologías como el ChatGPT va muchas veces de la mano de la decepción, la desconfianza o el inconformismo (no solo típicos de esta época) hacia lo que le aportan los sistemas educativos formales, aunque esta situación tampoco es ajena a actitudes ventajistas.

Ahora bien, delegar la realización de sus trabajos de investigación en estos asistentes puede suponer para el alumnado universitario dejar pasar la ocasión de aprender, es decir, y siguiendo la definición de aprendizaje que dio el psicólogo Dale H. Schunk, de construir y modificar sus conoci­mientos, habilidades, estrategias, creencias, actitudes y conductas (2); y de hacerlo además de manera experiencial y reflexiva, según recomendaba John Dewey (3). En este sentido, y según los presupuestos de este tipo de aprendizaje, los conceptos y las teorías son provisionales y han de adaptarse o modularse para la resolución de problemas, que es precisamente hacia lo que se orientan los trabajos académicos de investigación. Ahora bien, renunciar a entrenar nuestra propia inteligencia en el hallazgo de respuestas nos convierte en seres vulnerables y frágiles ante entornos complejos como los que habitamos.

Esta vulnerabilidad y fragilidad no se traduce tanto en el advenimiento de un futuro distópico en el que vamos a ser paulatinamente sustituidos por máquinas en las que fuimos delegando las tareas de pensar características de nuestra especie, sino en que esas máquinas no pueden aún garantizar que sus respuestas sean las adecuadas a todos los problemas que los seres humanos enfrentamos. Y esto es debido a que las respuestas que pueden implementar autónomamente tales tecnologías surgen de acumular y procesar -ciertamente con más eficiencia que el ser humano-, cantidades ingentes de información para realizar predicciones a partir de los patrones o pautas que extraen de esa información, pero no pueden generar respuestas -como sí hace el ser humano (y otros seres vivos)-, a partir de información o conocimientos de los que, por su insuficiencia, no pueden extraerse pautas, patrones o reglas de solución. Dicho de otra manera, la inteligencia artificial puede inducir patrones de solución y a partir de ellos predecir respuestas en relación a casos similares pero no puede abducir, como señalaba recientemente Erik J. Larson (4).

La abducción es un tipo de inferencia, según la clasificación propuesta por Charles Peirce, distinta de la deducción y la inducción (5). Las abducciones, llamadas también hipótesis por Peirce, llevan a la generación conocimiento nuevo –la hipótesis- a través de la súbita reordenación de una cantidad de información mucho más escasa y limitada que la que puede almacenar y procesar la inteligencia artificial, y sin seguir necesariamente una sucesión de ensayos y errores (y sus consiguientes correcciones). Podría decirse, pues, que la abducción sería una forma de inferencia desarrollada precisamente por seres que -como los humanos (y otros seres vivos)- no pueden gestionar demasiada información y/o no tienen el tiempo o la posibilidad de cometer errores cuando tratan de resolver algún problema o desafío.

A tenor de sus utilidades pero también de sus limitaciones, ¿qué podemos hacer entonces en la universidad ante el uso de tecnologías de la inteligencia artificial como el ChatGPT, en tareas donde se pone a prueba y evalúa la capacidad de investigación y razonamiento personal del alumnado para aportar soluciones a problemas del conocimiento? ¿Puede mantenerse en este contexto la defensa de un aprendizaje reflexivo y experiencial que permita al ser humano entrenar su capacidad de generar respuestas?

En mi opinión puede hacerse, y además con el concurso de esas tecnologías con mejor desempeño a nivel inductivo, cambiando la perspectiva en su uso y los objetivos del trabajo; concretamente, proponiendo al alumnado la realización de trabajos de investigación que no queden representados solo por un escrito final (el trabajo fin de grado, la tesis de máster, la tesis doctoral, etc.), sino que se incluya también la explicitación del proceso de planificación y ejecución de la investigación que le ha llevado hasta ese escrito final, con indicación pormenorizada de las herramientas de inteligencia artificial utilizadas (de búsqueda, filtrado, organización o comunicación de contenidos, etc., o de aquellas que, como el ChatGPT, integran varias de esas herramientas), y justificando su uso desde el punto de vista del valor que aporta a su trabajo de investigación; lo que supone al mismo tiempo una oportunidad para que el alumnado también aplique y desarrolle sus capacidades de análisis, reflexión y crítica. En todo este proceso, el profesorado ha de comprometerse a que el alumnado se valga con solvencia de los métodos y parámetros que garantizan la calidad y fiabilidad epistémica de los trabajos de investigación, sobre todo para que en ellos no se tomen como equivalentes del conocimiento racional y científico la superstición, los prejuicios o las opiniones que a menudo circulan y se amplifican a través de esas tecnologías.

En definitiva, se trata de fomentar que el alumnado no se limite a entregar una caja negra, es decir, un objeto textual y compacto que no deje ver las vicisitudes de su realización sino que asuma, y lo evidencie, el control del proceso que lo construye, dejando que la inteligencia artificial asuma por su parte el papel auxiliar que le corresponde, por su nivel de sofisticación y desarrollo, el cual sin embargo no le permite hacer todo lo que la inteligencia humana es capaz de hacer cuando afronta un problema.

  1. Fernández, Y. (2023). ChatGTP: qué es, cómo usarlo y qué puedes hacer con este chat de inteligencia artificial GTP. En Xataka. https://www.xataka.com/basics/chatgpt-que-como-usarlo-que-puedes-hacer-
  2. Shunk, D. H. (2012). Teorías del aprendizaje. Una perspectiva educativa. Sexta edición. Pearson educación, p. 2
  3. Por ejemplo, Dewey, J. (1989). Cómo pensamos (1910). Paidós; Dewey, J. (2004). Experiencia y educación (1938). Biblioteca Nueva.
  4. Larson, E. J. (2002). El mito de la IA. Por qué las máquinas no pueden pensar como nosotros lo hacemos. Shackelton books.
  5. Peirce, Ch. 1970. Deducción, inducción e hipótesis (1878). Traducción, introducción y notas de J. Martín Ruiz-Werner. Aguilar