Ulrich Beck en la década de los 90s estudió la relación entre el avance de la tecnología y sus riesgos. A esta interrelación la llamó Sociedad del Riesgo, y de su estudio se extraen dos conclusiones clave: el incremento en poder de las tecnologías causa riesgos imprevisibles junto a las oportunidades que presentan; y mitigar los riesgos requiere incrementar nuestra sofisticación intelectual. Vivimos en una época histórica en donde el mundo solamente será más complejo cada día, aún sin ChatGPT, como lo mostró la pandemia; rechazar unilateralmente herramientas poderosas como ChatGPT pareciera ser una respuesta incorrecta ante la magnitud de los retos del futuro.
El punto medular de las discusiones alrededor de modelos como ChatGPT se divide en tres puntos. Primero, una preocupación por su efecto en la educación donde estas tecnologías resuelven problemas asignados con facilidad. Segundo, la preocupación por la habilidad de ChatGPT y otros de “alucinar” razonamientos y hechos que son falsos. Tercero, la preocupación de que, una vez que estas tecnologías mejoren, habrá sustitución de trabajos y un impacto económico y social. Estas preocupaciones son válidas, y en este momento son materia de discusiones internacionales que buscan entender si algunos marcos regulatorios son necesarios. Esta es una tarea esencial de la ética científico-tecnológica que no puede obviarse.
Sin embargo, una porción importante de las críticas parece surgir a partir de dos fuentes mucho más psicológicas, más humanas, y mucho menos racionales. Las personas tienden a sentir inseguridad cuando la tecnología aproxima las capacidades humanas. En algún momento u otro, hemos sentido esta reacción al ver robots, personajes de películas animadas 3D u otros artefactos “casi” humanamente realistas. Debido a esto en algún punto se nos dificulta entonces diferenciar entre lo real y lo falso. Más aún, tendemos a sentir temor y admiración al encontrarnos con personas (y seres) cuyas capacidades superan las nuestras en algún área: la inteligencia artificial en particular genera sobresalto al mostrar que ciertas capacidades que creíamos solamente humanas parecieran no serlo.
El papel aguanta todo
Bien dice el dicho que “el papel aguanta todo lo que en él se escriba”. Lo mismo pasa con ChatGPT. Sus problemas, lo bueno, y lo malo, se originarán por cómo se usa, más que por la tecnología en sí misma. Sí, habrá nuevos “accidentes” imprevistos (Ver Paul Virilio), y no podríamos pensar que el futuro de ChatGPT carece de problemas serios, todo depende de cómo la utilicemos e incorporemos a nuestras actividades. Nadie está proclamando que algo como ChatGPT va a escribir por su cuenta un tratado cientìfico (al menos todavía no). Tampoco afirmamos que piensa necesariamente tal como un ser humano (al menos todavía no). No todo lo que produzca ChatGPT está correcto, pero tampoco todo lo que hemos escrito en libros, artículos, contenido de internet, y hasta nuestro pensamiento. Lo que “sabe” ChatGPT es producto del aprendizaje sobre lo que hemos creado, y de nuestras limitaciones; no hay truco mágico, ni se construye de la nada. Más aún, esto muestra también que no es una tecnología amoral: el texto que produce es una síntesis de la moralidad humana presente a través de los escritos que se utilizan para entrenarla.
Herramientas como ChatGPT llegaron para quedarse, y varios elementos hacen que no sean pasajeras. Su uso es inmediato con acceso a Internet. El valor de lo que ofrece es inmediatamente percibido al usarla. Se integra fácilmente con la actividad de cualquier persona. Además, la versión pública de ChatGPT (3.5 con 173 millones de parámetros) será mejorada por una versión 4, con 100 trillones de parámetros, parecido al número de sinapsis de nuestro cerebro. Esto último, en principio, permitirá alcanzar una gran sofisticación.
¿Somos acaso sujetos de experimentos, conejillos de indias al usar ChatGPT? Sí, dado que verificar y reparar la funcionalidad de una tecnología tan compleja sólo puede hacerse a gran escala. Y vaya prueba para ChatGPT. Para enero ya sobrepasaba los 100 millones de usuarios. ¿Transformará ChatGPT comportamientos y conductas de los humanos? Definitivamente sí, y con impacto similar o mayor a lo que fue la imprenta. ¿Por qué hacer la analogía de la imprenta? Veamos las críticas de 1440 (según el libro “The Printing Press as an agent of change“, que por cierto ChatGPT nos ayudó a recordar algunos de sus puntos y temores): pérdida del trabajo de los copistas manuales, pérdida de la calidad del trabajo,difusión de ideas peligrosas y pérdida de la autoridad de los expertos.
¿Les suena familiar? Críticas similares se dieron con el Web en los 90s, y bueno, son similares a las críticas que encontrarán de ChatGPT. Sin embargo, estas tecnologías tuvieron un efecto semejante en su momento histórico: poner en evidencia y reducir ventajas injustas, aquellas adquiridas por medios distintos al esfuerzo, que enmascaran la fragilidad del éxito de los mediocres.
Impacto en Educación
El problema de nuestro modelo de educación es haber “invertido la razón” (tal como dijo Charles Darwin). Invertir la razón significa que hemos educado una generación de personas competentes en lo específico, pero con poca comprensión y profundidad general.
Esto ocurre después de décadas de enseñanza orientada a satisfacer primordialmente requerimientos de empleabilidad, y eliminar todos aquellos temas “difíciles” y abiertos: lógica, filosofía, artes, y humanidades, a cambio de cosas puramente técnicas puntuales que remueven la necesidad –y progresivamente el hábito– de pensar.
Asignaturas técnicas como matemáticas y computación se enseñan en gran medida como recetarios sin orientarse a desarrollar nuevas formas de pensamiento, a la creación de nuevas ideas como medio de entendimiento y expresión, sino a técnicas puramente funcionales, fácilmente evaluables en preguntas de selección simple, y que se espera produzcan de alguna manera profesionales homogéneos a especificación.
El modo predominante de enseñanza en Costa Rica y buena parte del mundo, produce mayoritariamente profesionales competentes pero sin comprensión estructural: personas con muy altas capacidades para repetidamente hacer lo mismo, pero con dificultades para ir más allá, para crear o cuestionar con propuestas, para elaborar argumentos contundentes cuya base es el estudio profundo de la evidencia y el ejercicio riguroso de la lógica, en vez de apegarse a lo estipulado por alguna autoridad.
En esencia (y tristemente) pareciera que realmente lo que hemos logrado es crear un modelo educativo que entrena seres humanos tal como se entrena ChatGPT: lo importante es dar la respuesta más probable.
Las evaluaciones de contenido, por ende, están diseñadas para ajustarse a estas expectativas estrechas. Desde la primaria hasta el nivel más elevado de universidad se enseña que si A entonces B, para luego preguntar A, y esperar la respuesta B. Bajo este contexto de evaluación, responder es la misma mecánica de ChatGPT.
Una mejor forma de enseñanza evalúa la capacidad de construir, de crear modelos nuevos con la información existente: dado que sabemos A, ¿por qué A y no B? ¿qué hace a A interesante? ¿habrá un C que desconocíamos hasta ahora? ¿e inclusive, será que en realidad A no puede ser? La mejor forma de evaluar esto es a través del diálogo y la conversación entre personas docentes y estudiantes. Necesitamos educación que busca adquirir un sentido de propósito, adaptabilidad a un futuro imprevisto, y la construcción de curiosidad más allá de hacer de la educación “algo entretenido” o utilitario. Tanto la promesa de la educación como entretenimiento o como seguro contra el desempleo es vender una ilusión que es prácticamente insostenible.
¿Habrá plagio con los modelos de lenguaje avanzados? Sí, particularmente en nuestro modelo educativo, pero no es una actitud de supervisión y prohibición policiacas la respuesta correcta. Lo que resta es repensar y transformar la experiencia y formación educativa en cada uno de nuestros propios cursos para que sean más constructivos, más dialécticos.
El problema del plagio en general se debe a otras presiones e incentivos de sistemas educativos cuya estructura es añeja, fruto de acarrear más de lo debido, suposiciones nacidas en el seno de la Revolución Industrial. Aunque ChatGPT puede amplificar la sofisticación y la velocidad con que se ejecuta el plagio en entornos educativos, restringir su acceso solamente retrasa lo inevitable. Basta recordarles que el plagio no sólo ocurre en el estudiantado, sino también en personas docentes, académicas y profesionales.
Decir que ChatGPT va a transformar la educación per se no introduce nada nuevo, tanto como hacer una crítica estructurada del modelo educativo en donde se establezcan sus deficiencias tampoco lo es. Lo indispensable es transformar la educación de una vez por todas, lo que resulta en una enorme oportunidad. La historia de la educación moderna está repleta de desafíos tales como la calculadora, la computadora, el internet, el teléfono inteligente, y YouTube: a pesar de su introducción y potencial para la enseñanza-aprendizaje, el modelo educativo los convirtió en obstáculos en vez de palancas para avanzar.
Un modelo de educación de avanzada, debe orientarse a la búsqueda del desarrollo humano de forma integral, mediante formas de pensar novedosas que borren las divisiones artificiales entre las artes, la cultura, la ciencia y la tecnología. Un modelo enfocado en la autonomía adquirida mediante actos creativos, en vez de buscar capacidades mínimas cuyo propósito solamente es un trabajo. Parte del secreto está en el diseño de las lecciones de clase, de las formas de evaluación, y el de apropiarse de tecnologías que amplifican nuestras capacidades. Entre más poderosa la tecnología, más sofisticado debe ser el modelo educativo.
Podría pensarse, inclusive, que un buen diseño curricular que incluya ChatGPT y herramientas similares podría escalar las capacidades dialécticas del sistema educativo dada la guía correcta del profesorado. Inclusive, se convierte en una herramienta conversacional, y cuyo resultado depende de la capacidad de hacer preguntas que maximicen la profundidad de interacción que se logre, estimulando así las habilidades de lecto-escritura. Pero más que eso, podría eliminar las barreras de acceso a textos escritos en cualquier idioma, pues en cuanto a traducción hace un trabajo impecable.
Lo verdadero, lo errado
La verdad, no se define como algo publicado, escrito o dicho por una autoridad. Lo que aceptamos como verdadero depende de su capacidad de explicación del mundo. Más aún, lo verdadero y lo falso son ambas simplificaciones, modelos de la realidad o de fenómenos observables. Vale la pena entonces pensar en términos de lo factual (aquello respaldado por evidencia reproducible) y la certeza (el grado en que asignamos grados de relevancia a ciertas ideas que se sostienen a pesar de evidencia que intenta contradecirlas).
Claro, es imposible verificar todo desde cero, todo el tiempo, lo que lleva a apoyarnos en lo ya probado a través de publicaciones. Pero, cuando las publicaciones contienen errores centrales, el progreso no es posible. Nótese que esto es verdadero con y sin seres humanos de por medio. ¿Detendrá el progreso, o aparecerá toda una generación de personas que crecen con tecnologías de ChatGPT con conocimiento en su totalidad falso? Difícilmente, pues suma a lo que ya tenemos en vez de restar.
Al experimentar con ChatGPT, las respuestas tienden a ser superficiales, a veces incompletas, pero no necesariamente incorrectas. Esto es importante en el contexto de las críticas que han aparecido recientemente alrededor de respuestas incorrectas, pues incurren en la falacia de atención selectiva, o el error de razonamiento que consiste en enfocarse sólo en hechos que apoyan cierta conclusión de antemano sin considerar toda la evidencia disponible.
Internet está plagado de información falsa, incompleta o completamente errada. Aunque los efectos de la desinformación y la posverdad son problemas serios que merecen nuestra mayor atención, las búsquedas en Google no nos han llevado a un colapso en sí mismas. Cuando utilizamos un buscador, un algoritmo determina lo que más probablemente queremos, no necesariamente a lo correcto.
De esta manera, hemos vivido con acceso a información o falsa o incompleta desde inicios de la Web (acá les recomiendo el libro “The Filter Bubble: What the Internet Is Hiding from You” de Eli Pariser). Si somos más “creyentes” o manipulables en la era digital, el pertenecer a una sociedad que nos enseña a seguir ciegamente a figuras de autoridad en vez de tener pensamientos y opiniones propias, parece ser una mejor explicación que utilizar la Internet, Google o ChatGPT como chivos expiatorios.
Toda tecnología es un amplificador de ciertas posibilidades en sistemas sociales, algunas más que otras. Algunas de ellas llevan a mejor calidad de vida, otras a peores condiciones. Debe cuidarse también que no ocurran ciertos puntos críticos que lleven a problemas irreversibles. Al mismo tiempo, vale preguntarse también, qué conductas positivas y habilidades pueden surgir con herramientas como ChatGPT. Poder discutir de manera realista, equilibrada y desde una perspectiva de transformación resulta más provechoso.
Impacto en Ciencias
La ciencia no estará en crisis por ChatGPT. No se crearán más artículos triviales, poco replicables, o del todo incorrectos, de los que ya existen. Más bien, constituye una oportunidad para mejorar el proceso de creación de conocimiento y la subsecuente comunicación científica.
Las publicaciones son el mecanismo de comunicación primordial de conocimiento académico. Sin embargo el proceso de publicación científica ya está en crisis por varias razones previas, ninguna de ellas relacionada a inteligencia artificial o con el uso de tecnología para la producción científica. No parece probable que se agraven los problemas sustancialmente con el uso de ChatGPT, pues la correctitud del contenido científico seguirá siendo responsabilidad de la persona investigadora.
Es importante considerar un posible factor de exclusión proveniente del uso de inteligencia artificial. Sistemas como ChatGPT requieren infraestructura de cómputo avanzadas, lo que se traduce en costos potencialmente altos. En algún momento el acceso a las mejores herramientas IA puede que hagan inaccesible el uso de estas herramientas a una porción importante de personas, especialmente en países del Sur Global. Este tipo de acceso diferencial podría resultar en diferencias de éxito científico entre quienes publican haciendo uso de ChatGPT o herramientas similares, y quienes no pueden costearlo. Es responsabilidad de los entes reguladores internacionales y gubernamentales anticipar este tipo de desigualdades, crear mecanismos que aseguren acceso equitativo a sistemas de inteligencia artificial, y moderar las intenciones que moldean el acceso y uso a tecnologías. Nuevamente, un problema de intenciones humanas en vez de propiedades intrínsecas de las tecnologías.
En materia de publicaciones científicas hemos adoptado un formato donde abundan la redundancia y el contenido innecesario. Un estudio reciente confirma que cada vez es menos probable encontrar artículos científicos que tengan alto impacto (LINK: https://www.nature.com/articles/s41586-022-05543-x). Con pocas excepciones, una enorme cantidad de artículos inician con una introducción que es una especie de refrito de artículos donde se citan aquellos más populares, lo cual los hace más populares aún. Aún cuando la introducción da contexto al postulado que justifica la investigación, la repetición innecesaria reduce fuertemente su legibilidad e incrementa su extensión. En la práctica, muchas personas investigadoras tendemos a saltarnos una introducción innecesariamente larga y detallada, pues en principio tenemos familiaridad con el tema y es más provechoso buscar de inmediato de que se trata el artículo.
Pareciera entonces que herramientas como ChatGPT, más bien constituyen una oportunidad para redefinir qué es un artículo científico, con el fin de potenciar mejor transmisión y uso del conocimiento en un formato más compacto y directo. ¿Ayudará ChatGPT a escribir mejores publicaciones? Definitivamente. Pero, al mismo tiempo, ¿para qué colocar contenido generado con ChatGPT del todo si este es redundante? ¿será posible más bien enfocarse en integrar métodos de inteligencia artificial que hagan de la ciencia un proceso de interacción humano-máquina naturalmente dialéctico?
Adicionalmente, un trabajo científico requiere la construcción de modelos matemáticos o estadísticos para el análisis de datos como parte del proceso de inferencia. Es común apoyarse para ello mediante el uso de R, Python, Wolfram Mathematica o algún paquete estadístico. Varios estudios indican que una cantidad cada vez mayor de profesionales a lo largo de actividades científico-tecnológicas, requieren aprender habilidades de programación, pero el número de especialistas en computación para enseñar estas habilidades no ha aumentado de forma proporcional. ChatGPT, mediante protocolos de desarrollo de software científico, basados en interrogación del código resultante que puedan corroborar su calidad, permitiría democratizar la adquisición y el uso de habilidades necesarias para personas científicas, en términos de análisis de datos.
En estas condiciones, nadie en su sano juicio diría que estas plataformas de análisis, hicieron la investigación o el análisis. Por el contrario, son una herramienta metodológica que posibilita efectuar procedimientos analíticos a una profundidad y velocidad mucho mayor que sin ellas; por ende, permiten aumentar la ambición de los problemas científicos que se pueden atacar. Ahora, para efectos de la escritura de artículos académicos, es indispensable investigar y documentar protocolos que especifiquen cómo reportar ChatGPT y otros modelos de lenguaje avanzados dentro de la sección de métodos. ChatGPT en ese sentido no puede tomar el rol de autoría.
La calidad de las inferencias que pueden obtenerse a través de ChatGPT depende de las habilidades de la persona que lo utilice. Cuando se usa por personas con un alto grado de experticia, se transforma en una herramienta útil, y hasta avanzada. Por el contrario, si la persona carece de claridad en sus preguntas e interacciones no puede esperar un buen resultado. ChatGPT no elimina la necesidad de investigar, pero sí introduce nuevos métodos y mecanismos que deben entenderse mejor para garantizar que los modelos de lenguaje avanzados no se conviertan sólo en una versión conversacional de Google.
¿Los trabajos?
La realidad es que hemos, nosotros y nosotras mismas, trivializado muchos de los quehaceres humanos, los hemos reducido a tareas reemplazables. Aunque hablamos de “pensamiento crítico” e insistimos que es necesario, es más un producto para vender ilusión (de allí todos los talleres de Design Thinking), que algo que realmente queremos en la organización. Dicho de otro modo, en muchos trabajos no se espera el pensamiento crítico, y si lo aplicas probablemente pones en riesgo tu puesto de trabajo. ¿Por qué digo esto? porque todo aquel trabajo que no requiera creatividad humana, o pensamiento crítico, será reemplazado por ChatGPT y otras tecnologías de IA.
Con los robots, estábamos muy cómodos pensando que serían los trabajos manuales los sustituidos, pero IA y ChatGPT, nos muestran que serán otros trabajos de mayor perfil los que serán sustituidos. Desde labores gerenciales, salud, legales, de contenidos, de noticias, etc. ¿Cuántos artículos leemos que perfectamente podrían haber sido escritos con ChatGPT? Todo aquello que no agregue valor creativo, o no construya abstracciones más allá de lo conocido, es posible que sea sustituido por sistemas como ChatGPT.
El punto es que la naturaleza del trabajo se va a ver afectada por herramientas como esta. Nosotros los y las trabajadoras podemos aprovechar estas herramientas para amplificar nuestras capacidades, pero las empresas y organizaciones, tiene que dar espacio para trabajadores amplificados, con capacidades de crear y desarrollar en la organización. Si se da ese espacio, les puedo asegurar que más bien ahora tendremos la oportunidad de trabajar con personas extremadamente creativas, dejando lo trivial y repetitivo a las máquinas.
Comentarios Finales
Como decían nuestras abuelas, “el frío no está en las cobijas”. De la misma forma, los retos del uso de ChatGPT no están en las capacidades de la tecnología, sino en las intenciones y preparación humanas detrás de su uso.
ChatGPT, no funciona buscando en un diccionario de respuestas preestablecidas, sino efectivamente construye una respuesta a través de cálculos matemáticos representados en una red neuronal. En principio son capaces de extraer el patrón de lo que aprenden para luego aplicarlo, de manera muy similar al cerebro humano.
Esto hace que el resultado sea un texto original construido en el instante, pero iniciado por la conversación con la persona que pregunta. Por eso, quien pregunta sigue siendo el artífice de la creación, de la misma forma que un artista combina nociones estéticas, y técnicas conocidas para crear algo nuevo.
ChatGPT podría potenciar a toda una generación de personas capaces de concretar ideas novedosas y a mayor velocidad con el apoyo de este chat. Así, por ejemplo, una propuesta de proyecto como documento puramente técnico, probablemente pueda completarse en un 90% mediante ChatGPT. Al hacerlo, dejamos espacio y tiempo para concentrarnos en el fondo del proceso creativo en vez de la forma.
No pareciera muy útil referirnos mucho al artículo de Chomsky (LINK: https://www.nytimes.com/2023/03/08/opinion/noam-chomsky-chatgpt-ai.html). Diferimos enormemente de sus conclusiones. Chomkdy plantea su visión de los problemas con ChatGPT: que degrada la ciencia y el conocimiento, que difiere de la inteligencia biológica y que es amoral. Todas estas son discutibles, y proveen ni una guía para utilizar ChatGPT cuidadosamente, ni un tratado profundo del asunto. A pesar de nuestra admiración por Chomsky, el suyo y el nuestro son artículos de opinión. La dificultad de tratar estos asuntos de forma rigurosa para buscar soluciones requiere discutirlos en medios diferentes a estos.
Uno de los riesgos claros que asusta a muchas personas es que ChatGPT elimina intermediarios, y por tanto, interfiere con ese deseo intenso de contar con alguien superior que decide qué está bien o mal, como si no tuviéramos capacidad de determinar lo que funciona. ChatGPT empodera al individuo, y pone en riesgo el poder derivado de la autoridad, por lo que se juzga como peligrosa en estas dimensiones. Existen riesgos genuinos y de fuerte impacto en el desarrollo de inteligencia artificial avanzada, pero la respuesta realista es estudiarlos, regularlos apropiadamente y mejorar los métodos, en vez de cerrar puertas a las transformaciones positivas que puede traer si logramos anticiparlos y mitigarlos (LINK: https://www.tandfonline.com/doi/abs/10.1080/0952813X.2021.1952653). Nosotros pensamos que esta es una oportunidad de apropiarse de la tecnología y aprovechar de mejorar las oportunidades para todas las personas.
Este artículo de opinión se realizó de forma compartida con Santiago Núñez Corrales, y representa la opinión de ambos.
Tomás de Camino Beck, Ph.D.
Director Escuela de Sistemas Inteligentes
Universidad Cenfotec
Santiago Núñez Corrales, Ph.D.
Científico Investigador
Centro Nacional de Aplicaciones de la Supercomputación
Universidad de Illinois Urbana-Champaign