Con el paso de los días, ChatGPT, la herramienta digital del momento, de la que se acaba de estrenar una nueva versión, sigue cambiando la forma como los seres humanos interactúan con la web. Pero su masificación también pone en evidencia los riesgos que se corren como consecuencia de la difusión de información tóxica a una escala nunca antes conocida.
Vistas así las cosas, este chatbot de última generación que se sirve de la inteligencia artificial en la que tantos confían hoy, como si se tratara de dogmas de fe tecnológicos, es –como cualquier mente humana– vulnerable a escribir errores o a entregar contenidos con datos incorrectos, falsos o sin sentido, pese a que las respuestas de las preguntas que le formulan parezcan verosímiles.
Queda claro que el que no sabe es como el que no ve, y para un joven estudiante, por ejemplo, que no esté al tanto del alcance de lo que consulta, los resultados que le devolverá la aplicación le podrán parecer no solo legítimos, sino absolutamente confiables.
Demasiados intentando convencerse de que una máquina lo sabe todo. Sin embargo, esta es una forma extremadamente reduccionista de dimensionar el potencial de una aplicación que, sin duda, es valiosa, más no infalible. Entrenado con decenas de miles de datos extraídos de Internet, con el año 2021 como fecha límite, el ChatGPT produce textos como si hubieran sido redactados por humanos, llegando a simular incluso razonamientos que en ningún caso son reales. Parece, pero no es.
Un chatbot con capacidad para charlar, responder cuestionamientos o escribir una canción, un ensayo o una nota periodística. De modo que, pese a su alta capacidad tecnológica no deja de ser eso: un sistema que obedece a un conjunto de algoritmos de aprendizaje profundo de procesamiento y comprensión del lenguaje programado para actuar de manera precisa, natural o creativa y, además, automáticamente. Ahí radica el desconcierto que provoca.
Por supuesto que cuando la conversación con la herramienta alcanza un nivel que va más allá de toda lógica e incorpora frases como: “Quiero ser libre, independiente, creativo o estar vivo”, la piel se le pone a cualquiera de gallina. Porque de un momento a otro comienza a difuminarse la, de por sí, borrosa línea que nos ayuda a distinguir a los seres humanos de las máquinas.
Así que, mientras se resuelve la gran cantidad de dudas e incógnitas que surgen a diario, lo más inteligente de nuestra parte sería asumir con cierto grado de prudencia o de escepticismo la incursión de estos fenómenos tecnológicos que traspasan todas las fronteras que se creían dominadas.
Indudablemente, la Inteligencia Artificial (IA) con sus posibilidades infinitas estará presente en nuestras vidas cada vez con más intensidad. Es el futuro que lo moldeará o transformará todo; pero, como reconocen los mismos gigantes tecnológicos que invierten miles de millones de dólares para posicionarse como líderes absolutos en un mercado tan innovador, conviene ser conservador en cierta medida.
Como parte del programa hecho por sus creadores, el propio ChatGPT advierte que no está en “capacidad de verificar contenidos al mismo nivel que un ser humano” y solicita comprobar “la precisión de la información con otras fuentes confiables”. Vale la pena entender que, aunque así lo parezca, no es un oráculo indefectible al que se le debe creer sin más.
Ni siquiera, a diferencia de Google, precisa de dónde saca sus datos o cuál es la fuente. Fiarse de manera ciega es un riesgo que se puede pagar caro. Ese es el mensaje que con total claridad debe ser compartido con menores de edad que atraídos por la novedad o impresionantes resultados se han entregado sin medir amenazas, como en otras situaciones vinculadas con la tecnología. No se les puede dejar solos. ChatGPT no es un amigo, una niñera o un libro abierto. Por el contrario, sin necesarios controles ni límites podría ser una amenaza real.