Pocas cosas más literal que esta. La Inteligencia Artificial (IA) acaba de revelar su rostro más despreciable en una pequeña localidad de España. En Almendrajo, Badajoz, donde no viven más de 30 mil personas, circulan desde hace días decenas de fotos falsas de niñas de 12 a 14 años desnudas. Son imágenes de pornografía no consentida, creaciones digitales hiperrealistas, lo que se conoce ahora como ´deepfake’, en las que se observan las caras de estas menores de edad que se trucaron en cuerpos de actrices porno, usando aplicaciones o programas de inteligencia artificial que hicieron el trabajo. Contenidos falsos, pero con el potencial de provocar daños absolutamente reales, además de devastadores en las adolescentes a las que dejaron expuestas.
Para mayor desconcierto e indignación de esta comunidad, los autores, según las pesquisas de la Policía que ha aclarado que esto no fue una broma de pésimo gusto, sino un delito de violencia digital de género en toda regla, son los propios compañeros de colegio de las víctimas. Niños de su misma edad que obtuvieron las imágenes de los rostros de sus amigas de los perfiles con los que se identifican en las redes sociales.
A estos menores, para ser más precisos, les salió prácticamente gratis desnudar a sus compañeras. No contentos con el exabrupto que habían cometido, algunos de ellos intentaron chantajear o extorsionar a sus víctimas pidiéndoles dinero para borrar las imágenes. Actitud ingenua, por decir lo menos, porque el asunto, cuál bola de nieve, se viralizó en pocas horas. Eliminar estos archivos de internet es casi una tarea imposible.
Este lamentable episodio nos confirma lo fácil o simple que les resulta a los menores acceder, por un lado, a las nuevas tecnologías, entre ellas la inteligencia artificial, frente a las cuales no existe restricción alguna para ellos ni tampoco regulación para su uso general. Por el otro, está el creciente consumo de pornografía dura que hacen los chicos, a edades cada vez más tempranas. Lo más complejo de todo es que nadie saldrá bien librado, tras lo sucedido: ellas, como víctimas, erosionadas en su salud mental, con estrés emocional, baja autoestima y pérdida de autoconfianza. En el caso de los responsables, las autoridades no descartan fuertes sanciones. Sin duda, son tiempos desafiantes para ser niños y adolescentes. No significa que antes no fuera así. De hecho, todos los adultos pasamos por esa etapa con más o menos dificultades, cierto, pero en la actualidad existen nuevos agravantes, como la expansión de los desarrollos tecnológicos, que aunada a excesivas libertades adquiridas anticipan escenarios riesgosos. Sin el acompañamiento de padres, profesores o personas que sean conscientes de los peligros que los acechan, los menores transitarán por campos minados que más temprano que tarde los podrían destruir. Porque sí algo se mantiene inamovible, antes, ahora y me atrevería a decir, a futuro, es la credulidad e inocencia propias de esas edades, en las que aún no se ha consolidado el discernimiento, tan crucial a la hora de poder distinguir entre el bien y el mal. El resto es pura estulticia.
Profundizando en los ‘deepfake’, estas imágenes o videos falsos tienen un potencial demoledor. No solo es un método de violencia digital contra mujeres, como lo han comprobado actrices, cantantes y activistas que han sido víctimas de ciberacoso por contenidos pornográficos manipulados, pero desafortunadamente bastante verosímiles, elaborados para desprestigiarlas, cuestionarlas o silenciarlas. También estas creaciones audiovisuales hiperrealistas en las que se sustituyen rostros y voces pueden falsear pruebas en casos judiciales, alterar resultados económicos para desatar pánico financiero, recrear escenarios para atentar contra la seguridad nacional o interferir en procesos democráticos, como las elecciones. Este 29 de octubre estamos convocados a las urnas, ¿votaríamos por un candidato al que horas antes se le ve en un video falso golpeando a una mujer? Aunque este trate de desmentirlo, el daño sería grande, probablemente irreversible. ¿Estamos en Colombia preparados para esta insólita forma de violencia política?
Sin un manejo ético ni responsable de estas herramientas digitales, con usos valiosos en sí mismas, pero también capaces de elaborar contenidos manipulados en un abrir y cerrar de ojos, todos nos exponemos a ser víctimas de engaños, fraudes o mentiras. Denunciarlas públicamente para sensibilizar a las audiencias es un recurso a nuestro alcance, aunque lo imprescindible es que las instituciones fijen reglas o pautas claras para regularlas y que las grandes empresas tecnológicas entiendan de una vez por todas el potencial de su ‘arma nuclear’ y tomen cartas en el asunto.