Hecho ocurrido en Colegio Saint George donde alumnos crearon imágenes falsas de sus compañeras desnudas, abre el debate de los límites que deben existir sobre para qué nos permitimos usar inteligencia artificial. Académica de la USM, Dra. Claudia López, dice que es fundamental regular de manera efectiva la materia y así proteger a quienes se vean afectados en estos temas.

Así lo sostiene la académica de la Universidad Técnica Federico Santa María e investigadora principal del Centro Nacional de Inteligencia Artificial (CENIA), Dra. Claudia López Moncada, quien precisa que como se trata hoy de tecnologías de fácil acceso, estas pueden ser usadas por personas de casi cualquier edad, generándose amenazas de agresión sexual dentro del mundo virtual, que tienen nuevas particularidades. Por ejemplo, además de ser falsas, estas imágenes son muy difíciles de eliminar de manera permanente en Internet, por lo que “se deben crear mecanismos para controlarlas de mejor manera, tanto desde la educación familiar y en colegios como desde los poderes del Estado”.
Agrega que “este es un fenómeno invisibilizado y la única forma de que se actúe mejor es que se tengan formas más justas para proteger los derechos de NNA y mujeres”. De hecho, el tema salió a la palestra a partir de un caso que ocurrió en el Colegio Saint George de Santiago, donde un grupo de estudiantes crearon imágenes de siete compañeras a través de IA, las que luego viralizaron, siendo así vulneradas en su integridad y, por lo cual, se interpusieron acciones legales.
Responsabilidades
En relación a este caso, la Dra. López indica que este no es un hecho aislado y que se conocen otras situaciones tanto en Chile y fuera del país, no obstante, más allá de la acción puntual de los estudiantes, su grado de culpabilidad y lo que hicieron el colegio o los padres para enfrentarlo, explica que “existe una capa adicional, una lectura más general que se debe hacer y que tiene que ver con los tipos de tecnologías que permitimos que existan como sociedad. Que exista una tecnología cuyo único fin sea desnudar cuerpos que están vestidos, y que no sirve para nada más que eso, para mí es preocupante. Me preocupa pensar que a alguien se le ocurrió hacerla y que se dedicó, quizás con más gente, a crearla. Y luego, cómo dejamos que eso se comercialice en las apps. a las que podemos acceder todas personas con un teléfono”.
Añade que “hay niños involucrados aquí, pero hay algo más, existen adultos que permitieron que esto pasara y desde aquí hay que cuestionar el problema y entender que los niños que hacen estas acciones también como producto de una cultura que permiten y reproduce la violencia de género”.

Mundo sexista
Si bien algunas de estas aplicaciones de deepfake porn pueden usarse para cualquier cuerpo, se utiliza mayoritariamente para desnudar cuerpos de mujeres, por esto, la Dra. Claudia López es enfática en señalar que “es pertinente aceptar que se vive en un mundo muy sexista y que la industria de la tecnología está muy masculinizada, lo que ayuda a explicar por qué se tiene estos productos. Además, las instituciones que tienen que ver con las regulaciones y la política pública, lamentablemente, por décadas han permitido que la violencia de género continúe sin mucho castigo para victimarios ni mucha reparación para las víctimas. Se hace cada vez más necesario que eso cambie”.