Hoy
miércoles 30 de octubre del 2024
Opinión 31-07-2024
IA y Deepfake los desafíos éticos y de educación
Isabel Manjarrez, Analista de seguridad dentro del Equipo Global de Investigación y Análisis de Kaspersky
El año pasado estudiantes peruanos modificaron con Inteligencia Artificial (IA) fotografías de un grupo de compañeras para venderlas con fines sexuales, situación similar se vivió en Chile el mes pasado cuando alumnos del Colegio Saint George’s crearon fotos de compañeras desnudas con la misma tecnología. Y solo hace unos días, las autoridades australianas señalaron estar investigando la distribución de imágenes pornográficas creada con deepfake de unas 50 estudiantes, presuntamente manipuladas por un adolescente. Todas las situaciones donde la IA es cuestionada por su mal uso, nos obliga a reflexionar sobre los desafíos que se nos presentan al utilizar estas nuevas herramientas.
Desde nuestra verada como compañía de ciberseguridad sabemos que las innovaciones tecnológicas como los deepfakes - técnica de edición de audio y video mediante IA – representan un gran avance si son utilizadas de manera positiva y se promueve y educa sobre su buen uso. Por ejemplo, para la creación de imágenes educativas, para el apoyo de campañas sociales e investigaciones, además de la implementación de tutoriales o sistemas de simulación.
Al mismo tiempo, es conveniente señalar que esta tecnología también trae grandes retos, pues no solo se está usando estas plataformas para crear imágenes pornográficas que pueden ser utilizados para desacreditar a una víctima o incluso extorsionar, sino que también engañar y estafar a las personas. En ese contexto, es que consideramos y recalcamos en la necesidad de que la sociedad cuente con nociones de seguridad digital para resguardar su identidad y no caer en engaños, pues cabe mencionar que según nuestros estudios el 70% de los chilenos no reconoce cuando un video ha sido creado o manipulado con inteligencia artificial.
Como medida preventiva, lo primero es la educación promoviendo un uso responsable de la tecnología. En este punto participamos todos, desde usuarios hasta profesionales involucrados en la industria de la tecnología. En estos momentos, es primordial transmitir a los usuarios que la IA tiene un gran potencial para ser aprovechada en distintas áreas y que su utilización responsable nos hará avanzar. Del mismo modo, es relevante enfatizar en que su mal uso, como la creación de imágenes que pueden desprestigiar o engañar, es una falta grave y que incluso debería ser penalizado.
En paralelo, hay que señalar los riesgos de compartir públicamente nuestras imágenes en redes sociales y cuestionar la veracidad de algunos mensajes, por ejemplo, si se solicitan fotos o datos personales. En este punto, quiero ser clara: no hay nada malo en compartir fotos o intimidades con personas de confianza, el problema ocurre cuando la información es divulgada, y que además es modificada sin la aprobación de su dueño.
Es importante dejar claro: si cualquier niña o mujer encuentra fotografías sexuales o pornográficas tomadas con su identidad utilizando herramientas de inteligencia artificial, debe denunciar este delito a la policía. Siempre es recomendable ser prudentes de los datos personales que se entregan en línea, recordemos que todo lo que subamos a Internet corre el riesgo de caer en manos equivocadas. Siempre será mejor comprobar la configuración de privacidad de las RRSS. Revisar y ajustar quiénes pueden ver las publicaciones y actividad en línea.
Al recibir fotografías o videos también debemos ser prudentes y desconfiar de cualquier contenido que se vea con modificaciones, anomalías, que carezcan de coherencia o parezcan fuera de contexto. Por eso recomendamos siempre buscar el origen de los contenidos y comprobar la credibilidad del contenido y las fuentes.
La IA y la creación de contenido deepfake ya son habituales y su uso fuera de norma o poco ético puede ser una amenaza para la integridad de la información digital. Nos enfrentamos a un escenario de posible desinformación en el que vemos una manipulación digital avanzada que compromete la autenticidad, exige cautela y necesita concientizar sobre este fenómeno. Al mismo tiempo que nos enfrentamos a debatir sobre privacidad, ética y trabajar en su educación y, por supuesto, una regulación a la altura de los retos.
El año pasado estudiantes peruanos modificaron con Inteligencia Artificial (IA) fotografías de un grupo de compañeras para venderlas con fines sexuales, situación similar se vivió en Chile el mes pasado cuando alumnos del Colegio Saint George’s crearon fotos de compañeras desnudas con la misma tecnología. Y solo hace unos días, las autoridades australianas señalaron estar investigando la distribución de imágenes pornográficas creada con deepfake de unas 50 estudiantes, presuntamente manipuladas por un adolescente. Todas las situaciones donde la IA es cuestionada por su mal uso, nos obliga a reflexionar sobre los desafíos que se nos presentan al utilizar estas nuevas herramientas.
Desde nuestra verada como compañía de ciberseguridad sabemos que las innovaciones tecnológicas como los deepfakes - técnica de edición de audio y video mediante IA – representan un gran avance si son utilizadas de manera positiva y se promueve y educa sobre su buen uso. Por ejemplo, para la creación de imágenes educativas, para el apoyo de campañas sociales e investigaciones, además de la implementación de tutoriales o sistemas de simulación.
Al mismo tiempo, es conveniente señalar que esta tecnología también trae grandes retos, pues no solo se está usando estas plataformas para crear imágenes pornográficas que pueden ser utilizados para desacreditar a una víctima o incluso extorsionar, sino que también engañar y estafar a las personas. En ese contexto, es que consideramos y recalcamos en la necesidad de que la sociedad cuente con nociones de seguridad digital para resguardar su identidad y no caer en engaños, pues cabe mencionar que según nuestros estudios el 70% de los chilenos no reconoce cuando un video ha sido creado o manipulado con inteligencia artificial.
Como medida preventiva, lo primero es la educación promoviendo un uso responsable de la tecnología. En este punto participamos todos, desde usuarios hasta profesionales involucrados en la industria de la tecnología. En estos momentos, es primordial transmitir a los usuarios que la IA tiene un gran potencial para ser aprovechada en distintas áreas y que su utilización responsable nos hará avanzar. Del mismo modo, es relevante enfatizar en que su mal uso, como la creación de imágenes que pueden desprestigiar o engañar, es una falta grave y que incluso debería ser penalizado.
En paralelo, hay que señalar los riesgos de compartir públicamente nuestras imágenes en redes sociales y cuestionar la veracidad de algunos mensajes, por ejemplo, si se solicitan fotos o datos personales. En este punto, quiero ser clara: no hay nada malo en compartir fotos o intimidades con personas de confianza, el problema ocurre cuando la información es divulgada, y que además es modificada sin la aprobación de su dueño.
Es importante dejar claro: si cualquier niña o mujer encuentra fotografías sexuales o pornográficas tomadas con su identidad utilizando herramientas de inteligencia artificial, debe denunciar este delito a la policía. Siempre es recomendable ser prudentes de los datos personales que se entregan en línea, recordemos que todo lo que subamos a Internet corre el riesgo de caer en manos equivocadas. Siempre será mejor comprobar la configuración de privacidad de las RRSS. Revisar y ajustar quiénes pueden ver las publicaciones y actividad en línea.
Al recibir fotografías o videos también debemos ser prudentes y desconfiar de cualquier contenido que se vea con modificaciones, anomalías, que carezcan de coherencia o parezcan fuera de contexto. Por eso recomendamos siempre buscar el origen de los contenidos y comprobar la credibilidad del contenido y las fuentes.
La IA y la creación de contenido deepfake ya son habituales y su uso fuera de norma o poco ético puede ser una amenaza para la integridad de la información digital. Nos enfrentamos a un escenario de posible desinformación en el que vemos una manipulación digital avanzada que compromete la autenticidad, exige cautela y necesita concientizar sobre este fenómeno. Al mismo tiempo que nos enfrentamos a debatir sobre privacidad, ética y trabajar en su educación y, por supuesto, una regulación a la altura de los retos.
Freddy Mora | Imprimir | 321