En los últimos días, tomó repercusión un caso que evidenciaba que alumnos de una escuela secundaria difundieron fotos de otras estudiantes, editadas por medios tecnológicos. En ese sentido, el avance de las herramientas expone nuevas amenazas. «Hoy se puede falsificar cualquier cosa, y esto incluso va a llegar a ser mil veces más riesgoso», expresaron especialistas en comunicación con EL LIBERTADOR.
El avance de la inteligencia artificial (IA) trae consigo una innumerable cantidad de peligros, sobre todo si es utilizada por ciberdelincuentes. La semana pasada, se conoció un hecho que, si bien se dio en el Chaco, tomó repercusión a nivel nacional y pone en alerta a las autoridades. La Policía de la vecina provincia informó que el Departamento de Cibercrimen investiga el uso de la IA con el objetivo de crear imágenes eróticas de menores.
De acuerdo al parte oficial enviado por la institución, se encuentran «tras los pasos de usuarios que utilizan la IA para crear imágenes eróticas utilizando fotos extraídas de las redes sociales de los ciudadanos, incluyendo menores». En ese sentido, detallaron que la primera denuncia recibida fue el lunes pasado, en Resistencia, donde una menor fue la damnificada.
Asimismo, precisaron que la fuerza continúa con las diligencias correspondientes y el ciberpatrullaje a fin de esclarecer los episodios y garantizar la protección de las víctimas. También advirtieron «a la comunidad sobre la seriedad de los delitos cibernéticos y la importancia de denunciar cualquier situación de vulneración a la privacidad y seguridad de los menores».
Para conocer más del tema, el perito informático de Nación, Pedro Matías Cacivio dialogó con EL LIBERTADOR y profundizó detalles a tener en cuenta. «Básicamente, por medio de la Inteligencia Artificial, de la misma manera que se puede falsificar la imagen de políticos y demás, diciendo determinadas cosas, lo que hicieron en este caso puntual es simplemente poner un cuerpo determinado en la cara, dar un rostro y poner una imagen determinada», señaló.
El especialista también recalcó que ese tipo de maniobras «es lo mínimo que se puede hacer. Si tuvieran un poquito más de conocimiento incluso se puede hacer un video, o sea, poner una imagen de una persona y pedirle incluso a la IA que, con un video determinado, cambie la fisionomía de una de las partes del video. Lo que te quiero decir es que hoy se puede falsificar cualquier cosa, y esto incluso va a llegar a ser mil veces más riesgoso», argumentó.
SIN REGULACIÓN
Por otra parte, Cacivio habló acerca de la falta de legislación que permita regular el uso de la IA. «Lo que veo es que no existe legislación ni cibercrimen está preparado para ello, ni existe una fuerza, ni nada que ni siquiera conozca que podrían ocurrir esas cosas. Hoy los peritos informáticos no están preparados para esto, ni siquiera están preparados, ni crearon herramientas para estudiar esto».
«Durante una conferencia que ofrecí recientemente, demostré cómo las IA pueden ser utilizadas para desarrollar nuevas formas de cibercrimen, técnicas que aún no son reconocidas en su totalidad. Con unos pocos servidores, aplicaciones de IA y algo de programación, es posible realizar ataques cibernéticos que superan la capacidad de las herramientas forenses tradicionales. Nos enfrentamos a una era de transformación tecnológica sin precedentes, con una velocidad de cambio que desafía las estructuras actuales de seguridad y legislación», explicó el Perito en el último artículo que publicó, El impacto de las IA en cibercrimen.
Por último, y en sintonía con esa misma línea, volvió a reclamar que no existen leyes «ni policías. Es como que hoy, por medio de las IA, todo lo que se conocía o todo lo se había avanzado en el cibercrimen se vuelve a cero. No hay nada, literal», expresó.
Cibercrimen en alza y la necesidad
de capacitación para enfrentarlo
Las innumerables posibilidades que ofrece la Inteligencia Artificial son también aprovechadas por ciberdelincuentes. Pedro Cacivio sostiene, en su último artículo publicado, que «el cibercrimen avanza a un ritmo vertiginoso», y además pone de manifiesto la necesidad de contar con «un enfoque renovado con nuevas herramientas capaces de auditar y analizar tanto IA, como las herramientas creadas con IA. La creación de estas soluciones será clave para mantener el ritmo de los avances tecnológicos y garantizar la seguridad de la sociedad».
.