El avance de las nuevas tecnologías, y por consiguiente de la Inteligencia Artificial (IA), es tendencia en todo el mundo. Sin embargo, pese a la capacidad casi infinita de usos que permite, en algunos casos, genera preocupación, sobre todo cuando su utilización se da con fines delictivos o con el objetivo de generar información falsa.
Así es que hace algunas semanas, con la investigación de Loan Danilo Peña, el niño que desapareció en el paraje Algarrobal, en 9 de Julio, se viralizó un supuesto, y polémico, audio del gobernador de Corrientes, Gustavo Valdés, en el que el mandatario hacía referencia a la causa que mantiene en vilo al país, hace casi dos meses.
«No se pueden prevenir. Que te falsifiquen un audio con inteligencia artificial, así como incluso videos, va a ser casi imposible llegar a prevenirlos», sostuvo el perito informático de Nación, Pedro Cacivio en comunicación con EL LIBERTADOR. En ese sentido, se refirió a que se minimizan las posibilidades sobre todo en personas que son públicas «ya que todo el tiempo se muestran, hacen videos, su imagen aparece por todos los medios, con lo cual simplemente con extraer la imagen se puede tranquilamente, engañar a las personas en un video falso o en un audio falso».
UNA VIEJA PRÁCTICA
«Lo del audio es muy viejo», explicó Cacivio y añadió que hoy la IA es empleada como una herramienta «pero en realidad eso ya se podía hacer en los años 90. No es necesario el uso de las IA para falsificarle la voz a alguien. Hay algo llamado sampler, con lo que la voz puede ser analizada para saber los tonos, es un espectro que examina una computadora. Es como una copia de la voz, donde después ponen un texto en una computadora y se ordena que la emita con la misma frecuencia, intensidad, acentuación y demás».
En esa misma línea, el Perito Informático aseguró que ahora, con la IA, «lo que antes se tenía que hacer con un proceso algo más engorroso, hoy se automatiza, pero no es algo nuevo ni mucho menos». En relación a lo que es la tecnología al servicio de falsificación o réplicas de videos, sostuvo que hay programas en tendencia que son «extremadamente buenos». «Básicamente crean un escenario completo con imágenes y con la información que uno entregue».
SIN FORMAS DE EVITARLO
Al ser consultado acerca de medidas preventivas para evitar caer en información falsa o audios y videos creados de forma artificial, el experto resaltó: «No hay manera de evitarlo. ¿Si hay legislaciones que apelen esto? Tampoco. Pero sí hay maneras de identificar si una IA fue puesta o no, por medio de pericias forenses. En ese caso, un forense podría saber si una imagen fue adulterada o no, cuándo fue realizada, de dónde se sacó, con qué programas se los hizo».
Las redes sociales,
claves en la difusión de fake news
Semanas antes del inicio de las vacaciones de invierno, se viralizó un audio de un supuesto intento de rapto de una menor, en las afueras de una escuela de la Capital correntina, todo en plena investigación por la desaparición de Loan Peña. La noticia generó pánico entre los tutores y desde la institución salieron rápidamente a desmentir el hecho; sin embargo, no se trata de un hecho aislado. Los servicios de mensajerías instantáneas, así como las redes sociales, contribuyen a que las personas puedan difundir todo tipo de información, sin siquiera conocer la veracidad de la noticia.
Una advertencia
Tan eficientes con su multiplicidad de usos, la IA también es utilizada en muchísimas ocasiones para divulgar informaciones falsas, tal como los audios y videos. El avance de lo artificial se muestra casi con cotidianeidad en redes sociales, plataformas con pocas restricciones que develan una catarata de contenidos de dudosa procedencia.
En cuanto a los audios falsificados con la IA, Pedro Cacivio resaltó que es una de las formas «más tontas con la que se va a delinquir de esa manera», y además añadió que es «fundamental que los peritos puedan, no sólo capacitarse, sino que además se creen nuevas herramientas que permitan auditar estas IA».
.