Los ticos ahora tienen una nueva preocupación, el pensar que están hablando con un familiar y que necesita ayuda pero que se trate de una estafa con inteligencia artificial.
“Mi cuñada vive en el extranjero, entonces una amiga cercana de ella aparentemente la contactó por por una red social, Instagram, resulta que tenÃa las fotos y todo, pero le pareció un poco extraño y se fue a buscarla por WhatsApp a ver qué qué le decÃa ella y cuando la buscó por WhatsApp ella le dijo que no que ella no habÃa sido” señaló un afectado.
Timos similares que ahora se están volviendo todavÃa más sofisticados, las autoridades abrieron expediente en Costa Rica por el uso de la inteligencia artificial para clonar voces y cometer estafas a nombre de familiares o de personajes públicos.
“Se ha tenido noticia por ejemplo utilizan la imagen de que Keylor Navas, la imagen del presidente, inclusive hasta la imagen de una periodista de medios conocidos, en donde modifican mediante la inteligencia artificial la nota que esta persona está dando, la publicación en este caso de la conferencia de prensa que se está dando, para modificar esa declaración y entonces solicitar a la persona que invierta en criptomonedas, que inviertan otro tipo de negocios” señaló, Polette Nájera, fiscal del Ministerio Público.
Estafas que crecen como la espuma y acaparan medios internacionales.
“Si yo estoy recibiendo una llama de una persona que creo que es familiar, contactar a otro familiar cercano y verificar que la información que me están dando es la correcta o inclusive colgar la llamada y de inmediato llamar a esta persona” agregó la fiscal.
La inteligencia artificial ahora está tan accesible como ver a Donald Trump esperando un hijo de Kamala Harris.
Expertos señalan que serÃa ideal tener palabras claves con los familiares y asà confirmar que efectivamente se trate de ellos y confirmar que no sea una estafa.