#Converso

IA: ¿En manos de quién? y ¿para qué?

“Si alguna vez recibo una llamada de mi hermano, solicitándome que le apoye con algún envío de dinero, tarjeta de regalo, con algún apoyo de cualquier índole, incluso indicándome que es víctima de secuestro o extorsión, le haré una pregunta sencilla: De qué color es mi gato. Solo él y yo sabremos que es color, porque lo hemos pactado previamente y se trata de un color inexistente en gatos. De esta manera sabré si estoy lidiando con Inteligencia Artificial o no”.  

Estoy parafraseando un comentario hecho en redes sociales de un especialista que comenta cómo debemos estar preparados para enfrentar posibles fraudes realizados con IA. Hoy en día, periodistas, políticos, personajes de la farándula y otras figuras públicas comentan recurrentemente que ellos no están invitando a invertir en ninguna empresa, ni a aportar dinero a causas nobles, ni a que tomen algún tipo de alimentación. Advierten que todos son engaños producidos con herramientas de IA que emulan imagen, voz, entonaciones y hasta recurren a aspectos reales de sus historias de vida. 

Esto está ocurriendo en el mundo corporativo. La inteligencia artificial (IA) está siendo utilizada con fines maliciosos, particularmente en fraudes sofisticados que involucran tecnología de deepfake. Un caso particular ocurrió en Hong Kong, donde estafadores usaron este tipo de herramientas para recrear a un CFO y otros empleados de una empresa multinacional durante una videoconferencia, engañando a un empleado para que transfiriera alrededor de 25 millones de dólares a cuentas fraudulentas. Los estafadores utilizaron videos pregrabados y añadieron voces falsas mediante IA para hacer que los participantes parecieran reales.

Este tipo de ataques no solo implica la creación de videos falsos, sino también el uso de identidades robadas para solicitar préstamos y abrir cuentas bancarias, demostrando una tendencia preocupante en el mal uso de la IA para eludir los sistemas de reconocimiento facial. La creciente accesibilidad y sofisticación de la tecnología de deepfake ha facilitado su uso en fraudes. Mientras que antes se requerían extensas grabaciones para clonar una voz, ahora solo se necesitan unos segundos de grabación pública para entrenar un modelo de IA que imite la voz y apariencia de una persona.

Nadie se escapa

El tema de ética y valores en torno al desarrollo cada vez más acelerado de la IA se presenta como un universo extenso con implicaciones vastas, tanto en el desarrollo de la tecnología como en su uso empresarial, así como lo es también en el consumo y en su uso para el desarrollo de aplicaciones y soluciones cuyas intensiones sean delictivas o simplemente, fuera de la moral, lo cual trascenderá de lo técnico a lo social (incluyendo bases filosóficas o sociológicas), pero sobre todo, con un efecto claro en la economía. 

Particularmente, el mundo de las celebridades está bajo amenaza con la IA, con la que toman imágenes y elementos de personalidad para realizar actividades de usurpación de identidad. Así le sucedió a Olga Loiek, una influencer ucraniana, quien denunció recientemente que su identidad fue clonada mediante inteligencia artificial por alguien en China, creando a una falsa influencer rusa llamada «Natasha» en redes sociales chinas como Xiaohongshu.

Natasha, que se presentaba con el rostro y la voz de Olga, acumuló más seguidores que la propia Olga y promovía productos rusos en China, además de decir que deseaba casarse con un chino. A pesar de las quejas de Olga a las plataformas chinas, no obtuvo respuesta y decidió exponer el caso públicamente. Este incidente refleja un problema creciente de robo de identidad mediante IA, afectando a múltiples celebridades en internet.

Los creadores de estos contenidos se escabullen por entre las masas de programadores y crean sus redes de producción en submundos de sociedades informáticas.

Ética y educación
Desafortunadamente, esto es muy difícil de evitarse, y solo es posible con contramedidas, pues aún que las organizaciones adopten la IA de manera responsable, ética y sostenible, existen muchas herramientas disponibles en el mercado que permiten que hackers puedan utilizarlas con fines maliciosos y perjudiciales. 

El Foro Global sobre la Ética de la IA, celebrado por la UNESCO en febrero de 2024, alude a aspectos de desarrollo y uso de sistemas de IA en las empresas, y a las obligaciones éticas fijadas en un marco legar que esté en construcción, un poco con el hándicap ante el desarrollo de estas tecnologías.

Iñaki Ortega, académico de la Universidad Internacional de La Rioja (UNIR), declara en un artículo publicado desde 2021 en El País que “los directivos de las grandes empresas deberían ser conscientes de que algunas de las decisiones que adoptan en el ejercicio de su actividad pueden lesionar derechos y llegar a ser inmorales”.

Y este enfoque de la ética podría ser relativamente de seguir y de incorporar a un marco jurídico internacional. Pero la lucha contra grupos de corte delincuencial que buscan sacar provecho de las herramientas IA con fines ilícitos requerirá de la capacidad para estructurar un frente contra estos hackers. Tal vez suene muy difícil de prevenirlo, aunque sistemas modernos de trazabilidad podrían ser útiles para mitigar estas amenazas. 

Debemos prepararnos para nuevos flancos. La economía del conocimiento aún nos depara muchos retos. Aspectos como las campañas políticas serán un buen laboratorio para el estudio del uso de la IA como arma destructiva, más que como herramientas para construir una sociedad mejor en todo sentido. 

La Inteligencia Artificial requerirá de políticas, normas y regulaciones que definan su uso para un beneficio social auténtico. Para ello, resultará vital desarrollar y adoptar sistemas modernos de trazabilidad que permitan identificar y rastrear el origen de contenidos generados por IA, facilitando la detección y eliminación de identidades falsas. 

Asimismo, resultará esencial establecer un marco jurídico internacional que regule el uso de la IA, garantizando que las empresas y desarrolladores actúen de manera ética y responsable, con sanciones claras para quienes utilicen estas tecnologías con fines delictivos y, aunado a ello, será fundamental fomentar la educación y concienciación pública sobre los riesgos del uso malicioso de la IA, proporcionando herramientas y estrategias para que los individuos puedan protegerse, como la verificación de identidad mediante preguntas de seguridad personalizadas. Estas medidas, en conjunto, pueden ayudar a crear un entorno más seguro y ético en el uso de la inteligencia artificial.

Los comentarios están cerrados.