Cibercrimen y la IA, un potencial peligro

Si bien la Inteligencia Artificial ha revolucionado múltiples disciplinas, también puede ser aprovechada por el crimen, advierten expertos

Aquínoticias Staff

La Inteligencia Artificial (IA) ha revolucionado múltiples disciplinas, convirtiéndose en una herramienta indispensable. Sin embargo, su uso también ha sido aprovechado por el cibercrimen para llevar a cabo ataques y acciones maliciosas. ESET, compañía líder en detección proactiva de amenazas, alerta sobre cinco maneras en las que la IA y el cibercrimen se unen para robar información sensible y obtener beneficios económicos.

El riesgo del uso malicioso de la IACamilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica, recordó que en febrero de 2023 ya se había advertido sobre el potencial uso malicioso de la IA. «A menos de un año y medio de esa advertencia, ya se pueden observar las implicancias que los actores maliciosos le dan a la IA y cómo la utilizan para expandir y mejorar sus tácticas y estrategias de ataque», comentó.Un ejemplo es WormGPT, una herramienta ofrecida exclusivamente a cibercriminales en foros clandestinos, con alcances y posibilidades similares a ChatGPT, pero sin barreras éticas. Aunque WormGPT ha sido dado de baja, su existencia demuestra el potencial peligro de la IA en manos equivocadas.Las 5 maneras en que los cibercriminales usan la IA
  • Perfeccionar la suplantación de identidad: Investigadores de ETH Zurich han observado un aumento significativo de correos de phishing con el auge de ChatGPT. La IA generativa se utiliza para crear contenidos convincentes y traducir mensajes, facilitando la comunicación entre cibercriminales a nivel global. Herramientas como GoMail Pro, integradas con ChatGPT, permiten a los atacantes mejorar sus mensajes. OpenAI ha intentado limitar el uso de sus productos para actividades ilegales, pero es un desafío constante.Optimizar el doxing: El doxing consiste en publicar información personal con intención de intimidar o extorsionar. La IA, entrenada con grandes cantidades de datos de internet, puede deducir ubicaciones y otras informaciones sensibles. Investigaciones han demostrado que GPT-4 puede inferir datos personales de una persona solo con conversaciones, lo que aumenta la vulnerabilidad.Hacer más realistas las estafas por audio y deepfake: La IA generativa ha evolucionado al punto de hacer indistinguibles imágenes y audios reales de los generados por IA. Ejemplos incluyen estafas por deepfake y audios convincentes creados a partir de breves grabaciones de voz.Esquivar controles de identidad: Los cibercriminales utilizan IA para eludir sistemas de verificación de identidad mediante documentos falsos o robados, superponiendo imágenes por encima de rostros reales. Aunque esta práctica está en sus inicios, tiene potencial de expansión.Ofrecer jailbreak como servicio: Los cibercriminales optan por servicios de jailbreak para modificar sistemas de IA y eludir sus limitaciones, permitiendo la generación de contenido malicioso o código malicioso, en lugar de crear sus propios modelos de IA.

  • “La tecnología no es buena ni mala, como tampoco lo es la Inteligencia Artificial: todo depende de las intenciones con que se las utilice”, concluye Gutiérrez Amaya. Es crucial estar al tanto de las estrategias de los cibercriminales para evitar ser víctima de sus estafas y engaños. Mientras la IA tiene aplicaciones positivas en áreas como la educación y la medicina, su uso indebido por parte del cibercrimen representa un desafío significativo para la seguridad cibernética.Con información de ESET Latinoamérica.

    Compartir:

    Deja una respuesta

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *