Inteligencia artificial: revolución
y riesgos en la era del cibercrimen
Fecha: 04/Jun/2024
Fuente: https://www.elcolombiano.com/
Antes del 30 de noviembre de 2022, en el imaginario colectivo el concepto de inteligencia artificial seguramente evocaba a personajes de ciencia ficción, como Skynet de Terminator o Data de la serie de televisión Star Trek. Hoy, al mencionar la IA, es más probable que se piense en ChatGPT, el popular chatbot presentado al mundo por la compañía OpenAI en esa fecha que ya ha pasado a ser histórica, no solo por el cambio de paradigma que supuso en la relación diaria con la tecnología, sino también por el impacto significativo de esta herramienta en la cultura popular.
En menos de dos años, se puede decir que las herramientas tecnológicas impulsadas por IA generativa han transformado radicalmente la manera en que trabajamos y accedemos a la información en línea, tanto a nivel laboral como académico, pero igual que en la fantasía estos adelantos tienen un lado positivo y otro negativo.
Tanto Data como Skynet representan extremos opuestos en la narrativa de la IA: el primero es un símbolo de la búsqueda de humanidad y ética, mientras que la segunda encarna los peligros de una tecnología descontrolada y destructiva. Lo mismo pasa con la masificación de los chatbots y las plataformas LLM, que suponen el auge de nuevas herramientas aprovechadas por ciberdelincuentes para actividades maliciosas.
Así lo advierte un reciente informe de la plataforma de ciberseguridad Octapus, que da cuenta de que “el uso de algoritmos de aprendizaje automático facilita la creación de malware inteligente, capaz de infiltrarse en sistemas y robar información sin ser detectado por las defensas tradicionales”.
Además, “la ingeniería social potenciada por IA permite a los atacantes crear perfiles convincentes para engañar a los usuarios y descargar software malicioso”, algo inédito pero cada vez más común desde la masificación de estas plataformas, según explica a EL COLOMBIANO Nicolás Segura, especialista de ciberseguridad de esa empresa.
“La inteligencia artificial puede sofisticar los ataques. Herramientas como ChatGPT pueden ser útiles para generar correos falsos, crear páginas falsas y hacerlas muy creíbles, lo que las hace difíciles de detectar para un usuario común. Además, la IA facilita la suplantación de identidad mediante la creación de anuncios falsos, suplantación de voz y cara, y llamadas automatizadas para comprobar la presencia de una persona o grabar su voz”, agrega.
Tácticas comunes
De acuerdo con el especialista, ciberdelincuentes están empleando algoritmos de aprendizaje automático para desarrollar malwares cada vez más sofisticados. Un informe de esa firma especializada advierte tres tácticas comunes en este tipo de delitos:
1. Malware inteligente: Los delincuentes digitales usan algoritmos de aprendizaje automático con el fin de desarrollar malware más sofisticado con la capacidad de evadir las defensas tradicionales. Este, además, es muy difícil de detectar y neutralizar debido a que se adapta a nuevas medidas de seguridad con el tiempo.
2. Ingeniería social potenciada por IA: Se usan inteligencias artificiales para analizar grandes cantidades de datos y crear perfiles muy convincentes que engañan a colaboradores y personas en general para descargar softwares maliciosos.
3. Automatización para aprovechar vulnerabilidades: Con técnicas de IA, los delincuentes pueden identificar y explotar las vulnerabilidades en los sistemas informáticos de una forma más eficiente y a gran escala. Así, se encuentran puntos débiles en la seguridad para automatizar el aprovechamiento de esas vulnerabilidades.
Un peligro inminente
Para quienes duden que su correo electrónico y dispositivos móviles puedan ser atractivos para cibercriminales hay una mala noticia: expertos en ciberseguridad advierten que la información personal puede ser incluso más valiosa que el dinero que una persona guarde en su cuenta bancaria.
Según datos de FortiGuard Labs, el laboratorio de análisis e inteligencia de amenazas de la empresa de software Fortinet, Colombia recibió 12.000 millones de intentos de ciberataques en 2023 y la cifra se eleva a 200.000 millones a nivel de América Latina y el Caribe, lo que constituye el 14,5% del total reportado a nivel global el año pasado.
La compañía de ciberseguridad ESET señala que cuando los hackers atacan, buscan recopilar datos y usarlos como una valiosa moneda de cambio en la Dark Web, la parte de internet que no está indexada por motores de búsqueda convencionales y donde se citan cibercriminales para transar todo tipo de delitos.
Una reciente investigación de esa empresa revela el valor de esa información, identificando los factores que determinan su precio. Mario Micucci, investigador de seguridad informática de ESET Latinoamérica, explicó a este medio que “el valor de la información varía según factores como la rareza, calidad y demanda. Por ejemplo, un número de tarjeta de crédito activo y sin alertas de fraude puede valer mucho más que uno expirado”.
En ese sentido, un estudio de NordVPN reveló una referencia sobre los precios que estos datos tienen en webs especializadas de la Dark Web:
– Información financiera: 6 a 100 USD
– Credenciales de acceso: 1 a 75 USD
– Documentos de identidad: 5 a 25 USD
– Historial médico: 1 a 30 USD
Tips para protegerse
Ante el peligro de que cualquier persona pueda sufrir un ataque con sofisticadas herramientas de Inteligencia Artificial, especialistas dicen que esa misma tecnología sirve para adaptarse ante los riesgos y mejorar las defensas de datos e infraestructura digital.
Según comenta Mónica Casas, gerente regional para Commercial Client en AMD, la adopción de tecnologías impulsadas por IA es crucial para mitigar estos riesgos. “La IA nos permite una detección y respuesta rápida a las amenazas en tiempo real (…) Es una herramienta esencial para fortalecer las defensas cibernéticas de las empresas”, dice.
La especialista señala que la capacidad de la IA para analizar grandes volúmenes de datos en tiempo real y predecir posibles ataques resulta fundamental en un entorno donde la sofisticación de las amenazas crece cada día. “La automatización de la seguridad y el análisis predictivo son aspectos clave que la IA puede ofrecer”, agrega.
Por su parte, la compañía ESET ofrece seis recomendaciones básicas para que cualquier persona proteja su información personal:
1. Usar contraseñas seguras y únicas.
2. Habilitar la autenticación de dos factores.
3. Ser cauteloso con sitios web y correos electrónicos sospechosos.
4. Mantener software y sistemas operativos actualizados.
5. Utilizar antivirus y firewall.
6. Estar alerta a las estafas de phishing.
El gemelo malvado de ChatGPT
Una de las herramientas con IA más populares entre ciberdelincuentes es FraudGPT, plataforma comercializada en la Dark Web y en canales de Telegram que está diseñada para facilitar ciberataques. La firma de ciberseguridad Netenrich fue la primera en identificar esta herramienta en julio de 2023. Según informes, la principal característica de ese chatbot, conocido como el gemelo malvado de ChatGPT, es la ausencia de controles y limitaciones para responder a solicitudes ilegales e inapropiadas.