Hogar Analítica de Negocio El preocupante auge de las herramientas de cibercrimen potenciadas por IA

El preocupante auge de las herramientas de cibercrimen potenciadas por IA

por Iván Torres
0 comentario

En un oscuro y ominoso rincón de Internet, los ciberdelincuentes están, una vez más, aprovechando el poder de la inteligencia artificial para promover sus malévolas agendas. Siguiendo al notorio WormGPT, hay un nuevo jugador en la ciudad, y su nombre es FraudGPT. Esta maligna herramienta de IA está diseñada específicamente para fines ofensivos, permitiendo a los actores de amenazas orquestar sofisticados cibercrímenes, que van desde el spear-phishing hasta la creación de malware indetectable. Mientras el mundo de la ciberseguridad se prepara para otro desafío, profundicemos en el mundo de FraudGPT y sus posibles implicaciones para la seguridad en línea.

The use of AI tools in cybercrime and phishing activities is on the rise.

Teme al auge de FraudGPT: la sensación de la Dark Web

Justo cuando la comunidad de ciberseguridad se estaba recuperando del impacto de WormGPT, FraudGPT surgió como la última herramienta de IA generadora de cibercrimen. Su existencia fue revelada por el investigador de seguridad de Netenrich, Rakesh Krishnan, quien dio la alarma sobre esta nueva amenaza de IA. Disponible en mercados de la web oscura y canales secretos de Telegram, FraudGPT ofrece un siniestro conjunto de capacidades ofensivas.

FraudGPT is the latest on the list of AI tools used for cybercrime, following the notorious WormGPT. Find out how it is used for phishing.

El actor detrás de FraudGPT

Detrás de la ominosa cortina de anonimato, un misterioso actor que se hace llamar “CanadianKingpin” en línea reclama la responsabilidad de haber creado FraudGPT. Este bot de IA se dirige exclusivamente a los ciberdelincuentes, ofreciendo diversas herramientas y características diseñadas para satisfacer sus maliciosas intenciones. Desde correos electrónicos de spear-phishing hasta herramientas de cracking y carding, FraudGPT es un arma potente en las manos equivocadas.

Suscripciones y costos

El submundo de los ciberdelincuentes no opera por buena voluntad; se alimenta de las ganancias. FraudGPT, no siendo una excepción, está disponible para suscripción por $200 al mes, con tarifas reducidas para suscripciones de seis meses y anuales ($1,000 y $1,700, respectivamente). Este modelo de pago por uso lo hace aún más accesible para aquellos dispuestos a explotar sus capacidades.

Desenmascarando las amenazas

El modelo de lenguaje grande (LLM) exacto responsable del desarrollo de FraudGPT sigue siendo un misterio. Sin embargo, su impacto está lejos de ser elusivo. Con más de 3,000 ventas y críticas confirmadas, los ciberdelincuentes están encontrando formas creativas de usar su poder para propósitos malévolos. Desde escribir código malicioso indetectable hasta identificar fugas y vulnerabilidades, FraudGPT representa una grave amenaza para la ciberseguridad.

The LLM behind FraudGPT remains untraceable.

Explotando la IA para actividades cibercriminales

Los ciberdelincuentes están capitalizando la disponibilidad de herramientas de IA como OpenAI ChatGPT para crear variantes adversarias sin salvaguardas éticas. FraudGPT ejemplifica esta tendencia, permitiendo a los actores novatos lanzar ataques sofisticados de phishing y compromiso del correo electrónico empresarial a gran escala.

Escalando el modelo de Phishing-as-a-Service (PhaaS)

El phishing ha sido durante mucho tiempo una técnica preferida entre los ciberdelincuentes, pero FraudGPT lo lleva a un nivel completamente nuevo. Sus poderosas capacidades impulsadas por IA actúan como plataforma de lanzamiento para que incluso los actores novatos monten convincentes ataques de phishing y de compromiso del correo electrónico empresarial (BEC) a gran escala. Las posibles consecuencias incluyen el robo de información sensible y pagos alámbricos no autorizados.

WormGPT and FraudGPT are being used for phishing.

El dilema ético

Aunque las herramientas de IA como ChatGPT pueden ser desarrolladas con salvaguardas éticas, FraudGPT demuestra que estas salvaguardas pueden ser fácilmente eludidas. Como Rakesh Krishnan acertadamente señala, implementar una estrategia de defensa en profundidad es crucial para contrarrestar estas amenazas de rápida evolución. Las organizaciones deben aprovechar toda la telemetría de seguridad disponible para análisis rápidos que identifiquen y neutralicen las ciberamenazas antes de que evolucionen en ataques de ransomware o exfiltración de datos.

There is a growing need for ethical AI and stronger cyber security measures.

Nuestra opinión

La aparición de FraudGPT subraya la alarmante tendencia de los ciberdelincuentes que utilizan la IA para desarrollar vectores de ataque sofisticados. Con la web oscura como su caldo de cultivo, esta herramienta de IA maliciosa representa un riesgo significativo para individuos y organizaciones. La comunidad de ciberseguridad debe permanecer vigilante y tomar medidas proactivas para contrarrestar eficazmente tales amenazas. A medida que la tecnología evoluciona, proteger la información sensible y los activos digitales se vuelve primordial para protegerse contra la creciente marea del cibercrimen potenciado por la IA.

También te Puede Interesar

Sobre nosotros

About Data Blog es un espacio traido a ti por Gold Light Data con el objetivo de investigar y compartir información valiosa sobre Big Data, Inteligencia Artificial, Machine Learning, Analítica de Negocio e Inteligencia de Negocios.

 

Estamos comprometidos con la investigación y nuestra misión siempre será compartir ese conocimiento para la evolución tecnológica y de negocio.

© 2022 About Data. Created by WeApp4U