NOTICIAS DE CIBERSEGURIDAD

Información para todos

El hermano malo de CHATGPT

FraudGPT, conocido como el hermano malicioso de ChatGPT, ha emergido en la dark web como una herramienta que ofrece capacidades para escribir mensajes fraudulentos, crear malware y señalar sitios web susceptibles de ser objeto de estafas, según la plataforma de análisis de datos Netenrich. Junto con otras herramientas como WormGPT, estas tecnologías generativas de inteligencia artificial (IA) se han convertido en herramientas atractivas para ciberdelincuentes.

La IA generativa se ha utilizado para diversos fines maliciosos, desde la elaboración de estafas sofisticadas hasta la creación de contenido no consensuado, campañas de desinformación e incluso para manipular vídeos mediante deepfakes. Josep Albors, director de investigación y concienciación en ESET España, destaca cómo los delincuentes han aprovechado rápidamente estas capacidades para perfeccionar campañas de phishing, generar desinformación y crear deepfakes.

FraudGPT

Fernando Anaya, country manager de Proofpoint, señala que la IA generativa representa un paso evolutivo significativo en la creación de correos electrónicos maliciosos, eliminando la necesidad de buscar errores gramaticales obvios. Estas herramientas pueden generar correos electrónicos persuasivos en varios idiomas, adaptados a los perfiles individuales después de analizar plataformas como LinkedIn.

El uso de la IA generativa también se extiende a la creación de malware más efectivo y difícil de detectar. Aunque su implementación aún no es generalizada, herramientas como FraudGPT y WormGPT plantean una amenaza seria para el futuro. Estas tecnologías permiten a delincuentes con escaso conocimiento técnico llevar a cabo campañas maliciosas con alta probabilidad de éxito, lo que aumenta la carga de amenazas para usuarios y empresas.

Además, la IA generativa se ha utilizado para engañar a funcionarios gubernamentales, como se observa en el caso del grupo TA499, que realiza videollamadas utilizando técnicas de suplantación con IA para obtener información o ridiculizar a sus víctimas.

Otro aspecto alarmante es el uso de la IA generativa en la creación de contenido falso, como deepfakes de personalidades conocidas, clonando su voz o incluso generando imágenes de inmigrantes amenazantes con el objetivo de influir en la opinión pública y los resultados electorales.

El potencial de la IA generativa no se detiene aquí, ya que se plantea la posibilidad de utilizar modelos avanzados para la creación de armas bioquímicas, lo que representa un peligro global. Además, existe la preocupación de que los algoritmos puedan infiltrarse en software de infraestructuras críticas, desdibujando las líneas entre escenarios de ataque tradicionales y dificultando la predicción y contrarresto con las leyes y regulaciones existentes.

Cursos Online

-Compartir en redes-

Plataforma de capacitación

 

 

Nosotros

Somos una organización 100% MEXICANA cuyo objetivo es asesorar a las organizaciones en las mejores
prácticas de seguridad de la información.

Cómo denunciar acoso

 

 

Nuestro canal en Telegram