Una compañía de inteligencia artificial (IA) dijo que los piratas informáticos han «armados» para liderar ataques cibernéticos sofisticados.

Anthrope, quien hace el chatbot Claude, dice que sus herramientas han sido utilizadas por los piratas «para cometer un vuelo a gran escala y una extorsión de datos personales».

La firma dijo que su IA se había utilizado para ayudar a escribir código que hizo ataques cibernéticos, mientras que en otro caso, los delincuentes norcoreanos usaron a Claude para obtener fraudulentamente trabajos distantes en las mejores empresas estadounidenses.

Anthrope dice que pudo interrumpir a los actores de la amenaza e informó los casos a las autoridades, así como a la mejora de sus herramientas de detección.

El uso de IA para ayudar al código de escritura ha aumentado en popularidad a medida que la tecnología se vuelve más capaz y accesible.

Anthrope dice que detectó un caso de la llamada «piratería de atmósfera», donde su IA se usó para escribir código que pudiera piratear al menos 17 organizaciones diferentes, incluidas las organizaciones gubernamentales.

Dijo que los Piratas «usaron IA para lo que creemos que es un diploma sin precedentes».

Utilizaron Claude para «tomar decisiones tácticas y estratégicas, como decidir qué datos exfiltrarse y cómo desarrollar solicitudes de extorsión psicológicamente específicas».

Incluso sugirió cantidades de rescate para las víctimas.

La AI de la Agencia, donde la tecnología funciona de forma independiente, se ha presentado como la próxima gran etapa del espacio.

Pero estos ejemplos muestran algunos de los riesgos de que las herramientas poderosas representan víctimas potenciales del delito cibernético.

El uso de IA significa «el tiempo requerido para explotar las vulnerabilidades de ciberseguridad se reduce rápidamente», dijo Alina Timofeeva, asesor de delitos cibernéticos y IA.

«La detección y la atenuación deben evolucionar hacia un proactivo y preventivo, no reactivo después del mal», dijo.

Pero no es solo el delito cibernético para el que se usa la tecnología.

Anthrope dijo que «agentes norcoreanos» han utilizado sus modelos para crear perfiles falsos para solicitar trabajos distantes en las empresas tecnológicas estadounidenses Fortune 500.

El uso de trabajos remotos para acceder a los sistemas comerciales ha sido conocido por algún tiempoPero Anthrope dice que el uso de IA en el programa de fraude es «una fase fundamentalmente nueva para estas estafas de empleo».

Dijo que la IA se había utilizado para escribir solicitudes de trabajo, y una vez que los estafadores usaron, se usó para ayudar a traducir mensajes y escribir código.

A menudo, los trabajadores norcoreanos «están sellados en el mundo exterior, cultural y técnicamente, lo que les dificulta retirar este subterfugio», dijo Geoff White, copresentador del podcast BBC Robo.

«La IA agente puede ayudarlos a saltar sobre estos obstáculos, permitiendo que sean contratados», dijo.

«Su nuevo empleador viola las sanciones internacionales al pagar involuntariamente a un norcoreano del Norte».

Pero dijo que la IA «actualmente no crea completamente delitos» y que «todavía ocurren muchas intrusiones de ransomware gracias a consejos probados, como enviar correos electrónicos de phishing y buscar vulnerabilidades de software».

«Las organizaciones deben comprender que la IA es un repositorio de información confidencial que requiere protección, como cualquier otra forma de sistema de almacenamiento», dijo Nivedita Mildy, consultora de seguridad principal de Black Duck Duck.

Enlace de origen