Ya es un hecho, ¡la IA nos ha cambiado la vida! Y no solo a los usuarios, también a los ciberdelincuentes, que han podido perfeccionar sus ataques. En un mundo en el que la tecnología cada vez avanza con mayor rapidez, los ciberataques están a la orden del día. Así lo confirman Microsoft y OpenAI con su nuevo aviso tras una investigación que varias empresas han llevado a cabo: ChatGPT está siendo usado para mejorar los ciberataques. Como consultoría tecnológica en Barcelona queremos hablarte sobre este tema que tanto preocupa a la sociedad.

La pionera tecnología ChatGPT es la que está siendo usado para este tipo de delitos, aunque cualquier aplicación de Inteligencia Artificial puede ayudar a los delincuentes a cometer sus actos con mayor perfección. Lo más interesante de esto, sin duda, es el empleo de modelos de lenguaje de gran escala o LLM para estas acciones. Pero ¿qué es LLM? Pues bien, son sistemas de IA que generan textos a través de una palabra, una frase o un párrafo. Y es que aprenden el lenguaje natural a través de grandes cantidades de datos textuales procedentes de internet.

Rusia, China, Irán o Corea del Norte son algunos de los países donde han identificado estos grupos delincuentes

Incluso, se ha llegado al extremo que grupos, como el de Rusia, están utilizando la IA para lograr entender protocolos de comunicación entre los satélites y radares. De hecho, el grupo Strontium ha sido detectado usando modelos de lenguaje para comprender los protocolos de comunicación por satélite.

Por otro lado, el grupo iraní Curium ha estado usando LLMs para crear un código capaz de evitar la detección de aplicaciones antimalware. O Charcoal Typhoon, grupo chino, que emplea la IA para investigar plataformas y vulnerabilidades, o mejorar las traducciones en sus tareas de ingeniería social.

En el caso del grupo norcoreano, Thallium, está usando la IA para programar y crear contenidos en campañas de phishing.

Consecuencias de los ciberataques con Inteligencia Artificial

Este no es el único comedido que ha protagonizado la IA. También se ha unido la recolección, interpretación y procesamiento de información. Gracias a estas tareas, los delincuentes pueden hacer ataques cada vez más eficientes y numerosos, por lo que el número de víctimas cada vez va sumando más.

La suplantación de voces a través de la IA puede ser una de las futuras aplicaciones maliciosas que aparezcan. Un tema que desde el 2023 está generando una enorme preocupación, por el impacto tan grande que tiene en la seguridad de las personas o en áreas del arte, como puede ser la música. Y es que, con tan solo tres segundos, consiguen clonar la voz de una persona y hacerla creíble para, posteriormente, usarla en casos de phishing y estafas telefónicas.

Ante esta ola de ataques, las dos grandes empresas, Microsoft y OpenAI, han instado a los usuarios, desarrolladores y políticos a permanecer en alerta y tomar las medidas pertinentes, para conseguir disminuir los riesgos asociados al uso inadecuado de la Inteligencia Artificial.

Además, ambas empresas se comprometen a seguir trabajando para incrementar tanto la seguridad como la ética de sus modelos. La finalidad es aprovechar el potencial de la IA para proteger y empoderar a los usuarios y negocios, pero sin que se convierta en un problema para todos nosotros.

Es por ello por lo que se está desarrollando un Security Copilot. Un nuevo asistente de la Inteligencia Artificial que se posicionará como la mano derecha de los profesionales de ciberseguridad. Gracias a este asistente, los expertos en ciberseguridad podrán identificar ataques y comprender mucho mejor la cantidad de datos que se van generando a través de estas herramientas maliciosas.

Consultoría tecnológica en Barcelona: ¿cómo no caer en estafas con Inteligencia Artificial?

Sigue algunos de estos consejos que te ofrecemos desde Engloba Tech y podrás evitar ser víctima de una estafa con IA:

  • Debes verificar la identidad de la persona que contacta contigo

Verificar la identidad de la persona que, por ejemplo, te está llamando es crucial para poder evitar las nuevas estafas que están apareciendo a través de la clonación de voz. Así pues, te aconsejamos que preguntes su nombre completo, su número de identificación, incluso datos relevantes. Si, por el contrario, se hace pasar por una empresa, puedes llamar directamente a la empresa y corroborar dicha información que te han detallado.

  • No compartas información personal o confidencial

Las empresas nunca te pedirán, en ningún caso, que compartas información confidencial por teléfono o correo electrónico. Por lo tanto, si recibes una llamada o un mensaje que te pide que o hagas, ¡no confíes ni piques! Llama directamente a la entidad y confirma si el contacto y la información pedida es cierta o es una estafa.

  • Aprende a reconocer los fraudes

Normalmente, las estafas te piden que lleves a cabo acciones de manera urgente o, como hemos comentado anteriormente, que des información confidencial. ¡Estate atento o atenta a estas señales de alerta!, como, por ejemplo, ofertas muy buenas que parecen irreales; solicitud de información confidencial vía correo o teléfono móvil; acciones inmediatas; transferencias sin una razón clara; o mensajes y llamadas inesperadas.

  • Actualiza tus dispositivos

Para protegerte de estafas es importante mantener los dispositivos actualizados, puesto que los delincuentes, por lo general, explotan las vulnerabilidades de seguridad en aquellos sistemas más antiguos o no actualizados.

Al actualizarlos, mejoras la seguridad y, por consiguiente, reduces la posibilidad de que los delincuentes puedan acceder a tu información personal y confidencial. Y, como no, mejorarás a la vez el rendimiento de tus dispositivos.

Como puedes ver, en Engloba Tech, consultoría tecnológica en Barcelona, estamos al día de todo aquello que pasa en relación con la tecnología, la Inteligencia Artificial y las innovaciones digitales. Así pues, si quieres mantenerte informad@, ¡no te pierdas nuestro artículo semanal! Y, si quieres información sobre nuestros servicios, no dudes en contactar con nosotros.