Los estafadores mejoran su juego con nuevas herramientas de inteligencia artificial

Los estafadores mejoran su juego con nuevas herramientas de inteligencia artificial

El equipo de investigación global de Norton, publicó recientemente su informe trimestral ‘Pulso de seguridad cibernética del consumidor’, que detalla cómo los ciberdelincuentes pueden usar la inteligencia artificial para crear amenazas realistas y sofisticadas. Esta última entrega incluye un análisis de cómo los grandes modelos de lenguaje pueden mejorar las tácticas cibernéticas. 

ChatGPT ha captado la atención de internet con millones de personas que utilizan la tecnología para escribir poemas, crear historias cortas, responder preguntas e incluso pedir consejos.  Mientras tanto, los ciberdelincuentes pueden usarlo para generar amenazas maliciosas utilizando su impresionante capacidad para generar texto similar al humano que se adapta a diferentes idiomas y audiencias.  Los hackers ahora pueden crear rápida y fácilmente señuelos de phishing por correo electrónico o redes sociales que son aún más convincentes, lo que dificulta saber qué es legítimo y qué es una amenaza. Además de crear anzuelos, ChatGPT también puede generar código.  Así como ChatGPT facilita la vida de los desarrolladores con su capacidad para escribir y traducir el código fuente, también puede facilitar la vida de los ciberdelincuentes al hacer que las estafas sean más rápidas de crear y más difíciles de detectar.

Los estafadores mejoran su juego con nuevas herramientas de inteligencia artificial - chatgpt-estafadores-inteligencia-artificial

“Me entusiasman los grandes modelos lingüísticos como ChatGPT, sin embargo, algo que también me preocupa es cómo pueden abusar de ellos los ciberdelincuentes. Sabemos que los hackers se adaptan rápidamente a las últimas tecnologías, y estamos viendo que ChatGPT puede utilizarse para crear amenazas convincentes de forma rápida y sencilla”, dijo Kevin Roundy, director técnico Senior de Norton Labs. “Cada vez es más difícil que la gente detecte las estafas por sí misma, por lo que se necesitan soluciones de ciberseguridad que tengan en cuenta más aspectos de nuestra vida digital – desde nuestros dispositivos móviles hasta nuestra identidad en línea, pasando por el bienestar de quienes nos rodean- para mantenernos a salvo en un mundo en constante evolución”.

Además de usar ChatGPT para un phishing más eficiente, los expertos de Norton advierten que los criminales de la red también pueden usarlo para crear chatbots deepfake. Estos chatbots pueden hacerse pasar por humanos o fuentes legítimas, como un banco o una entidad gubernamental, y manipular a las víctimas para que entreguen su información personal con el fin de obtener acceso a información confidencial, robar dinero o cometer fraude.

Para mantenerte a salvo de estas nuevas amenazas, los expertos de la firma recomiendan:

  • Evita los chatbots que no aparecen en el sitio web o la aplicación de una empresa y ten cuidado al proporcionar información personal a alguien con quien estés chateando en línea.
  • Piensa antes de hacer clic en los enlaces en respuesta a llamadas telefónicas, correos electrónicos o mensajes no solicitados.
  • Actualiza tus soluciones de seguridad y asegúrate de que tenga un conjunto completo de capas de seguridad que van más allá del reconocimiento de malware conocido, como la detección y el bloqueo del comportamiento.
Los estafadores mejoran su juego con nuevas herramientas de inteligencia artificial - estafadores-amenazas-digitales

Resumen del año: Norton bloqueó más de 3.5 mil millones de amenazas en 2022

A lo largo de 2022, en México, la compañía frustró más de 6,359 millones de amenazas cibernéticas, o alrededor de 69,122 de amenazas por día.

En Q4 2022, bloqueó:

  • 84,625 intentos de phishing
  • 834,318 amenazas de archivos
  • 6,707 amenazas móviles
  • 203 ataques de ransomware
  • Norton AntiTrack bloqueó cerca de 1,539 rastreadores y scripts de huellas digitales