65% de los bots son maliciosos y perjudican al comercio electrónico

Algunas consecuencias técnicas tras un ataque de scraping son: ralentización del rendimiento y falseamiento de datos de la web, consecuencias del robo de credenciales, aumento de costes informáticos, etc.

Akamai publicó hoy un nuevo informe sobre el estado de Internet (SOTI) donde se analizan las amenazas de seguridad y de negocio que plantea el aumento de bots de scraping web. Según el informe Web scrapers en e-commerce, un peligro para su negocio, el 42 % del tráfico web general está generado por bots, y el 65 % de ellos son maliciosos.

El sector del e-commerce es el más afectado porque las aplicaciones web son clave para su generación de ingresos. Aunque existen bots útiles para las empresas, los bots scrapers se utilizan en la inteligencia y el espionaje de la competencia, el acaparamiento de inventario, la suplantación de sitios web y otras estrategias que afectan tanto a los resultados como a la experiencia del cliente. Actualmente no hay ninguna ley que prohíba el uso de bots scrapers. Y, aunque son difíciles de detectar dado el aumento de las botnets de inteligencia artificial (IA), no está todo perdido.

«Los bots son todo un reto que sigue dando dolores de cabeza a los propietarios de aplicaciones y API», afirma Patrick Sullivan, director de Tecnología y Estrategia de Seguridad de Akamai. «Encontramos un ejemplo en el scraping que puede robar datos web y crear sitios para suplantar marcas. El panorama de los scrapers también está cambiando debido a avances como la tecnología de navegadores sin interfaz, que obliga a las empresas a gestionar esta actividad de bots más sofisticada que otras mitigaciones basadas en JavaScript».

El informe incluye la siguiente información:

Las botnets de IA detectan y extraen datos y contenido no estructurados cuando su ubicación no es segura o están en diferentes formatos. Además, utilizan la inteligencia empresarial para mejorar el proceso de toma de decisiones mediante la recopilación, la extracción y el procesamiento de datos.

Los bots scrapers se utilizan para generar sofisticadas campañas de phishing. Obtienen imágenes de productos, descripciones e información sobre los precios y crean tiendas falsas para sustraer la información de tarjetas de crédito o las credenciales de los usuarios.

Los bots se pueden utilizar para crear cuentas nuevas de forma masiva, lo que, según un estudio reciente, supone hasta el 50 % de las repercusiones económicas por fraude.

Entre las consecuencias técnicas a las que deben hacer frente las empresas tras un ataque de scraping, independientemente de si las intenciones eran buenas o malas, encontramos la ralentización del rendimiento y el falseamiento de los datos de la web, las consecuencias del robo de credenciales, el aumento de los costes informáticos, etc.

En el estudio Web scrapers en e-commerce se destacan estrategias contra los bots scrapers, así como un caso práctico que muestra cómo los sitios web funcionan mucho más rápido y de forma más eficiente al implementar defensas contra los bots. Además, la investigación incluye consejos sobre conformidad normativa para contrarrestar el aumento de este tipo de ataques.

Este año es el décimo aniversario de los informes sobre el estado de Internet (SOTI) de Akamai, una serie de estudios que incluye análisis especializados sobre el panorama de seguridad en la nube y rendimiento web, basados en los datos recopilados por Akamai Connected Cloud.