• contacto@clovat.com
  • (33) 3630.2942

El coste medio de una vulneración de datos es de 4,45 millones de dólares, lo que supone un crecimiento del 15% en los últimos 3 años, de acuerdo con la última edición del Cost of Data Breach Report de IBM. En concreto, si hablamos de vulneraciones de datos en el sector sanitario, el coste medio es de 11 millones de dólares, y en el caso de las infraestructuras críticas, de más de 5 millones.

A esto se suma que la capacidad de actuación de los cibercriminales ha avanzado sustancialmente —el IBM Security X-Force Threat Intelligence Index de 2023 señaló que los atacantes han pasado de necesitar una media de dos meses para completar un ataque de ransomware a cuatro días— y que, según el estudio del Global Security Operations Center de Morning Consult de 2023, casi el 50% de los miembros de los equipos de los Centros de Operaciones de Seguridad (SOC) asegura que el tiempo medio que emplean en detectar y responder a un incidente de seguridad ha aumentado en los últimos 2 años.

Estos son algunos de los datos que sirvieron para poner en contexto la mesa redonda La inteligencia artificial como activo en la ciberseguridad, que se celebró ayer en Madrid Tech Show y en la que participaron David Corral, IT/OT Head of Cybersecurity Architecture de Repsol; Xabier Mitxelena, General Director de BeDisruptive; e Isabel Tristán, Principal Security Sales de IBM para España, Portugal, Grecia e Israel.

En línea con los datos expuestos, Isabel Tristán situó el escenario para el debate señalando que “hay estudios que aseguran que la principal amenaza que detectan los CEO de las empresas para el crecimiento de sus compañías es la ciberseguridad. Es decir, que es una parcela crítica para la estrategia de cualquier compañía”.

La máxima responsable de Software de ciberseguridad de IBM tradujo dichas preocupaciones en datos concretos: “Los cibercriminales han evolucionado y son capaces de desplegar ataques de ransomware en menos de tres días, mientras que el tiempo medio de las empresas para detectar un incidente es de 7 meses y de 2 meses para ser capaces de reaccionar ante uno de esos incidentes”.

La cuestión clave es, pues, ¿qué puede hacer la IA en el ámbito de la ciberseguridad? Una respuesta que, como señalaron todos los ponentes, necesita de una aclaración previa: como en todos los ámbitos de la digitalización, la IA lleva usándose mucho tiempo en el campo de la ciberseguridad; es ahora, con el boom de la IA Generativa, cuando se habla de nuevas capacidades.

En palabras de David Corral: “La IA Generativa trae consigo una serie de riesgos desde el punto de vista de ciberseguridad, que estamos analizando y abordando; pero, sin duda, nos trae también oportunidades en los ámbitos de precisión en detección de amenazas, disminución de alertas para los equipos de respuesta, automatización de procesos o enriquecimiento de la información para la toma de decisiones, que también estamos explorando”.

No en vano, los profesionales de los SOC afirman que dedican aproximadamente un tercio de su jornada a investigar y validar incidentes que resultan no ser amenazas reales y el uso de la IA y la automatización permitiría —de hecho, como se expuso en la mesa redonda, ya lo está permitiendo— recortar el tiempo de detección y respuesta.

 

Elevar al analista

En este sentido, Isabel Tristán explicó cómo se trabaja para facilitar esas oportunidades. “La visión de IBM es elevar al analista de ciberseguridad, facilitando su trabajo y con las distintas soluciones de ciberseguridad de la empresa”, algo que se traduce en que “la IA embebida en las soluciones de ciberseguridad de IBM como QRadar permite realizar investigaciones automáticas para ser consumidas por el analista y reducir el tiempo de investigación medio de 2 días a menos de 30 minutos”.

Por su parte, Xabier Mitxlena explicó que desde BeDisruptive pueden dar “pistas de soluciones que están dando soporte al mercado en el uso de la IA Generativa,  pero es importante recordar que la IA es solo una herramienta, que puede ser utilizada tanto a la hora de crear amenazas como para trabajar en su mitigación, y que la intervención humana seguirá siendo esencial en este campo. Sobre todo —explicó— el caballo de batalla es la falta de talento; de alguna manera, se está afrontando la falta de manos y de cerebros humanos con la IA Generativa”.

“En BeDisruptive tenemos una plataforma que se basa en IA; protege al usuario, al dato… todo Zero Trust, y su mérito diferencial es que se basa en IA”, incidió Mitxelena, quien puso especial énfasis en la necesidad de “impulsar la capacitación y la educación para aportar un enfoque disruptivo e innovador, que busca generar valor para las empresas a través de la  automatización y simplificación de los modelos de gestión”.

Otro de los aspectos que se puso encima de la mesa en relación directa con la capacitación es el de la práctica habitual del buen gobierno, algo que aplica al campo de la IA al igual que a cualquier tecnología disruptiva. En este sentido, David Corral remarcó “el concepto de IA Responsable”, un elemento “clave para generar entornos empresariales donde estos sistemas puedan amplificar la productividad en nuestros procesos de negocio, potenciar su crecimiento y a su vez presentar la debida robustez y diligencia, en consonancia con una serie de principios y regulaciones a los que nos adherimos con fuerte convicción”.

Un tema que de nuevo concitó el consenso de todos los ponentes de la mesa, el de la visión cross de dichos principios y regulaciones: no sólo asociados al uso de la inteligencia artificial en la ciberseguridad, sino a todos los componentes y principios que forman parte de esa IA responsable.