La adopción de la
Inteligencia Artificial por parte de las empresas se ha duplicado en los
últimos cinco años, y los CEO afirman hoy que se enfrentan a una
presión significativa por parte de inversores, proveedores de fondos y
entidades crediticias para acelerar la adopción de la IA generativa.
Esto se debe en gran medida a la comprensión de que hemos cruzado un
nuevo umbral con respecto a la madurez de la IA, introduciendo un nuevo y
más amplio espectro de posibilidades, resultados y beneficios de costes
para la sociedad en su conjunto.
Muchas empresas se han reservado la
posibilidad de apostar por la IA, ya que ciertas incógnitas de la
tecnología erosionan la confianza inherente. Y la seguridad suele ser
una de esas incógnitas. ¿Cómo se protegen los modelos de IA? ¿Cómo
garantizar la protección de esta tecnología transformadora frente a
ciberataques, ya sea en forma de robo, manipulación y filtración de
datos o de ataques de evasión, envenenamiento, extracción e inferencia?
La carrera mundial para establecer un
liderazgo en IA —ya sea entre gobiernos, mercados o sectores
empresariales— ha espoleado la presión y la urgencia por responder a
esta pregunta. El reto de proteger los modelos de IA no sólo se deriva
de la naturaleza dinámica y el volumen de los datos subyacentes, sino
también de la «superficie de ataque» ampliada que introducen los modelos
de IA: una superficie de ataque que es nueva para todos. En pocas
palabras, para manipular un modelo de IA o sus resultados con objetivos
maliciosos, existen muchos puntos de entrada potenciales que los
atacantes pueden intentar comprometer, muchos de los cuales aún estamos
descubriendo.
Pero este reto no carece de solución. De
hecho, estamos experimentando el mayor movimiento de crowdsourcing para
asegurar la IA que cualquier tecnología haya instigado jamás. La
Administración Biden-Harris, la ley CISA del Departamento de Seguridad
Nacional estadounidense y la Ley de Inteligencia Artificial de la Unión
Europea han movilizado a la comunidad de investigadores, desarrolladores
y expertos en seguridad para que trabajen de forma colectiva en el
impulso de la seguridad, la privacidad y el cumplimiento de las
normativas en materia de inteligencia artificial.
Seguridad de la IA para los negocios
Es importante comprender que la seguridad de
la IA es algo más que asegurar la propia IA. En otras palabras, para
proteger la IA, no nos limitamos únicamente a los modelos y los datos.
También debemos considerar el stack de aplicaciones empresariales en que
se integra una IA como un mecanismo defensivo, ampliando las
protecciones para la IA en su seno. Del mismo modo, dado que la
infraestructura de una organización puede actuar como un vector de
amenaza capaz de proporcionar a los adversarios acceso a sus modelos de
IA, debemos asegurarnos de que el entorno más amplio está protegido.
Para valorar los distintos mecanismos por
los que debemos proteger la IA —los datos, los modelos, las aplicaciones
y el proceso completo— debemos tener claro no sólo cómo funciona la IA,
sino exactamente cómo se despliega en los distintos entornos.
El papel de la higiene de un stack de aplicaciones empresariales
La infraestructura de una organización es la
primera capa de defensa contra las amenazas a los modelos de IA.
Garantizar que los controles de seguridad y privacidad adecuados estén
integrados en la infraestructura de IT más amplia que rodea a la IA es
clave. Esta es un área en la que la industria ya tiene una ventaja
significativa: tenemos la experiencia y los conocimientos necesarios
para establecer normas óptimas de seguridad, privacidad y cumplimiento
en los entornos complejos y distribuidos de hoy en día. Es importante
que también reconozcamos esta misión diaria como un elemento facilitador
de la IA segura.
Por ejemplo, es primordial permitir un
acceso seguro a los usuarios, los modelos y los datos. Debemos utilizar
los controles existentes y ampliar esta práctica para asegurar las vías
de acceso a los modelos de IA. Del mismo modo, la IA aporta una nueva
dimensión de visibilidad a las aplicaciones empresariales, lo que
garantiza que las capacidades de detección de amenazas y respuesta se
extiendan a las aplicaciones de IA.
Las normas de seguridad de la plataforma
—como el empleo de métodos de transmisión seguros en toda la cadena de
suministro, el establecimiento de estrictos controles de acceso y
protecciones de la infraestructura, así como el refuerzo de la higiene y
los controles de las máquinas virtuales y los contenedores— son
fundamentales para evitar su vulnerabilidad. Al examinar nuestra
estrategia general de seguridad empresarial, deberíamos reflejar esos
mismos protocolos, políticas, higiene y normas en el perfil de IA de la
organización.
Uso y datos de entrenamiento subyacentes
Aunque los requisitos de gestión del ciclo
de vida de la IA todavía no están claros, las organizaciones pueden
aprovechar las protecciones existentes para ayudar a asegurar el
desarrollo de la IA. Por ejemplo, la transparencia y la explicabilidad
son esenciales para evitar los sesgos, la alucinación y la
intoxicación, por lo que quienes adoptan la IA deben establecer
protocolos para auditar los flujos de trabajo, los datos de
entrenamiento y los resultados para comprobar la precisión y el
rendimiento de los modelos. Además, el origen de los datos y el proceso
de preparación deben documentarse en aras de la confianza y la
transparencia. Este contexto y claridad pueden ayudar a detectar mejor
las anomalías y anormalidades que puedan presentarse en los datos en una
fase temprana.
La seguridad debe estar presente entodas
las fases de desarrollo y despliegue de la IA, lo que incluye la
aplicación de protecciones de la privacidad y medidas de seguridad en
las fases de entrenamiento y testeo de los datos. Dado que los modelos
de IA aprenden continuamente de sus datos subyacentes, es importante
tener en cuenta ese dinamismo y reconocer los riesgos potenciales en la
precisión de los datos, así como incorporar medidas de verificación y
validación en todo el ciclo de vida de los datos. Las técnicas de
prevención de pérdida de datos también son esenciales aquí para detectar
y prevenir SPI, PII y la fuga de datos regulados a través de prompts y API.
Gobernanza a lo largo del ciclo de vida de la IA
Para garantizar la seguridad de la IA es
necesario un enfoque integrado de la creación, el despliegue y la
gestión de los proyectos de IA. Esto implica la creación de IA con
gobernanza, transparencia y ética que respalden las exigencias
normativas. A medida que las organizaciones exploran la adopción de la
IA, deben evaluar las políticas y prácticas de los proveedores de código
abierto en relación con sus modelos de IA y conjuntos de datos de
entrenamiento, así como el estado de madurez de las plataformas de IA.
Esto también debería tener en cuenta el uso y la retención de datos:
saber exactamente cómo, dónde y cuándo se utilizarán los datos, y
limitar la vida útil del almacenamiento de datos para reducir los
problemas de privacidad y los riesgos de seguridad. Además, los equipos
de adquisiciones deben participar para garantizar la alineación con las
actuales políticas y directrices de privacidad, seguridad y cumplimiento
de las empresas, que deben servir de base para cualquier política de IA
que se formule.
Asegurar el ciclo de vida de la IA incluye
mejorar los procesos actuales de DevSecOps para incluir el ML, adoptando
los procesos mientras se crean integraciones y se despliegan modelos y
aplicaciones de IA. Debe prestarse especial atención a la gestión de los
modelos de IA y sus datos de formación: la formación de la IA antes de
su despliegue y la gestión de las versiones de forma continua es clave
para gestionar la integridad del sistema, al igual que la formación
continua. También es importante supervisar los prompts y las personas que acceden a los modelos de IA.
No se trata en absoluto de una guía
exhaustiva sobre la seguridad de la IA, pero la intención es corregir
los conceptos erróneos sobre la seguridad de la IA. La realidad es que
ya disponemos de importantes herramientas, protocolos y estrategias para
desplegar la IA de forma segura.
Mejores prácticas para proteger la IA
A medida que aumente la adopción de la IA y
evolucionen las innovaciones, también madurarán las directrices de
seguridad, como ocurre con todas las tecnologías que se han integrado en
el tejido de una empresa a lo largo de los años. A continuación
compartimos algunas de las mejores prácticas de IBM para ayudar a las
organizaciones a prepararse para un despliegue seguro de la IA en sus
entornos:
Aproveche la IA de confianza evaluando las políticas y prácticas de los proveedores.
Habilitar controles para el acceso seguro a usuarios, modelos y datos.
Proteger los modelos de IA, los datos y la infraestructura de ataques maliciosos.
Implantar la protección de la privacidad de los datos en las fases de formación, pruebas y operaciones.
Llevar a cabo prácticas de modelado de amenazas y codificación segura en el ciclo de vida de desarrollo de la IA.
Detectar y responder a las amenazas para las aplicaciones y la infraestructura de IA.
Evalúe y decida la madurez de la IA mediante el marco de IBM AI.
En este artículo hemos hablado de mejores
prácticas para proteger la IA de tal manera que posibiliten su uso en
entornos empresariales, pero existe otra dimensión que merece un
artículo independiente: el uso que la IA en ciberseguridad. Esto
contempla tanto conocer el uso que los atacantes están haciendo de la IA
para perpetrar ciberdelitos, como del uso que las organizaciones pueden
hacer de la IA para incrementar sus capacidades de ciberdefensa, así
como mejorar la eficiencia y la productividad del activo más preciado y
escaso hoy en día: los profesionales en ciberseguridad.