En un contexto donde la Inteligencia Artificial generativa está acelerando los procesos de transformación empresarial, el concepto de innovación abierta ha emergido como un elemento clave para garantizar que esta tecnología evolucione de forma segura, transparente y efectiva.
Durante una mesa redonda celebrada en la edición 2024 de Madrid Tech Show en IFEMA (Madrid), Emilio Arbona, Senior Technology Partner Specialist de IBM; Pilar Liñán, Data & AI Sales Leader de Seidor; y Nuria Sánchez Almodóvar, Generative AI Practice Leader Iberia & Latam de Inetum, debatieron cómo este enfoque colaborativo está moldeando el futuro de la IA generativa.
La idea central es clara: abrir la innovación, compartir conocimiento y colaborar de manera transversal permite resolver los desafíos más complejos del desarrollo de la IA, como la necesidad de transparencia de los modelos, su seguridad y el acceso equitativo a los avances tecnológicos.
Transparencia y seguridad
Uno de los mayores retos al que se enfrenta la IA generativa tiene que ver con la transparencia, pues muchas veces los modelos de lenguaje (LLM y SLM) son sistemas cerrados que impiden a los usuarios entender cómo funcionan los algoritmos y qué decisiones toman.
En este sentido, Emilio Arbona subrayó que la metodología abierta utilizada en watsonx, la plataforma de IA y Datos de IBM, no sólo incrementa la transparencia, sino que permite a las organizaciones gestionar sus modelos de IA de forma interna, eliminando el miedo a depender de proveedores externos, y controlar todo su ciclo de vida. «Nuestra plataforma watsonx está diseñada para cubrir todo el ciclo de vida de la IA, desde la preparación y curado de los datos al desarrollo de modelos y su despliegue, permitiendo además el gobierno y monitorización de la IA”, explicó. “El diferencial de watsonx además es que puede utilizarse en cloud, pero también on premise, algo muy relevante para empresas de sectores como el Público o Defensa y para cuando quieres evitar riesgos de datos sensibles de clientes”.
Desde Inetum, Nuria Sánchez Almodóvar destacó la importancia de su enfoque híbrido basado en «cajas blancas», que permiten la validación y supervisión de los sistemas opacos o de «caja negra». «La innovación abierta asegura que tengamos mecanismos para supervisar la IA, generando confianza tanto en su funcionamiento como en su seguridad«, señaló. Inetum, sobre la base de su plataforma unificada de GenAI, está desarrollando soluciones como CHEW, que automatiza la resolución de incidencias utilizando un modelo de caja blanca para identificar las características más importantes de los datos y luego alimentar esas características en un modelo de caja negra para hacer predicciones, permitiendo mayor control y transparencia sin sacrificar la precisión del resultado. Este tipo de innovación colaborativa no solo aumenta la seguridad, sino que permite detectar y corregir errores de manera mucho más eficiente.
Motor de desarrollo colaborativo
Otro aspecto central de la innovación abierta es su capacidad para fomentar el desarrollo rápido y colaborativo. Pilar Liñán, de Seidor, señaló que uno de los grandes beneficios de este enfoque es la posibilidad de personalizar modelos de IA generativa para sectores específicos. “En Seidor, apostamos por modelos verticales especializados, ajustados a las necesidades de industrias concretas. Gracias a la innovación abierta, podemos combinar modelos generales con otros más pequeños y especializados de código abierto, lo que garantiza respuestas más precisas y adaptadas a cada caso de uso”. Este enfoque personalizado, señaló, resulta fundamental en sectores que requieren gran precisión, como el legal o el médico, y sería inviable sin una estructura de desarrollo abierta y colaborativa.
Además, Pilar Liñán explicó cómo Seidor ha desarrollado una plataforma de IA generativa, agnóstica a la tecnología, denominada Delfos para personalizar la IA generativa para diferentes industrias. «Delfos nos permite adaptar modelos a las necesidades específicas de nuestros clientes, desde Finanzas hasta Recursos Humanos, y lo hacemos con una base abierta que garantiza flexibilidad, seguridad y eficiencia«.
La única vía para un desarrollo responsable de la IA
Por su parte, Emilio Arbona se refirió a Instruct Lab como la forma en que la comunidad puede impulsar el desarrollo de modelos de lenguaje de forma colaborativa, replicando el éxito de Linux en los sistemas operativos. “La innovación abierta es crucial para sacar el máximo potencial de la comunidad. Contamos con más de 100 millones de desarrolladores a nivel global, trabajando en proyectos de código abierto, lo que da lugar a una potencia de innovación incomparable”. Esta colaboración masiva permite además que los modelos sean más seguros y estén en constante evolución, una ventaja que los sistemas cerrados no pueden ofrecer.
El consenso entre los ponentes fue unánime: el desarrollo responsable de la IA generativa no puede lograrse dentro de un ecosistema cerrado. Emilio Arbona lo resumió de forma clara: «Cerrar los sistemas no detendrá los riesgos ni los malos usos de la IA, al contrario. Lo que necesitamos es mayor transparencia, mayor colaboración y una comunidad global trabajando en conjunto para identificar y mitigar posibles fallos». Como se destacó, un ecosistema abierto permite una mayor visibilidad y auditoría de los riesgos, asegurando que la tecnología beneficie a todos y no profundice las brechas digitales.
La conclusión es clara: solo a través de un enfoque colaborativo, transparente y seguro, impulsado por la innovación abierta, se podrá liberar todo el potencial de la IA generativa y garantizar que esta tecnología, que está llamada a transformar industrias, se desarrolle de manera ética y responsable.