Jaime Desviat

Jaime Desviat

Cybersecurity Analyst

Más allá del hype: cómo implementar IA sin comprometer tus datos

La IA generativa está transformando la manera en que operan las empresas: acelera la creación de contenido, automatiza flujos de trabajo y desbloquea nuevos niveles de productividad. Pero detrás de la emoción se esconde una dura verdad: cuando hablamos de datos, nada es gratis. Cada interacción con IA conlleva costes potenciales en forma de exposición de datos, riesgo de cumplimiento normativo o uso indebido.

En este episodio del podcast Cloud Maturity, hablo con Javier Mora, Director de Información y Seguridad de Making Science, sobre cómo las organizaciones pueden adoptar la IA de manera responsable, asegurando que la innovación no vaya en detrimento de la seguridad. Juntos exploramos lo que se necesita para escalar la IA en todos los equipos, sin comprometer la información sensible ni las obligaciones legales.

La IA ofrece beneficios extraordinarios, pero no está exenta de riesgos. Según Gartner, el 30% de las organizaciones que utilizan IA generativa experimentarán brechas de privacidad para 2026 debido a una implementación inadecuada o al uso indebido por parte de los empleados.

Este episodio trata de algo más que oportunidades: se trata de construir una hoja de ruta para la adopción segura, ética y sostenible de la IA.

🌍 Una visión global: El trimestre de transformación y programa de adopción de IA

En Making Science, creemos que la IA no es algo que deba delegarse a unos pocos expertos: es una capacidad fundamental para cada empleado. Por eso lanzamos el Trimestre de Transformación de IA y el Programa de Adopción de IA, dos iniciativas globales diseñadas para:

  • Democratizar el acceso a las herramientas de IA para cada puesto y región
  • Construir experiencia práctica en todos los equipos, desde marketing hasta ingeniería
  • Pasar del uso pasivo al dominio activo e incluso a la creación de herramientas de IA

No solo usamos la IA, la dominamos y construimos con ella. Estos programas globales proporcionan la estructura y el apoyo para convertir esa filosofía en realidad, alineando la acción local con la transformación estratégica a escala.

La guía de licencias de IA: Un marco para el uso responsable

Para hacer que la adopción de IA sea segura y efectiva, Making Science desarrolló la Guía de Licencias de IA, un marco práctico y dinámico que proporciona a los empleados una comprensión clara de qué herramientas se pueden usar, cómo deben usarse y qué datos es seguro procesar.

Esta guía ayuda a los equipos a:

  • Distinguir entre herramientas de IA aprobadas y no aprobadas
  • Manejar datos personales y propietarios con el enmascaramiento o anonimización apropiados
  • Interpretar los resultados de la IA de manera crítica en lugar de tomarlos al pie de la letra
  • Aplicar la IA de manera responsable en sus tareas diarias, sabiendo dónde existen las barreras de protección

La Guía de Licencias de IA es pieza fundamental para construir una cultura de IA segura y empoderada en todos los equipos.

El riesgo de la IA es más que solo técnico

Javier explica que uno de los desafíos más subestimados con la IA es su complejidad legal y operativa. Los empleados pueden introducir sin saberlo datos confidenciales de clientes o código propietario en modelos públicos, desencadenando violaciones de cumplimiento bajo el RGPD o filtraciones de propiedad intelectual.

Por eso nuestro equipo trabaja para aumentar la concienciación, implementar controles y actualizar continuamente los controles internos para mitigar estos riesgos en cada capa del negocio.

Una estrategia escalable para la IA responsable

Para asegurar que la adopción de IA ocurra de manera segura en toda la empresa, Making Science ha lanzado varios programas clave:

  • AI Champions: Un grupo multifuncional de más de 60 empleados que impulsan la educación, experimentación y promoción de la IA dentro de sus departamentos.
  • Doctor AI: Una sesión de mesa de ayuda semanal donde los empleados pueden traer preguntas, obtener apoyo práctico y mantenerse al día con las mejores prácticas de IA.
  • AI Lab: Un espacio de testing interno para destacar aplicaciones prácticas y cotidianas de la IA para optimizar flujos de trabajo.

Estos programas aseguran que la IA no sea solo otra iniciativa de IT, sino una parte viva y de aprendizaje de la cultura de la empresa.

Google Agentspace: La plataforma para flujos de trabajo conectados e inteligentes

En Making Science, estamos orgullosos de ser la primera empresa en Iberia en adoptar Google Agentspace, una plataforma potente que está remodelando cómo los equipos interactúan con los datos, las herramientas y entre ellos.

Google Agentspace permite crear Agentes de IA personalizados que:

  • Automatizan tareas repetitivas como la generación de informes, el enrutamiento de tickets y las búsquedas de datos
  • Conectan múltiples aplicaciones corporativas, desde CRMs hasta herramientas de gestión de proyectos, en una interfaz única y unificada
  • Permiten consultas en lenguaje natural, para que los empleados puedan extraer información o desencadenar acciones sin necesidad de experiencia técnica
  • Promueven la colaboración multifuncional haciendo que la información clave sea más fácil de encontrar y compartir
  • Impulsan la retención y reutilización del conocimiento a través del acceso centralizado a procesos, documentación y soporte de IA

El resultado es una fuerza laboral más ágil y empoderada. Los equipos pueden pasar menos tiempo alternando entre plataformas o duplicando esfuerzos, y más tiempo tomando decisiones informadas y estratégicas.

Lo más importante es que todo esto se hace dentro de un entorno seguro y gobernado, asegurando que la eficiencia nunca vaya en detrimento de la privacidad o el cumplimiento normativo.

Shadow IT y la necesidad de gobernanza

Uno de los riesgos clave que discutimos es el Shadow IT: cuando los empleados usan herramientas de IA no autorizadas que no han pasado por la evaluación interna. Aunque estas herramientas pueden ser útiles, también pueden ser inseguras, no conformes y completamente invisibles para vuestros equipos de IT o seguridad.

En Making Science, nuestra estrategia no es restringir la curiosidad, sino canalizarla de manera segura. Las nuevas herramientas se evalúan a través del prisma de la seguridad y la privacidad antes de su aprobación, permitiendo a los empleados explorar la innovación dentro de un entorno gobernado.

Un futuro centrado en las personas para la IA

La IA no reemplazará a vuestro equipo, lo elevará. Pero solo si están formados para colaborar con ella de manera efectiva. A medida que la IA se integre en más flujos de trabajo, los empleados tendrán la tarea no solo de ejecutar, sino de validar, interpretar y aplicar los resultados de la IA para tomar decisiones más inteligentes.

En Making Science, creemos que los mejores resultados provienen de personas empoderadas trabajando junto a herramientas potentes, dentro de una estructura que apoya tanto la innovación como la integridad.

«No se trata de elegir entre innovación y seguridad», compartió Javier. «Se trata de construir el entorno donde ambas prosperen».

Escucha el episodio completo

Si estás liderando la estrategia de IA, gestionando riesgos, o tienes curiosidad sobre cómo escalar la IA generativa en vuestra organización sin perder el control de vuestros datos, esta conversación es para ti.