Lo que Nadie Quiere Revisar en la Junta Directiva
Hay una conversación que todavía no está ocurriendo con suficiente seriedad en la mayoría de las empresas de la región: qué pasa exactamente con los datos cuando alguien del equipo los pega en una herramienta de IA que nadie aprobó formalmente.
No es una pregunta técnica. Es una pregunta de gobierno corporativo. Y la respuesta, en la mayoría de los casos, es que nadie lo sabe con certeza.
Ese es el punto de partida real de la conversación sobre seguridad en IA empresarial. No los algoritmos, no la infraestructura de modelos, no los GPU. El punto de partida es saber qué está pasando dentro de la propia organización.
El Shadow AI: el problema que ya existe
El término Shadow AI se refiere al uso de herramientas de inteligencia artificial dentro de una empresa sin la aprobación ni el conocimiento del área de TI o de seguridad. No es nuevo como concepto —el Shadow IT lleva años en el vocabulario de los CISOs— pero la IA le da una dimensión distinta.
Con las aplicaciones en la nube de generaciones anteriores, el problema era que los datos entraban a un almacenamiento externo no controlado. Con las herramientas de IA, los datos pueden usarse para entrenar modelos, pueden almacenarse en servidores de terceros en jurisdicciones distintas, y pueden eventualmente aparecer en las respuestas que esa misma herramienta genera para otros usuarios.
La magnitud del fenómeno ya está documentada. Según el Microsoft Work Trend Index 2025, el 71% de los trabajadores usa herramientas de IA que no han sido aprobadas formalmente por su empresa. Un estudio de la National Cybersecurity Alliance y CybSafe encontró que el 43% de los empleados ha compartido información sensible con herramientas de IA sin permiso de su organización. Y según IBM, el 33% ha compartido investigaciones o datasets empresariales, el 27% ha ingresado datos de empleados como salarios o evaluaciones, y el 23% ha introducido información financiera confidencial.
Más del 58% de esos empleados lo hace a través de versiones gratuitas de las herramientas, donde los términos de servicio frecuentemente contemplan el uso de los datos para mejorar el modelo. El costo no es la suscripción. El costo es la información.
Lo que esto implica en términos de riesgo
La consecuencia más directa es el riesgo de fuga de información. Datos confidenciales de clientes, estrategias comerciales, información financiera, código fuente propietario — todo eso puede terminar en sistemas externos que la empresa no controla y que no puede auditar.
Pero hay consecuencias más complejas. Según el IBM Cost of Data Breach Report 2025, las brechas de seguridad vinculadas a Shadow AI tienen un costo promedio $650,000 dólares más alto que las brechas estándar. Y 1 de cada 5 organizaciones ya ha experimentado un incidente de seguridad relacionado con el uso no controlado de IA.
El riesgo regulatorio también es relevante, especialmente en América Latina. La LGPD en Brasil, la Ley Federal de Protección de Datos en México, y otras legislaciones nacionales de protección de datos tienen requisitos específicos sobre cómo se procesa y almacena información personal y corporativa. El uso de herramientas de IA externas sin control puede constituir una violación de estas normativas, con consecuencias que van desde multas hasta pérdida de clientes y reputación.
Hay otro dato que merece atención: según Gartner, el 69% de los presidentes y ejecutivos de nivel C priorizan la velocidad por encima de la privacidad de los datos cuando adoptan nuevas herramientas de IA. Eso significa que la cultura del riesgo empieza, con frecuencia, desde arriba.
Por qué ocurre y por qué es difícil de resolver
La razón más común por la que los empleados usan herramientas de IA no aprobadas es simple: quieren hacer su trabajo mejor y más rápido, y las herramientas disponibles funcionan. No hay intención maliciosa. Hay una brecha entre lo que la organización ofrece y lo que las personas necesitan para operar con eficiencia.
El problema se agrava porque el 63% de las organizaciones no tiene un marco formal de gobernanza de IA (IBM / Gallup, 2025), y solo el 22% ha comunicado un plan claro de integración de IA a sus empleados. Cuando no hay política, la gente define la suya propia. Eso es completamente predecible.
Prohibir el uso de herramientas de IA no resuelve el problema. Solo lo hace invisible. Los empleados seguirán usando las herramientas que les son útiles; simplemente lo harán con más discreción. Lo que cambia con la prohibición es que la organización pierde cualquier posibilidad de gobernar ese uso.
La solución más efectiva es la que combina habilitación con control: proveer herramientas de IA aprobadas y seguras, establecer políticas claras sobre qué datos pueden procesarse y cuáles no, implementar controles técnicos que sean prácticos, y crear una cultura donde reportar el uso de herramientas no aprobadas sea parte normal del proceso, no algo que se hace con miedo.
Los controles que sí funcionan
No voy a pretender que gestionar el riesgo de IA es sencillo, porque no lo es. Pero hay un conjunto de prácticas que, bien implementadas, reducen significativamente la exposición.
Lo primero es visibilidad. Si no sabes qué herramientas de IA están usando tus equipos, no puedes gestionar el riesgo. Herramientas de descubrimiento de aplicaciones SaaS, monitoreo de tráfico de red y soluciones de Data Loss Prevention (DLP) pueden darte esa visibilidad. Según el reporte de Reco 2025, el 86% de las organizaciones actualmente carece de esa visibilidad. Es el punto de partida.
Lo segundo es tener una lista de herramientas aprobadas, con criterios claros de evaluación: dónde se procesan los datos, si se usan para entrenar modelos, qué garantías de privacidad y seguridad ofrece el proveedor, si cumple con las regulaciones aplicables. Esa lista debe ser práctica y actualizarse con cierta regularidad, porque el mercado de herramientas de IA cambia muy rápido.
Lo tercero es clasificar los datos. No toda la información que maneja una organización tiene el mismo nivel de sensibilidad. Definir qué puede procesarse con herramientas de IA externas, qué requiere herramientas con garantías específicas y qué debe quedarse exclusivamente en sistemas internos es un ejercicio de clasificación que muchas organizaciones no han hecho de forma sistemática.
Y lo cuarto —que suele subestimarse— es la capacitación. Muchos empleados no son conscientes de los riesgos que toman cuando usan herramientas de IA sin orientación. Una capacitación específica y práctica, que explique con ejemplos concretos qué está en juego, cambia comportamientos de manera más efectiva que cualquier política escrita que nadie lee.
El marco que hace todo esto sostenible
La gestión del riesgo de IA no es un proyecto de TI. Es una responsabilidad de la organización entera, que empieza en el nivel directivo y se implementa en cada área funcional.
Las empresas que están gestionando esto mejor no lo hacen porque tengan más presupuesto. Lo hacen porque tienen claridad sobre qué quieren proteger, han definido reglas que sus equipos pueden seguir en la práctica, y entienden que el objetivo no es bloquear la innovación sino encauzarla de forma que no genere riesgos innecesarios.
La IA va a seguir expandiéndose en las organizaciones, con o sin política. La pregunta es si esa expansión va a ocurrir de manera controlada, con criterio y con los controles adecuados, o si va a seguir siendo el tipo de adopción silenciosa e individual que ya está generando incidentes reales en empresas que todavía no saben que los tuvieron.
Vale la pena elegir la primera opción antes de que la segunda se vuelva urgente.
Andrés Lozada
Executive Director, SUMāTO Group