Riegos cotidianos en el uso descontrolado de IA

Riegos cotidianos en el uso descontrolado de IA

Riegos cotidianos en el uso descontrolado de IA

Planificás un viaje o estás decidiendo la compra de un lavarropas. O trjiste trabajo a casa y tenés que revisar una montaña de reportes con urgencia, sin tiempo ni ganas.

Solución: IA. Y para obtener mejores y más precisos resultados le das al bot toda la información necesaria y acceso a todos los archivos que hagan falta para que te facilite la tarea…



Y si en tu casa funcionó a las mil maravillas… porqué no hacerlo en la oficina también? Y si el soporte técnico o el departamento de sistemas te da vueltas y pone trabas, lo hacés por las tuyas… que al fin de cuentas no es tan complicado.

Pero… te preguntaste adónde va a parar toda esa info, datos y archivos que le estás regalando a la IA?

Así, a medida que algunos se fueron haciendo esa pregunta que vos no te hiciste, nace un nuevo problema que atender, bautizado y todo: shadow IA, que es el uso no autorizado de agentes de IA en entonrnos laborales.



Shadow AI: qué es, riesgos y cómo prevenirlo

Un “shadow AI” es el uso de herramientas de inteligencia artificial dentro de una organización sin autorización ni supervisión oficial, similar al fenómeno del “shadow IT”. Esto implica que agentes de IA pueden procesar datos sensibles sin control, generando riesgos legales, de seguridad y reputacionales.

🧩 Qué es un Shadow AI

El término shadow AI describe el uso de modelos o agentes de inteligencia artificial por parte de empleados o áreas sin aprobación del departamento de IT o compliance.

  • Ejemplo típico: subir balances contables a un chatbot público para obtener un resumen rápido.
  • Comparativa con Shadow IT: mientras el shadow IT se refiere a software o servicios instalados sin autorización (ej. Dropbox, Google Drive, VPNs gratuitas, conversores de archivos), el shadow AI implica procesamiento de datos por modelos de IA fuera del control corporativo. Proofpoint

⚙️ Cómo puede un agente de IA procesar datos sin autorización

  1. Integración directa con aplicaciones: plugins de IA en Excel o CRM que acceden a bases de clientes.
  2. Servicios cloud externos: chatbots públicos que almacenan documentos internos.
  3. Automatizaciones locales: scripts que analizan correos o carpetas compartidas.
  4. IA integrada en SaaS: suites de oficina online que activan IA por defecto. Revista Jurídica Online

🔐 Riesgos documentados

Según el Netwrix Cybersecurity Trends Report 2025, el 37% de las organizaciones ya ajustaron sus estrategias de seguridad por amenazas de IA, y el 30% aún no implementó controles. Netwrix
Estadísticas extrañas… hay un 33% del que no sabemos nada?

Principales riesgos:



  • Cumplimiento normativo: violación de leyes de protección de datos (ej. Ley 25.326 en Argentina, GDPR en Europa).
  • Seguridad: fuga de credenciales, balances y datos personales e información sensible de la empresa.
  • Reputación: decisiones erróneas tomadas por IA no supervisada.
  • Costos ocultos: consumo de recursos cloud sin control.

📚 Casos documentados

  • Empresas financieras en España (2026): empleados usaron IA generativa para redactar informes, exponiendo datos sensibles. Revista Jurídica Online
  • Organizaciones globales (2025): reportes en foros de seguridad muestran que chatbots públicos fueron usados para procesar información confidencial, generando incidentes de fuga de datos. Netwrix

🧮 Ventajas y desventajas

AspectoShadow AIIA autorizada
AgilidadAlta (rápida adopción)Moderada (requiere aprobación)
RiesgoElevado (sin control)Bajo (con políticas)
CostosOcultosPlanificados
InnovaciónEspontáneaEstratégica

🧯 Precauciones y requisitos previos

  • Inventario de agentes de IA: mapear qué modelos se usan.
  • Políticas de gobernanza: definir qué datos pueden procesar.
  • Herramientas de detección: soluciones como Veeam Agent Commander permiten identificar y revertir acciones de IA no autorizada.
  • Capacitación: explicar a usuarios los riesgos de subir información sensible a servicios externos.

🧠 Ejemplos que ya han sucedido.

Un estudio contable en Buenos Aires:

  • Un empleado usa ChatGPT para resumir balances.
  • El sistema guarda datos en servidores externos.
  • El área de compliance detecta la fuga y debe reportarla.
  • El estudio enfrenta ahora posibles sanciones de BCRA y AAIP.
  • Con la implementación de políticas claras sobre el uso de IA, se hubiese prevenido el problema.
  • En esos casos debe usarse un modelo interno con datos anonimizados.

En una empresa de desarrollos electromecánicos en Pilar, Buenos Aires:

  • Un supervisor de planta decidió utilizar un plugin de IA en Excel para realizar más eficientemente la revisión procesos productivos.
  • Las planillas contenían detalles de partes, tareas de manufactura y costos operativos.
  • Esa información interna de la empresa que debió mantenerse protegida está ahora almacenada en los archivos de datos del proveedor de IA, disponible en su base de datos para que los utilice como fuente en respuestas y soluciones a terceros ajenos a la empresa que consumen el mismo servicio.
  • De hecho, detectaron el incidente porque desde otra área de la empresa notaron que ChatGPT de pronto respondía ciertas consultas con ejemplos que coincidían llamativamente con información interna y referencias muy puntuales a procesos que se no se suponía que debieran conocerse fuera de la compañía.

🔗 Conclusión

El shadow AI es un riesgo silencioso que puede comprometer la seguridad y legalidad de las organizaciones. La clave está en detectar, proteger y gobernar el uso de IA, evitando que agentes procesen datos sin autorización y replicando buenas prácticas de seguridad digital.

Claude, ChatGPT, Copilot, Gemini, Grok, Meta… todos en algún momento advierten que de una u otra forma podrían usar la info que les dás más o menos como les de la gana.
No lo dicen con estas palabras, claro, pero…

  • OpenAI (ChatGPT)
  • Informa en sus términos que las conversaciones pueden ser usadas para mejorar el servicio, salvo en planes empresariales con acuerdos de privacidad explícitos.
  • Advierte que no se deben ingresar datos sensibles (ej. números de tarjeta, información médica).
  • Google (Gemini)
  • Indica que los datos pueden ser procesados para mejorar modelos, aunque en cuentas corporativas se ofrecen controles adicionales.
  • Advierte sobre el riesgo de subir información confidencial a servicios cloud sin políticas de seguridad.
  • Anthropic (Claude)
  • Enfatiza la seguridad y advierte explícitamente que no se deben compartir datos personales o financieros.
  • Informa que tanto el código generado cómo el código propio del programador sobre el que deba trabajar, irá a alimentar su base datos y puede disponer de el como le convenga.
  • Ofrece configuraciones para limitar el uso de datos en entornos empresariales.
  • Microsoft (Copilot)
  • Integra políticas de privacidad corporativas: dice que los datos de clientes empresariales no se usan para entrenar modelos.
  • Advierte en la interfaz y documentación que el usuario debe evitar subir información sensible si no está en un entorno seguro.
  • Otros motores (Perplexity, Grok, DeepSeek, Llama 3, Mistral)
  • Generalmente incluyen advertencias en sus términos de uso, pero la claridad varía.
  • En algunos foros técnicos se documenta que ciertos modelos open source no advierten en la interfaz, dejando la responsabilidad al administrador.

Los motores de IA sí advierten, pero la efectividad depende de cómo se comunican esas advertencias y de si el usuario las respeta y si la IA las cumple. En entornos corporativos, la clave es implementar políticas de control y herramientas de detección para evitar que agentes de IA procesen datos sin autorización.

A estas alturas, que aparezca Terminator y te corra a escopetazos ya no parece tan grave: al menos podríamos verlo y sabemos de qué se trata.

Salute!

Gracias por compartir!