La IA que usás sin protocolo: el riesgo que tu empresa ya está corriendo

Le pegás contratos, datos de clientes y números a ChatGPT todos los días. Parece inofensivo. No lo es.

La IA que usás sin protocolo: el riesgo que tu empresa ya está corriendo

Lo que le puede pasar a tu empresa — ahora, en concreto

No es ciencia ficción ni teoría de conspiraciones. Es lo que ya está pasando.

En 2023, ingenieros de Samsung filtraron código fuente confidencial al pegar fragmentos directamente en ChatGPT. El incidente obligó a la empresa a prohibir el uso de herramientas de IA externas en sus redes corporativas. Samsung no es una PyME. Pero el comportamiento que lo causó — copiar y pegar información sensible en una herramienta gratuita de terceros — es exactamente lo que hace tu equipo todos los días.

La diferencia es que Samsung lo detectó. La mayoría de las PyMEs no saben que tienen ese problema.

¿Cuál es el riesgo concreto?

Cuando tu equipo usa ChatGPT, Copilot, Gemini u otras herramientas de IA gratuitas o en sus planes básicos para procesar información de la empresa, esa información puede ser usada para entrenar los modelos. Puede quedar almacenada en servidores de terceros en el exterior. Puede ser accedida por empleados de esas empresas para revisión de calidad. Y puede ser expuesta en caso de una brecha de seguridad en esos servicios.

No es una posibilidad remota. Según reportes de Netskope de 2025, el 98% de las organizaciones usan aplicaciones de IA generativa que tienen funciones que entrenan sus modelos con los datos de los usuarios. Y el tipo de dato más frecuentemente subido a estas herramientas son datos regulados — información de salud, datos financieros, credenciales, información de clientes. No el tráfico total de la empresa: el tráfico que ya llega a esas herramientas. Contratos, datos de clientes, balances, cotizaciones, estrategias comerciales.

Y la mayoría de quienes lo hacen no lo saben. O lo saben y asumen que "total, nadie va a mirar".

El uso que nadie registra

Hacé este ejercicio: preguntale a tu equipo quién usa herramientas de IA para el trabajo. Probablemente levanten la mano la mitad. Ahora preguntá qué información le pasan. Ahí empieza el problema real.

Las formas más comunes en que las PyMEs exponen datos sin darse cuenta:

"Le pasé el contrato para que lo resumiera" El contrato tiene nombre del cliente, montos, condiciones, cláusulas de confidencialidad. Ese contenido acaba de salir de tu empresa.

"Le pedí que me ayude a hacer la respuesta al reclamo" La queja del cliente tiene su nombre, número de pedido, historial de compras, datos de contacto. Todo eso también salió.

"Le pedí que analice esta planilla de ventas" Ventas por cliente, márgenes, descuentos aplicados, proyecciones. Información estratégica que no debería conocer nadie fuera de tu empresa.

"Le pedí que revise el correo antes de mandarlo" El correo tenía el nombre del proveedor, las condiciones que estabas negociando y tu posición. Ahora esa información está en un servidor externo.

Esto tiene nombre en la industria: shadow AI. El uso de herramientas de inteligencia artificial por parte del equipo sin conocimiento ni control de la organización. Según el Verizon DBIR 2025, el 15% de los empleados ya usa herramientas de IA en dispositivos laborales sin ningún tipo de regulación, frecuentemente con credenciales corporativas. Y según IBM, el 83% de las organizaciones no tiene controles básicos sobre qué herramientas de IA usa su personal.

Nadie hace esto con mala intención. Lo hacen porque la herramienta es útil, porque ahorra tiempo, y porque nadie les dijo que no podían. Eso es exactamente el problema.

¿Qué hacer?

La respuesta no es "prohibir todo" y volver a trabajar como en 2015. Eso es lo que hace que la situación no cambie: la gente igual lo usa, solo que sin decírtelo.

La IA es una herramienta genuinamente útil. El problema no es usarla: es usarla sin saber qué datos le estás entregando y a quién.

Hay pasos concretos y accesibles:

1. Inventariar qué herramientas usa tu equipo y para qué. No para prohibirlas, sino para entender el riesgo real. Muchas veces el 80% del uso es perfectamente legítimo y el 20% es el que genera exposición.

2. Entender las condiciones de las herramientas que usás. ChatGPT en su plan gratuito y básico puede usar tus conversaciones para mejorar el modelo. El plan Teams o Enterprise tiene condiciones distintas. Microsoft 365 Copilot procesa todo dentro de tu tenant de Azure, sin enviarlo al modelo general. La diferencia no es menor: es la diferencia entre que tu información salga o se quede adentro.

3. Definir una política simple de uso. No hace falta un documento de 40 páginas. Alcanza con tres reglas claras: qué tipo de información no se le pasa a herramientas externas, qué herramientas están aprobadas para qué usos, y qué hacer cuando no estás seguro. Una política que el equipo entiende y aplica vale más que una que nadie lee.

4. Evaluar soluciones que no impliquen exponer datos. Existen opciones de IA que se pueden desplegar dentro de tu infraestructura, que procesan la información localmente, o que tienen contratos corporativos con garantías de privacidad. Muchas son más accesibles de lo que parecen.

En 40 minutos revisamos qué herramientas usa tu equipo, qué datos está exponiendo sin saberlo, y qué opciones concretas tenés para seguir ganando productividad sin perder control sobre tu información.

→ SOLICITAR CONSULTA GRATUITA

Para entender por qué

El error de confundir "gratis" con "sin costo"

Las herramientas de IA gratuitas no son gratuitas. Tienen un modelo de negocio, y en muchos casos parte de ese modelo implica usar los datos de los usuarios para mejorar el producto.

Esto no es un escándalo ni una conspiración. Es la economía básica de estos servicios. El problema es que la mayoría de los usuarios no leen los términos de servicio, y los que sí los leen no siempre entienden las implicancias prácticas.

Los términos de OpenAI para el plan gratuito de ChatGPT permiten usar las conversaciones para entrenar los modelos, salvo que el usuario lo desactive explícitamente. Muchos usuarios no saben que esa opción existe. Muchos que la conocen no la desactivaron. Y en contexto empresarial, no alcanza con que lo desactive uno: tiene que desactivarlo cada persona en cada dispositivo, o tiene que usarse una solución con condiciones corporativas distintas.

El problema de la IA como "empleado fantasma"

Hay otro riesgo que suele pasarse por alto: la IA genera una falsa sensación de control.

Cuando le pedís a un empleado que redacte un contrato, sabés quién lo hizo, podés revisarlo, podés pedirle que lo corrija. Cuando se lo pedís a una IA y lo aceptás sin revisión, asumís una responsabilidad que quizás no es evidente: si el contrato tiene un error, una cláusula ambigua, o una omisión importante, esa responsabilidad es tuya.

Las herramientas de IA alucinan. No con frecuencia, pero lo hacen. Y cuando alucinan en un contexto de bajo riesgo, el costo es mínimo. Cuando alucinan en un contrato, en una respuesta legal a un cliente, o en un análisis financiero que usás para tomar decisiones, el costo puede ser significativo.

La IA es una herramienta de apoyo muy potente. No es un sistema de verificación independiente. La diferencia importa.

La regulación que ya existe — y la que viene

En Argentina, la Ley 25.326 de Protección de Datos Personales establece obligaciones sobre cómo se tratan los datos de personas físicas. Si tu empresa procesa datos de clientes, empleados o proveedores — y casi todas las empresas lo hacen — tenés obligaciones sobre cómo esos datos se almacenan, transfieren y procesan.

Enviar datos personales a servidores en el exterior a través de herramientas de IA sin contar con las protecciones adecuadas puede implicar una transferencia internacional de datos no autorizada. Las sanciones van desde apercibimientos hasta multas, y en casos de daño a terceros, pueden abrir responsabilidad civil.

Además, la tendencia global va hacia más regulación, no hacia menos. La Unión Europea ya tiene el AI Act, con obligaciones específicas sobre sistemas de IA de alto riesgo. Argentina está trabajando en regulación similar. Las empresas que hoy construyan prácticas de uso responsable van a tener mucho menos trabajo de adaptación cuando llegue la regulación. Las que no, van a tener que hacerlo de apuro y con costos más altos.

El riesgo que viene de adentro

El error humano sigue siendo el vector de entrada más frecuente. Según IBM en su Cost of a Data Breach Report 2025, el 26% de las brechas de datos tienen como causa directa un error humano — y eso sin contar el phishing, que representa otro 16% por separado. Verizon, en su DBIR 2025, confirma que los errores humanos persisten como uno de los vectores principales de incidentes, junto con el crecimiento del ransomware.

La IA amplifica este riesgo de dos formas:

Primero, porque baja la fricción para compartir información. Antes, enviar datos sensibles a un sistema externo requería cierto esfuerzo. Hoy es copiar, pegar, enter.

Segundo, porque los atacantes también usan IA. El Verizon DBIR 2025 documenta que la IA generativa está duplicando el volumen de emails sintéticos persuasivos — correos de phishing que se distinguen cada vez menos de una comunicación legítima. Según el mismo reporte, el tiempo mediano entre que un usuario recibe un correo de phishing y hace clic en el enlace malicioso es de apenas 21 segundos. Las llamadas de voz deepfake de "tu proveedor de confianza" pidiendo transferencias urgentes ya no son casos aislados. Los ataques de ingeniería social son más sofisticados, más personalizados y más difíciles de detectar que antes.

Y hay un costo concreto asociado a no tener controles. IBM estima que las organizaciones sin controles básicos sobre herramientas de IA enfrentan un costo adicional promedio de U$S 670.000 por incidente respecto a las que sí los tienen — sobre un costo base global que ya ronda los U$S 4,44 millones.

Un equipo que no tiene entrenamiento ni políticas claras en estas amenazas es un vector de entrada. No por malicia: por desconocimiento.

El dilema real de las PyMEs con la IA

La mayoría de las PyMEs están atrapadas entre dos errores opuestos: o usan la IA sin ningún criterio y exponen datos que no deberían, o la prohíben por completo y pierden productividad real que sus competidores están aprovechando.

Ninguna de las dos opciones es inteligente. Hay un punto medio que es perfectamente alcanzable: usar las herramientas de IA que realmente suman, con las condiciones adecuadas, para los casos de uso correctos, con el equipo informado sobre qué puede y qué no puede hacer.

Eso no requiere un departamento de IT de veinte personas. Requiere un diagnóstico honesto de la situación actual y un plan concreto.


¿Sabés exactamente qué herramientas de IA usa tu equipo hoy, qué información les pasan, y qué condiciones de privacidad tienen esas herramientas? Si la respuesta no es un "sí" claro, el primer paso es entender el panorama.

→ SOLICITAR CONSULTA GRATUITA


Fuentes

¹ Bloomberg / The Verge / TechCrunch (2023) — Filtración de código fuente de Samsung a través de ChatGPT. Ingenieros de la división de semiconductores compartieron código fuente y notas de reuniones internas, lo que derivó en la prohibición corporativa del uso de IA generativa externa en Samsung.

² Netskope Threat Labs — Reportes sectoriales 2025 — El 98% de las organizaciones utilizan aplicaciones de IA generativa con funciones que entrenan modelos con datos de los usuarios. Los datos regulados son el tipo de información más frecuentemente subida a estas herramientas. netskope.com

³ OpenAI — Política de Privacidad y Términos de Servicio (actualizaciones 2025) — En planes gratuitos y no Enterprise, las conversaciones pueden usarse para mejorar los modelos salvo opt-out explícito. Los planes Enterprise y Team tienen condiciones distintas que excluyen el uso de datos para entrenamiento. openai.com/policies/privacy-policy

OWASP — Top 10 LLM Application Security Risks (2025) — Lista de los principales riesgos de seguridad en aplicaciones que usan modelos de lenguaje, incluyendo inyección de prompts, exposición de datos sensibles y dependencia excesiva. owasp.org/www-project-top-10-for-large-language-model-applications

Ley 25.326 de Protección de Datos Personales (Argentina) — Marco regulatorio vigente sobre tratamiento y transferencia internacional de datos personales. Decreto reglamentario 1558/2001.

Reglamento de Inteligencia Artificial de la Unión Europea — AI Act (en vigor desde agosto 2024) — Primera regulación integral sobre IA a nivel mundial, con obligaciones sobre sistemas de alto riesgo, transparencia y trazabilidad.

Verizon — Data Breach Investigations Report 2025 — Los errores humanos persisten como vector principal de incidentes. La IA generativa duplica el volumen de emails sintéticos persuasivos (phishing). El 15% de los empleados usa herramientas de IA en dispositivos laborales sin regulación, frecuentemente con credenciales corporativas. Tiempo mediano de clic en phishing: 21 segundos. verizon.com/business/resources/reports/dbir

IBM — Cost of a Data Breach Report 2025 — El error humano causa directamente el 26% de las brechas; el phishing inicia el 16%. El 83% de las organizaciones no cuenta con controles básicos sobre herramientas de IA. Las organizaciones sin dichos controles enfrentan un costo adicional promedio de US670.000porincidente.Costopromedioglobaldeunabrecha:US 670.000 por incidente. Costo promedio global de una brecha: U S670.000porincidente.Costopromedioglobaldeunabrecha:US 4,44 millones. ibm.com/reports/data-breach

¿Te gustó este artículo?

Si tenés dudas específicas sobre tu situación tecnológica, podemos ayudarte. Agendá una consulta gratuita de 40 minutos y analizamos tu caso particular.

SOLICITAR CONSULTA GRATUITA

Otros artículos que te pueden interesar

Utilizamos cookies

Utilizamos cookies para asegurarnos de que obtengas la mejor experiencia en nuestro sitio web. Para obtener más información sobre cómo utilizamos las cookies, consulta nuestra política de cookies.

Al hacer click en "Aceptar", aceptas nuestro uso de cookies.
Más información.