Ayer estaba tomándome un asiático en la Plaza del Ayuntamiento —para los que no sois de Cartagena, es ese café con leche condensada, brandy y un toque de canela que te resucita a un muerto— y no podía evitar escuchar la conversación de la mesa de al lado. Dos chavales, seguramente programadores de alguna de las consultoras que pululan por el centro, se echaban las manos a la cabeza. «¿Pero cómo se le ocurre al jefe meter un bot sin probarlo antes?», decía uno. La respuesta fue un suspiro que se oyó hasta en el Arsenal. Y es que, la verdad, estamos viviendo una fiebre del oro con la Inteligencia Artificial que me recuerda mucho a cuando aquí en España todo el mundo quería montar una inmobiliaria en 2005. Ya sabemos cómo acabó aquello.
Parece que si no dices «IA» tres veces antes de desayunar, tu empresa no es moderna. Pero claro, una cosa es lo que te vende el comercial de turno con su presentación de PowerPoint llena de luces de neón y otra muy distinta es la cruda realidad de una oficina en Murcia, Madrid o Barcelona un martes a las nueve de la mañana. La implementación de la IA en el trabajo está dejando historias que oscilan entre la comedia negra y el terror puro. No es que la tecnología sea mala, es que a veces la usamos como quien le da un Ferrari a un chimpancé.
Esta es un clásico instantáneo. Me llegó hace poco el caso de una empresa de servicios aquí en España (no diré el nombre por aquello de no acabar en los juzgados, pero digamos que venden software de gestión) cuyo CEO se convenció de que los LLM (modelos de lenguaje grandes) eran la panacea. El hombre leyó cuatro artículos mal traducidos y decidió que pagar sueldos a diez personas en atención al cliente era «ineficiente».
¿Qué hizo? Pues lo que cualquier iluminado: contrató una API de OpenAI, le puso un «wrapper» (una capa visual) medio decente y lo soltó a los leones sin apenas entrenamiento previo. El resultado fue un desastre de proporciones bíblicas. El bot, en su afán por ser amable y servicial —porque ya sabéis que a estas IAs les cuesta decir que no—, empezó a prometer descuentos del 90% a clientes que solo preguntaban por el horario de oficina.
Vaya, que en menos de 48 horas, la empresa tenía una cola de reclamaciones legales porque el «asistente inteligente» había aceptado condiciones contractuales que no existían. La conclusión que saco de todo esto es que la IA no tiene sentido común. Si un cliente le dice: «Oye, que si no me arreglas esto gratis me voy a la competencia», un humano sabe negociar. La IA, si no está bien configurada, simplemente dice: «¡Claro que sí! Aquí tienes tu servicio gratuito de por vida, ¿deseas algo más?». Al final, tuvieron que recontratar a los diez empleados, pagarles horas extras para arreglar el desaguisado y, de paso, pedir perdón a media España.
Cuando el código generado por IA decide que el IVA es opcional
Ojo con esto, porque los programadores somos los que más estamos abusando de herramientas como Copilot o Cursor. Y sí, ayudan un montón, no voy a ser yo quien diga lo contrario mientras me tomo mi segundo café. Pero confiar ciegamente en lo que te escupe una máquina es jugar a la ruleta rusa con el servidor de producción.
Me contaba un colega que trabaja en una fintech madrileña que un junior, con toda la buena fe del mundo, usó ChatGPT para refactorizar un módulo que calculaba las retenciones de IRPF y el IVA para autónomos. El código parecía limpio, elegante, casi poético. Pasó los tests básicos porque, seamos sinceros, a veces los tests los escribimos con la misma desgana con la que rellenamos el modelo 303.
# Ejemplo de lo que la IA sugirió (simplificado y con ironía)
def calcular_total_factura(base_imponible, tipo_iva):
# La IA decidió que si el tipo_iva no venía, pues nada, 0%
# Porque claro, ¿quién quiere pagar impuestos?
if not tipo_iva:
return base_imponible
return base_imponible * (1 + tipo_iva)
# El problema es que en la base de datos, por un error de migración,
# muchos tipos de IVA venían como None.
# Resultado: Facturas emitidas sin IVA durante todo un fin de semana.
La broma le costó a la empresa una auditoría interna de urgencia y un susto con la Agencia Tributaria que casi les hace cerrar el chiringuito. El problema no fue la IA, fue la pereza humana de no revisar línea por línea lo que se estaba integrando. Es lo que yo llamo «la ceguera del autocompletado». Nos hemos vuelto tan dependientes de que la máquina nos termine la frase que ya no pensamos en la lógica que hay detrás.
El «hallucination gate» en los bufetes de abogados
Si hay un sector donde la IA está entrando como un elefante en una cacharrería es el legal. Y aquí en España, con lo farragosa que es nuestra burocracia, ni te cuento. Hace unos meses saltó la noticia de un abogado que presentó un escrito citando sentencias del Tribunal Supremo que, sencillamente, no existían. La IA se las había inventado con una coherencia y una terminología jurídica tan perfecta que el hombre ni dudó.
La verdad es que esto me recuerda a las historias que cuentan en Cartagena sobre los antiguos túneles de la Guerra Civil; hay mucha leyenda urbana mezclada con realidad, y si no vas con una linterna de las buenas, te acabas perdiendo. En el caso de la IA, la «linterna» es la verificación de fuentes. Estos modelos no son bases de datos, son motores probabilísticos. No «saben» cosas, simplemente predicen qué palabra debería ir después de la anterior. Si le pides una sentencia sobre un desahucio en la calle Mayor de Cartagena, es capaz de inventarse el número de expediente, el nombre del juez y hasta el color de la toga si te descuidas.
Para que nos entendamos: usar IA para redactar un contrato sin que un abogado de carne y hueso lo revise es como intentar cruzar el puerto de Cartagena en una balsa de cartón. Puede que flotes un rato, pero te vas a hundir en cuanto sople un poco de lebeche.
La privacidad de datos o cómo regalarle los secretos de tu empresa a Sam Altman
Este es un tema que me pone especialmente nervioso. He visto a empleados de departamentos financieros subir hojas de Excel enteras con salarios, nombres, DNI y estrategias fiscales a ChatGPT para que les haga un «resumen de tendencias». ¡Pero alma de cántaro! ¿Tú sabes dónde va esa información?
En una consultora de prestigio en Barcelona, se dieron cuenta de que sus planes estratégicos para el próximo año estaban apareciendo como sugerencias en las consultas de otros usuarios de la misma IA. Resulta que, al usar la versión gratuita, estás aceptando que tus datos sirvan para entrenar al modelo. Básicamente, le regalaron la hoja de ruta de la empresa a toda la competencia.
La Agencia Española de Protección de Datos (AEPD) ya ha dado varios toques de atención, pero parece que hasta que no llegue una multa de esas que te dejan tiritando, la gente no va a aprender. Es como cuando dejas las llaves puestas en el coche porque «solo vas un momento a por el pan». Pues aquí el pan es un resumen de una reunión y el coche es la propiedad intelectual de tu negocio.
El mito del «Human in the Loop» que acabó en pesadilla logística
Se supone que la IA debe ayudarnos a trabajar menos, o al menos, a trabajar mejor. Pero en muchas empresas españolas está pasando justo lo contrario. Se implementan sistemas de IA para «automatizar» procesos, pero como fallan más que una escopeta de feria, al final los empleados tienen que pasar el doble de tiempo revisando lo que la máquina ha hecho mal.
Tengo un conocido que trabaja en una empresa de logística en el Polígono de Santa Ana. Implementaron un sistema de IA para optimizar las rutas de los repartidores. En teoría, iba a ahorrar combustible y tiempo. En la práctica, la IA no tenía en cuenta cosas tan básicas como que ciertas calles son peatonales, que hay mercados semanales que cortan el tráfico o que en Cartagena, si caen cuatro gotas, la ciudad se colapsa.
Los repartidores acababan metidos en callejones sin salida o dando vueltas absurdas. Al final, el «optimizador» generaba tanto caos que tuvieron que contratar a una persona extra solo para corregir las rutas que la IA proponía cada mañana. Vaya, que la automatización les salió por el precio de un software carísimo más un sueldo adicional. Un negocio redondo, vamos.
¿Por qué sale tan mal? Una breve digresión histórica
Si echamos la vista atrás, esto no es nuevo. En Cartagena sabemos mucho de tecnología que llega con grandes promesas. Isaac Peral inventó el submarino torpedero aquí mismo, una maravilla que podría haber cambiado la historia naval de España. ¿Y qué pasó? Pues que la burocracia, la falta de visión y el miedo a lo desconocido lo dejaron oxidándose.
Con la IA pasa algo parecido pero al revés: la estamos adoptando con una ceguera entusiasta sin entender la infraestructura necesaria. No puedes poner un motor de propulsión nuclear en un laúd de pesca. La IA requiere datos limpios, procesos claros y, sobre todo, una cultura de empresa que no vea la tecnología como una varita mágica, sino como una herramienta más, como un martillo o un destornillador.
El contenido «zombie» y la muerte de la creatividad
Hablemos de las agencias de marketing. ¡Ay, las agencias! Aquí es donde el desastre es más visible para el público general. Se nota a leguas cuando un artículo de blog o un post en redes sociales ha sido escrito por una IA sin supervisión humana. Es ese lenguaje neutro, aburrido, lleno de frases hechas y estructuras perfectamente simétricas que no dicen absolutamente nada.
He visto casos de marcas de moda españolas que han despedido a sus redactores para usar IA. ¿El resultado? Sus redes sociales ahora parecen el manual de instrucciones de una lavadora. Han perdido el «alma», esa chispa que te hace conectar con alguien. La IA no sabe lo que es el sarcasmo, no entiende las referencias culturales locales (no le pidas que te haga un chiste sobre las fiestas de Carthagineses y Romanos porque no lo va a pillar) y, sobre todo, no tiene opinión.
Al final del día, el contenido generado masivamente por IA está creando un internet «muerto», donde máquinas escriben para que otras máquinas (los algoritmos de Google) las lean, mientras los humanos nos quedamos en medio preguntándonos dónde se ha ido la gracia de las cosas.
¿Cómo sobrevivir a la invasión sin morir en el intento?
La conclusión que saco de todo esto no es que debamos quemar los servidores y volver a la máquina de escribir. Ni mucho menos. La IA es una herramienta increíble si se sabe usar. El problema es la expectativa de «esfuerzo cero».
Si vas a implementar IA en tu trabajo, aquí te dejo unos consejos de barra de bar, de esos que valen más que un máster de tres mil euros:
- No seas el primero en probarlo todo: Deja que las grandes empresas con presupuestos infinitos se peguen los primeros tortazos. Espera a que la tecnología madure un poco.
- El factor humano no es negociable: Siempre, siempre, siempre tiene que haber alguien que revise el resultado final. Si no tienes a nadie que entienda el proceso, no lo automatices.
- Empieza por lo pequeño: No intentes que la IA gestione toda tu contabilidad de golpe. Úsala para tareas mundanas: resumir un hilo de correos eterno, cambiar el formato de una lista o ayudarte a encontrar ese sinónimo que no te sale.
- La seguridad es lo primero: Si no subirías un documento a una valla publicitaria en la Gran Vía, no lo subas a una IA pública.
La verdad es que la Inteligencia Artificial tiene mucho de inteligencia y poco de artificial cuando se trata de reflejar nuestras propias carencias. Si una empresa es un caos, la IA solo va a conseguir que ese caos sea más rápido y eficiente.
Para que nos entendamos, la IA es como el viento de levante aquí en la costa: si sabes navegar, te lleva lejos; si no tienes ni idea, te acaba estrellando contra las rocas de la Algameca Chica. Así que, la próxima vez que alguien en tu oficina proponga «revolucionar» el departamento con un bot, tómate un café, respira hondo y pregunta: «¿Y quién va a revisar lo que escriba el bicho?». Si la respuesta es el silencio, ya sabes que la historia va a acabar mal.
Al final del día, lo que nos hace valiosos en el trabajo no es nuestra capacidad de procesar datos —en eso las máquinas ya nos han ganado—, sino nuestra capacidad de entender el contexto, de tener empatía y de saber cuándo una solución técnica, por muy avanzada que sea, es simplemente una mala idea. Y eso, amigos, no hay algoritmo en Silicon Valley que lo pueda replicar. Al menos, de momento.
Deja una respuesta