En los servicios de atención al cliente, todavía se habla con personas, pero ya no tienen derecho a responderte
François Vadrot, 20-11-2025
English
version
Traducido por Tlaxcala
Un agente de soporte enmascarado responde con fórmulas estandarizadas, mientras que, en segundo plano, se revela la cuadrícula de procedimientos que estructura toda su intervención
Desde hace unos meses, y especialmente en estos últimos
días, me he visto arrastrado a una sucesión de conversaciones con servicios de
atención al cliente. Cada vez, las situaciones eran distintas —un aparato nuevo
que se reinicia sin motivo, una impresora que se desconfigura, un pedido
acompañado de una factura ilegal—, pero los intercambios, ellos, eran
idénticos. Lo que se presentaba como un diálogo con un ser humano se reducía,
en realidad, al atravesar un protocolo. Como si el lenguaje ya no sirviera para
comprender, sino para activar, redirigir, desbloquear casillas. Los agentes no
interpretaban lo que se les decía: pasaban las palabras por el tamiz de
secuencias preescritas. En cuanto describía un problema, se desplegaba un árbol
de decisiones: alimentación, actualización del firmware, reinicialización, sin
consideración a los hechos ya aportados unas líneas más arriba. Un agente me
proponía comprobar una conexión que yo ya había documentado en vídeo; otro me
pedía un número de serie que se suponía tenía delante; un tercero exigía una
foto que el sistema le impedía abrir. No era mala voluntad: era la estructura.
Porque los agentes ya no tienen acceso a la totalidad de
la conversación. Su interfaz solo muestra tres o cuatro mensajes recientes. El
resto desaparece para ellos, aunque sigue siendo visible para el cliente. La
asimetría es total: yo veo la continuidad del intercambio, ellos solo ven el
instante presente. Cada intercambio empieza de cero; cada explicación, un
minuto después, ya no existe. Esta arquitectura no es un defecto técnico, sino
una decisión organizativa: impedir que el agente interprete, que reconstruya
una historia, que actúe fuera del guion. Al cortarlo de su pasado inmediato, se
le priva de la posibilidad de desviarse del protocolo. El agente está allí,
humano, amable, a veces apenado, pero su papel se reduce a seguir un recorrido
fijo, hecho de microdecisiones que no le pertenecen.
En este marco, el lenguaje deja de ser un espacio de
comprensión para convertirse en un campo minado. Algunas palabras provocan un
bloqueo instantáneo: “bug”, “fallo interno”, “factura no conforme”, “prueba
adjunta” desencadenan automáticamente ramas predecibles, pero muy alejadas del
problema real. Hay que aprender a hablar sin decir, a rodear los activadores, a
evitar formulaciones que devuelvan el expediente al inicio. Ya no se habla con
una persona, sino con un dispositivo opaco que interpreta nuestras frases como
señales técnicas. Una ligera ambigüedad puede bastar para reiniciar el ciclo, y
un exceso de precisión puede bloquearlo. Uno termina escribiendo como si se
dirigiera a una máquina, aunque haya un humano enfrente, prisionero de un
sistema que le impide ser humano.
La única fisura, a veces, proviene del supervisor. No es
un mesías; simplemente ocupa un nivel más alto en la pirámide de
autorizaciones. Ve algunos mensajes más, tiene unos cuantos botones
adicionales, puede sortear un procedimiento que gira en vacío. Pero el acceso a
ese nivel es raro, contingente: depende de la disponibilidad del supervisor,
del grado de atasco en el guion, o del momento en que el propio protocolo
constata su fracaso estadístico. Cuando eso ocurre, todo se desbloquea de
golpe: en cinco líneas, el supervisor entiende lo que tres agentes no tenían
derecho a comprender. La paradoja es cruel: cuanto más fracasa la organización,
más se acerca uno a la posibilidad de una decisión humana; la competencia solo
interviene en la excepción.
En este entorno, el mediador más eficaz ya no es el
lenguaje humano, sino la inteligencia artificial. No porque “comprenda” mejor
que nosotros, sino porque sabe anticipar las lógicas implícitas: evitar las
palabras que activan las ramas equivocadas, formular frases de la longitud
exacta que sigue siendo visible en la interfaz de los agentes humanos, recordar
lo que se acaba de decir sin mencionar lo que sería incriminante para el guion,
rodear los activadores, mantener un hilo lógico allí donde la organización
prohíbe la continuidad. La IA se convierte en una tecnología de navegación en
un espacio donde el lenguaje ordinario ya no funciona. No habla al humano:
habla al protocolo que encierra al humano.
Porque este protocolo ya ni siquiera está escrito por
humanos. Resulta de un ensamblaje progresivo: instrucciones internas, módulos
de gestión de la relación con el cliente (CRM) diseñados para reducir
reembolsos, restricciones impuestas por proveedores externos, modelos
estadísticos que optimizan las respuestas, bucles de aprendizaje automático que
modulan los guiones según los índices de satisfacción. Ningún arquitecto
orienta este sistema; se autoorganiza por estratos sucesivos. Su lógica se
asemeja a la de una red blockchain: sin confianza global, sin interpretación,
solo validaciones locales. Cada agente es un nodo que ejecuta su parte, sin
visión de conjunto y sin posibilidad de remontar la cadena.
Esta mecánica encaja perfectamente en otro fenómeno, más
profundo: la fragmentación de la empresa misma. El nombre que ve el cliente
—una marca, una interfaz, un logotipo— ya no corresponde a una entidad
unificada. La realidad es una cadena de proveedores: la plataforma vende, un
almacén externo prepara, un transportista distinto entrega, un soporte
externalizado responde, un servicio de litigios decide, todo ello por encima de
un sistema de pago que sigue sus propias reglas. Estos segmentos no se hablan.
No tienen los mismos programas, ni las mismas obligaciones, ni las mismas
prioridades. Comparten solo lo mínimo indispensable, a veces nada. Ninguno es
responsable del conjunto; cada uno aplica su protocolo fragmentado como una
sección autónoma de un organismo sin cerebro.
En semejante dispositivo, invocar la ley se vuelve un
acto teórico. Los derechos del consumidor —desistimiento, garantía legal,
conformidad— solo existen en el lenguaje jurídico, pero no tienen traducción en
las cadenas operacionales. Los agentes no tienen acceso a los documentos, ni a
las personas, ni a las funciones necesarias para aplicar estas reglas. Su único
marco real es el protocolo interno, derivado de las Condiciones Generales de
Uso, que de facto se sustituyen a la ley. El derecho se convierte en un
horizonte, no en una práctica. La relación de fuerzas se invierte: no es la
empresa la que se ajusta al marco legal, sino el cliente el que debe ajustarse
al protocolo para esperar que aparezca una solución.
La potencia de este sistema no es un accidente. Es
racional: reduce los costes de interacción, impide que los agentes comprometan
la responsabilidad jurídica de la marca, limita los reembolsos, automatiza los
casos individuales, mantiene volúmenes masivos con personal intercambiable.
Desde la perspectiva de la empresa, no es una deshumanización: es una
optimización. Un éxito. Un éxito contra la relación, en beneficio de la
arquitectura.
A medida que estas estructuras se generalizan, se impone
una transformación más amplia. El lenguaje se reduce a un conjunto de señales;
los humanos se convierten en relevos procedimentales; la ley flota por encima
como una abstracción impotente; la responsabilidad se disuelve en la
segmentación. El mundo que habitamos ya no es un conjunto de empresas, sino un
grafo de protocolos. Aún creemos que compramos “a” alguien; en realidad
compramos dentro de una red. Y en esta red, la comprensión ya no es un valor, sino
una anomalía. La relación humana no ha sido reemplazada por la IA: fue retirada
antes incluso de que la IA apareciera. Lo que queda es un sistema que funciona,
pero que ya no lee lo que se le escribe. Un mundo donde la decisión humana solo
aparece como un accidente, un paréntesis frágil en una arquitectura concebida
para que no haya nadie a quien hablar.
P. D. ¿Por qué mantener a un humano si el sistema ya no le deja hacer nada?
Hice leer ese artículo antes de publicarlo y me
plantearon esta pregunta: ¿por qué mantener a un humano, si él no puede decidir
nada?
En realidad, su presencia interpone un semejante, una
figura humana, un espejo mínimo que evita exponer directamente la lógica del
sistema. Sin él, todo aparecería tal cual es: un dispositivo cerrado, no
negociable, indiferente. El agente absorbe la ira, amortigua la tensión y
mantiene la impresión de que se habla con “alguien”.
Si pide de nuevo informaciones ya transmitidas, no es
incompetencia. Es debido al diseño de la interfaz que se le impone: mensajes
truncados, archivos invisibles, acceso limitado. Lo cortan deliberadamente del
contexto, mutilan su inteligencia para que permanezca estrictamente dentro del
protocolo y no ejerza ninguna interpretación.
El humano sirve a la vez de pantalla y de amortiguador.
