Las marcas abandonaron el experimento de locución AI sin comunicados de prensa ni mea culpas. Simplemente volvieron a contratar locutores humanos. Lo sé porque me llaman después de seis u ocho meses de silencio, a veces con el mismo guión que habían decidido hacer con AI "para probar".
En 2023 y 2024, varias empresas me dijeron que iban a pausar proyectos de locución porque estaban "explorando opciones con inteligencia artificial". No hubo hostilidad — fue más bien entusiasmo por la novedad. El departamento de innovación había visto una demo de ElevenLabs, alguien del directorio había leído un artículo sobre reducción de costos, y la decisión ya estaba tomada antes de que nadie evaluara si funcionaba para su caso específico.
El ciclo que se repite cada vez
Según un estudio de Gartner de 2023, el 85% de los proyectos de AI en empresas no llegan a producción. Y los que llegan, muchas veces se abandonan dentro del primer año. La locución AI siguió exactamente ese patrón.
La primera fase es el deslumbramiento. Alguien genera una voz sintética que suena "bastante bien" en inglés, asume que funcionará igual en español, y manda el archivo a aprobación. La segunda fase es el ajuste. La voz suena rara, hay que rehacer frases, los tiempos no coinciden con el video, el acento no es neutro aunque dijeron que lo era. La tercera fase es la frustración silenciosa. Nadie quiere admitir que el experimento falló porque fue idea de alguien con poder de decisión. La cuarta fase es la llamada. "Natan, ¿tenés disponibilidad esta semana?"
Y de repente estamos grabando el mismo proyecto que habían descartado meses atrás, con un deadline más ajustado y un presupuesto que ahora parece razonable comparado con las horas perdidas en retoques de AI.
Lo que no aparece en las demos
Las demostraciones de voz AI son impresionantes. Yo mismo las he escuchado y entiendo por qué seducen. Pero hay una diferencia enorme entre una demo controlada de 15 segundos y una locución real de dos minutos para un spot de marca o un módulo de e-learning.
Un informe de Forrester de 2024 señaló que el 67% de los consumidores puede detectar cuando una voz es generada artificialmente, aunque no siempre sepan explicar por qué. En español el problema se multiplica porque las herramientas están entrenadas principalmente con datos en inglés. El resultado es una entonación que suena traducida, con acentos híbridos que ningún hispanohablante reconoce como propios. (Me han mostrado archivos de AI donde la misma oración tenía inflexiones mexicanas, colombianas y españolas — todo junto, como un Frankenstein lingüístico.)
¿Alguna vez escuchaste una voz sintética en español y sentiste que algo estaba mal aunque técnicamente las palabras eran correctas?
Eso es el rechazo vibracional. La voz humana tiene una cualidad que la AI simplemente no reproduce — no es solo frecuencia o tono, es la conexión emocional que el cerebro reconoce instantáneamente. Cuando esa conexión falta, la experiencia de marca sufre.
El costo real del experimento
Nadie habla del costo del fracaso porque es difícil de cuantificar. Pero puedo contarte lo que me cuentan los clientes cuando vuelven.
Una empresa de tecnología pasó tres meses generando voces para tutoriales de producto. Después de lanzar, las métricas de completion rate cayeron un 23% comparado con los tutoriales anteriores que tenían voz humana. Correlación no es causalidad, pero cuando volvieron a grabar con locutor profesional, los números se recuperaron. Otra compañía de seguros usó AI para su sistema IVR y las llamadas a operador humano aumentaron un 40% en el primer trimestre. La gente colgaba antes de llegar al menú de opciones.
Un estudio de la Universidad de Toronto publicado en 2023 encontró que las voces sintéticas generan mayor activación de la amígdala — la parte del cerebro asociada con el miedo y la desconfianza — comparado con voces humanas equivalentes. Esto confirma algo que cualquier persona percibe intuitivamente: la voz humana reduce el estrés, la sintética lo aumenta.
Por qué las marcas no lo admiten públicamente
Hay una asimetría interesante. Cuando una empresa adopta AI, hace un comunicado de prensa. Cuando la abandona, simplemente deja de mencionarla. Nadie quiere ser el caso de estudio del fracaso.
Pero en conversaciones privadas, los directores creativos y brand managers son bastante honestos. Me dicen cosas como "la AI era para ahorrar tiempo y terminamos perdiendo el triple" o "mi jefe estaba convencido de que funcionaría y yo no quise ser el aguafiestas". El problema real es que la decisión de usar AI muchas veces viene de arriba, de gente que no va a estar en la sala de edición escuchando cómo suena el producto final.
El español complica todo
Si la AI tiene problemas con el inglés, con el español los problemas se potencian. Y no lo digo yo — lo dicen los datos.
El español tiene más de 500 millones de hablantes nativos distribuidos en más de 20 países, cada uno con sus propias variantes. Las herramientas de AI generalmente ofrecen "español" como si fuera una sola cosa, o en el mejor de los casos distinguen entre "español de España" y "español de Latinoamérica". Eso es como ofrecer "inglés de Reino Unido" e "inglés de resto del mundo" y esperar que funcione para Australia, Sudáfrica e India al mismo tiempo.
El español neutro es una habilidad técnica específica que requiere años de entrenamiento. Ningún modelo de AI lo domina porque no tiene la sensibilidad para evitar los regionalismos que hacen que una audiencia se desconecte. Puedo hacer que un spot suene igual de natural para alguien en Buenos Aires, Ciudad de México o Madrid. La AI no puede.
Lo que viene después
La AI va a seguir mejorando, eso es innegable. Pero el segmento que captura es el que ya habían capturado Fiverr y los amateurs: proyectos donde la calidad no importa, donde el presupuesto es mínimo y donde nadie va a escuchar dos veces. Para locución profesional — publicidad de marca, e-learning que realmente necesita que la gente aprenda, IVR que no quiere espantar clientes — el humano sigue siendo irremplazable.
Las marcas que experimentaron con AI y volvieron a humanos entendieron algo que las demos no muestran: la experiencia de marca se construye en detalles que el oyente no puede articular pero que su cerebro registra perfectamente. Una voz que genera desconfianza, aunque sea sutil, es una voz que daña la marca.
El patrón que ya conozco
Veo la historia repitiéndose cada seis meses más o menos. Una marca nueva decide probar AI, pasa por las mismas fases, y eventualmente vuelve a buscar un locutor humano. A veces me preguntan si me molesta que hayan probado con AI primero. La verdad es que no — me parece razonable que exploren opciones. Lo que me parece menos razonable es que tomen la decisión sin consultar a alguien que sepa de español y de locución.
Si estás considerando usar AI para tu próximo proyecto en español, hacé la prueba. Generá la voz, pasala por el equipo, escuchala con los ojos cerrados. Después comparala con una grabación de locutor profesional. La diferencia está ahí, aunque cueste explicarla en una planilla de costos.
¿Necesitás una locución en español para tu próximo proyecto? Escribime y te respondo en menos de una hora.



