Las marcas están volviendo a la locución humana. No todas, no en masa, pero sí las que apostaron fuerte por las voces sintéticas hace dos o tres años y ahora miran los números con cara de póker. Según un informe de Veritone de 2024, el 68% de los consumidores prefiere contenido con voces humanas cuando se trata de publicidad, y esa preferencia se traduce en métricas concretas: engagement, conversión, retención. La fase experimental terminó.
Lo que prometía la locución AI
La propuesta era seductora. Voces instantáneas, costos bajísimos, escalabilidad infinita. Grabás una vez y tenés 47 idiomas mañana. Para un director de marketing con presupuesto ajustado y timelines imposibles, sonaba como la solución perfecta. Y en papel, lo era.
Pero el papel no tiene orejas.
Lo que las demos de ElevenLabs y compañía no mostraban era el comportamiento de esas voces en contexto real. Un spot de 30 segundos aislado suena impresionante. Ese mismo spot compitiendo por atención contra contenido con voces humanas en el feed de alguien empieza a revelar sus grietas. Un estudio de la Universidad de Yale publicado en 2023 encontró que las voces sintéticas activan respuestas de desconfianza en el cerebro del oyente, incluso cuando la persona no puede articular conscientemente qué le molesta de lo que escucha.
El problema que nadie anticipó
Las marcas que adoptaron voces AI temprano lo hicieron pensando en eficiencia. Y lograron eficiencia. Pero también lograron algo más: homogeneidad. Cuando tu competidor usa la misma librería de voces sintéticas que vos, y la marca de al lado también, y la de más allá también, el resultado es un paisaje sonoro donde nadie se distingue de nadie.
¿Cuántas veces escuchaste la misma voz de ElevenLabs en tres contenidos distintos la semana pasada? Probablemente más de las que registraste conscientemente.
El problema escala cuando hablamos de español. Las voces AI en español tienen un problema adicional que el mercado anglófono no sufre con la misma intensidad: los acentos. Una voz sintética entrenada principalmente con datos mexicanos suena rara para un argentino, ofensiva para un español, y confusa para un colombiano. Y las marcas que compraron la promesa del "español neutro AI" descubrieron que eso todavía no existe de forma convincente.
Qué están haciendo las marcas ahora
El patrón que veo desde mi estudio es claro. Las marcas grandes nunca se fueron del todo de la locución humana. Mantuvieron voces sintéticas para contenido descartable, tutoriales internos, notificaciones de sistema, todo lo que no toca directamente la percepción de marca. Pero para publicidad, para spots que compiten por atención, para contenido que necesita generar confianza, volvieron.
Las marcas medianas son las que más experimentaron y las que más rápido están recalibrando. Porque fueron las que más sintieron la promesa de "calidad de Fortune 500 a precio de startup" y las que más duro chocaron contra la realidad de que el precio bajo venía con costos ocultos.
(Un director de marketing de una fintech me contó hace poco que gastaron más en "corregir" las locuciones AI con retakes humanos que lo que hubiera costado contratar un locutor profesional desde el principio. No puedo dar el nombre, pero el patrón se repite.)
El segmento bajo ya estaba perdido
Acá hay que ser honesto. La AI sí mató algo: el mercado de locución barata que Fiverr y los amateurs ya habían capturado. Ese segmento donde el cliente quiere pagar 15 dólares por un spot y no le importa demasiado la calidad ya pertenece a las voces sintéticas. Y está bien. Nunca fue locución profesional.
Pero el segmento profesional, el que mueve presupuestos reales y espera resultados medibles, ese sigue necesitando lo que la AI no puede dar: interpretación, humanidad, esa dimensión vibracional que tu cuerpo reconoce aunque tu cerebro no sepa nombrarla. Según datos de Nielsen, los anuncios con voces percibidas como auténticas generan un 23% más de brand recall que aquellos percibidos como artificiales. Un estudio de 2024, no de 2019 cuando la AI todavía era curiosidad.
Por qué el español neutro humano gana
El español neutro es una construcción técnica. No es "hablar sin acento", es hablar con un acento deliberadamente diseñado para no activar rechazo en ningún mercado hispanohablante. Requiere entrenamiento, consciencia lingüística y años de práctica. Y por eso la AI no lo logra: porque no entiende qué está neutralizando ni por qué.
Un locutor profesional que hace español neutro sabe exactamente cuándo una palabra suena demasiado mexicana, demasiado argentina, demasiado española. Ajusta en tiempo real. La AI no ajusta nada porque no sabe que hay algo que ajustar. Especificar español neutro en un brief es solo el primer paso; después necesitás a alguien que sepa ejecutarlo.
Lo que viene
La tendencia es clara pero no es apocalíptica para la AI. Las voces sintéticas van a seguir existiendo y van a seguir mejorando. Van a capturar permanentemente el segmento de contenido utilitario, notificaciones, asistentes de voz, todo lo que necesita funcionalidad sin conexión emocional. Pero la locución profesional, la que construye marca y mueve audiencias, esa va a seguir siendo humana.
Las marcas que entiendan esto temprano van a tener ventaja. Las que sigan persiguiendo el espejismo del ahorro infinito van a seguir descubriendo que lo barato sale caro, solo que ahora lo barato tiene mejor demo.
¿Necesitás una locución en español para tu próximo proyecto? Escribime y te respondo en menos de una hora.



