La voz AI va a destruir el segmento bajo del mercado de locución. Fiverr, los amateurs que cobran 20 dólares por spot, el sobrino que "habla bien" — todo eso desaparece en los próximos años. Y no voy a derramar una lágrima. Pero la locución profesional, la que sostiene campañas de marcas que facturan miles de millones, esa permanece intacta. La razón es biológica, no romántica.
El cuerpo humano detecta lo sintético
Un estudio de la Universidad de Viena publicado en 2023 encontró que la voz humana activa el sistema nervioso parasimpático de maneras que la voz sintética no replica. Los participantes mostraron reducción de cortisol escuchando voces humanas reales. Con voces generadas por AI, el cortisol se mantuvo estable o subió levemente. El oyente no sabe por qué rechaza la voz sintética — simplemente la rechaza.
La voz humana tiene una dimensión vibracional que la AI no puede reproducir. Hay microfluctuaciones en tono, resonancia y ritmo que el software todavía no mapea. Y cuando eventualmente las mapee, el oído humano va a encontrar otra cosa que falta. Llevamos 200.000 años evolucionando para distinguir voces humanas de sonidos artificiales. Esa carrera armamentista la gana la biología.
El mercado que la AI se lleva
Honestamente, ese mercado ya estaba perdido. Las plataformas tipo Voices.com y Voice123 crearon una carrera al fondo donde locutores competían por trabajos de 50 dólares contra cientos de otros. El algoritmo premiaba volumen de reseñas, no calidad de interpretación. Un locutor mediocre con 800 proyectos completados le ganaba sistemáticamente a uno excelente con 20.
La AI simplemente automatiza lo que ya era una commodity. E-learning corporativo genérico, IVR de bajo presupuesto, videos internos que nadie mira — todo eso puede ser sintético sin que cambie nada. Pero pensá en esto: ¿escucharías un audiolibro de 8 horas narrado por una AI? ¿Confiarías en una voz sintética explicándote cómo operar maquinaria pesada en una planta industrial?
La paradoja del e-learning
Según un informe de Brandon Hall Group de 2022, las empresas que invierten en producción de alta calidad para e-learning ven un 25% más de retención del contenido. El problema es que la mayoría de las empresas no quieren que sus empleados realmente aprendan — quieren cumplir con un checkbox de compliance. Para eso, la AI sirve perfecto.
Pero el e-learning que importa de verdad — seguridad industrial, operaciones de alto riesgo, procedimientos médicos — una mala locución cuesta dinero real en accidentes e ineficiencia. (Trabajé una vez para una petrolera que había tenido tres incidentes en seis meses; después de rehacer todo el material de capacitación con locución profesional, los incidentes bajaron a cero por 14 meses consecutivos.) ¿Vas a confiar ese contenido a una voz que tu cerebro rechaza instintivamente?
Por qué las marcas grandes nunca van a usar AI
Coca-Cola, Nike, Google, Ford — estas marcas entienden algo que las startups no: la voz es la identidad. Un estudio de Nielsen de 2021 mostró que el reconocimiento de marca aumenta un 24% cuando los consumidores asocian una voz consistente con la marca. La AI no puede ser consistente de la misma manera porque no tiene identidad — tiene parámetros.
Y hay un factor que nadie menciona: el miedo al ridículo. Imaginá que se filtra que Netflix usó AI para el doblaje de una serie importante. El daño reputacional sería instantáneo y viral. Las marcas Fortune 500 tienen demasiado que perder. El costo de un locutor profesional es insignificante comparado con el riesgo de que alguien detecte la síntesis y lo postee en Twitter.
¿Realmente podés distinguir una voz AI de una humana?
Sí. Tal vez no conscientemente, pero tu cuerpo sí puede. Y tu audiencia también. La pregunta real es: ¿querés apostar tu campaña a que nadie lo note? Porque cuando alguien lo nota, el efecto es devastador. La confianza se rompe instantáneamente.
El español presenta desafíos adicionales para la AI. Los sistemas actuales luchan con el español neutro — mezclan regionalismos, confunden registros formales con informales, y pronuncian de maneras que ningún hispanohablante nativo usaría. Un cliente anglófono no lo detecta. Su audiencia latinoamericana, sí.
Lo que la AI no puede hacer
Tomar dirección en tiempo real. Ajustar la interpretación porque el director creativo decidió que ahora quiere algo "más cálido pero no tan cálido". Improvisar una alternativa cuando el guión no funciona. Grabar contra la música del spot para que la energía coincida exactamente.
La primera toma suele ser la mejor porque captura la interpretación más natural. Pero a veces el cliente necesita 12 variaciones para encontrar la que funciona con la edición final. La AI te da una versión. El humano te da interpretación.
Y hay algo más práctico: los guiones traducidos del inglés siempre necesitan edición. El español es un 30% más largo — hay que cortar el guión o la entrega suena apresurada. Un locutor profesional puede sugerir cortes que preserven el mensaje. La AI lee lo que le des, aunque suene antinatural.
El segmento que sobrevive
La locución profesional va a seguir siendo locución profesional. Lo que desaparece es la locución amateur que pretendía ser profesional. En cierto sentido, la AI hace una limpieza de mercado que beneficia a todos. Los clientes que siempre quisieron pagar lo mínimo ahora tienen una opción que no involucra explotar a locutores principiantes. Y los locutores que realmente trabajan de esto pueden enfocarse en clientes que valoran lo que hacen.
No tengo ningún problema con la AI como herramienta. La uso para editar guiones, para investigar, para automatizar tareas administrativas. Pero la locución es interpretación humana al servicio de la comunicación. Es performance. Y el performance no se automatiza — se ejecuta.
¿Necesitás una locución en español para tu próximo proyecto? Escribime y te respondo en menos de una hora.



