Apple cree que resolvió el problema de la música con IA con un buzón de sugerencias

Apple Music lanzó un sistema de etiquetas para declarar contenido generado con IA. El problema no es la intención: es que el sistema asume que existe una distinción clara entre música humana y música IA, y esa distinción no existe. Al dejar la definición en manos de quien tiene incentivos para no declarar, Apple creó un procedimiento que legitima la opacidad.

/
17 minutos de lectura

Partamos con la historia de la voz de Lou Reed que no es Lou Reed

En el nuevo disco de GorillazThe Mountain, la primera voz que escuchas en «The Plastic Guru» no es Lou Reed. Se parece a Lou Reed. Tiene su timbre, su cadencia, esa forma de hablar como si estuviera pensando en voz alta. Pero Reed murió en 2013 y su estate no autorizó el uso de grabaciones existentes. Damon Albarn, en entrevista con The Needle Drop, lo explicó de manera simple y contó que usaron una voz sintética construida para sonar como él.

¿Eso lleva etiqueta de IA?

La pregunta no es retórica sino una pregunta que pega en la actual problemática luego de que Apple Music lanzó esta semana su sistema de Transparency Tags (las «etiquetas de transparencia»), que son cuatro categorías de metadatos que sellos y distribuidores pueden (y pronto deberán) usar para declarar cuando la inteligencia artificial participó en la creación de una canción, su portada, su composición o su video. El anuncio fue recibido con alivio general porque la gente tiende a decir que odia la IA. Y es cierto que es el primer paso hacia la transparencia que la industria necesitaba.

Pero… Nadie preguntó si el primer paso partía en la dirección correcta.


ia fanky music

La historia de la «Tecnología demoniaca» que luego es herramienta, y ya luego es invisible

Antes de analizar el sistema conviene revisar un patrón que tenemos como sociedad cuando decimos que «todo tiempo pasado fue mejor» o que «la música de mi época sí que era música no como la porquería que escuchan ahora·. Porque ojo, la industria musical lleva un siglo repitiendo la misma secuencia cada vez que aparece una tecnología que transforma lo que cuenta como interpretación «real».

En los años veinte, cuando el micrófono eléctrico hizo posible el crooning, los críticos de la época atacaron a Bing Crosby y Frank Sinatra por depender de la amplificación en lugar de proyectar la voz. Algo así como decir que si no es con la garganta pilucha entonces no es música. En 1936, Cecil Graves, controller de programas de la BBC, intentó prohibir el crooning de la radio con el argumento de que era «antinatural»: los cantantes legítimos llenaban salas con su voz sola; los crooners necesitaban un aparato. Definitivamente eso se comprendió como una trampa. Es decir, eso no era música real.

Ya sabemos que el micrófono se normalizó. Y nadie habla hoy de «música asistida por amplificación».

El otro villano de la película es el Auto-Tune, que fue lanzado en 1997 por Antares Audio Technologies como herramienta de corrección sutil de afinación. Cher lo usó de forma extrema en «Believe» en 1998 y la respuesta fue inmediata, los críticos, productores y músicos lo declararon el fin de la interpretación auténtica y hasta el día de hoy vemos cómo hay músicos que no pueden cantar en público porque no saben cantar (es cierto que algunos se pasaron 7 pueblos).

Tanto fue el odio con el autotune que Jay-Z lanzó «D.O.A. (Death of Auto-Tune)» en 2009 como manifiesto contra la herramienta. Y Time lo incluyó en su lista de las 50 peores invenciones de 2010.

Pero estas peleas contra la tecnología no están bien enfocadas porque apuntan a la herramienta y no al artista. Thomas Bangalter lo dijo con precisión en el período de Discovery: «Mucha gente se queja de que los músicos usan Auto-Tune. Me recuerda a fines de los setenta, cuando músicos en Francia intentaron prohibir el sintetizador. Decían que les quitaba trabajo. Lo que no vieron es que podías usar esas herramientas de una manera nueva.»

Hoy Auto-Tune está en el 95% de la producción pop. No como escándalo, sino como infraestructura invisible que llena estadios y que hace posible buena parte de la parrilla del Festival de Viña.

La IA generativa está en esa secuencia, pero la acelera de una forma que hace inviable el sistema que Apple propone. El micrófono tardó décadas en normalizarse. Auto-Tune tardó diez años. En cambio hoy Suno tiene 100 millones de usuarios generando 7 millones de canciones diarias. El catálogo completo de Spotify, cada dos semanas. La normalización no va a esperar a que el debate cultural se resuelva.


Y acá tenemos un GRAN problema porque hay un umbral que Apple no define

El sistema que propone la manzana mordida funciona así: cuando un sello o distribuidor sube contenido a Apple Music, puede aplicar una o más etiquetas indicando participación de IA. Apple describe cuatro categorías. Track, cuando la IA generó una porción material de la grabación. Composition, cuando generó letra u otros elementos compositivos. Artwork y Music Video para los visuales.

«Porción material» es la frase clave. Y Apple decidió no definirla.

En su newsletter a partners del 4 de marzo, la compañía explicó que deja a los proveedores de contenido determinar qué califica como contenido IA, «similar a géneros, créditos y otros metadatos». La comparación suena razonable hasta que la examinas. Los géneros no tienen consecuencias económicas directas. Una etiqueta que diga «rock alternativo» en lugar de «indie» no afecta cuánto vale el catálogo ni cómo lo percibe el oyente. La etiqueta IA sí lo hará.

lou reed gorillaz

Lo que Apple construyó es un sistema de autodeclaración sin umbral. El equivalente nutricional sería pedirle a cada empresa de alimentos que decida qué considera lo que es una caloría.

El caso Albarn es el ejemplo perfecto porque es incómodo desde todos los ángulos. La réplica de voz de Reed no fue generada desde cero por un modelo de texto a audio. Fue una voz sintética construida para sonar como él, con intención artística explícita, dentro de un disco sobre el duelo y los muertos, con autorización imposible de obtener porque el muerto no puede darla. ¿Es eso Track IA? ¿Composition? ¿Ninguna? ¿Ambas? El sistema de Apple no tiene categoría para eso. Y ese no es un caso extremo, sino que es el tipo de decisión creativa que los productores toman todo el tiempo, con materiales cada vez más híbridos.


¿Qué problema resuelven exactamente las etiquetas? y el Farming

Aquí está el número que cambia la conversación.

Deezer (que construyó detección técnica propia en lugar de autodeclaración) reportó en enero de 2026 que recibe más de 60.000 tracks completamente generados por IA cada día. Eso es el 39% de todo el contenido que le llega. El 85% de los streams en ese material fue fraudulento en 2025: bots y granjas de streaming diseñadas para desviar regalías de artistas humanos hacia cuentas vacías.

Alto!!! Tengo que hacer una NOTA INTERMEDIA ANTES DE SEGUIR: Hay un concepto que tienes que conocer, y es el Farming.

¿Qué es Farming?

Te lo defino rápido.

Streaming farming (también stream farming) es la práctica de generar reproducciones artificiales en plataformas de música mediante bots o granjas de cuentas falsas, con el objetivo de desviar regalías del fondo común de distribución hacia canciones específicas. No requiere oyentes reales. Requiere escala industrial y catálogo desechable, lo que convierte la música generada por IA en el vehículo ideal porque tiene costo de producción cercano a cero, volumen ilimitado, y una trazabilidad mínima.

Sigamos

El problema no es la transparencia. El problema es el volumen y el incentivo.

Quien produce contenido IA masivo para farming de streams no va a declararlo voluntariamente. Quien produce música IA de calidad con intención artística podría declararlo, pero enfrenta el riesgo reputacional de ser asociado con el farming. El sistema premia a los actores de mala fe con silencio sin consecuencias, y complica a los actores de buena fe con una decisión de exposición que no tiene precedente claro.

La ausencia de etiqueta se convierte, en la práctica, en garantía implícita de autenticidad. No verificada, no verificable, pero implícita. Exactamente lo contrario de lo que el sistema prometía producir.

bots farm music

¿Por qué la autodeclaración voluntaria no funciona?

El patrón existe en otras industrias y el resultado es bastante consistente.

Por ejemplo. el etiquetado nutricional voluntario en Estados Unidos antes de la regulación federal de 1990 produjo exactamente lo que se esperaría, y es que las empresas con productos problemáticos omitían la información, empresas con productos saludables la destacaban, y el consumidor no tenía forma de distinguir entre silencio deliberado y ausencia de información relevante. La solución llegó cuando el costo de no declarar (por la regulación y las consecuencias legales) superó el costo de declarar.

Las certificaciones ambientales sin auditoría externa produjeron el fenómeno que hoy se llama greenwashing, donde cualquier empresa podía llamar «verde» a cualquier producto sin consecuencia verificable y con eso hasta las empresas que hacen botellas plásticas para el agua tratan de vendernos que son ecológicas (como si meterle plástico al agua a través de plàstico que envuelve el agua fuera saludable). La solución llegó con auditoría independiente y consecuencias por declaración falsa.

En ambos casos, la estructura que hizo funcionar el sistema fue la misma: alguien con independencia del declarante verifica, y hay consecuencia real por no declarar o por declarar mal.

Apple no construyó ninguna de esas dos estructuras sino que lo que construyó fue el formulario.

Qué necesitaría el sistema para funcionar

No tenemos declaraciones de sellos sobre cómo implementarán esto en la práctica. El sistema es demasiado nuevo para casos documentados de abuso. Pero, lo que sí existe es la lógica del incentivo.

Me explico.

Para que un sistema de etiquetado produzca transparencia real necesita tres cosas que este de Apple no tiene. Primero, un umbral operacional que defina qué porcentaje o tipo de participación de IA activa la obligación de declarar. Segundo, un mecanismo de detección independiente (como el que Deezer está comercializando a partir de enero de 2026) que no dependa de la buena voluntad del declarante. Y tercero, un modelo de consecuencias que invierta la estructura actual de incentivos, es decir que no declarar cueste más que declarar.

«El etiquetado correcto del contenido es el primer paso para darle a la industria musical los datos y herramientas que necesita para construir políticas sensatas en torno a la IA.», dice Apple en su newsletter. La frase es técnicamente correcta. También es la forma más elegante de decir que el trabajo real todavía no empieza.


Apple Inteligencia artificial

¿Y qué va a pasar entonces?

Vuelvo a la voz de Lou Reed que no es Lou Reed.

Albarn quería que Reed participara en un disco sobre la muerte porque Reed había sido su amigo y porque esa conversación tenía sentido dentro de lo que el disco necesitaba decir. La estate dijo que no. Albarn usó una réplica sintética y lo dijo en entrevista pública, sin ocultarlo, con contexto completo.

¿Eso es transparencia? Sí. ¿Necesita etiqueta de Apple? La respuesta depende de una definición que Apple decidió no dar.

El sistema de Transparency Tags puede convertirse en infraestructura útil si la industria construye sobre él umbrales verificables, consecuencias reales y mecanismos de detección independientes. También puede convertirse en el tipo de iniciativa que permite a todos los actores decir que hicieron algo, mientras el problema sigue creciendo a 60.000 tracks por día y seguimos padeciendo de nuestra tecnología.

Por ahora, insisto, esto no es nada más que un formulario de sugerencias en el Titanic. Y por supuesto… va con el logo de Apple.

Arturo Ledezma

Arturo Ledezma, director de FANKY.

Soy editor periodístico, periodista, fotógrafo y asesor de estrategias digitales para medios de prensa.

Trabajé como editor general en Terra Chile, editor en La Hora y como editor periodístico en El Ciudadano, TKM, El Nueve.

Como escritor, fotógrafo y periodista he trabajado en Radio Biobío, La Hora, La Tribuna, Radio San Cristóbal, radio Ritoque, Radio Odisea, MQLTV, Rado Divine, Lecturas Ciudadanas, Fisura, El Mercurio de Valparaíso, Revista Intemperie, TN (Arg), El Nueve (Arg), Arena Pública (MX), El Dínamo, El Desconcierto.

Mi Insta: arturoledezma_ / Mi Whatsapp +569 4056 0537 / mi mail: [email protected]

Deja tu respuesta

Your email address will not be published.