Europa en alerta por las "frutinovelas": ¿riesgo infantil o negocio algorítmico?
Las llamadas "frutinovelas" —videos cortos protagonizados por frutas humanizadas— ponen en debate la protección infantil y la regulación de plataformas en la UE.
Las frutinovelas son videos breves protagonizados por frutas antropomorfizadas que, según informes de plataformas, se viralizan con millones de reproducciones y ganan público infantil. Plataformas como TikTok reportaron 1.000 millones de usuarios activos mensuales (TikTok, septiembre 2021) y YouTube supera los 2.000 millones de usuarios conectados al mes (YouTube, 2019), lo que explica por qué formatos mínimos pero repetitivos encuentran audiencias enormes. Frente a esta expansión, las autoridades europeas analizan regulaciones concretas para limitar exposición y publicidad dirigida a menores.
¿Qué son exactamente las “frutinovelas” y por qué preocupan?
Las frutinovelas condensan narrativas melodramáticas en episodios de segundos: colores intensos, repeticiones y cliffhangers diseñados para maximizar el siguiente visionado. A primera vista parecen inofensivas; el problema no es solo el contenido, sino la mecánica de entrega. Los algoritmos priorizan el tiempo de pantalla y refuerzan patrones de consumo compulsivo, sobre todo en audiencias en formación. Profesionales de la protección infantil alertan por la combinación de ritmo rápido, falta de supervisión y espacios publicitarios incluidos entre episodios. La evidencia internacional sugiere que los formatos cortos aumentan la exposición acumulada, lo que obliga a preguntar si el entretenimiento se disfraza de producto dirigido a menores sin controles adecuados.
¿Qué herramientas tiene Europa y qué exige la ley?
La Unión Europea ya cuenta con el marco del Digital Services Act (DSA), aprobado por la Comisión Europea en 2022, que impone obligaciones de transparencia y gestión de riesgos a las plataformas muy grandes. En particular, la DSA define a las plataformas «muy grandes» como aquellas que superan los 45 millones de usuarios en la UE (Comisión Europea, DSA). Esas plataformas deben presentar evaluaciones de riesgo, auditorías independientes y medidas para proteger a menores. La novedad es que la regulación no solo apunta al contenido ilegal, sino también a prácticas sistémicas que pueden afectar derechos digitales y salud pública. En 2024 varias disposiciones empezaron a aplicarse; en 2026 el debate se intensifica sobre pasos adicionales, como advertencias obligatorias y límites a recomendaciones a usuarios infantiles.
¿Cómo nos afecta esto en Argentina y qué debemos exigir?
Aunque la legislación europea no rige aquí, el mercado global de plataformas ejerce efectos locales: algoritmos optimizados en Silicon Valley reproducen patrones de consumo en Buenos Aires tanto como en Madrid. Por eso debemos exigir lo mismo que pedimos a nuestras instituciones: transparencia y rendición. Pedimos publicación de expedientes cuando el Estado negocia marcos regulatorios con plataformas, auditorías independientes sobre publicidad dirigida a menores y debates parlamentarios que incluyan a pediatras, docentes y representantes de familias. Además, la experiencia europea muestra que no alcanza con prohibiciones puntuales; hacen falta mecanismos que obliguen a las plataformas a publicar datos de alcance, gasto publicitario y métricas de exposición infantil.
¿Qué preguntar a quienes regulen o autoricen estas plataformas?
Los argentinos deberían interpelar con dos demandas concretas: primero, que se publiquen los informes y expedientes de cualquier acuerdo con plataformas y anunciantes; segundo, que se exijan auditorías independientes de los algoritmos que recomiendan contenidos a menores. No pedimos censura, sino transparencia: ¿qué métricas prioriza la plataforma?, ¿qué porcentaje del gasto publicitario va dirigido a contenidos consumidos por menores?, ¿qué medidas de bloqueo o advertencia existen? Si Europa ya activó la DSA (Comisión Europea, 2022) y definió umbrales como los 45 millones de usuarios, nosotros no podemos limitar la discusión a la moralización: hay que pedir datos, auditorías y debate legislativo antes de que el mercado imponga soluciones tomadas a puerta cerrada.
Fuentes citadas: TikTok press release, septiembre 2021; YouTube official blog, 2019; Comisión Europea, Digital Services Act (DSA), 2022; Eurostat (datos de acceso a internet en la UE, 2022).