Durante la crisis sanitaria se han eliminado más vídeos que nunca en YouTube. La plataforma de vídeos ha eliminado más de 11 de contenidos en el segundo trimestre del año, un 83% más que el pasado año en donde se borraron unos 6 millones. Estas cifras coinciden con la entrada de las nuevas medidas de la empresa para proteger a la infancia.

La empresa ha asegurado que para compensar la reducción de personal provocada por las medidas de propagación del coronavirus se ha optado en estos meses por establecer un criterio más garantista y generalizado a la hora de eliminar contenidos. «Al contar con una capacidad de revisión humana muy reducida debido a Covid-19, nos hemos visto obligados a elegir entre una posible aplicación insuficiente o una posible aplicación excesiva», señala la empresa en el informe de transparencia.

El exceso de eliminación de contenidos ha provocado, por tanto, que se bloquearan muchos vídeos por error. La empresa reconoce que la cantidad de alegaciones por parte de usuarios afectados sigue siendo escaso (menos del 3%), se ha observado que tanto la cantidad de solicitudes como la tasa de restablecimiento se han duplicado respecto al trimestre anterior. En concreto, la cantidad de videos reactivados tras una denuncia un 50% en comparación con el periodo anterior. Por lo general, se restablece alrededor del 25% de los vídeos que se se habían eliminado automáticamente tras una revisión exhaustiva por parte de un empleado de la empresa.


Normalmente, cuando el sistema de revisión automático de YouTube califica un vídeo como «contenido dañino» se suele enviar a revisores humanos para su verificación, pero debido a la pandemia de Covid-19 ha habido menos revisores activos. «Una opción era volver a potenciar nuestra tecnología y limitar nuestra aplicación humana», añade la empresa. Otra opción que ha barajado la plataforma era «lanzar una red más amplia para eliminar rápidamente la mayor parte del contenido que puede dañar a la comunidad».


La principal desventaja ha sido que el sistema eliminó por error algunos vídeos que no violaban técnicamente sus políticas de uso. YouTube ha implementado en los últimos meses unas reglas más estrictas en áreas para calificar contenidos como «extremismo violento» y «seguridad infantil», lo que ha llevado a un aumento de hasta tres veces en la eliminación de vídeos. La seguridad infantil ha superado al «spam» como la principal razón para la eliminación de contenidos en la plataforma.