YouTube eliminó 7,8 millones de videos con contenidos sexuales y que incitaban al odio
Facebook, Twitter y Google han incrementado sus esfuerzos en controlar los contenidos sus plataformas.
Publicidad
Publicidad
Publicidad
Publicidad
La plataforma de video YouTube ha eliminado 7,8 millones de videos, 224 millones de comentarios y 1,6 millones de canales por violar su política de contenido en el periodo de julio a septiembre de este año, según un informe publicado hoy por la compañía estadounidense propiedad de Google.
Gran parte de este contenido fue eliminado porque violaba las normas de la plataforma sobre contenido adulto (sexo) y "spam". Según los datos hechos públicos hoy en su informe trimestral, el 90% de los canales y el 80% de los videos eliminados en septiembre correspondieron a estas razones.
YouTube utiliza un sistema de control que combina revisores (personas) y tecnología "machine learning". Esta última ha sido la responsable de la detección del 81 % de los videos eliminados y, esta rápida detección, consiguió que el 74,5 % nunca llegara a recibir visitas.Los videos eliminados en septiembre por razones de protección de la infancia y violencia extrema, dos áreas con categoría especial para la plataforma, fueron vistos menos de diez veces, gracias a este sistema de control combinado.
Ver también: Facebook y YouTube ya tienen el 56% del mercado publicitario en videos
En el caso de los comentarios suprimidos (224 millones), el 99 % también fue detectado por inteligencia artificial. En su mayoría fue retirado por estar considerado "spam" y, según la compañía, supone un mínimo porcentaje de los miles de millones de comentarios que se comparten cada año en la plataforma.
"La combinación de tecnología y humanos entrenados nos permite aplicar nuestras políticas sobre contenido con gran rapidez", explica la compañía en su blog corporativamente.
En el primer y segundo trimestre del año, YouTube retiró 9,1 y 7,1 millones de vídeos respectivamente.
Publicidad
Cada trimestre el número de contenidos eliminado puede fluctuar por cambios en la propia política de contenidos de la compañía, que se extrema o refuerza en caso de situaciones especiales.
El debate sobre la prolífera del discurso de odio, el acoso y el contenido terrorista en internet ha forzado a los gigantes tecnológicos como Facebook, Twitter y Google a incrementar sus esfuerzos en controlar los contenidos sus plataformas.
Publicidad