«The Times» publicó los resultados de una investigación que concluía que anuncios de algunas marcas, de manera involuntaria y como consecuencia de la gestión automatizada de las inserciones, aparecían junto a contenidos de grupos terroristas, supremacistas y otro tipo de organizaciones delictivas, por lo que ahora, y después del malestar expresado por muchos actores del sector, la plataforma de vídeo ha decidido tomar medidas para evitar estas situaciones en la medida de lo posible.
El portal estadounidense «TechCrunch» informa que YouTube ha anunciado que ha actualizado las políticas que rigen qué vídeos de la plataforma pueden incluir anuncios, tanto para incrementar la seguridad de los anunciantes como para que los ingresos por publicidad no lleguen hasta los creadores de ciertos contenidos.
Las políticas implementadas por YouTube para que un usuario pueda inscribirse en el programa de creadores de vídeo y, por tanto, ganar dinero por publicidad, indican que las piezas no pueden contener:
- Contenido de odio: Contenido que favorece la discriminación o menosprecia o humilla a un individuo o grupo de personas.
- Uso inapropiado de personajes de entretenimiento familiar: contenido que representa personajes de entretenimiento familiar involucrados en comportamientos violentos, sexuales, viles o inapropiados, incluso si se realizan con fines cómicos o satíricos.
- Contenido incendiario y degradante: contenido que es gratuitamente incendiario, provocados o degradante. Por ejemplo, contenido de vídeo que utiliza un lenguaje sin respeto gratuito que avergüenza o insulta a un individuo o grupo.
Tras la publicación de el diario británico, fueron varias las marcas y las agencias que decidieron paralizar la inversión en el portal de vídeo de Google. Como parte de este movimiento, Google también dijo que examinaría más rigurosamente el contenido que pueda considerarse despectivo o de odio, punto del que puede derivar el cambio en sus políticas recién anunciado.