Google tiene un grave problema con el spam y los contenidos inapropiados en YouTube. Lo pudimos comprobar hace unos meses con el descubrimiento de perturbadores vídeos en YouTube Kids, y desde entonces la empresa ha tratado de enmendar el camino.
Ese trabajo, dicen en Google, comienza a dar sus frutos. Un nuevo informe trimestral informará del cumplimiento de las políticas de la comunidad, y nos deja datos interesantes: se han eliminado más de 8 millones de vídeos inapropiados en la plataforma, y los sistemas de aprendizaje automático (machine learning) son cada vez más importantes en esta tarea.
Los usuarios como moderadores
Tanto es así que de los 8,3 millones de vídeos retirados del servicio YouTube —los resultados se centran en el servicio principal, no en YouTube Kids—, el 81% (6,7 millones) fueron detectados por esos sistemas de inteligencia artificial. Cuidado: detectados, que no borrados, porque tras marcar estos contenidos como inapropiados, todos ellos necesitan de una revisión por parte del equipo de moderadores humanos.
En Google y YouTube hacen uso extensivo del aprendizaje automático para detectar vídeos inapropiados antes incluso de que los usuarios puedan verlos (un 76% ni siquiera tenían visitas cuando fueron eliminados), pero a esa labor se suman un conjunto de profesionales —Google promete tener un equipo de 10.000 personas moderando contenido antes de que acabe 2018— y de usuarios que ayudan en esas tareas.
Esos usuarios entran en dos categorías: los usuarios convencionales como tú o como yo que pueden marcar un vídeo como inapropiado desde las opciones de la página de YouTube, o los moderadores de confianza de Google, usuarios que desempeñan esa labor de forma especializada. Estos últimos fueron responsables de detectar 1,1 millones de vídeos inapropiados, el 14% del total.
En Google no obstante destacan la labor de los usuarios convencionales, que detectaron 402.000 vídeos inapropiados en el cuartro trimestre de 2017. En realidad marcaron como inapropiados muchos más vídeos —9,3 millones en total—, aunque si éstos no violan las políticas de la comunidad no se eliminan del sistema.
La inteligencia artificial ayuda, pero sigue siendo insuficiente
Entre los aspectos que llevan a los usuarios humanos a marcar un vídeo como inapropiado están sobre todo los que tienen contenido sexual explícito (30%), son engañosos o son spam (27%), tratan de abusos u odio (16%) o son violentos o repulsivos (14%).
En Google explicaban cómo para reforzar esta tarea han puesto a dispositión de todos los usuarios un panel de transparencia en el que se mostrará a los usuarios el resultado de la actividad de los usuarios al marcar como inapropiados vídeos que han visto en YouTube. Ese panel ya estaba disponible para los moderadores autorizados, y ahora lo estará para el resto de usuarios.
La inversión en personas que logren ayudar a filtrar esos contenidos y eliminar aquellos no apropiados sigue en marcha, aunque en Google esperan que algún día esa labor se pueda realizar de forma autónoma por parte de sistemas de inteligencia artificial.
Por ahora esos sistemas aún están en pleno desarrollo y necesitan del juicio humano para decidir si el contenido es realmente negativo, y según los responsables de Google pasará aún tiempo hasta que hayan podido entrenar a estos sistemas para poder realizar esta tarea de forma autónoma.
En Xataka | He mirado todos los datos que Google tiene sobre mí, y confirmo que es el Gran Hermano definitivo
También te recomendamos
Tiroteo en las oficinas centrales de YouTube: esto es lo que ha pasado
Quiero una cafetera espresso: ¿qué diferencias hay entre una manual y una automática?
-
La noticia Ocho millones de vídeos eliminados en 3 meses: así está luchando YouTube contra los vídeos inapropiados fue publicada originalmente en Xataka por Javier Pastor .
via Xataka https://ift.tt/2JkSCu7
No hay comentarios:
Publicar un comentario