La proliferació de vídeos amb continguts inapropiats s’ha convertit en un problema que cal resoldre 

Youtube Kids va néixer amb l’objectiu de tenir un espai protegit per a la canalla en el gegant de l’audiovisual a Internet, davant la proliferació de continguts poc adequats i, fins i tot, ofensius o feridors. Amb aquesta aplicació, doncs, pares i mares podien respirar una mica més tranquils si deixaven la canalla sola davant d’un ordinador, una tauleta o un telèfon mòbil.

La gestió i filtratge de la informació, però, es va deixar principalment en mans de màquines. A grans trets, aquests ordinadors feien servir un sistema de control a partir d’una sèrie d’algoritmes. A la pàgina de suport  de YouTube Kids podíem llegir això:

 

‘A totes les versions de l’aplicació de YouTube Kids s’utilitzen algoritmes per crear filtres i seleccionar els vídeos de YouTube. Ens esforcem constantment perquè els nostres algoritmes siguin al més fiables possible per tal d’oferir-vos una versió més segura de YouTube. Tot i així, cap algoritme és perfecte. Amb això volem dir que és possible que el menor trobi contingut que no t’agradaria que veiés. Si és aquest el cas, marca el vídeo, ja que això ens ajuda a millora l’aplicació per a tots els usuaris’.

 

Què va passar? Tot va funcionar més o menys bé fins que, a Youtube Kids, van començar a aparèixer, de manera preocupant, vídeos que, malgrat l’aparent normalitat, amagaven comentaris ofensius i/o contingut no apte per a la canalla.

Arran de les queixes, a finals de l’any passat, la CEO de Youtube, Susan Wojcicki, en una publicació al blog de la companyia, va anunciar que es reforçaria la vessant humana en el control dels continguts a YouTube, a fi i efecte d’afinar els algoritmes que treballen a una velocitat molt més gran (es calcula que entre el juny i el desembre de 2017 el volum de material retirat per l’algoritme hauria necessitat aproximadament un contingent de 180.000 persones treballant 40 hores a la setmana!).

En cas de detectar un contingut inadequat o ofensiu, podeu marcar el vídeo perquè sigui revisat. Caldrà seguir aquesta seqüència:

  • Estar loguejat amb un usuari de Google.
  • Al peu del vídeo, hi trobareu tres punts. Feu un clic. Apareixerà una nova finestreta per ‘Informar’ sobre el contingut.
  • A continuació s’obrirà una finestreta en la qual haureu de marcar per què el vídeo té un contingut inadequat o ofensiu.
Sabeu com treballen les persones que controlen els continguts de les xarxes socials? Aquest documental de Field of Vision ho resumeix de manera clara i diàfana: ‘The Moderators’.
Vols seguir-nos?