LPeligroso YouTube: vuelve a protagonizar titulares por su algoritmo de búsqueda
Un equipo de investigadores de Harvard ha descubierto que el algoritmo de YouTube mostró, entre otros muchos, un inocente vídeo en el que aparecían dos niñas brasileñas de 10 años bañándose en una piscina en el patio trasero de su casa, a usuarios que habían visto con anterioridad vídeos de temática sexual u otros de niños prepúberes y parcialmente vestidos, según informa The New York Times y recoge La Vanguardia.
Una de las niñas que aparece en el clip lo había subido a la plataforma, y su madre Christiane, que vive en un suburbio de Rio de Janeiro, pensó que las imágenes eran inocentes y que no habría ningún problema.
Al cabo de pocos días, la filmación acumulaba más de 400.000 visitas, lo que sorprendió a su madre y a los científicos del Centro Berkman Klein para internet y la sociedad de Harvard, que encontró la grabación mientras investigaba el impacto de YouTube en Brasil.
Los investigadores descubrieron que el algoritmo de YouTube era el responsable de seleccionar imágenes -a veces entre los vídeos caseros de familias que permanecían absolutamente ignorantes- que terminaron en un único repositorio que fue sugerido a una gran audiencia de personas las cuales anteriormente habían visto vídeos de contenido sexual.
Jonas Kaiser, uno de los miembros del centro universitario que hizo el descubrimiento, ha asegurado que YouTube no actuó de forma premeditada al mostrar estos vídeos
Jonas Kaiser, uno de los miembros del centro universitario que hizo el descubrimiento, ha asegurado que YouTube no actuó de forma premeditada al mostrar estos vídeos a determinados usuarios, pero su sistema automatizado hizo recomendaciones que calificó de “inquietantes” a personas con intereses sexuales pedófilos.
En febrero, algunos medios tecnológicos ya advirtieron a la plataforma propiedad de Google de que tenía un problema con la pedofilia. Fue entonces cuando se descubrió que los pedófilos usaban los comentarios para guiarse entre ellos hacia vídeos en los que aparecía niños con poca ropa. Esto llevó a YouTube a deshabilitar esta funcionalidad en muchas filmaciones en las que aparecían menores.
La máquina -tambien conocida con la tontuna de 'inteligencia artificial"- siempre debe estar sometida a un hombe.