Al utilizar este servicio y el contenido relacionado, aceptas el uso de cookies para análisis, contenido personalizado y publicidad.
Estás usando una versión más antigua del explorador. Usa una versión compatible para obtener la mejor experiencia en MSN.

"Rivera es un facha": por qué las búsquedas de Google se autocompletan con insultos

El Confidencial El Confidencial 25/06/2016 Lucía Caballero

El actual presidente en funciones puedes ser “un inútil”, “un muñeco” o “un mentiroso”. Pablo Iglesias es “un peligro para España” y Albert Rivera, “un facha”. Así autocompleta el buscador de Google la frase que comienza con el nombre del respectivo candidato a las próximas elecciones seguido del verbo ser. De Pedro Sánchez pregunta que “quién es” y de dónde.

Lea aquí: El cerebro artificial de Google que aterra (y fascina) a ingenieros y científicos

No todos los resultados incluyen ofensas, pero algunos de ellos sugieren que los filtros que aplica el gigante tecnológico para eliminar palabras inapropiadas no funcionan demasiado bien. Sin embargo, desde la web SourceFed le han acusado de lo contrario: de alterar la función para eliminar sugerencias como “crímenes” y “acusado” al introducir el nombre de Hillary Clinton con el fin de manipular al electorado.

Desde Google se han defendido diciendo que “el algoritmo de autocompletar no muestra ninguna predicción ofensiva o despreciativa siguiendo a un nombre”. Según la compañía, “las predicciones están basadas en diferentes factores, incluyendo la popularidad de los términos de búsqueda”. Con motivo del revuelo han aprovechado también para explicar los aspectos básicos de la función de la mano de Tamar Yehoshua, responsable de producto de Google en el área de búsquedas.

© Proporcionado por El Confidencial

La función de autocompletar, también conocida como Google Suggest, funciona oficialmente desde el año 2008, aunque comenzó a probarse en 2004 −concebida por los ingenieros de Google Labs−. Sin embargo, no fue hasta 2010 cuando el buscador empezó a mostrar y cambiar las sugerencias mientras el usuario teclea en la barra.

Las palabras que propone se basan, primeramente, en las fórmulas que utiliza la gente para realizar sus pesquisas y la popularidad y relevancia de las búsquedas. Si muchas personas han ‘googleado’ que Iglesias es un peligro nacional o que Rajoy miente, entonces el algoritmo predictivo asociará esas palabras a sendos políticos. No hace falta que la frecuencia se haya mantenido en el tiempo: un pico muy pronunciado (normalmente provocado por algún acontecimiento reciente) basta para que los términos se cuelen en el menú de sugerencias.

Las anteriores consultas realizadas por el mismo internauta también determinan el resultado. Estas reciben, de hecho, un trato prioritario y el algoritmo las valora más que a las anteriores (las más populares), aunque el mismo usuario puede eliminarlas de la lista de propuestas.

Otros factores que influyen en las palabras sugeridas son el idioma y la localización geográfica: el país, la provincia o incluso la ciudad desde la que se consulta el motor de búsqueda determina los resultados que este va a devolver.

© Proporcionado por El Confidencial

Una barrera para los insultos

Yehoshua explica que Google añadió los filtros para eliminar las palabras injuriosas u ofensivas hace tiempo, debido a las quejas recibidas por este motivo. Hoy es posible comunicarles estas situaciones y pedir la retirada del contenido, tanto por parte del afectado como por terceros, siempre que el motivo de la denuncia cumpla ciertos requisitos.

Según los de Mountain View, el algoritmo descarta sugerencias que fomenten el odio o la violencia, que incluyan información personal, términos relacionados con pornografía o contenido para adultos, los que violan alguna norma o los que atentan contra la privacidad. Entre otras cosas, no muestra números de teléfono ni de la Seguridad Social.

Cuando este medio ha preguntado a la empresa sobre los detalles del ‘software’, no ha obtenido más información que la aportada por Yehoshua. “El filtro funciona de la misma manera sin importar de quién se trata”, indica el responsable de la compañía. Pero advierte que la función de autocompletar “no es una ciencia exacta” y que los resultados del algoritmo predictivo cambian frecuentemente debido a la gran cantidad de factores que tiene en cuenta.

Incluso las palabras que predice para una misma pesquisa de un mismo usuario pueden variar con el tiempo. “Hay que tener claro que las predicciones de la función autocompletar no son resultados de búsqueda y no limitan aquello que puedes consultar”, advierte Yehoshua. “Es solo un atajo para quienes estén interesados”.

Sin embargo, estos argumentos no han sido suficientes en varias ocasiones cuando las sugerencias calumniosas han llevado a la empresa ante los tribunales. En 2009, por ejemplo, el Centro Nacional Privado de Educación a Distancia francés demandó a Google por asociar la palabra ‘arnaque’ (estafa) a la organización en las búsquedas, y el gigante de internet fue declarado responsable del entuerto. Se le ha criticado también por su trato diferenciala las religiones.

Desgraciadamente, para quienes hayan pensado alguna vez en desactivar la funcionalidad, no existe tal opción. “Está construida sobre el buscador de Google para ayudarte a consultar información más rápida y fácilmente”, aseguran desde la compañía. Y añaden: “Siempre puedes elegir no clicar en las predicciones”. Un consejo que también vale para los que no estén de acuerdo con las sugerencias asociadas a los candidatos presidenciales. 

Albert Rivera, candidato de Ciudadanos. (Foto: Reuters) © Externa Albert Rivera, candidato de Ciudadanos. (Foto: Reuters)
Gestión anuncios
Gestión anuncios

Más de El Confidencial

image beaconimage beaconimage beacon