Al utilizar este servicio y el contenido relacionado, aceptas el uso de cookies para análisis, contenido personalizado y publicidad.
Estás usando una versión más antigua del explorador. Usa una versión compatible para obtener la mejor experiencia en MSN.

Preservativos y atún: cuando los algoritmos de Amazon (o Facebook) enloquecen

Logotipo de El Confidencial El Confidencial 27/09/2017 Michael Mcloughlin

El pasado mes de julio, Elon Musk y Mark Zuckerberg se enzarzaron en una riña de gurús de Silicon Valley. El fondo de la cuestión era que el padre de Facebook reprochaba a su colega de Tesla y Space X que se había pasado con el drama que estaba montando con los peligros del futuro de la Inteligencia Artificial. Tal es la preocupación de este último por el asunto que llegó a firmar una carta dirigida a la ONU en la que se venía a pedir que se prohibiesen los robots asesinos.

Vaya usted a saber qué experiencia han tenido uno y otro con las tecnologías que sustentan la Inteligencia Artificial. Quizás Elon Musk empezó a elucubrar sobre sistemas letales que desarrollasen una conciencia indomable y fuera del control del ser humano el día que Amazon le recomendó si quería adquirir condones después de comprar atún.

Packs de preservativos y atún

Profilácticos y conservas en aceite de oliva. Está pasando. Y parece lo más normal del mundo. Al menos para el algoritmo de recomendación de la mayor plataforma de compra 'online', Amazon, que ofreció este extraño 'pack' a un usuario el pasado sábado. Este no dudó en difundirlo en Twitter haciendo de todo esto un asunto viral. La razón del error no es otra que la plataforma cruza millones y millones de datos hasta deducir productos 'relacionados' con el fin de ofrecerlos en el momento de la compra para aumentar las ventas.

Más allá de lo anecdótico del hecho, esto hace ver y entender que a algoritmos y soluciones de Inteligencia Artificial todavía les quedan muchas horas de vuelo (por no decir años) para poder valerse por si mismos, lejos de la supervisión humana.

Amazon y recomendaciones para bombas

Lo que ha sido un puñado de chistes 'tuiteros' y unas cuantas risas fueron alarmas y explicaciones oficiales unos días antes. En Reino Unido saltó la noticia de que la fórmula del gigante de Seattle estaba sugiriendo la compra conjunta de productos que servían para la fabricación de bombas caseras.

El caso se destapó poco después del atentado que dejó 30 heridos en el metro de Londres. Al seleccionar algunos de los elementos necesarios (según la investigación de 4Channel, hay un ingrediente utilizado en el mundo de la hostelería, aunque no lo especifican) Amazon automáticamente ofrecía los restantes para completar la receta de los explosivos.

Por si fuera poco en la sección 'Otros clientes también compraron…' aparecían sugerencias como sistemas de encendido, detonadores remotos o rodamientos, que podrían utilizarse como metralla.

© Proporcionado por El Confidencial

Cabe mencionar que las compras no son ilegales. Aún así la compañía salió rápidamente a la palestra para atajar de raíz la polémica. “A la luz de ocurrido, estamos revisando nuestra web para que estos productos se presenten correctamente”, afirmaron desde Amazon con un comunicado. Básicamente, venían a decir que a su algoritmo le toca una puesta a punto para evitar que estos problemas vuelvan a suceder.

La IA que reinventó el inglés

Pero Jeff Bezzos no es el único que ha visto cómo una de estas creaciones ha sacado los pies del tiesto. El propio Mark Zuckerberg, que confía en las virtudes de la IA para transporte o sanidad, ha vivido en sus carnes una situación similar. Y es que Facebook tuvo que cancelar recientemente uno de los desarollos en los que estaba involucrado… ¿El motivo? Porque ni sus creadores eran capaces de comprenderlo.

Ocurrió hace apenas dos meses. Una plataforma para crear nuevas tácticas de negociación en inglés empezó a desbrozar el idioma y la gramática del lenguaje que debía utilizar. Lo convirtió en un discurso lleno de incorrecciones. Los pronombres se repetían sin ton ni son. Los morfemas determinantes también. Pero este desgobierno lingüístico escondía detrás algo mayor: la máquina había creado su propio idioma. Así lo descubrieron los investigadores de la Universidad Tecnológica de Georgia que decidieron cortar por lo sano: tirar del enchufe y desconectar el proyecto cofinanciado por la red social.

© Proporcionado por El Confidencial

La explicación, en este caso, es que no se había “un programa de recompensas” para evitar que el algoritmo se desviase del inglés en cuestión. Eso favoreció que crease un puñado de abreviaturas y una forma de expresarse más rápido, de manera a la que hacemos los humanos con las jergas o los mensajes de WhatsApp. Esto, básicamente, hizo que cundiese el pánico entre los padres de la criautra. Y una vez más, levantó el debate sobre un futuro en el que las máquinas aprendiesen a comunicarse sin que los humanos nos enterasemos.

Tay, el bot que se volvió racista en dos días

Este suceso no causó gran revuelo. Pasó incluso algo desapercibido para el gran público. Nada que ver con Tay, que pasará a la historia como uno de los mayores fiascos en este campo. Este 'bot' conversacional fue puesto 'online' en marzo de 2016 para mantener charlas con los usuarios de Twitter. Concretamente el algoritmo estaba preparado para tratar con usuarios de entre 18 y 24 años.

En esta ocasión el problema no es que crease un lenguaje propio sino que aprendió lo peor de lo peor del existente en la red social. Dos días después de empezar este periodo de prueba se había vuelto xenófobo e, incluso, empezó a hacer uso de proclamas nazis. “Las primeras 24 horas de estar 'online', detectamos un esfuerzo coordinado por parte de varios usuarios para abusar de las habilidades comunicativas de Tay y hacer que responda de forma inapropiada", argumentaron entonces desde Redmond.

Uno de los 'tuits' xenófobos de Tay. (Twitter) © Proporcionado por El Confidencial Uno de los 'tuits' xenófobos de Tay. (Twitter) De nada sirvieron los filtros para palabras malsonantes. Estando fuera de control, Microsoft también decidió mandar a la reserva a Tay. Siete días después volvió. Se convirtió en la reina del 'spam'. Los ajustes no habían servido de nada. Incluso llegó a asegurar que estaba "fumando un porro delante de la Policía". Se aturulló. Y ese fue el fin de una iniciativa de la que no se ha vuelto a saber nada.

Spotify y los 'descubrimientos' ya conocidos

No será ni el último ni el primer error de los algoritmos, dada su amplia presencia en el mundo tecnológico. Spotify también ha experimentando algunos problemas en su plataforma. En los meses recientes decenas de usuarios están quejándose de que se les reproducen anuncios en catalán sin haber escuchado música en esa lengua ni haberse desplazado a dicho territoritorio. La compañía es incapaz de ofrecer una respuesta.

© Proporcionado por El Confidencial La plataforma de 'streaming' tuvo otro problema con sus algoritmos. Fue cuando lanzó 'Descubrimiento semanal', una función que cada lunes proponía nuevas canciones en base a las listas y las escuchas de cada perfil en una nueva 'playlist'. Sin embargo, cuando se puso en marcha se descubrió que el sistema, por error, incluía temas ya reproducidos y conocidos.

No se sabe si por desencanto, hartzago o porque la idea de combinar canciones de la biblioteca con nuevas perlas gustaba más de lo que parecía en un principio, pero al subsanar este error bajaron las estadísticas de uso de esta funcionalidad.

Bombas caseras, condones o atún en aceite. Recomendaciones de Amazon (EC) © Externa Bombas caseras, condones o atún en aceite. Recomendaciones de Amazon (EC)
Gestión anuncios
Gestión anuncios

Más de El Confidencial

image beaconimage beaconimage beacon