José Luis (@senorbot), es padre y marido, políticamente incorrecto, programador y orgulloso focoforero. Eso dice su cuenta de Twitter, pero es todo mentira. José Luis es un bot.
Uno muy especial, diseñado para sembrar el caos entre los trolls y tratar de que gasten sus fuerzas en él y no en usuarios inocentes. Marina Vega, una joven asturiana responsable de su creación, quería luchar contra esos trolls en Twitter, y ha logrado un resultado sorprendente. Otros bots surgieron en el pasado para combatir a esos usuarios tóxicos en Twitter, y esta es su historia.
José Luis es solo el principio
Como indican en El Confidencial, esta joven programadora de 24 años estaba harta de esos trolls de Twitter, así que decidió utilizar sus conocimientos para crear este bot que no hacía más que dar cuerda a ese tipo de usuarios que solo buscan el enfrentamiento y la polémica.
Hice un bot y a la semana había gente muy enfadada discutiendo con él en Twitter e intentando demostrarle que son pila listos. http://pic.twitter.com/j6gLwQ89bY
— Marina (@buenapava) 11 de julio de 2017
Lo hizo tras la polémica que hubo con el evento Gaming Ladies, como explicaba en esta entrevista en Canino. El resultado fue José Luis, un perfil que demuestra lo fácil que parece crear un bot y suplantar la identidad de una persona real para todo tipo de escenarios. El bot, programado en Ruby, hace uso de una base de datos que permite que actúe y responda cuando detecta ciertos términos, y las respuestas están almacenadas en ficheros JSPN.
Las conversaciones y respuestas de José Luis no son perfectas, claro, y cuando no reconoce el contexto del mensaje y no sabe qué responder exactamente, genera una frase aleatoria. O más bien generaba, porque Twitter ha bloqueado su cuenta por considerarla 'spam', y aunque es posible ver su actividad y Marina puede escribir tuits manualmente, la actividad automática del bot está desactivada.
Marina está tratando de reactivar su funcionamiento siguiendo las directrices de Twitter y el código que ha dado lugar a este bot podría publicarse próximamente, pero esta joven desarrolladora quiere trabajar un poco más en él porque José Luis podría no haberlo dicho todo aún.
Lo que lees en internet puede influirte, da igual que lo haya dicho un bot
El esfuerzo de esta joven programadora es en realidad parte de un movimiento que se inició hace años y que demostraba que los bots pueden influir en el comportamiento de los humanos en las redes sociales.
Un buen ejemplo lo tenemos en Botivist, un desarrollo de Microsoft Research que tenía como objetivo lograr que los usuarios que usaban Twitter como altavoz para quejarse de la corrupción que existía en el mundo contribuyesen con ideas y compartiesen esas ideas con otros. Algunos usuarios se quejaron de la implicación de un bot en este tipo de debate, pero el objetivo final se logró: "descubrimos que Botivist era capaz de animar a la gente a ir más allá de la simple queja contra la corrupción", afirmaba uno de sus creadores.
Eso también quedó patente en estudios como el de Kevin Munger, que analizó formas de relajar los mensajes racistas de usuarios en Twitter con un bot que asumía distintas personalidades: "si simulaba ser un hombre blanco con un gran número de usuarios, acababa reduciendo los mensajes racistas del usuarios tras cierto tiempo. Si el bot simulaba ser un hombre negro o tenía pocos seguidores, sus intervenciones no se podían calificar como exitosas".
Esa influencia en el debate e incluso la forma de pensar de usuarios humanos fue también aprovechada de una forma insólita el año pasado. Aunque es imposible medir el impacto real de aquel suceso, se ha descubierto que bots desarrollados por Rusia para actuar en Twitter lograron que el alcance de las noticias falsas durante las elecciones de 2016 en Estados Unidos fuera aún mayor.
No parece que Twitter lograra atajar el problema a tiempo, pero quien sí está trabajando en ello es Twitch. La plataforma para compartir partidas de videojuegos está teniendo su particular "infierno troll", con canales que acaban siendo tomados por trolls para contaminar la conversación y desviar la atención del juego o la partida para centrarla en mensajes racistas o sexistas. Twitch desarrolló un ejército de bots para monitorizar esas discusiones y alertar al anfitrión de ese canal cuando alguien ha publicado una palabra o comentario ofensivo. A partir de ahí es ese usuario que comparte su emisión el que decide qué hacer con ese usuario.
Los bots como arma contra los trolls de Twitter
Esos mismos principios fueron aprovechados por Nora Reed, una programadora y activista de Nuevo México que acabó desarrollando un par de bots en Twitter (@opinions_good y @good_opinions) para enviar mensajes como "el feminismo es bueno" o "creo que Donald Trump es horrible".
this infowars egg is the record holder
— Sarah Nyberg (@srhbutts) 6 de octubre de 2016
it argued with the bot for... almost TEN HOURS. yes, really. http://pic.twitter.com/DiQdNd8azw
A partir de ahí estudió el comportamiento de aquellos que veían estos mensajes, y como ella misma concluía "lo que he descubierto sobre esa gente —tanto los que hablan con mis bots como los que hablan conmigo— es que ninguno de ellos están realmente interesados en la conversación. Tienen ideas preconcebidas sobre la gente que habla sobre los temas por los que buscan y argumentos enlatados que quieren usar, y solo buscan la oportunidad de escupírselos a los extraños":
this is my favorite interaction
— Sarah Nyberg (@srhbutts) 6 de octubre de 2016
someone repeatedly attempts to sexually harass the bot thinking it's human, this is how it replies: http://pic.twitter.com/2xqXVRTJPZ
Hay más ejemplos singulares. Sarah Nyberg creó su propio bot, llamado Liz (@Arguetron) con el mismo propósito que Marina cuando creó a José Luis: lograr que los trolls desviasen su atención y esfuerzos a un bot para no atacar a otros usuarios humanos de Twitter. Usar un nombre femenino para la cuenta logra hacerla aún más "apetitosa" para los trolls. Tanto que algunos trolls acaban incluso tirándole los tejos al bot para ligar con ella (o "ello", más bien).
Los trolls que inundan las redes sociales se centran también a menudo en hacer ataques racistas y antisemitas. En Twitter algunas de esas personas simulan pertenecer a alguno de esos grupos que quieren criticar para comenzar a decir verdaderas barbaridades sobre ellos.
FYI, this account is a racist impersonating a Jew to defame Jews: http://pic.twitter.com/8YMa711OvY
— Imposter Buster (@ImposterBuster) 1 de diciembre de 2016
Un periodista judío llamado Yair Rosenberg llevaba tiempo estudiando este fenómeno en el que neo-nazis acababan haciéndose pasar por judíos que aprovechaban Twitter para criticar a los suyos con todo tipo de frases antisemitas. El periodista acabó pasando a la acción y junto a un desarrollador creó un bot de Twitter llamado Imposter Buster que detectaba esas suplantaciones de identidad para denunciarlas en esta red social.
Bots para todo y para todos
Mi compañera Anna Martí ya señalaba a finales del año pasado cómo en Twitter tratan de limitar el uso de estos bots, y normalmente lo logran gracias a que estos desarrollos se delatan a sí mismos por ciertas peculiaridades: acciones demasiado instantáneas, gestión de seguidores y seguidos o la propia actividad del bot (que te reconoce que lo es) son algunas de ellas.
Esos bots han ido demostrando en Twitter su capacidad, pero también lo difícil que es lograr que las conversaciones se mantengan dentro de lo razonable tanto ética como moralmente. Aquí tenemos un ejemplo del desastre en el que pueden acabar estos proyectos como Tay, aquel bot creado por Microsoft con el objetivo de conversar de todo con todo el mundo en Twitter que acabó siendo retirado por sus sorprendentes mensajes racistas.
Esa fiebre por el desarrollo de bots fue protagonista el año pasado para muchas de las grandes de la tecnología: de repente tener un chatbot en aplicaciones de mensajería instantánea y servicios de soporte se convirtió en algo casi obligatorio, y asistimos a la creación de diversos chatbots que lamentablemente demostraron no estar a la altura.
Es evidente que ese era solo el punto de partida. Los bots que nos permiten interactuar a través de mensajes en una conversación se irán volviendo más y más capaces de mantener una conversación decente, y de hecho será interesante ver cuánto tardan (porque la pregunta no es ya si lo lograrán) en suplantar a la perfección a los humanos a la hora de darnos conversación.
En Xataka | En el futuro será la línea de comandos: sobre los bots como las nuevas apps y el chat como el gran interfaz
También te recomendamos
Los retos adicionales de lanzar un chatbot de asistencia en un país como la India
A la caza de bots de Twitter: pistas, métodos y por qué es tan difícil detectarlos todos
14 cosas increíblemente simples (ahora) que eran una odisea en los 90
-
La noticia Los bots que luchaban contra los trolls fue publicada originalmente en Xataka por Javier Pastor .
via Xataka http://ift.tt/2tq0t6a
No hay comentarios:
Publicar un comentario