La inteligencia artificial podría salvar nuestro mundo. O condenarlo, claro. Seguidores y detractores de esta tecnología están librando una batalla en la que los prodigios que se prometen contrastan con las distopias más o menos exageradas en las que la humanidad acaba o bien arrasada por las máquinas o bien aburrida y deprimida porque los robots le han robado todos los trabajos que había.
El potencial de la inteligencia artificial es enorme, y los avances que hemos visto en los últimos meses y años confirman que estamos ante la que podría ser la gran revolución de nuestro tiempo. Los algoritmos podrían dominarlo todo y hacer que vivamos en un mundo mejor, pero hay quien opina que hay que ponerle freno a esos algoritmos... y hacerlo ya.
Que los algoritmos decidan no es buena idea (de momento)
Una de las razones es lógica: los algoritmos están aún en pañales, y muchas veces se comportan de maneras que no habíamos anticipado y con resultados que como poco son insatisfactorios. El sistema automatizado de de edición de contenidos de Facebook censuró una de las fotos más célebres de la historia, la titulada 'The terror of war', de Nick Ut, y tapó a la niña desnuda protagonista de la foto considerando que esta era una violación de la tradicional política contra los desnudos de niños.
Facebook tuvo que dar marcha atrás y republicar la foto original sin censura tras críticas muy fuertes que llegaron incluso de la Primera Ministra de Noruega, Erna Solverg, que llegó a indicar que al modificar esas imágenes Facebook estaba "redactando nuestra historia compartida". El problema es que ese era solo un pequeño ejemplo que de un error que sí se detectó, pero existen muchos más que no se detectan o que si lo hacen no tienen tanta relevancia pública (pero sí personal) como el de la célebre fotografía ganadora de un Premio Pulitzer.
Kate Crawford, investigadora en el campo del aprendizaje automático, precisamente advertía de ese peligro en una reflexión en la que calificaba a este descubrimiento como la punta de un iceberg gigante, uno en el que las decisiones automatizadas o semiautomatizadas no se detectan, y su impacto puede ser brutal.
La culpa no es de los algoritmos, sino nuestra
El problema es que estamos dándole un poder de decisión a la inteligencia artificial que ésta no debería tener. De repente estos algoritmos deciden quién debe ser contratado, quién se lleva la promoción, o incluso nos avisan de qué niño acabará siendo un criminal a los 18 años. Y cuando otros algoritmos tratan de revelar quién cometerá actos delictivos, resulta que nos encontramos con algoritmos racistas.
La cosa se complica cuando comprobamos que la culpa de esa realidad que nos presentan los algoritmos no es de ellos. Es nuestra, algo que dejamos claro hace unos meses en Magnet, cuando hablábamos del célebre caso de los "tres chicos blancos" y "tres chicos negros" que uno podía buscar con el buscador de imágenes de Google. En el primer caso se mostraba un trío de jóvenes sanos y deportistas. En el segundo, se mostraban fotografías de arrestos de jóvenes negros en Estados Unidos. Google era racista, determinó el estudio realizado por unos estudiantes de Virginia.
En Google tienen un problema real con temas tan delicados como el racismo o el machismo. Lo hemos visto con los casos de peinados poco profesionales para ir a trabajar (solo salían mujeres de raza negra) y peinados muy profesionales (mujeres de raza blanca), pero también con hombres futbolistas (con los resultados que uno esperaría) o mujeres futbolistas (las primeras imágenes eran más de modelos vestidas de futbolistas que de jugadoras reales) y con un estudio que dejaba claro que el mercado laboral era más favorable para hombres que para mujeres. Por no hablar de la polémica con Google Fotos y los gorilas.
Como afirmaba nuestra compañera Esther Miguel Trula, un algoritmo es un eco de los estereotipos de nuestra mente, más que una herramienta que muestre cómo es el mundo real. Google es racista porque internet es racista, afirmaban en Wired al hablar de otro de los servicios "racistas" de Google, Google Maps. Por cierto, parece que nos estamos cebando con Google, pero Snapchat tuvo una crisis muy reciente al respecto, y algo antes Microsoft también cayó en ese error: ¿Os acordáis de Tay?
El debate sobre si las computadoras pueden ser o no racistas es absurdo, porque los que somos racistas somos los seres humanos, que creamos los algoritmos que hacen funcionar el buscador de Google, el motor de recomendaciones de compras de Amazon o el de canciones de Spotify.
Es evidente que ninguna de las empresas que ofrecen esas empresas tienen intención de ser racistas o machistas, por ejemplo, pero estos algoritmos se alimentan tanto de los datos que les proporcionamos como de los criterios con los que han sido programados. La computadora simplemente hace lo que le hemos dicho que haga. Al menos por el momento, diría Elon Musk.
Esta amenaza presente y real que presentan estos sistemas ha hecho que algunos expertos se hayan unido para tratar de debatir sobre la cuestión. En el simposio AI Now organizado por la Casa Blanca se evaluó el impacto económico y social de la inteligencia artificial en los próximos 10 años y se llegó a una conclusión incómoda: "no hay métodos aprobados para evaluar los efectos humanos y el impacto longitudinal de la Inteligencia Artificial que se está aplicando a sistemas sociales".
Puede que esos algoritmos acaben siendo mucho mejores en la toma de decisiones que los seres humanos, pero eso no quiere decir que esas decisiones y procesos no tengan que ser supervisados. Y deberían serlo más que nunca ahora, cuando esta tecnología está demostrando que los aciertos pueden ser tan sorprendentes como los errores.
El filtro burbuja
Otro de los efectos colaterales de ese uso indiscriminado de la inteligencia artificial para la toma de decisiones es el que afecta a nuestros propios gustos y nuestra percepción de la realidad: Google News y Facebook perfilan lo que leemos y vemos en internet a diario, y esos algoritmos, como muchos otros, crean el llamado filtro burbuja. Eli Pariser hablaba de ello en TED2011:
El ejemplo más claro podría ser el de servicios como Spotify: el algoritmo que utilizamos para escuchar música toma en cuenta nuestras preferencias musicales a partir de las búsquedas que realizamos y las canciones que escuchamos. A partir de ahí es capaz de sugerirnos temas y artistas de ese perfil, pero el problema es, como afirmaba Tim O'Reilly, que "nos alimenta con más de lo que queremos escuchar, en lugar de exponernos a otros puntos de vista".
El problema se hace patente en los medios de comunicación que hacen (hacemos) uso de algoritmos de otros servicios para tratar de detectar los temas más interesantes en cada momento (descubrimos temas siguiendo medios y cuentas relevantes de Facebook o Twitter, entre otros). Ese interés, no obstante, está condicionado por algoritmos sobre los que nosotros no tenemos control alguno: las historias de las que hablamos son las más virales, las que están generando debate e interés entre los usuarios, pero... ¿por qué esas y no otras? La larga cola actúa, y el acto del descubrimiento se vuelve más complejo.
Cedemos una vez más a la comodidad y a lo fácil que nos lo ponen servicios como Facebook o Twitter, en los que sí tenemos cierto poder de decisión (a quién seguir) pero a partir de las cuales solo podemos contemplar una parte (muy pequeña) de nuestra realidad. Y una además condicionada por criterios propios que vuelven a envolvernos en esa burbuja.
Esta realidad demostró serlo una vez más en otro de los grandes fenómenos mediáticos de los últimos tiempos: Netflix. En el libro 'The Netflix Effect' dos investigadores explicaron cómo los sistemas de recomendación personal tienden a "dirigir al usuario hacia ese contenido, por lo que meten al usuario en el gueto de una categoría prescrita con contenido clasificado demográficamente". Son los algoritmos piña: nos unen y reafirman más en nuestros gustos y criterios, pero es probable que también nos condicionen a la hora de aceptar los gustos y criterios de otros.
Auditar el algoritmo es la clave para confiar en él
¿Qué hacer para protegernos de ello? El secreto está en poder estudiar esos algoritmos. Comprenderlos. Es más: auditarlos. O'Reilly proponía un conjunto de cuatro reglas para lograr saber si podíamos o no fiarnos de un algoritmo:
- Sus creadores han aclarado el resultado que buscan, y es posible que observadores externos verifiquen ese resultado.
- El éxito es medible.
- Los objetivos de los creadores del algoritmo están alineados con los objetivos de los consumidores del algoritmo.
- ¿Permite el algoritmo llevar a sus creadores y usuarios a una mejor toma de decisiones a largo plazo?
La aplicación de esas reglas permite explicar el punto en el que nos encontramos, por ejemplo, con los prometedores coches autónomos. Las dos primeras reglas se cumplen, pero la cosa se complica con la tercera y la cuarta regla: no hay una alineación de la industria con los coches autónomos porque hay demasiados intereses creados alrededor de ese segmento.
Millones de puestos de trabajo estarían en juego, así que para muchos "mantener al ser humano en el bucle" es algo crucial para poder seguir subsistiendo. No tenemos coches autónomos no tanto porque los algoritmos no estén preparados (están cerca de estarlo), sino porque su implantación tiene efectos colaterales imposibles de cuantificar. Al menos, de momento.
Para O'Reilly todo se reduce al hecho de que "hay un algoritmo maestro que domina nuestra sociedad", y éste no es uno en el que se haga un uso excepcional del aprendizaje automático. No. Es el pilar básico de las empresas modernas: que la única obligación de un negocio es para con sus accionistas. Hasta que eso no cambie, veamos más allá y nos fiemos de los "otros" algoritmos, no avanzaremos. Pero para hacerlo, claro, tendremos que estar muy atentos a lo que estos hacen y también a lo que dejan de hacer.
En Xataka | Los académicos nos dicen la verdad sobre el estado del hype de la Inteligencia Artificial
También te recomendamos
Google DeepMind ya está aprendiendo a jugar con objetos físicos. Sí, como un niño pequeño
¿Qué han enseñado las hormigas a la arquitectura?
-
La noticia Los humanos que se rebelan contra los algoritmos fue publicada originalmente en Xataka por Javier Pastor .
via Xataka http://ift.tt/2gB92ED
No hay comentarios:
Publicar un comentario