Es una innovación (de eso no hay duda) que los robots sean capaces de participar en guerras bajo objetivos claros con un mínimo margen de error, aunque ese objetivo sea matar seres humanos. La idea puede sonar aterradora, pero a día de hoy es viable gracias a los avances tecnológicos que tenemos a nuestro alcance.
Voces como las de Elon Musk y Stephen Hawking no se han cansado de advertirnos acerca del uso de la inteligencia artificial en armas, un peligro potencia que podría acabar con la raza humana. Bajo esta misma premisa está surgiendo una iniciativa que busca impulsar una regulación mundial que prohiba el uso y desarrollo de armas autónomas, iniciativa que ahora busca advertirnos de este peligro a través de un aterrador vídeo.
'Slaughterbots': Una clara y dura advertencia
Esta iniciativa está liderada por Noel Sharkey, profesor de IA en la Universidad de Sheffield en el Reino Unido y presidente del Comité Internacional sobre Control de Armas en Robots, que junto a una coalición internacional conformada por profesores, investigadores y líderes tecnológicos, presentaron hace unos días a la ONU un documento que busca prohibir el desarrollo de tecnología de inteligencia artificial y la fabricación a gran escala de hardware para armas autónomas. La legislación también busca vigilar a cualquiera que trate de desarrollar este tipo de sistemas.
Según este grupo, estamos a punto de crear armas autónomas que podrán matar sin la ayuda de seres humanos, y como parte del esfuerzo que busca crear conciencia en el mundo, han creado una campaña a través de un vídeo que nos sitúa en ese supuesto futuro donde la innovación se sale de control. Una idea que suena a capítulo de 'Black Mirror' pero que podría convertirse en realidad en unos cuantos años.
En el vídeo se nos planeta la presentación de una nueva especie de drone diminuto con inteligencia artificial, los cuales son capaces de efectuar ataques en contra de los "malos" (sin importar quiénes sean) con una asombrosa precisión. Esta tecnología puede ser adaptada no sólo a drones para ataques personales, sino también a aeronaves de gran tamaño para ataques nucleares y batallas en tierra.
Todo lo que necesitan estos robots son datos como edad, sexo, aspecto físico, etnia o algún tipo de uniforme o sello característico en su ropa. Incluso se plantea la idea de atacar a activistas por medio de monitorización vía redes sociales, donde todos los que apoyen cierto hashtag o causa pueden ser el blanco de estos robots.
Pero como suele suceder en todos estos casos, la tecnología cae en manos equivocadas y se desatan una serie de ataques en contra de senadores de los Estados Unidos, así como en contra de varios estudiantes que compartieron un vídeo en redes sociales en favor de los Derechos Humanos.
El científico informático Stuart Russell de la Universidad de California, Berkeley, asegura que la tecnología para esto ya está aquí, sólo falta que se miniaturice y se haga masiva:
"He trabajado en IA por más de 35 años. Su potencial para beneficiar a la humanidad es enorme, incluso en tareas de defensa, pero permitir que las máquinas elijan matar humanos será devastador para nuestra seguridad y libertad. Miles de mis colegas investigadores están de acuerdo. Tenemos la oportunidad de prevenir el futuro que acabamos de ver, pero nuestro margen de maniobra se está cerrando rápidamente."
Un ejemplo de esto es que hoy día ya existen drones pilotados por ordenadores, sistemas avanzados de reconocimiento facial que funcionan a una velocidad que supera al ser humano, así como armas capaces de apretar un gatillo sin la necesidad de que intervenga un soldado. Este grupo de científicos asegura que de seguir así, la próxima guerra se librará a una velocidad impresionante donde la cantidad de pérdidas humanas superará todo lo que hayamos visto antes.
Más información | Ban Lethal Autonomous Weapons
También te recomendamos
-
La noticia El inquietante vídeo que muestra cómo será el futuro cuando las armas autónomas sean capaces de matar seres humanos fue publicada originalmente en Xataka por Raúl Álvarez .
via Xataka http://ift.tt/2A3pKVV
No hay comentarios:
Publicar un comentario