Vivimos en un mundo en el que hemos experimentado la popularización de nuevas tecnologías que mediatizan diversos aspectos de la sociedad sin ni siquiera plantearnos cuáles son sus consecuencias y efectos. Es hora de que desarrollemos una ética y un sentido de la responsabilidad en la industria a la altura de tales innovaciones.
Las Navidades son un tiempo entrañable en el cuál sueles tener tiempo para dedicar a alguna lectura pendiente o alguna película que te han recomendado. En mi caso, quería ponerme al día con la tercera temporada de “Black Mirror”. La serie sigue preguntándose por algunas de las inesperadas consecuencias de la popularización de determinadas tecnologías en la sociedad y, sobre todo, por los posibles usos no deseados de estos medios, en forma de sociedad distópica.
Esta última temporada cierra con un capítulo más largo de lo habitual (sobre una hora y media) y también con una historia más redonda, ya que introduce varias tecnologías disruptivas en el argumento, diversos retos sociales y medioambientales, y una serie de crímenes sin resolver que tendrán un final más que sorprendente.
De manera resumida, el capítulo nos pinta un futuro cercano en el que las abejas se han extinguido por culpa del ya conocido como Colony Collapse Disorder (este es un problema muy grave actualmente). Surge una compañía británica que ha desarrollado unos “robots abeja” para que la polinización de las flores siga su curso a través de esta tecnología. Estos artefactos son autorreplicables gracias a la impresión 3D de unas colmenas automatizadas e inteligentes y están en todo momento localizadas a través de un sistema de geoposicionamiento. La omnipresencia del sistema tecnológico en la sociedad es manifiesta y a medida que el capítulo avanza veremos la relación tan estrecha que mantiene el gobierno británico con esta empresa, con el objetivo de “vigilar” a sus ciudadanos. Además, este panóptico se convierte en una amenaza para la población cuando el sistema es “hackeado” y queda a entera disposición de los villanos.
Como no quiero desvelar más detalles de la trama lo voy a dejar aquí pero antes me gustaría exponer cómo este panorama que aparece en este episodio no es algo tan lejano. De hecho, tiene bastantes similitudes con las revelaciones de Snowden y de lo fácil que podemos ser observados y vigilados hoy en día a través de nuestro smartphone, ordenador, wearables, etc.
Todas estas tecnologías que nos rodean se han convertido en una fuente de información accesible, barata y poderosa a merced de las grandes compañías digitales. Esta es una de las paradojas que se expresan en el mencionado capítulo cuando una de las protagonistas le pregunta al dueño de la compañía de las abejas porqué permitieron insertar la tecnología de reconocimiento facial en las abejas robot sin informar a la ciudadanía. El CEO de la empresa simplemente se justifica comentando la cantidad de dinero que reciben del gobierno y las presiones que soportan.
Para los que quieran indagar más les comentaré que ya hay mucha gente trabajando en esta tecnología de “robots abeja” y que es algo de lo que seguramente oiremos hablar en próximos años ante la degradación progresiva e irremediable que estamos causando en el medioambiente. A pesar de que es un tema muy importante, no me gustaría detenerme más en esto sino volver al título del post al que hacía referencia.
Vivimos en un mundo cada vez mejor gracias a la Ciencia y a la Tecnología (o al menos eso es lo que dicen los datos) pero al mismo tiempo, estamos a merced de más riesgos. Los efectos no considerados o no deseables de la tecnología crean nuevas amenazas para la población, y gracias al grado de aceleración tecnológica que vivimos actualmente debemos ser más cautelosos que nunca.
Por ello, hace un tiempo que se habla de Investigación e Innovación Responsables (Responsible Research & Innovation) como una forma de prever esos impactos y efectos no deseados y de tratar de concienciar a quienes desarrollan esas tecnologías. Como bien apunta Catherine Flick en este post, la RRI es una evolución de los famosos “Technology Assesment” y “Ethics Review” que surgieron a partir de los estudios de Ciencia, Tecnología y Sociedad, pero que va más allá de hacer un test para tener los ansiados “checks” que permitan financiar proyectos de I+D. Otros académicos como Rene Von Schomberg, Jack Stilgoe y Richard Owen han escrito ampliamente sobre el tema y han contribuido a asentar un corpus de conocimiento cada vez más grande. A pesar de que la CE y EEUU están muy concienciados con el tema, ahora es el momento de que la industria abrace este paradigma y lo implemente. Esta es la única manera de evitar que adoptemos políticas reactivas y no preventivas.
Un caso referente a este último apunte es la polémica que se ha desatado a costa de las “fake news” y su impacto en los procesos democráticos llevados a cabo recientemente. Las redes sociales nos han traído nuevas posibilidades a la hora de acceder a información de todo tipo y de mantener un gran número de contactos, pero al mismo tiempo también han creado nuevos problemas.
La posverdad y los sesgos cognitivos se han revelado como elementos demasiado poderosos para los algoritmos que gobiernan este tipo de plataformas y por ello, no es extraño que se esté empezando a hablar de regular algo que debía haber sido diseñado de otro modo. Al fin y al cabo, un puñado de compañías en Silicon Valley son las responsables de que este tipo de noticias falsas se vuelvan virales e influyan y condicionen a la opinión pública ante la toma de decisiones relevantes. Hace poco, un artículo de opinión en The Guardian explicaba cómo a través del buscador de Google se niega la existencia del genocidio judío perpetrado por la Alemania Nazi, y es que la cantidad de noticias falsas y propaganda de extrema derecha está muy bien posicionada en torno a su famoso algoritmo.
¿Cuál es la responsabilidad de la compañía en permitir la negación de un hecho histórico como este? Demasiada como para escudarse en argumentaciones que giran en torno a la eficiencia técnica de sus algoritmos.