Articles

100 AÑOS DE ASIMOV

La Vanguardia | | 5 min read

Se cumplen 100 años del nacimiento de Isaac Asimov, el genial científico, divulgador y escritor de ciencia ficción. Pertenecía una estirpe de visionarios como Arthur C. Clarke (2001 Una Odisea del Espacio), Ray Bradbury (Crónicas Marcianas) o Carl Sagan (productor de la inolvidable serie Cosmos), que nos hicieron soñar en un épico futuro de conquista del espacio. George Lucas, en La Guerra de las Galaxias plasmó cinematográficamente la esencia de esa época. Eran los últimos coletazos de un tiempo inaugurado con el Sputnik orbitando la Tierra y con Kennedy movilizando a su nación para poner un pie en la Luna. “Un pequeño paso para una persona, un gran paso para la humanidad”, diría Neil Armstrong, comandante del Apolo XI, nave que consiguió su objetivo con una memoria electrónica un millón de veces menor de la que llevamos hoy en nuestro iPhone. 

Asimov anticipó un inquietante escenario de convivencia con máquinas inteligentes cuando propuso sus “tres leyes de la robótica”: (1) un robot no dañará jamás a un humano (ni de forma activa ni por omisión), (2) un robot siempre obedecerá a un humano, si ello no entra en conflicto con la primera ley, y (3) un robot protegerá su existencia, excepto si esto viola la primera o la segunda ley. En 2020 la realidad está lejos de la que imaginó Asimov. No se ha conquistado el espacio. Los viajes tripulados a la Luna acabaron en 1972, aunque China ha enviado naves a la cara oculta. La humanidad no ha salido del Planeta Azul, pero el cosmos se privatiza: Space X (Tesla) o Blue Origin (Amazon) quieren tomar el relevo de la NASA. Tampoco hay robots-humanoides vagando por las calles. Pero la inteligencia artificial (IA) tiene otras formas: pedazos de código distribuidos y omnipresentes. Algoritmos invisibles incrustados en teléfonos móviles, vehículos, redes sociales, portales de e-commerce, dispositivos médicos, altavoces o cámaras digitales que almacenan nuestros datos, los comparan con otros y aprenden de sí mismos, hasta el punto de saber más de nosotros que nosotros mismos.

La IA está abriendo inesperados dilemas. Se avecinan fuertes controversias con la capacidad predictiva de la IA: ¿es oportuno que un algoritmo anticipe cuándo desarrollaremos una grave enfermedad genética? ¿Qué vaticine cuándo vamos a morir? ¿O, simplemente, qué nos sugiera con quién debemos casarnos? (y sepamos que objetivamente quizá está en lo cierto). ¿Externalizaremos decisiones vitales a algoritmos cada vez más certeros? Surgen conflictos en la autonomía de la IA. Se ha popularizado el caso del vehículo autoconducido: un automóvil gobernado por un procesador de alta velocidad es capaz de calcular de forma precisa las consecuencias de sus movimientos en el caso de un accidente. ¿Mata a un niño que cruza inesperadamente una calle, o se desvía contra un muro, sabiendo que entonces morirá el tripulante? Los departamentos de márketing, implícitamente, han decidido ya: matará al niño (o, dicho de otro modo, jamás dañará al cliente). ¿No habría que proteger siempre la vida de un niño? ¿Y, si es un anciano? ¿La decisión depende de quién es la persona? ¿De su edad? ¿De su nivel socioeconómico? ¿De qué cuota pague el tripulante?

La utilización de la IA no es menos controvertida. Google, Facebook o Amazon pueden crear perfiles psicológicos acertados de sus usuarios. Se pueden utilizar para vender productos o para influir en el voto en unas elecciones. Las plataformas digitales amenazan la democracia. ¿La podrían complementar o substituir? Si ya sabemos qué quieren los ciudadanos a través de big data, ¿para qué votar? ¿Podríamos substituir el sistema de partidos y las elecciones democráticas por sistemas de toma de decisiones automáticas sobre presupuestos públicos, en un tipo de tecnocracia automatizada?

Mayores dilemas surgen en los ámbitos de substitución por la IA. Un algoritmo digital trabaja a coste marginal cero: una decisión más, para un algoritmo entrenado, tiene coste nulo. El escenario es contraintuitivo: será, quizás, más fácil substituir a un director de hotel que al servicio de limpieza (que no tiene coste marginal cero: para limpiar, hay que utilizar un dispositivo físico). ¿Vamos a un futuro sin trabajo? ¿Veremos emerger una useless class, en palabras del historiador Harari -clase inútil, desprovista de sentido económico, excluida del sistema? Podríamos tener “empresas autoconducidas”, dirigidas por IA, con management electrónico. Y, si es así, en caso de error, fraude o bancarrota, ¿cómo se distribuye la responsabilidad?

Por último, nos faltan respuestas a los escenarios de la superación de las personas por IA. El cerebro humano es un dispositivo biológico con 100.000 millones de neuronas. Si la tecnología sigue el ritmo actual, hacia 2040 dispondremos de procesadores con arquitecturas tan densas en conexiones como un cerebro. Intel ya ha anunciado chips que simulan el cerebro. Microsoft destina 1.000 millones ese fin. Parece que el último sprint de la carrera hacia el cerebro artificial ya se ha iniciado. ¿Emergerá de esos dispositivos una consciencia? ¿Se dará cuenta una máquina de que existe? Y, si eso ocurre, ¿será legalmente un organismo vivo? ¿qué derechos y obligaciones tendrá?

Aunque acertó en la necesidad de establecer un marco regulatorio, el escenario real es mucho más complejo que el imaginado por Asimov. Hoy la IA y su impacto en la sociedad y la economía generan más preguntas que respuestas. Pero habrá que actualizar las leyes de la robótica del genial autor y adaptarlas a la era de los algoritmos. Deberemos establecer nuevos marcos éticos y legales. Paradójicamente, en un mundo dominado per la tecnología, la perspectiva filosófica y humanística, y el juicio crítico, serán más necesarios que nunca.