¿Por qué?

¿Por qué?

martes, 1 de agosto de 2017

Inteligencia artificial y responsabilidad

¿Por qué no nos preocupa el auge que está teniendo la producción de máquinas inteligentes? ¿Por qué pensamos que la proliferación de robots solo puede traernos beneficios, incrementar nuestro bienestar y mejorar nuestro modo de vida? ¿Por qué no vemos las señales que van llegando? ¿Por qué no se habla más de la irresponsabilidad de la inteligencia artificial?



Hace ya un porrón de años que una máquina fue capaz de derrotar al campeón del mundo de ajedrez en una partida. Ahora, ha ocurrido lo mismo con el mejor jugador de go del mundo. Ajedrez y go son dos de los juegos de estrategia más complejos que existen, por eso las grandes empresas informáticas no han dudado en invertir muchísimo dinero para conseguir máquinas ‘inteligentes’ capaces de vencer a los seres humanos más inteligentes. ‘Si alguna vez logramos crear una máquina que gane al campeón del mundo de ajedrez o al mejor jugador de go del mundo, qué no seremos capaces de hacer’, debieron de pensar los gerifaltes de esas empresas. Y así ha sido. La inteligencia artificial no se ha quedado relegada a los juegos de mesa, sino que ya empieza a formar parte de nuestras vidas… o así será dentro de poco. ¡¡¡Y nadie se ocupa de establecer los límites!!!

Se habla de máquina inteligente, o inteligencia artificial, cuando una máquina es capaz de tomar decisiones por su cuenta, sin necesidad de intervención humana. Digámoslo así: los humanos la diseñaron, la fabricaron, la programaron… y la soltaron al mundo. En realidad, salvando las distancias, es algo similar a lo que hacen los humanos cuando tienen un hijo: planifican el embarazo, crían al retoño, lo educan… y lo sueltan al mundo. En este sentido, visto desde la perspectiva de la inteligencia, máquina y retoño serían lo mismo: dos entes inteligentes, autónomos y con capacidad para tomar decisiones. Ahora bien, ¿qué ocurre con la responsabilidad? La del retoño parece clara: cuando cumple la edad legal, el responsable de sus actos es él; hasta que cumple la edad legal, la responsabilidad recae en los padres. ¿Y con la máquina qué pasa? Ése es uno de los intríngulis de la inteligencia artificial: ¿quién es responsable de los actos de una máquina capaz de tomar decisiones por su cuenta? Veámoslo con un ejemplo: los coches inteligentes.

¿Que no has oído hablar de los coches inteligentes? Sí, hombre, son coches que, a no tardar mucho, circularán por las carreteras sin que nadie los conduzca y permitirán a sus ocupantes dormir durante el trayecto o echar una partida de ajedrez, por ejemplo, sin preocuparse de atender a las circunstancias del tráfico. Hace tiempo que se viene hablando de ellos. Ya existen algunos prototipos que se están probando en condiciones de circulación reales. E incluso ya ha habido algunos accidentes de tráfico con estos coches involucrados. Y ahí llega el lío: si un coche inteligente ha tomado una decisión que ha causado el accidente, ¿quién es el responsable de los daños: el (no-)conductor, el propietario, el fabricante? Cuando el culpable del accidente es un humano, la responsabilidad es también suya, esto está claro. ¿Qué pasa con una máquina inteligente? Eso no está nada claro, pero nada de nada.

Por cierto, hay algunas voces que empiezan a hablar también de la moralidad de la inteligencia artificial. Siguiendo con el ejemplo del coche, ¿debería estar programado para salvaguardar a toda costa la integridad física de su único ocupante, aunque eso signifique atropellar, por ejemplo, a 5 personas que están cruzando indebidamente la carretera o debería estar programado con criterios morales que le hagan optar por el mal menor? That is the question! Responsabilidad y moralidad… no parecen cuadrar mucho con artificial, ¿no? Veremos.

No hay comentarios:

Publicar un comentario