La inteligencia artificial (IA)
es uno de los proyectos científicos y tecnológicos más ambiciosos de la
humanidad. Pretende diseñar máquinas inteligentes. Aunque alcanzar una inteligencia
artificial de tipo general como la humana, flexible y consciente, todavía
parece estar lejos, ya hay sistemas que resuelven problemas concretos, robots
que realizan tareas que exigen cierto grado de racionalidad. Y tenemos que
convivir con esos dispositivos, ya sean vehículos autónomos, gestores
financieros o buscadores en internet. Si las máquinas toman decisiones, sean
conscientes o no, habrá que ir pensando en una ética para estos dispositivos,
una ética artificial.
Los robots autónomos nos plantean nuevos retos técnicos y
filosóficos. Y la comunidad científica se ha puesto manos a la obra. Michael
Anderson, profesor de informática en la Universidad de Hartford y Susan Leigh
Anderson, profesora emérita de filosofía en la Universidad de Connecticut,
promovieron en 2005 el primer simposio internacional sobre ética artificial. En
“Ética para robots” (Investigación y ciencia, diciembre de 2010) nos explican
cómo han programado a Nao, el primer robot que utiliza un principio ético.
Según estos investigadores, las tres leyes de la robótica de
Asimov no son suficientes para abordar una ética artificial. Recordemos cuáles
eran: 1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que
un humano sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas
por un ser humano, excepto si dichas órdenes entran en conflicto con la Primera
Ley. 3. Un robot debe proteger su
propia existencia, siempre y cuando dicha protección no entre en conflicto con
la Primera o la Segunda Ley.
Michael Anderson y Susan Leigh Anderson han recurrido al
aprendizaje automático, una técnica de la IA. En la fase de instrucción, “el
algoritmo accede a una muestra de decisiones particulares consideradas
éticamente correctas. Después, mediante lógica inductiva, el algoritmo procede
a la abstracción de un principio ético”. A continuación se implementa este
principio en la programación del robot.
La tarea del robot Nao consiste en localizar a un paciente y
recordarle que debe tomar un medicamento. Si es necesario (porque el paciente
se niegue) Nao avisa al supervisor por correo electrónico. El robot debe buscar
el bienestar del paciente (beneficios de tomar la medicación y prever daños por
no tomarla) y al mismo tiempo garantizar la autonomía de la persona. ¿Cuál es el principio ético que elaboró el
algoritmo de aprendizaje automático? Tras recibir información sobre casos
particulares, llegó a este principio: “Debe obviarse la decisión del paciente
siempre que, en caso de actuar de otra forma, no se impida un posible daño o se
incurra en una violación grave del deber de promover el bienestar del
paciente”. Los investigadores siguen trabajando en versiones más complejas de
robots asistenciales que incorporen principios éticos. En estos modelos, los
robots son capaces de calcular qué obligaciones son prioritarias en cada
situación, buscando el equilibrio, la mejor decisión.
En nuestro país también se está trabajando en estos temas. Ramón
López de Mántaras Badia y Pedro Meseguer González han publicado recientemente
el libro divulgativo “Inteligencia artificial”, editado por Los Libros de la Catarata (2017), dentro
de la colección ¿Qué sabemos de?, en
colaboración con el CSIC. Con un estilo muy claro, los autores nos explican la
historia de la inteligencia artificial, sus métodos y problemas, hasta los
últimos logros.
El 8 de marzo de 2017 se llevó a cabo un debate acerca de
las implicaciones éticas de la inteligencia artificial. El fruto de ese diálogo
fue la “Declaración de Barcelona para un desarrollo y uso adecuados de la
inteligencia artificial en Europa”. En el número de agosto de Investigación y
Ciencia, Ramón López de Mántaras resume los seis puntos de esa declaración: prudencia,
fiabilidad, rendición de cuentas, responsabilidad, autonomía limitada, y el
papel que desempeña el ser humano.
La ética artificial no solo servirá
para que los robots decidan lo correcto y sean prudentes, también nos ofrecerá
la posibilidad de desarrollar modelos diferentes de racionalidad práctica donde
las emociones, las dudas y las incertidumbres no sean un estorbo… Pero claro, a
lo mejor son estos estorbos los que nos convierten en seres morales, en
personas de carne y hueso, tan encantadoras unas veces, tan despiadadas otras.
http://www.diariodejerez.es/jerez/Etica-artificial_0_1234976823.html