La ética en el desarrollo de la inteligencia artificial y la robótica

Hoy en día, los sistemas de inteligencia artificial y la robótica son definidos por la Unión Europea como aquellos sistemas de inteligencia artificial (IA) que son sistemas de software -aunque también pueden incluir hardware- diseñados por humanos, dado un objetivo complejo, para actuar en una dimensión digital o física, mediante la percepción de su entorno y a través de la adquisición de información, interpretación de los datos estructurados o no estructurados, el razonamiento con base en ese conocimiento, o el procesamiento de información, como consecuencia de lo cual, son capaces de decidir la mejor acción para conseguir el objetivo dado.

Dentro de estos sistemas debemos considerar específicamente la llamada “ética del robot”, también conocida por el término “roboética”, la cual se refiere a la moralidad de cómo los humanos diseñan, construyen y usan robots y otros seres artificialmente inteligentes. Dentro de este análisis es importante considerar cómo pueden los seres artificialmente inteligentes dañar a los humanos y cómo podemos beneficiarnos de ellos. En este sentido, es importante conocer que la robótica se relaciona en sí con el deseo de sintetizar algunos aspectos de la función humana mediante el uso de mecanismos, sensores, actuadores y computadoras. Y por ello, la aparición, el desarrollo y la multiplicación de robots, drones, vehículos y otros sistemas autónomos en nuestra vida cotidiana ha permitido cubrir necesidades en la sociedad, esto conlleva tener en cuenta la ética , ya que se debe cuidar los derechos humanos y específicamente el respeto a la dignidad de los seres humanos, debido a que en el al avance tecnológico pueden existir riesgos o impactos negativos mediante la evolución diaria de la robótica y es importante reflexionar sobre las importantes consecuencias que los cambios tecnológicos llevan consigo y en qué medida pueden impactar sobre nuestra forma de vida, y las consecuencias que ello lleva consigo.

Consecuentemente con ello, se debe considerar que la humanidad se encuentra a las puertas de una era en la que los robots son cada vez más sofisticados permitiendo una nueva revolución industrial que va a afectar probablemente a todos los estratos de la sociedad. Esta preocupación por la ética se basa en la creciente conciencia de la necesidad de regular, en un futuro próximo, los avances en este campo, teniendo presente que probablemente no existan normas jurídicas en el sentido propio y pleno del término que regulen el funcionamiento de los sistemas de inteligencia artificial o de la robótica, y que serán los planteamientos de naturaleza ética o las autorregulaciones, las que determinarán el camino a seguir en las relaciones y desarrollos que se lleven a efecto.

Complementariamente a ello, no hay que olvidar que existen importantes diferencias entre la llamada “ética de la robótica” -que es la ética de los investigadores, diseñadores y usuarios- y lo que se viene a denominar la “ética de las máquinas”, teniendo presente que los robots no tienen valores ni consciencia más allá de los que les han sido programados. En todo caso, existen una serie de valores compartidos entre los humanos y la robótica, como pueden ser: el respeto por la dignidad humana; la libertad; la seguridad; la privacidad; la búsqueda del bien común, entre otros, que en el futuro pueden constituir los elementos básicos sobre los cuales se construya cualquier clase de regulación en todo lo que atañe a la inteligencia artificial, pensando siempre en una evolución futura de carácter tecnológico que va a ser imparable, donde la ética sin lugar a dudas, va a jugar un papel capital.

Es importante recordar en este sentido, los principios reconocidos por el Parlamento Europeo, donde se establecen los puntos de conexión entre la ética y la inteligencia artificial, que afectan de manera directa a la robótica, y que hacen expresa referencia a la necesidad de seguir las siguientes pautas:

a). La protección a los humanos del daño causado por robots, y, que afecta de manera directa a la dignidad humana.

b). La exigencia del reconocimiento del derecho consistente en el respeto al rechazo a ser cuidado por un robot.

c). La necesidad de proteger la libertad humana frente a los robots.

d). La protección de la privacidad y el uso de datos, y todo ello proyectado de manera especial sobre la evolución tecnológica vinculada al desarrollo de los coches autónomos, de los drones, de los asistentes personales o de los robots vinculados a funciones de seguridad.

e). La imprescindible protección de la humanidad ante el riesgo de manipulación por parte de los robots, siendo ello especialmente trascendente con relación a aquellos colectivos más vulnerables, como pueden ser: los ancianos, los niños, u otras personas dependientes, sobre los que se puede generar una empatía artificial.

f). Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones con determinados grupos.

g). La igualdad de acceso al progreso en el ámbito de la robótica, y que al igual que ha sucedido en el ámbito de la brecha digital, también puede llegar a producirse en la brecha robótica, la cual puede llegar a tener un contenido esencial.

h). Y, finalmente, debe ser tenida en cuenta, la restricción del acceso a tecnologías de mejora regulando la idea del transhumanismo, y la búsqueda de mejoras físicas y/o mentales que superen los límites naturales de la humanidad.

Todo ello lleva a la conclusión de la necesidad de la exigencia de unos “principios éticos” que orienten el diseño, la fabricación, la prueba y el uso de robots y de la inteligencia artificial, a fin de garantizar que estas tecnologías puedan mejorar realmente la calidad de vida de los ciudadanos, y donde se haga compatible el desarrollo y el uso de dichas tecnologías, con el necesario respeto a la dignidad y valores humanos en todas sus dimensiones.