Faltan normas éticas para robots
Su uso debe restringirse en escenarios como el cuidado de bebés, ancianos o la guerra
Ampliar la imagen Ya están aquí y hay que ponerles límites: Sharkey Foto: Reuters
Los robots no están por llegar: ya están aquí, pero, en vez de dominar a la humanidad con su lógica y su fuerza superiores, amenazan con crear una subclase de personas aisladas del contacto humano.
Es necesario supervisar y controlar mediante normas éticas el creciente número de robots en casa, para restringir su uso en escenarios delicados, como el cuidado de bebés, la atención a ancianos y la guerra, advierte un destacado científico.
Se estima que las ventas de robots para servicio profesional y personal en todo el planeta han llegado a 5.5 millones de unidades este año, y se prevé que alcancen más del doble –11.5 millones– hacia 2011. Algunos ayudan a profesionistas ocupados a entretener a los niños; otros alimentan y bañan a ancianos y discapacitados. Sin embargo, hay poco o ningún control sobre su uso.
El profesor Noel Sharkey, experto en inteligencia artificial de la Universidad de Sheffield, Inglaterra, advierte que los robots actúan en situaciones potencialmente delicadas que podrían conducir al aislamiento y la falta de contacto humano, debido a la tendencia a dejarlos solos con las personas a su cargo durante periodos prolongados.
“Necesitamos trazar normas para poner límite al contacto con robots –afirma. Algunos robots diseñados para cuidar niños son ahora tan seguros que los padres pueden dejar a sus hijos con ellos durante horas, o incluso días.”
Más de una docena de compañías con sede en Japón y Sudcorea fabrican robots de “compañía” y cuidado de niños. Por ejemplo, NEC ha probado en infantes su bonito robot personal PaPeRo, que vive en la casa con la familia, reconoce los rostros, puede imitar la conducta humana y ser programado para contar chistes mientras explora la casa. Muchos robots están diseñados como juguetes, pero pueden asumir papeles de cuidado de los menores vigilando sus movimientos y comunicándose con un adulto ubicado en otra habitación, o incluso en otro edificio, mediante una conexión inalámbrica de computadora o teléfono móvil.
“La investigación sobre robots de servicio ha mostrado que los niños se relacionan estrechamente con ellos y les cobran apego; en la mayoría de los casos prefieren un robot a un osito de peluche –comentó el profesor Sharkey. La exposición por periodos breves puede brindar una experiencia amena y entretenida, que despierta interés y curiosidad. Sin embargo, por la seguridad física que proporcionan los robots cuidadores, se puede dejar a los niños sin contacto humano durante muchas horas al día o tal vez durante varios días, y no se conoce el posible impacto sicológico de los diversos grados de aislamiento social sobre el desarrollo.”
Para cuidar de los ancianos se desarrollan robots menos juguetones. Secom fabrica una computadora llamada My spoon (Mi cuchara), que ayuda a discapacitados a tomar alimentos de una mesa. Sanyo ha construido una bañera robot eléctrica que lava y talla automáticamente a una persona que padece discapacidad motriz.
“En el otro extremo del espectro de edades, el incremento de los ancianos en muchos países ha disparado el desarrollo de robots para cuidarlos”, apunta Sharkey. “Estos robots ayudan a los ancianos a ser independientes en sus casas, pero su presencia conlleva el riesgo de dejarlos bajo el cuidado exclusivo de las máquinas, sin contacto humano suficiente. Los ancianos necesitan este contacto, que sólo pueden ofrecerles los cuidadores humanos y las personas que realizan tareas cotidianas para ellos.”
En la revista Science, Sharkey hace un llamado a adoptar normas éticas para cubrir todos los aspectos de la tecnología robótica, no sólo en el hogar y en el lugar de trabajo, sino también en el campo de batalla, donde se despliegan robots letales como los aviones no tripulados Predator, armados de misiles, que se usaron en Irak y Afganistán. El proyecto estadunidense Sistemas Futuros de Combate apunta a utilizar robots como “multiplicadores de fuerza”, con los cuales un solo soldado podría lanzar ataques terrestres y aéreos en gran escala con un ejército de androides. “Los robots de cuidado y de guerra representan sólo dos de muchas áreas problemáticas desde el punto de vista ético que pronto surgirán por el rápido incremento y la creciente diversidad de las aplicaciones robóticas”, advierte el profesor Sharkey. “Científicos e ingenieros que trabajan en robótica deben tener en cuenta los peligros potenciales de su trabajo, y se requiere un debate público internacional para adoptar políticas y normas destinadas a la aplicación ética y segura.”
El llamado a controlar los robots se remonta a la década de 1940, cuando el escritor de ciencia ficción Isaac Asimov trazó sus famosas tres leyes de la robótica. La primera ordenaba que los robots no debían dañar a las personas; la segunda, que debían obedecer el mando humano, siempre y cuando no quebrantaran la primera ley, y la tercera, que debían evitar dañarse a sí mismos en tanto ello no entrara en conflicto con las otras dos leyes.
Asimov escribió una colección de cuentos llamada Yo, Robot, que abordaba el tema de las máquinas y la moral. Quería contrarrestar la larga historia de recuentos ficticios sobre autómatas peligrosos –desde el Golem judío hasta el Frankenstein de Mary Shelley– y creó sus tres leyes como recurso literario para explotar las cuestiones éticas que surgen de la interacción humana con seres inteligentes no humanos. Sin embargo, las predicciones de finales del siglo XX relativas al ascenso de máquinas investidas de una inteligencia artificial superior no se han cumplido, si bien los científicos de la robótica han dotado a sus protegidos mecánicos de rasgos casi inteligentes, como el reconocimiento del habla simple, la expresión emocional y el reconocimiento de rostros.
El profesor Sharkey cree que es necesario controlar incluso a los robots tontos. “No sugiero, como Asimov, poner reglas éticas a los robots, sino sólo tener lineamientos sobre la forma de utilizarlos. Los actuales ni siquiera alcanzan el adjetivo de tontos. Si creyera que son superiores en inteligencia, no tendría estas preocupaciones. Son máquinas bobas, no mucho más brillantes que la lavadora promedio, y ése es el problema.”
© The Independent
Traducción: Jorge Anaya