Allá por los años 40 el gran Isaac Asimov se inventaba las tres leyes de la robótica las cuales aparecen de una u otra forma en muchas de sus obras. El objetivo de las tres leyes es proporcionar “un código básico de conducta” para proteger a los humanos de los robots.
Ahora David Woods y Robin Murphy, ambos ingenieros, han reescrito estas tres leyes y proponen otras que se ajustan más a la realidad y crean el marco para una interacción segura entre hombres y máquinas. Claro está, las propuestas de los ingenieros son más aburridas que las de Asimov. Son estas:
-
Ningún ser humano puede usar un robot sin antes conocer las normas legales y profesionales de seguridad y ética robot del sistema de funcionamiento humano/robot
-
Un robot debe responder a los seres humanos de manera apropiada a sus funciones
-
Un robot debe tener la suficiente autonomía para proteger su propia existencia siempre y cuando no entre en conflicto con la primera y segunda ley
Para quién no las conozca o no las recuerde, las tres leyes de la robótica postuladas por Isaac Asimov dicen lo siguiente:
-
Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
-
Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
-
Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.
Personalmente y aunque las propuestas por Woods y Murphy se ajusten más a la realidad, me parecen muy ambiguas y me sigo quedando con la de Asimov, donde va a parar. Concluyendo, ¿tus tres leyes para evitar problemas entre humanos y robots en el futuro para no terminar como los de Battlestar Galactica?
0 comentarios