ROBÓTICA Y DERECHO PENAL: RETOS DE FUTURO ANTE UN VACÍO DE RESPUESTA JURÍDICO-PENAL

 

Maddi Erauskin Recalde (Estudiante de 4º del Grado en

Derecho en la Universidad de Deusto)

1.- Introducción.

En primer lugar, en cita de la Propuesta de resolución del Parlamento Europeo con recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica, de fecha 27 de enero de 2017, “hemos de partir de la consideración que, desde el monstruo de Frankenstein creado por Mary Shelley al mito clásico de Pigmalión, pasando por el Golem de Praga o el robot de Karel Capek, los seres humanos han fantaseado siempre con la posibilidad de construir máquinas inteligentes, sobre todo androides con características humanas1.

Y en este sentido se han orientado los avances técnicos y científicos y sus más contemporáneas novedades: la creación y posterior comprobación de seres artificiales, sistemas cibernéticos sofisticados que actúan e interactúan tanto en el mundo virtual como en el físico.

Así las cosas, los robots, y sin apenas percibirlo, han empezado a entrar en nuestra cotidianeidad2, a través de su aplicación en sendos y numerosos escenarios: véase el caso del sector industrial3; su empleo en ambientes extremos e inaccesibles al hombre, y en acciones militares y bélicas; y, por lo que a nuestra profesión respecta, un estudio llevado a cabo en una universidad británica retó altradicional sistema de conocimiento jurídico seleccionando a cien abogados de grandes firmas de Londres a fin de resolver 800 casos previamente resueltos por juzgados y tribunales y enfrentándolos contra un

1 López Cumbre, L. “Robots con derechos y obligaciones civiles…y laborales”, en Análisis GA&P, marzo 2017. Página 1.

2 Entre 2010 y 2014, las ventas de robots aumentaron un 17% de media anualmente; en 2014, las ventas incrementaron hasta un nada desdeñable 29%; y, a lo largo del último decenio, se han triplicado las solicitudes anuales de patentes en el sector de la tecnología robótica.

3 Países como Canadá, Corea del Sur y China ya han identificado el fomento de la robótica como componente clave de su política industrial. En el mismo sentido, el número de robots trabajando en Amazon a principios de 2018 llegó a la cifra nada desdeñable de 80.000, frente a sólo 1.000 en 2013.

software en un espacio de tiempo determinado, el cual estuvo cerca del 90% de aciertos, mientras que el grupo selectoosciló entre el 70-75%.

Por lo expuesto, estos avanzados dispositivos tecnológicos pueden llevar a cabo tareas muy largas, monótonas y físicamente exigentes, superando los inconvenientes de los límites fisiológicos humanos (estrés, cansancio, enfermedad…), y con mayor acierto y velocidad, por lo que cabe concluir que la Inteligencia Artificial (en lo sucesivo, IA) replica e incluso supera a la inteligencia humana.

Paralelamente a la difusión y empleo de robots en diversos sectores, el interés del jurista en esta primera aproximación se ha de suscitar por la entrada de los mismos en ambientes cotidianos.4

Sentado lo anterior, no cabe obviar que la introducción y propagación de la robótica en la sociedad plantea dificultades, novedosas, tanto jurídicas como éticas, que -como advierte BARRIO ANDRÉS, Moisés5– comienzan a desbordar los límites tradicionales del Estado Constitucional; esbozando la necesidad de establecer un marco normativo regulador que discipline las interacciones entre humanos y robots. Por un lado, a fin de garantizar la salud, la seguridad, el respeto de los Derechos Fundamentales y, en última instancia, la responsabilidad por los accidentes, lesiones o perjuicios derivados de su uso o comportamiento; y, por otro lado, a fin de brindar un marco legal de referencia a los operadores del sector, que garantice un progreso tecnológico congruente con el ordenamiento jurídico.6

De nuevo, adelanta BARRIO ANDRÉS, M., que la robótica aúna, probablemente por vez primera, la promiscuidad de la información con la aptitud de causar daño físico. Y, ante tal acaecimiento, es factible accionar respuestas del derecho civil o del derecho administrativo, pero no del derecho penal, apremiando la necesidad de instaurar un régimen claro de derechos y obligaciones. Y, la Unión Europea, en una negativa ante la evidencia de que la tecnología adelante al orden jurídico , y a fin de dar respuesta a estos insólitos desafíos, se ha inclinado por principiar un estudio de lo que se puede bautizar Derecho de los Robots:

– Por un lado, analizando cómo deben operar las reglas del Derecho vigente en

4 Estamos siendo partícipes de la paulatina incorporación a nuestra realidad de los asistentes virtuales – véase la aplicación Siri de Apple,; de humanoides para la asistencia del hogar como Pepper, de robots cocineros como Okonomiyaki o camareros como Motoman; vehículos con exponencialmente mayores cotas de autonomía que no padecen de déficit de atención, distracción o imprudencia -o; de quirúrgicos como Da Vinci-.

5 BARRIO ANDRÉS,M., “Derecho de los Robots”, en Wolkers Kluwer, Madrid, 2018, pág.65.

6 Regular de manera previa y docta esta Industria determina que los responsables de la formulación de políticas tengan la oportunidad de influir en la forma en que se diseñarán y funcionarán estas tecnologías.

relación con esta nueva realidad. Es en este primer enfoque en el que se centran la mayor parte de los esfuerzos actuales.7

– Por otro lado, y dado que el elemento de la culpabilidad recogido en el artículo 5 del Código Penal dispone que “no hay pena sin dolo o imprudencia” e imposibilitando realizar una traslación directa de las leyes penales al mundo de la robótica, proponiendo la creación de una disciplina jurídica autónoma y propia para la robótica, con el consiguiente reconocimiento de una personalidad jurídica propia de dichos entes; la personalidad electrónica.

Como precedente, el Derecho ya se ha actualizado para dar respuesta al fenómeno de Internet8 y los ciberdelitos o delitosinformáticos9. Del mismo modo, cuando a finales de los años 90 el profesor ZUGALDÍA ESPINAR mencionó, que “los partidarios de la responsabilidad penal de las personas jurídicas cabemos en un taxi”10, pocos podrían imaginar la trascendencia de esta novedosa figura en la actualidad.

2.- Concreción del problema: ¿qué es un robot a efectos jurídico-penales?

2.1.- Evolución histórica.

En la tarea de definir los límites de lo que se configura como objeto de estudio, considero adecuada la realización de una breve aproximación histórica a tal realidad11. En primer lugar, hemos de recordar que el ser humano, alberga desde siempre el deseo de “insuflar vida” a sus creaciones e imitar la mente humana: en el mito de

7 ASARO, Peter, “Robots and Responsibility from a Legal Perspective” en Proceedings of the IEE, 2007,

apud BARRIO ANDRÉS, Moisés, “Derecho de los Robots”, en Wolters Kluwer, 2018, pág.134.

8 Vid. BARRIO ANDRÉS, M., “Ciberdelitos: amenazas criminales del ciberespacio”, editorial Reus, Madrid, 2017, y, del mismo autor, “Ciberderecho: bases estructurales, modelos de regulación e instituciones de gobernanza de internet”, en Tirant Lo Blanch, Valencia, 2018.

9 La culminación de este proceso de actualización la encontramos en la reforma del Código Penal tras la Ley Orgánica 1/2015, de 30 de marzo.

10 Haciendo referencia a los autores que se habían pronunciado a favor de la responsabilidad penal de las sociedades en aquel entonces: BACIGALUPO SAGGESE, RODRÍGUEZ RAMOS y a su persona. Vid. en DOMÍNGUEZ PECO, Elena María en “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid, 2018, pág. 133.

11 A tal fin, partimos de la excelente referencia al origen y desarrollo histórico y cultural que rodean a la robótica, afianzada por SANCHEZ GARCÍA, Ángel Manuel, en “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid 2018, págs. 230 y ss.

Galatea, el rey Pigmalión recurre a Afrodita para dar vida a una estatua femenina de su posesión; en la actualidad, se recurre a la ciencia.

En segundo lugar y como punto de partida, hemos de remontarnos a los Siglos

XVII y XVIII, contextualizados por una autoridad del pensamiento científico en detrimento de la Ilustración, a fin de encontrar los primeros prototipos de máquinas o artificios “inteligentes” los cuales se configuraban como pre-computadoras: véanse, por ejemplo, la calculadora pascalina (1642), de Blaise Pascal, o la máquina analítica de Charles Babbage (1837). Pero no es hasta la Revolución Industrial, cuando el desarrollo de estas pre-computadoras viene caracterizado por su forma antropomórfica y su fuerza, resistencia, destreza y precisión, conformándose como un elemento idóneo para compensar las deficiencias humanas.

Avanzando un poco más en el tiempo, fruto de la consecuente expansión y globalización del mercado derivada del capitalismo, el momento histórico arquetipo para le vertiginoso progreso de las tecnologías -tanto informáticas como robóticas- lo localizamos en los siglos XIX y XX. Es en este momento cuando se fundan, entre otras, IBM, Microsoft y Apple.

No obstante, no fue hasta 1940, a partir de la aplicación de la aplicación de progresos mecánicos, hidráulicos y tecnológicos, cuando se configura la materialidad del robot en su concepción actual fruto del surgir del control supervisado. Por su parte, en los años 70, con la mejora de la tecnología de los sensores, estos robots comienzan a adquirir cierta autonomía e inteligencia.

Pero no es hasta los primeros años del siglo XXI cuando la robótica se ve influenciada por la IA, pues, a partir de entonces, se generaliza la incorporación de algún tipo de procesado de información operado por la misma lo que permite a la industria robótica interrelacionarse con el ser humano a fin de enriquecer dicho vínculo. Fruto de este incremento de sofisticación emergerá la que sin lugar a dudas es la característica que le otorga un mayor grado de singularidad a un robot: la de poseer IA.

En resumen, y por no extendernos en exceso, los robots han ido evolucionando de los siguientes modos: en la segunda mitad del siglo XVIII, fueron manipuladores o poli articulados; durante la primera mitad del siglo XX, mecánicos y/o móviles; a partir de 1970, de control remoto; y, en el siglo XXI, inteligentes y capaces de coexistir y convivir con el ser humano12.

12 Op. cit. 6 págs 1 a 4. Para una visión más detallada del desarrollo de la tecnología robótica actual vid. SÁNCHEZ GARCÍA, A.M., “Robótica y Ética” en en BARRIO ANDRÉS, Moisés, “Derecho de los Robots”, Wolters Kluwer, Madrid, 2018, págs. 231 y ss.

2.2.- Concepto jurídico13.

El término robot, es borroso y objeto de muchas transformaciones fruto del desarrollo técnico o científico que caracteriza cada una de las etapas que integran su evolución, no es nuevo pues fue utilizado por primera vez en 1921 por Karel Capek (1890- 1938)14 para referirse a toda maquina que realizase trabajos forzados.

En segundo lugar, tampoco es óbice recordar que en función de lo que se entienda por robot -y cómo éste se nos represente- la configuración jurídica variará; estos es, de la variedad de robots deriva que la configuración jurídica actual no pueda ser unitaria.

La incapacidad de compartir un concepto suficientemente conciso que responda a los múltiples formatos robóticos existentes, es un punto de partida constante, aunque negativo, de cualquier cavilación sobre el tema. Así las cosas, la etiqueta de robot se asigna a toda clase de ingenio capaz de realizar por sí mismo una tarea: un abanico muy amplio que puede abarcar desde un brazo mecánico a una máquina autónoma programada desde un ordenador -por ejemplo, el aspirador Roomba-. Por ello, debemos trazar un a primera distinción, a efectos jurídicos, cual es la que distingue el robot corpóreo del que no lo es resultando de aplicación a este último las normas reguladoras de los programas de ordenador.

No obstante esta ambigüedad, partiendo de la definición desarrollada por R. Calo15,

E. Palmerini y A. Bertolini16, un concepto tecnológico que pueda abarcar todos los posibles supuestos podría ser el que sigue: sistema provisto de cierta complejidad –tantoen sus componentes, como en su diseño o en su comportamiento- capaz de percibir el entorno o contexto en el que se encuentra y, en consecuencia, capaz de manipular, procesar o alterar la información que en el mismo yace para planificar una determinada actuación y ejecutarla.

13 Para una visión más detenida, GARCÍA-PRIETO CUESTA, Juan, “¿Qué es un robot?”, en BARRIO ANDRÉS, Moisés, “Derecho de los Robots”, Wolters Kluwer, Madrid, 2018, págs. 25 y ss.

14 La existencia del vocablo “robot” se debe a Josef Capek, que lo empleó en 1920 en una charla con su hermano Karel, siendo este último quién la dio a conocer en su obra de teatro titulada Rossum´s Universal Robot (R.U.R.).

15CALO, R., “Robotics and the Lessons of the Cyberlaw”, 103, Cal. L. Rev. 2015, p. 513 y ss.

16 PALMERINI, E. y BERTOLINI, A., “Liability and Risk Management in Robotics”, en SCHULZE R. y STAUDENMAYER, D. (eds.), Digital Revolution: Challenges for Contract Law in Pactice, Nomos Verlag, Baden-Baden, 2016, pp. 235 y ss.

Por lo expuesto, todo sistema que quiera ser considerado robot ha de realizar las siguientes tres actividades básicas:

  • Percibir: acumular información sobre el entorno mediante un sistema de sensores.
  • Procesar: en función de las conclusiones derivadas del análisis del entorno, crear –con mayor o menor inteligencia- acciones para la consecución de finalidades concretas o determinar situaciones susceptibles de acaecer en el futuro.
  • Actuar: ejecutar el plan trazado sobre el entorno o contexto en el que el robot se encuentre, produciendo algún tipo de cambio o modificación en el mismo.

En cuanto a su clasificación, al igual que su definición, no es tarea pacífica ni sencilla. Por ello, no vamos a profundizar17. Simplemente reseñar que un robot puede tener diferentes tamaños: desde un moderno vehículo autónomo hasta un chip (nano- robot37), pasando por cualquier máquina que sea capaz de comprender las tres actividades básicas descritas en el párrafo precedente.

2.3.- Características penalmente relevantes:

A continuación, identificamos los rasgos que convierten a la robótica en un campo de interés para los reguladores y operadores jurídico-penales.

2.3.1.- Autonomía e impredecibilidad.

Huelga recordar pues ya se hace de forma intrínseca e imprescindible a lo largo del presente Trabajo, y por ello no nos extenderemos en exceso en el presente sub- epígrafe, que los avances en IA y Robótica actuales permiten que sus innovaciones más sofisticadas operen con un alto grado de autonomía dentro de los límites de su entorno para alcanzar sus objetivos específicos18, replicando procesos cognitivos parecidos a los humanos, valiéndose a tal fin de los sofisticados sistemas de sensores de que gozan y/o mediante el intercambio de datos con aquel (interconectividad) y análisis de los mismos. En consecuencia, su actuación puede devenir impredecible.

17 Para un análisis pormenorizado, véase el libro de referencia de BARRIENTOS CRUZ, Antonio, “Fundamentos de Robótica, McGraw-Hill, 2ª Edición, 2007, en el que se distinguen hasta cuatro tipos de robots y tres generaciones de evolución, en función de su complejidad y capacidad de adaptación a la realidad.

18 Según la Comunicación de la Comisión Europea “Inteligencia Artificial para Europa”, de 28 de abril de2018. En el mismo sentido, SANTOS GONZÁLEZ, María José “Regulación Legal de la robótica y la Inteligencia Artificial: retos de futuro”, en Revista Jurídica de la Universidad de León, núm. 4, 2017, pág. 25 al afirmar que “cuanto mayor sea la inteligencia artificial de los bots, robots y androides mayor será su autonomía y en consecuencia tendrán menor dependencia de los fabricantes, propietarios y usuarios”.

Al mismo tiempo, esta autonomía intrínseca de los robots es objeto de constante atención a fin de su desarrollo y maximización, pues de ello depende augurar una satisfactoria y apropiada capacidad de actuación de éstos en ambientes complejos.

2.3.2.- Autoaprendizaje.

Como ya he adelantado, consideramos el robot inteligente aquella máquina que, de manera autónoma y a través de programas y sensores, desarrolle capacidad decisoria basándose en la lógica e IA, pudiendo predecir necesidades de la realidad en que interactúen, por cuanto se ha desarrollado la capacidad de aprender y de entender el mundo.

Así las cosas, los sistemas robóticos más avanzados no repiten instrucciones, sino que se adaptan a las circunstancias y auto-aprenden de las experiencias; la utilidad de los robots está representada, precisamente, por su capacidad de autogenerar el propio sistema operativo. Y este machine learning hace de la reacción de los robots algo imprevisible toda vez que podrían mostrar comportamientos no previstos al tiempo de su creación: los comportamientos emergentes derivados de la multiplicidad de usos a los que podría estar destinada la máquina y los contextos en los que podría estar llamado a operar, imposibles de anticipar por su diseñador y/o programador a efectos de adoptar las precauciones necesarias.

Sin embargo, toda vez que las características que posibilitan ese distanciamiento del estándar inicial han sido instaladas en el robot por el fabricante y/o programador, en el plano jurídico se mantiene incólume la posibilidad de asignar a estos la responsabilidad por los daños causados; lo que les carga con una mayor responsabilidad en la introducción de medidas preventivas.

2.3.3.- Capacidad de causar daños.

A diferencia de Internet, diseñado para actuar sobre el mundo on-line, los robots no sólo son capaces de actual off-line, sino que están cada vez más orientados a la introducción en ambientes humanos, comunes e íntimos, suscitando de forma ineludible la coyuntura para la ocurrencia del potencial de causar daños y tensiones, ya sean culturales, económicas y/o legales. Además, la magnitud de los daños se ve aumentado en atención a la delicadeza de la función a desarrollar. A estos efectos, véase los siguientes ejemplos, entre otros: el fatal accidente ocurrido en Estados Unidos en el mes de enero de 1979 en el que uno de los brazos del robot sito en el almacén automatizado de Ford golpeó en la cabeza a Robert William ocasionando la primera víctima mortal de la robótica19. Y el atropello provocado por un vehículo de prueba de la empresa Uber

19Sitio web: https://esacademic.com/dic.nsf/eswiki/1018143

conducido por un robot en marzo de 2018 en (Arizona), configurándose como el primer accidente mortal de un coche autónomo20.

Por lo expuesto, la tipología de riesgos a afrontar se encuentra conexa a defectosde ingeniera o de programación, a condiciones ambientales (como el calor o la humedad) que generan una alteración en el funcionamiento del programa o torpedean la correcta actividad del sistema de sensores, o a errores humanos. No obstante, como sistemas físicos cibernéticos interconectados constante e instantáneamente entre el mundo físico y el mundo digital, los robots tampoco quedan exentos de ser víctimas de ataques y amenazas21, por lo que existe otra tipología de riesgos a tener en consideración: el de la seguridad del sistema informático22. Por ejemplo, un tercero puede valerse de un fallo en la seguridad de la máquina para modificar la información que recibe, enviando al robot comandos no autorizados, alterando así su conducta.

En definitiva, una serie de nuevos riesgos que evocan, por un lado, la conciencia de reformar el ordenamiento jurídico (en nuestro caso, CP y LECrim) en aras de aplicar estrictas normas que regulen esta interacción a fin de garantizar la seguridad de las personas; y, por otro lado, la necesidad de que estos nuevos resultados tecnológicos se sigan de medidas de seguridad apropiadas.

Y este garantizar una eminente seguridad de los propios productos y concebir respuestas jurídicas adecuadas ante la eventualidad dañosa constituye una preocupación constante, también a criterio del Parlamento Europeo y, en particular, quién debe hacerse cargo de dichos daños.

3.- Hacia un “derecho penal propio” de los robots.

La entrada en el mundo jurídico de la robótica es un hecho y pese a que, por regla, exista una base normativa que sirve de amparo jurídico para gran cantidad de las innovaciones robóticas actuales, lo expuesto revela la necesidad de incluir normas apropiadas a la hora de determinar la responsabilidad derivada de los daños que éstas

20Sitio web: https://www.elmundo.es/motor/2018/03/19/5aaff150e2704ec82e8b463f.html

21 En detalle, BARRIO ANDRÉS, Moisés, “Delitos 2.0. Aspectos penales, procesales y de seguridad de los ciberdelitos”, Wolters Kluwer, Madrid, 2018.

22 Lo subraya, junto con los demás problemas de seguridad a considerar en la gestión de los riesgos, WU, S.S., “Risk Management in Comercilizing Robotics”, de 3 de abril de 2013. Sitio web: http://conferences.law.stanford.edu/werobo/wp-content/uploads/sites/29/2013/04/Risk-Management-in- Comercializing-Robotics.pdf

produzcan. En definitiva, nos encontramos frente al nacimiento de una nueva rama jurídica: el Derecho de los Robots.

3.1.- La singularidad de la robótica y su ubicación jurídica.

No obstante, las utilidades que pueden tener los resultados de la robótica avanzada, también plantea(rá) problemas que exceden del marco legal vigente, mirando su efectividad.

Así, nos cuestionamos ¿puede la robótica ser objeto de regulación dentro de los marcos legales y éticos existente previa especialización o ampliación de instituciones jurídicas ya configuradas o, por el contrario, debemos aspirar a la creación de una disciplina jurídica autónoma?

Bajo nuestro prisma, el derecho tradicional está exento de respuestas pudiendo su aplicación resultar incluso injusta para el creador que no imaginó ni quiso los daños producidos por el autómata, siendo comprensible la configuración del Derecho de los Robots como objeto de estudio autónomo.

A este respecto, no es óbice recordar que el derecho, puede crear ficciones si lo demanda, pues ficción es el concepto de hombre medio usado en la culpabilidad y la voluntad de las personas jurídicas, por lo que no sería algo desatinado hablar de la personalidad (entendida como capacidad intelectual) como partida de esta nueca regulación penal23.

Señala Sánchez del Campo24 que estas máquinas pueden tener algún tipo de personalidad legal, lo cual no parece más anómalo que el considerar como cosa al ser humano en la esclavitud, sin obviar la adecuación de las penas a su condición. Y entre las circunstancias que evidencian un enfoque unitario se aciertan, principalmente: primero, el hecho de que estas innovaciones pertenecen a un único sector con características específicas y propias-la robótica-; y, segundo, la relevancia socioeconómica de la misma, cuya expansión requiere de un ambiente legal claro.

3.2.- Antecedentes para la regulación jurídica de los robots.

El fenómeno que aquí nos ocupa no resulta del todo ajeno al derecho, pudiendo rastrearse diversos precedentes, si bien nos centraremos en los acometidos en el marco de la Unión Europea.

23 QUINTERO OLIVARES, G., “La robótica ante el Derecho Penal: el vacío de respuesta jurídica a las desviaciones incontroladas”, en Revista Electrónica de Estudio Penales y de la Seguridad, núm. 1, 2017. Pág. 9

24 SÁNCHEZ DEL CAMPO, A., “Cuestiones jurídicas que plantean los robots”, cit., y, del mismo autor, “Reflexiones de un replicante legal”, Aranzadi, 2016.

3.2.1.- El Proyecto Robolaw25.

El Proyecto Robolaw, de marzo de 2012, financiado por la Comisión Europea, pretende informar sobre las cuestiones éticas y legales, así como orientar y guiar a los legisladores europeos y nacionales al tiempo de legislar sobre esta cuestión.

También, plantea la cuestión de si, fruto de la cada vez mayor inteligencia, capacidad de aprendizaje, autonomía e impredecibilidad de los bots se les debe conceder personalidad legal diferenciada.

3.2.2.- La Estrategia global para la política exterior y de seguridad de 2016 de la Unión Europea.

A nivel europeo, la citada Estrategia recoge la necesidad de disponer de “normas mundiales en ámbitos tales como la (…) robótica y los aparatos pilotados a distancia, con el fin de evitar riesgos de seguridad y aprovechar sus beneficios económicos”.

Asimismo, propone la creación de asociaciones, que sirvan de apoyo a los reguladores europeos.

3.2.3.- Resolución del Parlamento Europeo de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica26.

Considera que, de la imprevisibilidad de los robots, y llegándose incluso a hablar de la capacidad de estos para desencadenar una nueva revolución industrial, deviene la ineficacia de los controles utilizados hasta la fecha, evidenciando la necesidad de establecer “nuevos controles que supervisen y limiten sus competencias”. En particular, una Directiva dirigida a los fabricantes de los robots, a las instituciones y a los propietarios, usuarios y ciudadanos en general.

Así, merece destacar las siguientes conclusiones de la antes mencionada Resolución comunitaria:

  • La necesidad de crear una definición armonizada de robot.
  • La necesidad de promulgar un marco jurídico que proteja al individuo frente a los eventuales daños ocasionados por los robots.
  • La necesidad de crear un estatuto de persona electrónica, a fin de aclarar las reglas de responsabilidad en caso de daños. Hablamos de una nueva categoría legal, la

25 Vid. http://www.robolaw.eu/

26 Vid. http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//TEXT+TA+P8-TA-2017- 0051+0+DOC+XML+V0//ES

persona jurídica, y que supondría un cambio en el paradigma jurídico actual: los actos u omisiones de los robots serán asumidos por éstos, y no por sus propietarios o fabricantes, si bien se propone una graduación de la responsabilidad en función de la capacidad de aprendizaje del autómata. A este respecto, la Resolución vela por la creación de un régimen de seguros obligatorios o, en su defecto, la de un fondo de compensación.

  • La promulgación de un código ético que sirva de guía en materia de diseño, producción y uso de robótica.
  • La necesidad de crear un Registro Europeo de robots inteligente, así como los criterios de clasificación de los autómatas a registrar: la “Agencia Europea de Robótica e Inteligencia Artificial”.

3.3.- Iniciativas similares en el Derecho Comparado.

Junto con las iniciativas recién apuntadas, otros países europeos también consideran este asunto de esencial relevancia, adoptando iniciáticas semejantes27. El Comité de la Agencia Digital del Parlamento alemán celebró el 22 de junio de 2016 una sesión sobre el alcance de la robótica en la economía, el trabajo y la sociedad28; el Parlamento británico incoó, en marzo de 2016, una consulta pública en la que se cuestionaba, entre otras preguntas, los problemas sociales, legales y éticos vinculados a la evolución de la robótica y las tecnologías de IA Y la forma en que deben ser tratados.

3.4.- Propuestas para la regulación jurídico-penal de los robots: Derecho Penal de los Robots.

3.4.1.-Hacia el reconocimiento de la personalidad electrónica: el robot como sujeto de derecho.

Ya hemos indicado que los autómatas y los sistemas de IA, se han convertido en parte de la cotidianidad, por lo que resulta lógico el debate de si deben ser o no sujetos de derecho29 y si pueden subsumirse en laguna de las categorías existentes o, por el contrario,

27 Lo pone de manifiesto en un estudio más completo ARANSAY ALEJANDRE, Ana María en “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid, 2018, pág. 104 y ss.

28 Vid. https://www.bundestag.de/en/committees/a23

29 Los primeros estudios sobre la subjetividad de los agentes artificiales se remontan a LEHMAN- WILZIG, S.N., “Frankenstein Unbound: Towards a Legal Definition of Artificial Intelligence”, en Futures, 1981, 13(6), 442; y SOLUM, L. B., “Legal Personhood for Artificial Intelligences”, en 70 North Carolina Law Rev. 1992, 1231. Ver, sucesivamente, TEUBNER, G., “Rights of Non-humans? Electronic Agents and Animals as New Actors”, en Politics and Law, 2006, 33(4), 497-521; CALVERLEY, J. D., “Imagining a nonbiological machine as a legal person”, en Artificial Intelligence & Society, 2008, 22; COECKELBERGH, M., “Robot rights? Towards a social-relational justification of moral consideration”, en Ethics and Information Technology, 2010, 12, 209-221; KOOPS, B. J., HILDEBRANDT, M. y

procede la creación de una nueva categoría con características propias. Y, fruto de esta proliferación que aumenta la probabilidad de los supuestos de daños o perjuicios consecuencia de las acciones u omisiones de los robots, quizás el tema de la responsabilidad sea el que deba acometerse con mayor inmediatez.

En cuanto a la posible creación de la categoría jurídica de “persona jurídica electrónica”30 se asimilaría a la figura de la persona jurídica societaria del Derecha Mercantil31 pues, en común, ni son personas físicas ni gozan de pensamiento y voluntad; si bien distan en cuento a la responsabilidad, pues un ente colectivo puede tener un patrimonio que responda de los daños y perjuicios derivados de su hacer o no hacer, pero una máquina autosuficiente no. A su vez, el abordaje de la eventual creación de esta personalidad jurídica electrónica también plantea si la misma debe ser plena o limitada, directa o representada32.

Frente a todo lo anterior, el Dictamen del Comité Económico y Social Europeo sobre la inteligencia artificial y las consecuencias de su utilización, de 31 de mayo de 201733, se niega a aceptar “cualquier tipo de personalidad jurídica para los robotso al IA” por “el riego moral” que implicaría. Al mismo tiempo, destaca que la “comparación con la responsabilidad limitada de las sociedades no es válida, puesto que el responsable en última instancia es siempre una persona física”.

3.4.1.1.- Estatus legal de los robots34.

Con el objetivo de (…) dirimir la responsabilidad (…) de los robots se suscita lacuestión de su naturaleza jurídica y de si pertenecen a una de las categorías jurídicas existentes (…) o si debe crearse una nueva categoría con sus propias características jurídicas35. Cuya respuesta pretendemos abordar en el presente epígrafe.

JAQUET-CHIFFELLE, D.-O, “Bridging the Accountability Gap: Rights for New Entities in the Information Society?”, en Minnesota Journal of Law, Science & Technology, 2010, 11(2), 508 ss.; BENSOUSSAN, A., “Plaidoyer pour un droit des robots: de la ´personne morale´ à la ´personne robot”, en La letter des jurists d´ affairs, nº 1134, de 28 de octubre de 2013.

30 Entendida en un sentido estrictamente funcional.

31 En palabras de ARANSAY ALEJANDRE, Ana María en “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid, 2018, pág. 101.

32 Op. cit. 64. Páginas 101 y ss., en particular 102.

33 Dictamen de iniciativa (2017/C 288/01). Vid. http://eur-lex.europa.eu/legal- content/ES/TXT/?uri=uriserv:OJ.C.2017.288.01.0001.01.SPA&toc=OJ:C:2017:288:TOC

34 A partir de la Declaración de Schuman de 1950.

35 Op. cit 7, pág. 39, cita que, a su vez, sirve de base para el desarrollo del epígrafe en que se ubica.

  1. El robot como persona física.

Dispone el artículo 30 de la Norma Civil que “la personalidad se adquiere desdeel momento del nacimiento con vida, una vez producido el entero desprendimiento del seno materno”; elementos biológicos estos que no pueden darse en un robot. Asimismo, los autómatas carecen de intuición y sentimientos36 por cuanto el castigo y la sensación resultan inadecuados -por ineficaces- para corregir su proceder.

Por lo expuesto, los robots no alcanzan a protagonizar la autoría del delito (artículos 27 y 28 de nuestro Código Penal).

  1. El robot como persona jurídica.

Los robots guardan ciertas similitudes con la persona jurídica, que podrían determinar la atribución de dicha condición legal a los primeros: entes de configuración legal, constituidos por los humanos, independientes o no de su propietario y con capacidad de obrar, de causar daños y de ser penalmente responsables, etc.

Sin embargo, las diferencias que radican entre ambas figuras determinan la necesidad de someterlos a un trato diferenciado y autónomo.

    • Mientras la personalidad de las personas jurídicas se constituye alrededor de la agrupación y organización de personas físicas, los robots emergen sustituyéndolos.
    • Las personas jurídicas carecen de corporalidad, precisando de la representación de una persona física al objeto de actuar o interactuar con el entorno.
    • La persona jurídica precisa del control y vigilancia humana; mientras, los robots, derivado de su autonomía y capacidad de autoaprendizaje podrían prescindir de esta exigencia.
    • Por último, rizando aun más el rizo, el robot podría actuar en nombre y representación de la empresa bajo el contrato de mandato, y nunca al revés derivado de la ya mencionada incorporeidad.

En conclusión, y siempre desde mi aun en formación punto de vista, el robot y la persona jurídica son construcciones jurídicas distintas.

  1. El robot como animal.

Al igual que ocurría en el intento de comparar los robots a las personas físicas, éstos no pueden considerarse animales, ya que estos últimos pueden experimentar sentimientos.

36 Ya hemos indicado que su actuación se basa en algoritmos.

  1. El robot como cosa.

Mantener que los autómatas son simples máquinas, y, por ende, cosas inanimadas, trae consigo afirmar que su nivel de autonomía vendría determinado por su diseñador o programador, así como la no sujeción de los mismos a obligaciones. Sin embargo, la realidad es que la inteligencia de los robots replica o, incluso, supera a la humana, y se espera que tengan autonomía para interactuar en la cotidianeidad derivándose, cuando menos, obligaciones sociales.

  1. El robot como persona electrónica.

En base a todo lo expuesto, la Unión Europea aboga por la configuración artificial de una nueva figura jurídica para “al menos los robots más sofisticados”, intermedia entre las cosas y las personas físicas, denominado “persona electrónica”, terminología que denota su configuración como sujeto de derechos y obligaciones con capacidades similares a las de las personas.

Respecto a la fijación de los derechos a otorgar desde lugar no serán titulares de derechos constitucionales ni Humanos, pero sí de derechos patrimoniales en aras de garantizar su responsabilidad por los daños causados.

De contrario, habría que establecer, también, básicamente dos obligaciones específicas: previsibilidad de su actuación y responsabilidad propia. Ahora bien, es posible que el creador, propietario o usuario hubiere actuado con negligencia o dolo alterando o dando instrucciones inadecuadas al robot, supuesto en que sería responsable del daño, así como cuando no hubiere realizado el adecuado mantenimiento, cuidado y vigilancia del robot.

Sin embargo, la posible creación de esta nueva categoría jurídica no resulta respaldada por todo el mundo: más de 200 expertos de 14 países piden a la Comisión Europea que no dé a las máquinas tal estatus y personalidad. Advierten del impacto económico, legal, social y ético que ello supone, y creen que la consideración legal de personas a fin de reclamar responsabilidad a título individual por los perjuicios ocasionados beneficia en exclusiva a los fabricantes, que eludirían las consecuencias de lo que puedan hacer sus innovaciones robóticas.

3.4.1.2.- Registro de robots inteligentes: el Documento de Identificación de Robot o DIR.

En el contexto anterior, hasta la creación de la personalidad jurídica específica de los robots, la Unión quiere implantar la creación de un Registro de robots inteligentes a efectos de la trazabilidad del nacimiento de la condición jurídica y responsabilidad. A estos efectos, resulta interesante la experiencia de los drones.

Así, de conformidad con SANTOS GONZÁLEZ, M.J.37, el Registro deberá tener en cuenta el tipo, el ámbito de aplicación, la función y el ámbito geográfico del robot. Y, en si mismo, cada autómata tendrá su propio DNI o DIR (Documento de Identificación de Robot), a efectos de que el registro sea único para cada máquina.

En cuanto a su utilidad, la identificación del robot serviría para:

  • Asegurar el control humano sobre los autómatas, y dado que pueden transitar por los espacios públicos sin control de los humanos. De esa exigencia de control nace la necesidad de que las Fuerzas de seguridad, estén capacitadas para acceder e intercambiar la información precisa para la supervisión de la conducta y realizar un seguimiento.
  • Prevenir un uso ilícito de los robots.
  • Proteger los datos obtenidos por las máquinas.
  • Rastrear y grabar la conducta y actividad del bot.

3.4.2.- Limitación o prohibición de la fabricación o uso de robots inteligentes contrarios a la ética: la roboética.

No cabe duda de que la influencia de los robots es tan grande que muchas de las tareas cotidianas pueden ser realizadas por ellos y todos los procedimientos y estructuras organizativas dependen de su buen funcionamiento. Así esta influencia, genera problemas éticos muy relevantes: ¿es posible producir robots con capacidad para atacar y matar o auto-replicarse38? ¿deben programarse actividades ilícitas o carente de autorización? En este sentido, construir máquinas que tengan en cuenta cuestiones éticas es uno de los grandes desafíos de la Inteligencia Artificial; se pretende conseguir que los autómatas conciban de la mejor forma posible cuál sería el comportamiento de la mayoría social en las distintas situaciones para poder reproducirlo.

Y de ello se ocupa la roboética39, entendida como la parte aplicada de la ética que, persiguiendo prevenir un uso equivocado de la robótica contra la propia especia humana,

37 Op. cit. 7, pág. 46 a 48.

38 Según el físico nuclear y premio nobel de la paz Jósef Rotblat “una descontrolada auto réplica es uno de los peligros de las nuevas tecnologías”.

39 A este respecto, resaltan los trabajos del investigador Gianmarco VEUGGIO en diferentes obras, destacadamente: VERUGGIO, Gianmarco y OPERTO, Fiorella: “The roboethics roadmap”, en Humanoid Robots, 2006, 6th IEEE-RAS International Conference, 2007; también VERUGGIO, Gianmarco, y OPERTO, Fiorella: “Roboethics: a bottom-up inter-disciplinary discourse in the field of applied ethics in robotics”, en International Review Information Ethics, Vol. 6, 2016.

se interesa del código moral y las pautas de comportamiento ético que pueden ser introducidos en un robot a fin de garantizar el respeto de las personas y sus derechos.

Pese a ello, la tendencia se aleja de la antedicha introducción de moralidad, orientándose a tomar una solución pragmatista que opta por restringir el comportamiento del robot y, con ello, parte del desarrollo de su IA; se interesa la predominancia de los usos robóticos auxiliares y complementarios a la acción humana en detrimento de aquellos que sean directamente sustitutivos de la misma.

3.4.3.-Roboseguridad.

Dado que las innovaciones robóticas cuentan con un conjunto muy sofisticado de sensores y video o termocámaras, además de micrófonos, que permiten percibir el ambiente con bastante precisión y efectuar capturas fotográficas o de comunicaciones, configurándose así como potenciales instrumentos de vigilancia40, se plantean diferentes desafíos en relación con los datos y la información de muy diversos tupos que los robots pueden almacenar de forma selectiva o masiva e indiscriminada y con el tratamiento que las máquinas o sus propietarios hagan del big data, por cuanto puede colisionar con el derecho a la intimidad y a la protección de datos, entre otros. Otro problema deriva de que terceros no autorizados accedan a la información contenida en los robots.

En este contexto, promover un marco regulatorio y de estandarización de seguridad respecto a los robots es de vital importancia para evitar errores de programación41 o ataques a los meritados. Para ello, se deben abordar cuatro principios42:

  • Principio de evaluación del riesgo, para identificar peligros potenciales y evaluar el riesgo.
  • Principio de diseño seguro, para reducir el riesgo.
  • Principio de protección para riesgos que no puedan ser mitigados completamente.
  • Principio de responsabilidad por defectos en la fabricación.

40 CALO R., “Robots and Privacy”, en Robot Ethics. The Ethical and Social Implications of Robotics,

págs. 187-202.

41 Un fallo en el código puede conllevar resultados fatales como el ocurrido en Estados Unidos en marzo de 2017, cuando un robot mató a una mujer mientras trabajaba.

42 En sentido similar, SANTOS GONZÁLEZ, M. J., op. cit. 7 pág. 34.

4.- Desafíos de la responsabilidad penal43.

A consecuencia de la ya referida falta de eficacia de la sensación penal frente a los robots44, y evocando meras conjeturas, procede a estas alturas del presente artículo abordar los tres desafíos fundamentales a los que se enfrenta el Derecho Penal respecto de aquellos.

4.1.- Teoría de la autoría del delito.

A juicio de expertos de IA, los robots no solo est(ar)án45 capacitados para cometer crímenes, sino que estiman que en un plazo de 20 años cometerán más crímenes que los humanos46

Frente a esta predicción, la actual redacción del artículo 28 del Código Penal reza <<son autores quienes realizan el hecho por sí solos, conjuntamente o por medio de otro del que se sirven como instrumento>>.

Constituye este precepto la base de la teoría de la autoría mediata, considerando autor no sólo a aquel que realiza la acción típica, sino también a quien consigue que un tercero –del que se sirve como instrumento- realice tal sin plena consciencia de su relevancia penal, o por engaño, violencia o intimidación; esto es, sin dominio del hecho.

Sin embargo, si este tercero –autor material- tiene dominio sobre el hecho, de modo que además de ejecutarlo lo quiere, nos encontraríamos en las aguas de la figura del inductor47.

Sobre esta configuración, algunos autores como Nieto Mengotti48, han defendido la viabilidad de aplicar la teoría de la autoría mediata para atribuir esta

43 Para una lectura más detallada vid. la obra que, por su acierto, ha servido de base: “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid, 2018, págs. 135 a 149.

44 Vid. Sub-epígrafe “3.4.1.1.- Estatus legal de los robots”, “A) El robot como persona física”, donde indicamos que “el castigo y la sanción resultan inadecuados –por ineficaces-.Pág. 17.

45 Recientemente, la CNBC ha titulado la noticia “Robot with $100 bitcoin buy drugs, get arrested”, refiriéndose a un robot que, por lo visto, compró MDMA por su propia cuenta.

46 El profesor BARRANCO ANDRÉS hace años advirtió que la delincuencia futura se realizará exclusivamente a través de medios tecnológicos y, por tanto, se cometerían fundamentalmente ciberdelitos. En el mismo sentido, NIETTO MENGOTTI en “el Derecho Penal frente a los robots”, artículo para Replicante Legal, 2016.

47 Dispone el artículo 28.2 CP “también serán considerados autores (…) los que inducen directamente a otro u otros a ejecutarlo”.

48 NIETO MENGOTTI, Juan Pablo, “El Derecho Penal frente a los robots”.

responsabilidad robótica49.

No obstante, concluyo, al igual que el citado autor, que, en la actualidad, esta tesis no resulta de aplicación y a fin de dar una adecuada respuesta penal debiera revisarse, por cuanto los robots mantienen la configuración y el tratamiento jurídico de las cosas (muebles), y hasta que su autonomía no sea absoluta y constatable. Por tanto, su empleo no significa conexión subjetiva usuario-robot –recordemos, carente de voluntad-, correspondiendo el dominio del hecho siempre al primero y, por ello, la imputación de la incidencia penal se realizará con base en la comisión directa y personal de éste por cuanto único autor. El robot es, en estos casos, mera herramienta del delito; en consecuencia, lo que se puede producir son decomisos de aquellos50. Siendo así, basta con sostener la teoría del autor material que ya resulta de aplicación.

Cuestión distinta es, como bien indica, DOMINGUEZ PECO, E. M.51, que dicha teoría pudiera servir para evitar tesis absolutorias de aquellos usuarios de autómatas que trataran de ampararse en una pretendida acción autónoma de éstos. Sin embargo, resulta demasiado rebuscada esta funcionalidad, de suerte que tales supuestos podrían solventarse a través de la teoría de la relación de causalidad52.

4.2.- Culpabilidad.

Desechada en el Derecho Penal la responsabilidad objetiva por el hecho, no puede deducirse que de las consecuencias derivadas del empleo de un robot con cierta autonomía como herramienta o instrumento para la realización de una acción sea siempre responsable el sujeto tele-operador, sino en la medida en que concurra dolo o imprudencia53.

A este respecto, QUINTERO OLIVARES54 distingue, por un lado, supuestos en los que el desvío de la acción querida por el usuario del robot se produce por un facto

49 Para un análisis más pormenorizado, vid. DOMÍNGUEZ PECO, Elena María en “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid, 2018, pág. 136.

50 El artículo 127 CP regula el decomiso en el sentido de “la pérdida de los efectos que de él(delito) provengan y de los bienes, medios o instrumentos con que se haya preparado o ejecutado (…)”.

51 DOMINGUEZ PECO, Elena María, “Los robots en el Derecho Penal”, en la reiterada obra deBARRIO ANDRÉS Derecho de los Robots, págs. 131-150.

52 “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid, 2018, pág. 138.

53 Señala el artículo 5 la Norma Penal “no hay pena sin dolo o imprudencia”.

54 QUINTERO OLIVARES, G.,“La robótica ante el Derecho Penal: el vacío de respuesta jurídica a las desviaciones incontroladas”, en Revista electrónica de Estudios Penales y de Seguridad, núm. 1, 2017.

externo, científicamente imprevisible55 e incontrolable (caso fortuito) y, por otro lado, supuestos en los que se constata una desviación de la máquina respecto de la función programada, la cual debió tenerse en cuenta.

Así, y asumiendo que el robot es una cosa, esas desviaciones o cambios de programación deberán analizarse bajo la lupa del caso fortuito, revisando, en consecuencia, si el usuario mantenía el control de la acción y la previsibilidad de la desviación, dando lugar al dolo indirecto, eventual o, en su caso, a la imprudencia del responsable de su empleo, que aparecerá como autor del delito a menos que pueda acreditarse un cruce de programas o viciosidad en la programación que escapaba a su control o que no es posible programar la evitación de la conducta no deseada. Y, en este punto, la problemática es de índole probatoria.

Por último, abstraernos de la figura del usuario para reflexionar acerca de la culpabilidad del programador, creador e, incluso, ingeniero que diseñó tal invención robótica nos conduce inexorablemente a la cadena de responsables –la cual es desarrollada en el epígrafe que sigue-: ¿hasta qué punto puede plantearse la responsabilidad penal de estas personas cuando los robots actúan de forma autónoma alejándose de la voluntad del usuario?56

4.3.- Responsabilidad: alternativas a las reglas comunes.

Derivado de la imprevisibilidad de actuación de los robots y de la dificultad para asignar la responsabilidad conforme a los modos tradicionales, basados en la culpa y en la relación de causalidad, se desprende la necesidad de (…) razonar según esquemas innovativos.

4.3.1.- Responsabilidad de creadores o programadores, y responsabilidad de los usuarios.

Sentado todo lo anterior, concluimos acerca de la relevancia del estudio de la responsabilidad de creadores y programadores de los bots en las acciones autónomas que, realizadas por ello, se separasen de las instrucciones interiorizadas, por cuando se

55 Nos referimos a la total ausencia de prognosis científica de daño, a la incapacidad de afirmar que nunca pasará nada. Pero la vía de prohibir el uso de los avances robóticos sobre la base de que no se ha descartado un riesgo cuya certeza se desconoce supondría una norma incriminadora penal invocando el principio de precaución, lo cual no es posible –las legislaciones penales no pueden crear delitos en los queno haya ninguna agresión a un bien jurídico- salvo que se ignore lo que es un delito de peligro y, hasta ahora, aquel solo se ha manifestado en los delitos de fraude alimentario.

56 En palabras de DOMÍNGUEZ PECO, Elena María en “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid, 2018, pág. 140 y ss.

ha generado una variante que únicamente puede ser desactivada por dichos sujetos57.

Para NIETTO MENGOTTI58, la teoría de la autoría mediata posibilitaría determinar su responsabilidad; QUINTERO OLIVARES59, por su parte, opta por la autoría directa y subraya que las desviaciones de la actuación de las máquinas deberán analizarse conforme a las reglas del caso fortuito.

El principal problema de analizar el caso fortuito estriba en la distancia temporal que puede haber entre la acción en la que la participaron -creación o programación- y el hecho lesivo, al margen de la falta de dominio del hecho. Por las mismas razones de ausencia de dolo y dominio del hecho, tampoco responden en concepto de cooperadores necesarios. Conforme a la legalidad vigente, el artículo 28 del Código Penal, salvo la incorporación de un precepto expreso en la Norma Penal que lo amparara60, la figura de los creadores o programadores no encaja en ninguna de las categorías, pues no realizan la acción típica ni por sí mismos ni sirviéndose de un tercero.

También se muestra acertadamente crítica con esta tesis PALMERINI, E.61, por un lado, porque prescinde totalmente de la responsabilidad del fabricante –vía que ciertamente sería tomada en la mayoría de las ocasiones por las víctimas, tanto por la mayor solvencia de éstos respecto al usuario como por el régimen actualmente aplicable- y, por otro lado, porque constituye un elemento disuasorio respecto a la potencial adquisición de los autómatas, al punto de decaer la propagación de una tecnología socialmente útil como ya se ha revelado.

4.3.2.- Responsabilidad de los propietarios y/o usuarios.

Una segunda indicación se encuentra enfocada hacía un aumento de la responsabilidad del propietario del robot inteligente por cuanto titular de un bien mueble

57 Lejos de este planteamiento, y de conformidad con PALMERINI, E., supra, considero que los fabricantes del sector embrolladamente estarían en talento de anticipar y, por lo tanto, asumir los costos, potencialmente elevados, para el resarcimiento de los daños causados. A su vez, la futurible de firmar una responsabilidad tal tendría un efecto desalentador en el desarrollo de la robótica, así como determinaría un aumento de los costos, tornándolas menos accesibles a los potenciales interesados.

58 NIETTO MENGOTTI, Juan Pablo, “Intervención en el Primer Congreso sobre aspectos legales de la robótica”, organizado por la Fundación para la Investigación sobre el Derecho y la Empresa (FIDE).

59 QUINTERO OLIVARES, GONZALO, “La robótica ante el Derecho Penal…”, op. cit. 113.

60 DOMÍNGUEZ PECO, Elena María en “Derecho de los Robots”, de BARRIO ANDRÉS, Moisés, en Wolters Kluwer, Madrid, 2018, pág. 144. Sirvan de precedente el artículo 30 y los artículos 31 a 31 quinquies del Código Penal.

61 Op. cit. 6, pág. 16.

y beneficiario de las ventajas económicas y productivas derivadas del mismo. Sin embargo, conforme a la redacción penal actual y como propietario de un robot, como el de cualquier instrumento de delito62, no incurre en responsabilidad penal salvo que haya conocido y querido acción.

Por ello, se propone que el propietario debería responder con base a un criterio de responsabilidad objetiva y que encuentre su clave en la formación que el mismo proporciona al robot. De nuevo, el problema surgirá cuando este último se separe de la enseñanza prevista y controlada por el primero.

Huelga recordar que, en la mayor parte de las ocasiones, los robots son y serán propiedad de personas jurídicas, lo que denota la ruptura de la antedicha unidad titular- usuario. Por ello, necesariamente, habrá de plantearse la responsabilidad de éstas por cuanto titulares de aquellos cuando se cometan determinados delitos -por cuanto numerus clausus– en su utilización y beneficio por sus representantes, a menos que pruebe que mediante un programa específico de control (compliance) trató de prevenir y evitar los daños proscritos suerte que se atenúe la responsabilidad de la entidad o se desplace en su totalidad al usuario.

4.3.3.- Autorresponsabilidad del robot.

Dentro de la tesis que empuja por convertir a los robots en sujetos penalmente responsables de los daños y perjuicios que ocasionaren, hemos de diferenciar dos escuelas.

Una primera recurre a encontrar aplicación en los supuestos en los que la capacidad cognitiva y decisoria de los robots fuera asimilable a la de aquellos sujetos que, por su edad o desarrollo psíquico, no están obligados a responder en primera persona y son sustituidos en el hacer indemnizatorio por aquellos sujetos que los tienena cargo. Sin embargo, la materialización de este pensamiento podría imponer cargas excesivas al propietario –en particular, a aquellas personas que recurren a la tecnología robótica con fines asistenciales y/o de cuidado- por lo que la razón de ser del crecienteinterés tecnológico podría verse frustrada.

La segunda escuela, partiendo del creciente nivel de autonomía de los robots, propone un argumento más general orientado a la creación de la “personalidad electrónica”. A esta propuesta se adhiere, lógicamente, la imprescindible identificación de cada autómata y su acceso a un Registro de nueva creación, además de asegurar que le sea asociado un fondo dinerario a abastecer por su propio desarrollo social o laboral através del cual sea factible responder por las obligaciones.

62 Partimos de la premisa de que hoy en día los robots, por más que gocen de autonomía, sonconsiderados cosas muebles.

5.- Conclusión personal.

Lejos de los planteamientos que abogan por que el Derecho de los Robots evolucione de modo que podamos hablar de una especie de personalidad jurídica diferenciada en un ejercicio de semejanza entre los mecanismos de imputación a las personas jurídicas y los que se podrían emplear para el caso de los robots, consideramos que el grado de actual autonomía de aquellos puede descubrir respuesta punitiva eficaz en las figuras jurídicas ya reconocidas por nuestro sistema jurídico, si bien habrán de adaptarse y adecuarse a esta inminente realidad. Al menos en cuanto al Derecho Penal se refiere.

Y ello en base a las siguientes consideraciones, principalmente: el derecho, a fin de evitar caer en un anacronismo que lo haga ineficaz, ha de evolucionar conforme a la realidad social, sin adelantarse, ya que debe operar sobre lo presente y no sobre futuribles, en respeto del principio de seguridad jurídica; y, la robótica debe primero plasmar su imparable desarrollo en una legislación civil y administrativa que sirvan de base, en su caso, de las eventuales reformas de la Norma Penal, en primacía del principio de intervención mínima.

6. Bibliografía.

ASARO, Peter, “Robots and Responsibility from a Legal Perspective”, en Proceedings of the IEE, 2007.

BARRIO ANDRÉS, M., “Ciberdelitos: amenazas criminales del ciberespacio”, editorial Reus, Madrid, 2017.

BARRIO ANDRÉS, M., “Ciberderecho: bases estructurales, modelos de regulación e instituciones de gobernanza de internet”, en Tirant Lo Blanch, Valencia, 2018.

BARRIO ANDRÉS, M., “Derecho de los Robots”, en Wolters Kluwer, Madrid, 2018.

BARRIO ANDRÉS, Moisés, “Robótica, inteligencia artificial y Derecho”, en Real Instituto Elcano, CIBER elcano No. 36, septiembre 2018. BARRIO ANDRÉS, Moisés, “Ciberderecho. Bases estructurales, modelos de regulación e instituciones de gobernanza de Internet”, Tirant lo Blanch, Valencia 2018. BARRIO ANDRÉS, Moisés, Delitos 2.0. Aspectos penales, procesales y de seguridad de los ciberdelitos. Madrid, WoltersKluwer, 2018.

CALO, R., “Robotics and the Lessons of the Cyberlaw”, 103, Cal. L. Rev. 2015, págs. 513 y ss.

CALO R., “Robots and Privacy”, en Robot Ethics. The Ethical and Social Implications of Robotics, págs. 187-202.

CALVERLEY, J. D., “Imagining a non biological machine as a legal person”, en Artificial Intelligence & Society, 2008, 22.

CNBC ha titulado la noticia “Robot with $100 bitcoin buy drugs, get arrested”.

COECKELBERGH, M., “Robot rights? Towards a social-relational justification of moral consideration”, en Ethics and Information Technology, 2010, 12, 209-221.

Dictamen del Comité Económico y Social Europeo sobre la <> (Dictamen de iniciativa) (2017/C 288/01).

KOOPS, B. J., HILDEBRANDT, M. y JAQUET-CHIFFELLE, D.-O, “Bridging the

Accountability Gap: Rights for New Entities in the Information Society?”, en Minnesota Journal of Law, Science & Technology, 2010, 11(2), 508 y ss.

LEHMAN-WILZIG, S.N., “Frankenstein Unbound: Towards a Legal Definition of Artificial Intelligence”, en Futures, 1981, 13(6), 442

LOPEZ CUMBRE, L. “Robots con derechos y obligaciones civiles… y laborales”, en Análisis GA&P, marzo 2017.

NIETO MENGOTTI, Juan Pablo “El Derecho Penal frente a los robots”, artículo para Replicante Legal, 2016

PALMERINI, E. y BERTOLINI, A., “Liability and Risk Management in Robotics”, en SCHULZE R. y STAUDENMAYER, D. (eds.), Digital Revolution: Challenges for Contract Law in Practice, Nomos Verlag, Baden-Baden, 2016, pp. 235 y ss.

PALMERINI, E., “Robótica y derecho: sugerencias, confluencias, evoluciones en el marco de una investigación europea”, en Rev. Derecho Privado, Universidad Externado de Colombia, nº 32, enero-junio de 2017, 53-97. DOI: https://doi.org/10.18601/01234366.n32.0.

QUINTERO OLIVARES, Gonzalo, “La robótica ante el Derecho Penal: el vacío de respuesta jurídica a las desviaciones incontroladas”, en Revista Electrónica de Estudios Penales y de la Seguridad: REEPS, Nº 1, 2017.

SÁNCHEZ DEL CAMPO, A., “Cuestiones jurídicas que plantean los robots”, cit., y, del mismo autor, “Reflexiones de un replicante legal”, Aranzadi, 2016.

SANTOS GONZALEZ, María José, “Regulación legal de la robótica y la inteligencia artificial: retos de futuro”, en Revista Jurídica de la Universidad de León, núm. 4, 2017, págs. 25-50.

Sitio web: https://www.bundestag.de/en/committees/a23. Sitio web: http://www.robolaw.eu/.

TEUBNER, G., “Rights of Non-humans? Electronic Agents and Animals as New Actors”, en Politics and Law, 2006, 33(4), 497-521.

VERUGGIO, Gianmarco y OPERTO, Fiorella: “The roboethics roadmap”, en Humanoid Robots, 2006, 6th IEEE-RAS International Conference, 2007.

VERUGGIO, Gianmarco, y OPERTO, Fiorella: “Roboethics: a bottom-up interdisciplinary discourse in the field of applied ethics in robotics”, en International Review Information Ethics, Vol. 6, 2016.

WU, S.S., “Risk Management in Comercilizing Robotics”, de 3 de abril de 2013.

ZAFRA, Juan M., “Los robots sirven para que podamos ser más humanos”, revista digital Fundación Telefónica de 2 de noviembre de 2017.


Comentarios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *