La Inteligencia Artificial: ¿Puede ser responsable por sus propios actos?

Picture of Pierina Bianchi

Pierina Bianchi

Bachiller en la carrera de Derecho por la Universidad del Pacífico. Forma parte del equipo de Legal & Asuntos Gubernamentales de Natura & Co.

I. Introducción

La tendencia del cambio en el comportamiento de la vida de los individuos gira en torno a la revolución digital y tecnológica. Esto genera que el día a día como lo conocemos vaya transformándose, volviendo la vida de los humanos cada vez más fácil y sencilla con el pasar de los años. Debido a que las innovaciones relacionadas con la tecnología no se detienen y no hacen más que avanzar, esto se vuelve un reto para la sociedad al tratar de seguirle el ritmo. Algunas situaciones cotidianas como la comunicación con otros, el trabajo e incluso manejar, que han sido interiorizadas de cierta manera, ahora deben adecuarse a fin de poder convivir con la aparición de estas nuevas tecnologías.

Este es el caso de la inteligencia artificial (“IA”), la cual en los últimos años ha generado mucho ruido alrededor del mundo; puesto que resulta ser un mecanismo que permite automatizar determinadas operaciones que antes eran realizadas por los seres humanos. Si bien todo parece ser una mejora, debemos tener en cuenta que no todo es color de rosa porque el uso de los nuevos sistemas puede generar imprevistos que tengan como resultado el detrimento de la confianza depositada en la IA. Entre dichos incidentes podemos identificar la reciente interrogante respecto a la imputación de responsabilidad por daños generados a raíz de la implementación de la inteligencia artificial.

Es por ello que, a lo largo del presente trabajo, explicaremos en qué consiste la inteligencia artificial, las implicancias de la teoría de daños, cómo se relacionan ambos conceptos; y, finalmente, analizaremos un caso que se está volviendo cada vez más relevante: ¿cómo podemos determinar la responsabilidad civil extracontractual frente a un daño causado por el uso de un vehículo autónomo?

II. La inteligencia artificial y la teoría de daños

De acuerdo a lo señalado en el párrafo anterior, en esta sección desarrollaremos el marco conceptual de la inteligencia artificial, así como la responsabilidad civil extracontractual por daños y perjuicios. Esto con el objetivo de poder determinar la relación entre ambos como también algunas dificultades que se nos presentan al identificarla.

A. ¿Qué es la Inteligencia Artificial?

La Inteligencia Artificial («IA«) es un concepto nuevo que ha empezado a ser conocido y utilizado por las personas en distintos ámbitos de su vida. Primero, explicaremos qué se entiende por inteligencia artificial, y cómo esta puede tener dos connotaciones distintas: (i) como una máquina capaz de razonar y (ii) como un robot que puede resultar ser un producto defectuoso (Hernández, 2020). Respecto al primer punto, la IA es considerada una máquina con similitudes a la inteligencia humana; ya que entre las distintas operaciones que ejecuta esta es capaz de asemejarse al actuar de una persona. Sin embargo, debemos hacer la salvedad que las operaciones realizadas por la IA son ejecutadas autónomamente y cuentan con la posibilidad de que exista un aprendizaje de por medio. Lo último mencionado, tiene relación con la segunda connotación otorgada que indica que la IA puede ser considerado un producto defectuoso porque al ser una máquina o robot capaz de aprender puede tener éxito, pero también existe la posibilidad de que cometa errores en las actividades que lleva a cabo.

B. ¿Qué es la teoría de daños?

 

(Fuente: Talavera, 2018)

A efectos de determinar si existe responsabilidad civil extracontractual derivada de algún daño generado por la IA se deben analizar los cinco elementos constitutivos que se muestran en el esquema precedente, los cuales son: (i) imputabilidad, (ii) ilicitud o antijuricidad, (iii) factor de atribución, (iv) nexo causal; y, (v) daño.

En primer lugar, tenemos el factor de imputabilidad, la cual hace referencia a la posibilidad de atribuir responsabilidad a determinado sujeto de derecho, como las personas naturales o jurídicas. Respecto de la ilicitud o antijuricidad, este elemento requiere que el daño causado no se encuentre amparado por el ordenamiento jurídico correspondiente; ya sea porque es contraria a los valores, principios o efectos jurídicos establecidos. En tercer lugar, tenemos el factor de atribución que identifica a título de qué se es responsable y este puede ser tanto subjetivo (dolo o culpa) u objetivo (riesgo o situación de ventaja). Cabe explicar con mayor detalle los conceptos mencionados: (i) el dolo es cuando una persona actúa deliberadamente, (ii) la culpa es aquella actuación negligente y/o imprudente que termina causando un daño a la persona, (iii) el riesgo hace referencia a una actividad peligrosa que una persona genera ante la cual de ocasionarse algún daño deberá responder por ello independientemente de los factores subjetivos que puedan presentarse; y, (iv) la situación de ventaja es aquella en la que el causante responderá por los daños generados en una circunstancia que le brinda beneficios. En cuarto lugar, se encuentra el nexo causal que permite vincular el evento lesivo con el daño producido, que es el evento jurídicamente relevante. Finalmente, se encuentra el daño, que puede ser patrimonial o extrapatrimonial, y que se manifiesta como las consecuencias negativas que se derivaron del evento lesivo.

Luego de haber desarrollado los cinco elementos constitutivos de responsabilidad, surgen dos interrogantes que valen la pena plantear. La primera surge a raíz de la existencia de algunos supuestos de ruptura del nexo causal en la determinación de responsabilidad como caso fortuito, fuerza mayor, hecho determinante de tercero, imprudencia de la víctima; que, usualmente en situaciones “normales” pueden desvirtuar o excluir que se genere la responsabilidad por el daño cometido. Sin embargo, al momento de trasladarla al ámbito de inteligencia artificial, es posible preguntarnos si podrían aplicarse los mismos supuestos de excepción; en la sección del caso de análisis ahondaremos en ello. El segundo hace referencia a la situación en que no se cumplan con los cinco elementos constitutivos de responsabilidad civil, en situaciones normales indicaría que no se genera responsabilidad por el daño cometido, pero ¿en IA sería distinto? ¿podría aceptarse que alguno no cumpla e igual generarse responsabilidad? En la actualidad, no tenemos un marco normativo claro que nos ilustre sobre cómo determinar en cada caso si es que se genera o no una situación de responsabilidad civil por daños cuando se encuentra involucrada una máquina o robot que opera bajo la inteligencia artificial.

C. ¿Cómo relacionar la inteligencia artificial con la responsabilidad por daños?

Para poder determinar cómo se relacionaría la inteligencia artificial con la responsabilidad civil por daños a fin de determinar el tipo de responsabilidad que se desprende, el alcance de esta, sobre quién debe recaer la responsabilidad; entre otros. En esta sección profundizaremos algunos inconvenientes que pueden aparecer al momento de querer imputar responsabilidad de un daño generado por una máquina o robot con inteligencia artificial.

Cuando tenemos una situación en la que se generan daños hacia una persona, lo que se busca hallar es quién debe responder por ese daño causado y, si este puede como que no ser imputado como tal. Sin embargo, cuando nos acercamos a un daño causado por una máquina que opera con inteligencia artificial, nos preguntamos a quién le atribuimos dicha responsabilidad. Debemos aclarar previamente que no es posible atribuirle responsabilidad a la máquina o robot; ya que, es considerado una cosa o producto; esto de acuerdo a la doctrina la cual señala que es la más aceptada. Entonces se podría divagar entre tres posibilidades: (i) el creador del producto, (ii) quien adquiere el producto; o, (iii) quien lo opera. Como no tenemos una regulación específica que abarque temas de inteligencia artificial, podemos considerar como la opción más adecuada a la que el fabricante del producto es quien respondería por alguna falla en el sistema de operación del mismo; es decir, si es que fue la inteligencia artificial la que presentó complicaciones. Esto se debe a que, si bien la inteligencia artificial posee características de autonomía, autoaprendizaje y adaptación al entorno que la ubican fuera del control humano, debe irse contra un sujeto humano y que pueda ser imputado como responsable.

Asimismo, cabe analizar el alcance de responsabilidad que se podría imputar cuando se trata de un daño causado por una máquina que opera bajo el sistema de inteligencia artificial. Podemos presentar dificultades al momento de determinar el tipo de responsabilidad; ya que podemos preguntarnos hasta qué punto puede determinarse que el daño fue generado por una falla o defecto en el sistema de inteligencia artificial o si este se generó por un mal o inadecuado uso del producto. En ambas situaciones podemos imputar una responsabilidad subjetiva que sería directamente al creador o fabricante del producto como a quien opera el mismo. Ahora, si nos encontramos en el caso de un producto operado bajo el sistema de IA y de acuerdo a su propio funcionamiento se genera un autoaprendizaje de la misma IA que genera un daño a una persona. En esa situación, ¿cómo debería ser analizada la imputación de responsabilidad? Una alternativa para determinar la responsabilidad se daría en función del riesgo que podría generar la posibilidad de que este producto pueda adaptarse a nuevas características de su entorno y modificarse a fin de poder cumplir la función para la que fue configurado desde un inicio.

III. Caso de análisis: ¿Quién es responsable por un accidente causado por un vehículo autónomo?

Según la Organización Mundial de la Salud, «cada 24 segundos se registra una muerte en las carreteras del mundo y 1,35 millones de personas sucumben anualmente por accidentes de tráfico» (ONU, 2019). Al respecto, cabe mencionar que entre las principales causas se encuentran manejar en estado de ebriedad, la somnolencia, utilizar el celular, no respetar el semáforo en rojo o distraerse con la radio o el GPS (MAPFRE, s.f.). Debido a que los vehículos autónomos no incurren en los comportamientos antes descritos, parecieran ser una promesa de mejora. Tan es así, que el Insurance Institute for Highway Safety de los Estados Unidos concluyó que los autos inteligentes podrían reducir un tercio de los accidentes vehiculares (Agencia EFE, 2020).

Sin embargo, estos vehículos no son infalibles. Así lo demuestra el primer gran accidente automovilístico causado por un carro inteligente en el 2018, cuando atropelló a una mujer que cruzaba la carretera (Lee, 2019) . Aquel caso no fue el único, pues en el año 2021 un carro Tesla –que se presume estaba en piloto automático– se estrelló contra un árbol, ocasionando la muerte de dos personas (Mitchell, 2021). Además, los expertos señalan que «no habrá avances tecnológicos sin accidentes» (Catalan, 2018), por lo que dichos sucesos continuarán ocurriendo.

Es por ello que consideramos pertinente analizar el caso en concreto de la atribución de responsabilidad en accidentes de tránsito generados por vehículos autónomos a fin de determinar contra quién debería accionar la víctima. Para tales efectos, cabe abordar los siguientes temas: (i) el concepto de vehículos autónomos; (ii) el análisis de los elementos de la responsabilidad civil extracontractual; y, (iii) la posibilidad de invocar normas del Derecho de Protección y Defensa del Consumidor.

A. ¿Qué son los carros autónomos o inteligentes?

La doctrina define como vehículo autónomo a «aquel automóvil que a través de su software y en conjunto con su hardware simulan […] las capacidades humanas de manejo y control del vehículo con el fin de prescindir de la actividad humana» (Gordo, Malvaso, Mazzarella, & Salvidio, 2018). En palabras más sencillas, «los vehículos autónomos son módulos independientes capaces de transportar a personas y cosas sin la intervención humana en la conducción» (Highton, 2021). Como podemos observar, aquello concuerda con la definición de IA brindada en párrafos anteriores y aprendida en clase, ya que los carros autónomos hacen referencia a la simulación de la inteligencia humana en máquinas. En efecto, este tipo de automóviles serían catalogados como una Inteligencia Artificial Débil («IAD«), pues constituyen un sistema que es utilizado para un solo fin: transportarnos al destino indicado.

Pues bien, para poder cumplir con aquella tarea, los vehículos autónomos deben aprender a manejar por su cuenta. Para ello, necesitan conocer la información que los rodean como, por ejemplo, la posición de otros vehículos y la presencia de peatones o de animales. De esta manera, podrá determinar cuándo avanzar, retroceder o detenerse. Aquello requiere la participación en conjunto de variada tecnología, que usualmente involucra a sensores de movimiento, algoritmos, cámaras de video, unidades GPS, radares, entre otros, que le permitirá al carro «predecir su propia posición y también la de todos los objetos que identifica a su alrededor» (Highton, 2021).  Entre los algoritmos necesarios, se encuentra el Machine Learning y el Deep Learning.

Así lo confirma Maga Sáez, responsable del área del Sistemas de Visión del Centro Tecnológico de Automoción de Galicia, al señalar que «las redes neuronales tienen una gran capacidad de aprendizaje mediante algoritmos de machine learning y deep learning y pueden llegar al autoaprendizaje, pero el sistema necesita datos. Primero le enseñamos qué es un coche, qué es una moto y también qué no es un coche y qué no es una moto» (Amadoz, 2019). ¿Cómo se emplean dichos métodos? En el caso del Machine Learning, se utiliza el aprendizaje semi-supervisado, mediante el cual el auto asimilará la información por prueba y error. Dicho de otro modo, deberá ser «entrenado» y repetir la acción varias veces para aprender a conducir a partir de su experiencia pasada. Es por ello que Google lleva aproximadamente diez años probando sus vehículos autónomos en las calles y carreteras de California (Catalan, 2018). En el segundo supuesto, se requiere utilizar el Deep Learning con la finalidad de que los automóviles puedan predecir comportamientos, así como detectar si las imágenes de las cámaras o sensores corresponden a un animal, una persona u otro vehículo.

De esta forma, aparecieron los distintos grados de autonomía, dependiendo del nivel de intervención del ser humano y de Machine Learning implementado. Veamos:

NivelDescripción
0El conductor es el encargado de ejecutar todas las acciones.
01El vehículo cuenta con una serie de ligeras ayudas a la asistencia del conductor, como control de crucero adaptativo o avisador de cambio involuntario de carril, para facilitar la conducción y hacerla más cómoda y segura.
02Se trata de una automatización parcial, donde el papel del conductor seguirá siendo fundamental, pero contará con una serie de ayudas como mantenimiento de trayectoria, asistencia a la frenada, sistema de aparcamiento automático, etc. La seguridad se verá incrementada en gran medida.
03El conductor seguirá siendo determinante, pero solo cuando el sistema autónomo lo solicite o falle, pues el coche se encargará de circular libremente, detectando objetos y analizando el entorno que le rodea. El piloto, por tanto, no tendrá por qué realizar las funciones propias de la conducción tradicional, pero sí tendrá que estar atento y supervisar el funcionamiento del sistema.
04El sistema será capaz de analizar el entorno, determinar la ruta y circular con el vehículo, controlando el tráfico y los objetos de la vía, sin la ayuda ni atención del conductor. Sin embargo, si el sistema falla, el conductor deberá hacerse cargo de la conducción y contará con los medios adecuados para hacerlo (volante, pedales, caja de cambios, etc.).
05El conductor no será necesario, ni siquiera dispondrá de volante o pedales, y el vehículo será el encargado de analizar y supervisar el entorno, elegir la ruta óptima y tomar en todo momento la última decisión sobre la conducción. Los integrantes del coche podrán disfrutar de charlar, ver una película o incluso dormir. Si el sistema tiene algún error, será otro sistema de emergencia quien se encargará de solventarlo.

Elaboración propia. Fuente de la información: (Toyota, s.f.)

Dicho ello, a fin de analizar la responsabilidad por accidentes, tomaremos como ejemplo los coches con Nivel 04 y 05 de autonomía en los que no se requiere la participación activa del conductor. Ello debido a que, si la persona está a cargo de la conducción y no el sistema, la atribución de responsabilidad sería evidente.

B. Responsabilidad Civil Extracontractual derivada de accidentes ocasionados por autos inteligentes:

Entonces, proponemos el siguiente ejemplo como objeto de análisis: una persona está viendo una película en el asiento trasero del vehículo, mientras que el carro conduce por su cuenta. Es así como en una intersección, el coche inteligente no se detiene a pesar de que aparece un ciclista en frente quien dejó de avanzar por la luz roja y, como resultado, fue atropellado y llevado a la clínica de emergencia. En el Perú, ¿quién es el responsable de lo ocurrido? ¿El conductor o la empresa fabricante del vehículo autónomo?

A fin de contestar dichas interrogantes, debemos evaluar los cinco elementos constitutivos descritos en el marco teórico:

  • Imputabilidad: De conformidad con los parámetros de imputabilidad, solo las personas naturales (el conductor) y jurídicas (la empresa fabricante del coche autónomo) cuentan con aptitud de imputación, al ser reconocidos como sujetos de derecho capaces de ser responsables por los daños que ocasionan.
  • Antijuricidad: El hecho lesivo (accidente de tráfico) no se encuentra autorizado ni justificado por nuestro ordenamiento jurídico al no estar regulado dentro de los supuestos establecidos por el artículo 1971° del Código Civil[1].
  • Factor de atribución: La responsabilidad es objetiva, según el artículo 29° de la Ley N° 27181[2]. En ese sentido, conforme el artículo 1970° del Código Civil[3], «se responderá por los daños ocasionados, independientemente del parámetro de conducta del agente dañante» (Morales, 2021). Pero, ¿quién es el agente dañante? ¿el conductor o la empresa? A fin de determinar ello, corresponde evaluar el nexo causal.
  • Nexo causal: Asumiendo que el daño no fue causado por un hecho de tercero o de la víctima, habría que analizar qué ocasionó el accidente. Si el fallo de la IA se debió a la falta de mantenimiento del auto inteligente, la responsabilidad recaería en el propietario, al ser el encargado de asegurar la condición del bien. Por el contrario, si se debió a una falla técnica, la empresa sería la responsable de los daños ocasionados por el producto.

Sin perjuicio de ello, el artículo 1972° del Código Civil[4] regula los supuestos de ruptura del nexo causal, entre los cuales se encuentra el caso fortuito, que es aquel evento extraordinario, imprevisible o irresistible (artículo 1315°). En consecuencia, tomando a Google como ejemplo, la empresa –e incluso el conductor– podría deslindarse de responsabilidad al alegar que la falla técnica fue: (i) extraordinaria, porque de los 9.56 millones de recorridos realizados entre 2019 y 2020 (Martínez, 2021), este fue el único que presentó una falla; (ii) imprevisible, porque como consecuencia del Machine Learning, el fabricante no se encuentra en la capacidad de prever la reacción del vehículo autónomo ante cada situación; e, (iii) irresistible, porque el fabricante no podría descifrar la razón por la cual la IA actuó como actuó (Morales, 2021). En consecuencia, la compañía fabricante no podría evitar cada posible supuesto.

  • Daño: El perjuicio podrá ser patrimonial (daño emergente, por las lesiones ocasionadas) o extrapatrimonial (daño moral, por el sufrimiento generado).

Entonces, de lo anteriormente expuesto se desprende que el responsable de la indemnización por los daños ocasionados podría ser el conductor o la empresa y ello dependerá del nexo causal. Sin embargo, demostrar cuál fue el origen del accidente, puede resultar costoso o extremadamente difícil para la víctima, por lo que debería permitírsele accionar contra ambos y que sean las contrapartes quienes acrediten cuál fue el motivo de lo ocurrido. Ello en atención a la teoría de la inversión de la carga de la prueba, que traslada dicho peso a los demandados por encontrarse en una mejor posición para probar su postura.

Por otro lado, a efectos de evitar la indefensión de la víctima, consideramos que no debería aplicarse la excepción de caso fortuito –al menos no como está regulado en el Código Civil– al caso de accidentes que involucren el uso de IA. En efecto, el fabricante podría alegar en todo momento que la falla constituye un evento extraordinario, imprevisible e irresistible, debido a que el Machine Learning y el Deep Learning tienen como consecuencia que los programadores no cuenten con una comprensión exacta de cómo la IA alcanzó el objetivo predeterminado o cuáles fueron las etapas que realizó o dejó de realizar (Morales, 2021). Por consiguiente, la probabilidad de deslindarse de responsabilidad sería alta, perjudicando así la posibilidad de resarcimiento de la víctima.

Por lo señalado en párrafos precedentes, opinamos que es necesario contar con una regulación especial o específica que aborde no solo los lineamientos de uso y programación, sino que también precise sobre quién recae la responsabilidad extracontractual por los daños ocasionados por la IA. Aquello dotaría de certeza a nuestro ordenamiento jurídico, brindando seguridad jurídica no solo a la víctima, sino también a los usuarios, adquirentes y fabricantes. Así, las partes involucradas tendrían las reglas de juego claras y podrían tomar las precauciones pertinentes. Sobre el particular, compartimos la teoría del profesor Morales, según la cual la regulación deberá aplicar el criterio del cheapest cost avoider que «consiste en atribuir la responsabilidad a quien se encuentra en una mejor posición para asumir los costos que eviten los daños« (Morales, 2021).

C. ¿Una falla que amerita la Protección y Defensa del Consumidor?

Otra perspectiva que se expuso en el marco teórico fue la de considerar a la IA –en este caso, a los carros autónomos– como un producto. En ese sentido, ¿podría el propietario denunciar a la empresa automovilística en caso de una falla o defecto ante el INDECOPI? Si el fabricante adquirió la IA de otra empresa, ¿podría accionar contra dicha compañía?

El artículo 104° de la Ley N° 29571[5], dispone que «el proveedor es administrativamente responsable por la falta de idoneidad o calidad, el riesgo injustificado o la omisión o defecto […]«. Por lo tanto, a manera preliminar, la respuesta a las interrogantes formuladas sería positiva. No obstante, la ley también establece que el proveedor será exonerado «si logra acreditar la existencia de […] ruptura del nexo causal por caso fortuito […]«. Dicho de otro modo, se presenta el mismo problema descrito al momento de evaluar el Código Civil. Por ende, también debería modificarse el Código de Protección y Defensa del Consumidor a fin de evitar la indefensión del consumidor.

IV. Conclusión

La inteligencia artificial plantea varios riesgos y desafíos que el Derecho debe afrontar, no solo desde una perspectiva civil, sino también de protección del consumidor e incluso penal. La tecnología avanza a un ritmo considerable y sin duda alguna afecta el desenvolvimiento de la vida en sociedad. Por ello, debemos evitar que nuestro ordenamiento jurídico incurra en vacíos normativos o anacronismos que perjudiquen el ejercicio de derechos por parte de la ciudadanía. Esperamos que las aproximaciones regulatorias sobre el tema abordado en el presente trabajo no sean prorrogadas o emitidas de manera tardía, pues sería lamentable que recién se elaboren normas al respecto cuando ocurra el primer accidente de tránsito por un coche conducido autónomamente en el Perú.

[1]  «Artículo 1971.- Inexistencia de responsabilidad

No hay responsabilidad en los siguientes casos:

1.- En el ejercicio regular de un derecho.

2.- En legítima defensa de la propia persona o de otra o en salvaguarda de un bien propio o ajeno.

3.- En la pérdida, destrucción o deterioro de un bien por causa de la remoción de un peligro inminente, producidos en estado de necesidad, que no exceda lo indispensable para conjurar el peligro y siempre que haya notoria diferencia entre el bien sacrificado y el bien salvado. La prueba de la pérdida, destrucción o deterioro del bien es de cargo del liberado del peligro«.

[2] «Ley General de Transporte y Tránsito Terrestre», publicada el 08 de octubre de 1999 en el Diario Oficial «El Peruano».

«Artículo 29.- De la Responsabilidad Civil

La responsabilidad civil derivada de los accidentes de tránsito causados por vehículos automotores es objetiva, de conformidad con lo establecido en el Código Civil […]«.

[3] «Artículo 1970.- Responsabilidad por riesgo

Aquel que mediante un bien riesgoso o peligroso, o por el ejercicio de una actividad riesgosa o peligrosa, causa un daño a otro, está obligado a repararlo«.

[4] «Artículo 1972.- Irresponsabilidad por caso fortuito o fuerza mayor

En los casos del artículo 1970, el autor no está obligado a la reparación cuando el daño fue consecuencia de caso fortuito o fuerza mayor, de hecho determinante de tercero o de la imprudencia de quien padece el daño«

[5] «Código de Protección y Defensa del Consumidor», publicado el 02 de setiembre de 2010 en el Diario Oficial «El Peruano».