Estudios en Derecho a la Información se distribuye bajo una licencia
Creative Commons Atribución-No Comercial-Sin Derivados
4.0 Internacional (CC BY-NC-ND 4.0)
https://creativecommons.org/licenses/by-nc-nd/4.0/
logo logo



LA INTELIGENCIA ARTIFICIAL Y LA RESPONSABILIDAD
INTERNACIONAL DE LOS ESTADOS
STATE RESPONSIBILITY AND ARTIFICIAL INTELLIGENCE

Jimena Sofía Viveros Álvarez*1

Resumen. Este artículo busca proponer soluciones a la encrucijada que representan las tecnologías nuevas y emergentes, particularmente la brecha de responsabilidad que surge por el uso o despliegue de sistemas de armas autónomas dotados de inteligencia artificial. Dado que estos sistemas pueden conseguir sus objetivos sin intervención humana, en caso de que exista un hecho ilícito, imputarle responsabilidad a una persona física y, más aún, a un Estado puede presentar un reto importante. Se analiza el marco normativo de la responsabilidad de los Estados por hechos internacionalmente ilícitos, planteando una posible solución a esta brecha en las normas existentes. Asimismo, se explican las características básicas de la inteligencia artificial que originan el problema de la brecha de responsabilidad. Finalmente, se abordan los casos en que la responsabilidad del Estado puede ser invocada en relación con el uso de inteligencia artificial.

Palabras clave. Responsabilidad internacional de los Estados, brecha de responsabilidad, inteligencia artificial, sistemas de armas autónomas.

Abstract. This article seeks to propose solutions to the conundrum presented by new and emerging technologies, particularly the accountability gap arising from the use or deployment of autonomous weapon systems equipped with artificial intelligence. Since these systems can achieve their objectives without human intervention, invoking responsibility for a possible wrongful act may prove to be challenging. The normative framework of State responsibility for internationally wrongful acts is analyzed in order to provide possible solutions derived from existing norms. Furthermore, the basic characteristics of Artificial Intelligence, which give rise to this accountability gap, are also explained. Finally, the cases in which the State responsibility may be invoked in relation to the use of Artificial Intelligence are likewise discussed.

Keywords. State responsibility, accountability gap, artificial intelligence, autonomous weapons systems.

I. Introducción

Las nuevas tecnologías de inteligencia artificial tienen el potencial de ser muy beneficiosas para los Estados ya que éstos podrían apoyarse en ellas para el desempeño de sus funciones. Por ejemplo, en labores de vigilancia y consecuentemente, seguridad nacional, en servicios de transporte, servicios de salud, entre otros (Nakamitsu, 2021). Sin embargo, la complejidad, impredictibilidad y autonomía de estas tecnologías, en especial cuando sus acciones tienen un impacto perjudicial en el mundo, suscita muchas interrogantes jurídicas con respecto a la responsabilidad legal de su uso (Davison, 2017: 16).

Si el funcionamiento de estas tecnologías resulta en daños materiales, afectaciones al medio ambiente o incluso en la muerte de alguna persona, considerando que éstas pudieron haber actuado sin la intervención de ningún ser humano, ¿quién resultaría responsable? Dado que las máquinas no son sujetos de derechos y no pueden ser consideradas jurídicamente responsables de sus actos, a este dilema se le ha denominado “la brecha de responsabilidad” (Chengeta, 2016: 2).

Esta brecha resulta aún más preocupante en el ámbito internacional ya que es inaceptable que no exista responsabilidad por violaciones al derecho internacional cuando sean cometidas con un sistema dotado de inteligencia artificial de por medio, pues esto resultaría en una grave inestabilidad global que fácilmente podría desencadenar conflictos armados (Nakamitsu, 2021).

Es por ello por lo que este artículo busca proponer una solución a la brecha de responsabilidad mencionada, a través del estudio de la responsabilidad internacional de los Estados por hechos internacionalmente ilícitos. Asimismo, se propondrán posibles acciones que los Estados puedan llevar a cabo con el fin de disminuir los riesgos que conlleva el uso de inteligencia artificial.

Para ello, se hará un estudio del marco legal que rige la responsabilidad de los Estados por hechos internacionalmente ilícitos, posteriormente, se analizarán las características básicas de las tecnologías de inteligencia artificial que resultan problemáticas para efectos de atribución de responsabilidad, y finalmente, se analizarán las obligaciones que pudieran tener los Estados frente al desarrollo de estas tecnologías.

II. Elementos de la responsabilidad internacional del Estado

La responsabilidad internacional del Estado desempeña un papel fundamental en el derecho internacional público ya que refleja el derecho general de los agravios aplicable al incumplimiento de las obligaciones internacionales de los Estados y las consecuencias que derivan de dichas violaciones (Crawford y Olleson, 2018: 419). Tal como indica el artículo 1o. de los Artículos sobre la Responsabilidad del Estado por Hechos Internacionalmente Ilícitos (AREHII), “todo hecho internacionalmente ilícito del Estado genera su responsabilidad internacional” (Comisión de Derecho Internacional [CDI], 2001: 33).

La responsabilidad internacional del Estado surge cuando un comportamiento, consistente en una acción u omisión, es atribuible al Estado bajo el derecho internacional, y ésta constituye una violación de una obligación internacional del Estado (Caso relativo a la Aplicación de la Convención para la Prevención y Sanción del Delito de Genocidio, Bosnia y Herzegovina contra Serbia y Montenegro: 202). Los elementos de lo anterior se explican a continuación.

1. Atribución

Un Estado, como entidad jurídica abstracta, no puede actuar por sí mismo, depende de sus agentes y representantes para ello (Crawford y Olleson, 2018: 425). Así pues, las normas de atribución explican lo que se considera un hecho del Estado para efectos de responsabilidad internacional (Shaw, 2008: 786).

Como regla general, los únicos comportamientos atribuibles al Estado en el plano internacional son los de sus órganos, así como los de quienes han actuado bajo la dirección, instigación o control de éstos (CDI, 2001: 39). En otras palabras, el Estado sólo será responsable del comportamiento de sus órganos o de quienes actúen como tales, mientras que los actos de entes particulares generalmente no resultarán en la responsabilidad del Estado (Crawford y Olleson, 2018: 424-428), salvo algunas excepciones que se discutirán más adelante.

A tal efecto, un órgano comprende “todas las entidades individuales o colectivas que conforman la organización del Estado o actúan en su nombre” (CDI, 2001: 41). El término “órgano” puede referirse a aquellos formalmente reconocidos en el derecho interno del Estado (de jure) (CDI, 2001: 41-44) o también aquellos cuyo estatus no se desprende del derecho interno, siempre y cuando actúen con completa dependencia del Estado, del cual serían meramente instrumentos mediante los cuales actúa (de facto) (Caso relativo a la Aplicación de la Convención para la Prevención y Sanción del Delito de Genocidio, Bosnia y Herzegovina contra Serbia y Montenegro: 204-205).

En esencia, la atribución de responsabilidad requiere un nexo causal entre el comportamiento de un agente (humano) y el control de jure o de facto del Estado (CDI, 2001: 38-39).

Los artículos 4o. a 11 de los AREHII establecen las reglas de atribución, especificando los actores cuyo comportamiento podría resultar en la responsabilidad del Estado, ya sea de manera general o en circunstancias específicas. Se considerarán como hechos del Estado los siguientes (A/RES/56/83, 2002: arts. 4-11):

  1. El comportamiento de todo órgano del Estado, independientemente de si pertenece al Poder Ejecutivo, Legislativo o Judicial, sus funciones (Opinión sobre la Diferencia Relativa a la Inmunidad Judicial de un Relator Especial de la Comisión de Derechos Humanos: 87), posición, o pertenencia al gobierno central u otra división territorial del Estado (CDI, 2001: 41 y 42). Por ejemplo, un oficial de policía que tortura a un detenido o un general militar que despliega las tropas del Estado en territorio extranjero.
  2. El comportamiento de cualquier persona o entidad que ejerza elementos del poder público, siempre que, en el momento en que se produzca el comportamiento, actúe en ejercicio de la autoridad que se le ha conferido (A/RES/56/83, 2002: art. 5). Este artículo se refiere a las situaciones en que el Estado delega funciones gubernamentales a personas o individuos que no forman parte de sus órganos, por ejemplo, empresas de seguridad privada que llevan a cabo funciones policiales (CDI, 2001: 44 y 45).
  3. El comportamiento de un órgano o de quienes estén facultados para ejercer atribuciones del poder público, incluso si excede su competencia o contraviene sus instrucciones (actos ultra vires) (CDI, 2001: 47). Por ejemplo, en el asunto Caire de 1929, relacionado con el asesinato de un ciudadano francés por dos militares mexicanos después de que él rechazara darles dinero, la Comisión de Reclamaciones Francia-México sostuvo que aún si los oficiales actuaron fuera de su competencia, e incluso aún si hubieran actuado contra orden expresa, estos comprometieron la responsabilidad del Estado ya que actuaron y se valieron por los medios a su disposición dada su condición de oficiales (Asunto J. B. Caire).
  4. El comportamiento de otras personas o grupos, si están bajo la dirección o control del Estado (A/RES/56/83, 2002: art. 8). Si bien el comportamiento de las personas generalmente no es atribuible al Estado, este artículo se refiere a las situaciones en que existe una relación específica de facto, pues es el Estado quien da las instrucciones, dirige o controla su comportamiento (CDI, 2001: 49-51).

Una cuestión clave es el grado de control requerido, en el caso de las Actividades Militares y Paramilitares en y contra Nicaragua, la CIJ consideró que para atribuir el comportamiento de los individuos al Estado se requiere un “control efectivo” (Caso relativo a las Actividades Militares y Paramilitares en Nicaragua y contra Nicaragua: 64 y 65), lo que implica que éste tenga una participación mayor a la simple planeación, dirección o apoyo. Por ejemplo, la emisión de órdenes para llevar a cabo operaciones específicas, o indicaciones de cómo llevarlas a cabo podrían ser indicativas de un control efectivo (Cassese, 2007: 653).

Por el contrario, la Sala de Apelaciones del Tribunal Penal Internacional para la ex Yugoslavia abordó estas cuestiones en el caso y consideró que el grado de control requerido era un “control general”, en el que basta que el Estado tenga algún nivel de participación en la organización, coordinación o planificación de las acciones de un grupo armado (Caso del Fiscal vs. Tadić: 49-62).

Sin embargo, la Corte Internacional de Justicia (CIJ) rechazó el “control general” (Caso relativo a la Aplicación de la Convención para la Prevención y Sanción del Delito de Genocidio, Bosnia y Herzegovina contra Serbia y Montenegro: 209-211), pues consideró que ampliaba el alcance de la responsabilidad del Estado, extendiéndola al punto de casi romper la conexión entre el Estado y el comportamiento de sus órganos (Crawford y Olleson, 2018: 428).

  1. Un comportamiento que normalmente no sea atribuible al Estado se considerará como hecho de este, si éste lo reconoce y adopta como propio (A/RES/56/83, 2002: art. 11). Por ejemplo, en el caso relativo al personal diplomático y consular de los Estados Unidos en Teherán, la CIJ sostuvo que, aunque inicialmente quienes tomaron el control de la embajada de Estados Unidos en Teherán no actuaban como órganos de Irán, un decreto estatal posterior que respaldó dicha ocupación tradujo jurídicamente el comportamiento de los particulares en un hecho atribuible al Estado (Caso relativo al Personal Diplomático y Consular de los Estados Unidos en Teherán: 34 y 35).
  2. Otros comportamientos que pueden desencadenar la responsabilidad del Estado son las de los movimientos de insurrección que logren convertirse en el nuevo gobierno o que formen un nuevo Estado (CDI, 2001: 52-54); el de aquellos que ejercen atribuciones del poder público en ausencia de autoridades oficiales (CDI, 201: 51), y los actos de órganos de un tercer Estado que hayan sido puestos a su disposición, siempre y cuando en el momento de los hechos estén bajo su control (CDI, 2001: 45-47).

En resumen, el Estado será responsable del comportamiento de sus órganos, de los que ejerzan su autoridad, de quienes estén bajo su control, de los órganos extranjeros a su disposición, de los que haya adoptado como propios, así como de los que resulten de movimientos insurreccionales, o del ejercicio de la autoridad en ausencia de un gobierno formal.

Cabe señalar que el Estado también puede ser responsable por no impedir o sancionar el comportamiento de particulares, aunque no le sean directamente atribuibles a éste. Lo anterior se debe a la propia omisión del Estado, y no a las acciones de los particulares por sí mismas (Crawford y Olleson, 2018: 426, 428). A modo de ilustración, en el caso mencionado de los rehenes de Teherán, se determinó que Irán era responsable por no haber tomado ninguna medida apropiada para proteger las instalaciones de la embajada de Estados Unidos contra los ocupantes, incluso antes de que Irán adoptara el comportamiento de éstos (Caso relativo al Personal Diplomático y Consular de los Estados Unidos en Teherán: 31).

2. Incumplimiento de una obligación

Se actualiza la violación de una obligación internacional cuando un comportamiento atribuible al Estado constituye un incumplimiento de estas (CDI, 2001: 56 y 57).

Los hechos que específicamente constituyan la violación dependerán de cuáles sean las obligaciones del Estado, las cuales varían de un Estado a otro (Crawford y Olleson, 2018: 419, 432). Lo anterior podría configurarse con la violación de una obligación que se le deba a otro Estado, o un hecho en contravención de una norma erga omnes o jus cogens, o puede darse en el contexto de protección diplomática (daño a extranjeros o a sus bienes) (Crawford y Olleson, 2018: 419, 432).

Algunos autores opinan que se requiere la existencia de un elemento de culpa, daño o perjuicio (Shaw, 2008: 783-787), no obstante, no existe tal requisito en los AREHII (Crawford y Olleson, 2018: 434 y 435). De hecho, los comentarios de estos afirman que la esencia de un hecho internacionalmente ilícito radica en que el Estado no actúe conforme a lo requerido por una obligación internacional determinada (CDI, 2001: 56), lo que demuestra que no existe requisito formal adicional a los ya mencionados.

En cuanto a la culpabilidad, el derecho de la responsabilidad del Estado parece favorecer la teoría objetiva de la responsabilidad, ya que no se requiere dolo para que el hecho sea ilícito, lo cual está respaldado por jurisprudencia (Crawford y Olleson, 2018: 434). Sin embargo, algunos académicos han argumentado que en el caso del Canal de Corfú, se desprende el requisito de un elemento de culpabilidad (Crawford y Olleson, 2018: 434), pues la Corte determinó que Albania tenía conocimiento de la existencia de minas en sus aguas territoriales y no se lo advirtió a los barcos británicos que navegaban por ahí (Caso del Canal de Corfú: 18), por lo que se infirió que Albania obró con dolo, haciendo posible así la invocación de su responsabilidad (Crawford y Olleson, 2018: 434). Por otro lado, si bien algunos autores y gobiernos argumentan que el daño o perjuicio debe actualizarse, pues de lo contrario tampoco se actualizaría la responsabilidad del Estado, es de notarse que tales requisitos no están presentes en los AREHII por hechos internacionalmente ilícitos (Crawford y Olleson, 2018: 435).

Ante estos comentarios, Crawford sugirió que el requisito de tales elementos no depende de la ley de responsabilidad del Estado, sino más bien del contenido de la norma primaria que se incumple (Crawford y Olleson, 2018: 434 y 435). Ergo, a menos que la obligación primaria requiera un elemento adicional, la culpa, daño o perjuicio no son requisitos para la responsabilidad del Estado, tal como lo es, por ejemplo, el caso del crimen de genocidio, en el cual sí es necesaria la acreditación de un dolus specialis (Caso relativo a la Aplicación de la Convención para la Prevención y Sanción del Delito de Genocidio, Croacia contra Serbia: 118-128).

3. El ser humano, figura central en la responsabilidad internacional

El marco legal de la responsabilidad internacional de los Estados requiere que el comportamiento de un órgano del Estado, el cual siempre se llevará a cabo por un humano, le sea atribuible a éste.

¿Qué pasa entonces cuando, derivado de los avances tecnológicos, se puede eliminar al ser humano de la ecuación? Este es el dilema que conlleva la inteligencia artificial, en especial cuando se equipan máquinas con capacidad bélica con esta tecnología, tal como sucede con los sistemas de armas autónomas.

Si bien existen diversas disposiciones dentro del marco legal de la responsabilidad internacional de los Estados que rigen las circunstancias por las cuales se excluye la ilicitud del comportamiento, como lo son la legítima defensa o la fuerza mayor (A/RES/56/83, 2002: arts. 20-26), así como los efectos posteriores a la imputación de la responsabilidad, tales como lo son las obligaciones de cesación y reparación (A/RES/56/83, 2002: art. 28-33), en el contexto de este estudio la autora se enfoca exclusivamente en las normas de atribución y las relativas a la violación de una obligación.

Lo anterior, ya que la brecha de responsabilidad que deriva del uso de sistemas autónomos afecta precisamente las disposiciones previas a la imputación de la responsabilidad. Es decir, en un caso en el que se pudiera imputar responsabilidad por el uso de un sistema de armas autónomas, las circunstancias que excluyen la ilicitud operarían de manera habitual. Asimismo, las consecuencias jurídicas de los hechos internacionalmente ilícitos atribuibles al Estado y todas las obligaciones que emanan de ello surtirían los mismos efectos.

Sin embargo, como se explicará a continuación, es precisamente esta brecha de responsabilidad el principal reto que subsiste en cuanto a la licitud del uso de estas tecnologías. Para afrontarla es necesario poder establecer la atribución del comportamiento de un sistema autónomo al Estado, o en su defecto, que exista un incumplimiento por parte del Estado de su obligación positiva de adoptar las medidas necesarias para prevenir las violaciones a los derechos humanos de quienes se encuentran bajo su jurisdicción (Medina Ardila, 2009: 98) que pudieran resultar del uso de sistemas de inteligencia artificial. Como es de imaginarse, cuando no hay control humano determinante sobre la tecnología, la actualización de lo anterior cobra varios matices de complejidad.

III. La inteligencia artificial y la brecha de responsabilidad

Antes de analizar el impacto de la inteligencia artificial en el ámbito jurídico, es preciso aclarar algunos conceptos básicos y características de estas tecnologías para poder comprender las implicaciones legales de su uso.

1. Nociones básicas sobre la inteligencia artificial

La inteligencia artificial puede entenderse como el uso de sistemas informáticos para llevar a cabo tareas que anteriormente requerían cognición o razonamiento humano (DRAE, 2020). Se trata de una categoría de investigación científica que busca desarrollar sistemas capaces de resolver todo tipo de problemas, imitando las habilidades del ser humano para ello (Kononenko y Kukar, 2007: 38), y está diseñada para actuar como un agente racional (Russel y Norvig, 2010: 4-5), el cual puede aprender a partir de sus experiencias y de esta forma irse mejorando sin ninguna intervención humana (Scherer, 2016: 366 y 367).

El potencial de esta tecnología es muy amplio ya que existen distintos tipos de inteligencia artificial (O’Carroll, 2017):

  1. Inteligencia artificial acotada, la cual está programada para hacer una tarea específica extremadamente bien, por lo que tiene un rango limitado de funciones. Es la más común actualmente.
  2. Inteligencia artificial general, la cual estará a la par con las capacidades humanas. Esta tecnología aún no se consigue, pero su propósito es lograr que la máquina pueda pensar, comprender y actuar de una manera indistinguible a la del ser humano.

Es importante señalar que el objetivo de muchos proyectos relacionados con la inteligencia artificial es lograr que estos sistemas puedan adaptarse a diferentes situaciones y funcionar perfectamente sin control humano. Lo que aún no se logra es conseguir mediante la programación que el sistema sea “consciente”, otorgándole habilidades cognitivas inherentes al ser humano.

  1. Súper inteligencia artificial, la cual superará al ser humano y simboliza la máxima evolución en este campo. Esta es en la que se basa la teoría de la “singularidad”, la cual predice que la tecnología llegará a ser lo suficientemente inteligente para programarse y mejorarse a sí misma, independizándose por completo de los humanos que la han creado.

El proceso que le permite a la inteligencia artificial mejorarse desde la experiencia, adaptarse a nuevos entornos y actuar por sí misma para conseguir sus objetivos, independientemente de los obstáculos imprevistos y sin una dirección explícita del programador se llama aprendizaje automático (en inglés machine learning) (Coglianese y Lehr, 2017: 1156-1160). Por otro lado, el aprendizaje profundo (en inglés deep learning) es otro campo del aprendizaje automático que permite la asimilación de una cantidad exponencial de datos al producir diferentes niveles de abstracción y así expandir el aprendizaje automático en capas multiplicadas (Brownlee, 2016). Ambas ya existen y operan en varios de los sistemas que usamos diariamente como lo son los asistentes de voz en nuestros celulares o para nuestro hogar.

En consecuencia, derivado del aprendizaje automático y el aprendizaje profundo, debemos cuestionarnos con gran seriedad las implicaciones legales que acarrea el proceso de toma de decisiones de los sistemas de inteligencia artificial. La razón de esto es que los procesos artificiales de toma de decisiones son demasiado complejos y abstractos para el entendimiento humano, ya que la tecnología crea sus propios algoritmos y, por lo tanto, estos procesos constituyen lo que se ha denominado “la caja negra” (Rich, 2016: 886).

Lo anterior significa que independientemente de su configuración original, el programa es quien finalmente decide sobre los valores y la importancia que se le confiere a cada elemento que percibe sin que el programador pueda saber las características precisas que va incorporando el sistema (Coglianese y Lehr, 2017: 1156 y 1157). Además, el programador no sabe qué reglas ni qué determinaciones específicas fueron utilizadas por la tecnología para llegar a una cierta conclusión. Es más, mecánicamente ni siquiera puede revisar o rastrear las inferencias y procesos de decisión aplicados (Coglianese y Lehr, 2017: 1159).

2. La brecha de responsabilidad

Ahora bien, como se ha dicho anteriormente, los Estados no pueden actuar por sí mismos y necesitan de sus agentes y representantes humanos para actuar. Sin embargo, el uso de tecnologías de inteligencia artificial supone la difusión, dilución o pérdida del control humano sobre las acciones de dichos sistemas. Esto se debe a varios motivos, entre ellos está el hecho de que los individuos que teóricamente tienen el control del sistema van cambiando a lo largo de las etapas de desarrollo, el despliegue y hasta su uso final (Boutin, 2021). Por otro lado, el problema de la caja negra, así como su imprevisibilidad y complejidad, es que esta situación restringe de facto el control humano (Asaro, 2016: 191 y 192). A sabiendas de ello, su uso efectivamente parte de una confianza ciega hacia el sistema ya que no es factible que un humano pueda explicar completamente cómo y por qué un sistema de inteligencia artificial tomó una determinada decisión (Boutin, 2021). Lo anterior se traduce en una ausencia de control humano determinante en su operación y es justamente ahí donde nace la brecha de responsabilidad (Matthias, 2004: 177).

Estas consideraciones dan pie a la siguiente pregunta: si un hecho ilícito, cuya comisión involucra el uso de un sistema de inteligencia artificial y por ende no puede imputársele a un ser humano, ¿podría serle atribuido a un Estado? (Boutin, 2021)

IV. La inteligencia artificial y la responsabilidad del Estado

Más allá del grado de independencia, autonomía o interactividad con el que cuenten los sistemas de inteligencia artificial, debemos recordar que éstos son, de origen, una creación humana (Johnson, 2006: 195-197). Nosotros los humanos somos responsables de su diseño, fabricación y operación. Somos nosotros quienes determinamos sus objetivos iniciales, ya sea directa o indirectamente a través de su programación o mediante subsecuentes métodos de aprendizaje. Al final del día la realidad es que, sin la deliberada decisión humana de crearlos, no existirían los sistemas de inteligencia artificial (Bryson, 2010: 65).

En consecuencia, las normas de responsabilidad de los Estados pueden brindar orientación sobre el tratamiento jurídico de acciones cuya realización derive de un sistema que use inteligencia artificial. Por lo tanto, es importante analizar cómo se puede abordar la atribución de dichos actos para efectos de invocar la responsabilidad internacional de los Estados respecto a ellos.

1. Atribución de las acciones realizadas por medios de inteligencia artificial

Atribuir el comportamiento de un sistema de inteligencia artificial a un Estado es una de las principales preocupaciones cuando se discuten estas tecnologías. Como se dijo anteriormente, la atribución requiere un nexo causal entre el comportamiento de un agente humano y el control normativo o fáctico del Estado; sin embargo, la pérdida del control humano, lo cual es efectivamente el resultado de las funciones autónomas de estas tecnologías, complica jurídicamente la identificación de dicho nexo.

Por lo tanto, habiendo considerado las implicaciones de la inteligencia artificial, para poder atribuir su comportamiento a un Estado debemos contemplar los diversos tipos de sistemas que existen y la manera en la que se utilizan, es decir, su programación original y en qué medida son autónomos e impredecibles. Lo anterior es de especial relevancia porque conlleva implicaciones en cómo conceptualizamos la tecnología, esto es, si se considera como objeto o un agente (Boutin, 2021).

Dicho esto, en caso de que el uso de un sistema de inteligencia artificial resulte en un hecho internacionalmente ilícito, estaríamos frente a los siguientes posibles escenarios (Boutin, 2021).

  1. Cuando ha existido control humano genuino y directo por parte del agente de un Estado, el nexo es lo suficientemente claro para atribuirle el comportamiento.
  2. Cuando solo hubo control o supervisión humana superficial o formal por parte del operador, pueden surgir varias situaciones.
    • Si no hubo un control humano determinante, no habría una base sólida para la atribución.
    • Si existió un control genuino, pero por parte del programador o fabricante y no de un órgano del Estado, el vínculo de atribución podría ser demasiado remoto como para atribuirle el comportamiento.
    • Si existió un control indirecto relevante por quienes toman decisiones en los niveles estratégicos o políticos del aparato gubernamental, la atribución se basaría en la decisión de desplegar el sistema de inteligencia artificial por parte de los órganos del Estado.
  3. Cuando la inteligencia artificial estuviera dotada de agencia autónoma y careciera de cualquier control humano, la atribución directa al Estado sin un agente como intermediario solo sería factible si equiparáramos el sistema de inteligencia artificial a un agente del Estado.

En resumen, la atribución del comportamiento de la inteligencia artificial al Estado depende en gran medida del control que éste tenga sobre el sistema; cuanto mayor sea el control, más fácil será establecer un nexo causal que permita atribuir el comportamiento de la inteligencia artificial. Alternativamente, algunos autores proponen la idea de que, si los sistemas de inteligencia artificial están dotados de autonomía y por ende no hay control sobre los mismos, éstos deberían equipararse a un agente moral (Sullins, 2006: 23) o a un combatiente (Ohlin, 2016: 1 y 2) para evitar la brecha de responsabilidad. Sin embargo, este punto de vista es bastante controvertido, pues resulta en una incorrecta antropomorfización de estas tecnologías (Sharkey, 2012: 790-792) y por ende a la fecha no ha sido aceptado (Malik, 2018: 621-625). Más aún, el Grupo de Expertos Gubernamentales sobre las tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales, ha acordado que la responsabilidad siempre debe centrarse en el ser humano (CCW/GGE.1/2018/3, 2018: 4).

2. Obligaciones positivas del Estado frente a la inteligencia artificial

Es importante recordar que, incluso reconociendo que existen lagunas para atribuir las acciones derivadas de sistemas de inteligencia artificial al Estado, especialmente cuando no existe un control humano determinante, la responsabilidad del Estado frente a la inteligencia artificial no se limita meramente a la atribución del comportamiento de ésta. Esto se debe a que el Estado también está sujeto a cumplir con diversas obligaciones positivas durante las etapas de programación, desarrollo y adquisición del sistema, así como obligaciones para garantizar que los particulares involucrados en su uso final actúen de conformidad con las obligaciones internacionales del Estado.

En el derecho internacional existe una distinción entre obligaciones positivas y negativas que predomina en el ámbito de los derechos humanos. Las obligaciones negativas exigen que el Estado se abstenga de actuar en contravención de sus obligaciones (Lavrysen, 2014: 95), mientras que las obligaciones positivas exigen que el Estado actúe de cierta manera (Caso Kawas Fernández vs. Honduras: 25). Por ejemplo, la adopción de medidas necesarias para proteger los derechos humanos, ya sean legislativas, judiciales o de cualquier naturaleza práctica (Lavrysen, 2014: 98).

En términos generales, todos los derechos humanos, como el derecho a la vida o la prohibición de la tortura, abarcan tanto obligaciones negativas como positivas. Por ejemplo, la prohibición de la tortura implica una obligación negativa que exige al Estado la abstención de torturar, así como una obligación positiva consistente en prevenir, investigar o sancionar a quienes la cometan (Rodley, 2018: 173 y 174, 180 y 181). El incumplimiento de cualquiera de estas obligaciones puede atribuirse al Estado, dando lugar a su responsabilidad internacional.

Por lo tanto, los Estados tienen la obligación de proteger y cumplir los derechos humanos, lo que también les exige tomar medidas diligentes para garantizar que no se cometan violaciones de éstos en su territorio. Lo anterior incluye, pero no se limita a, garantizar que la legislación nacional reconozca y proteja los derechos humanos (Caso Juan Humberto Sánchez vs. Honduras: 71 y 72), tales como los reconocidos en virtud del Pacto Internacional de Derechos Civiles y Políticos, la Convención Europea de Derechos Humanos, la Convención Interamericana de Derechos Humanos o la Carta Africana de Derechos Humanos y de los Pueblos, e incluso, a garantizar que aquellos que actúen en contravención de los derechos humanos sean juzgados por un tribunal competente (Boutin, 2021).

Además, las mismas obligaciones existen en el derecho internacional humanitario, por ejemplo, el artículo 1o. común a los cuatro Convenios de Ginebra impone el deber de garantizar el respeto y cumplimiento de estos. Además, el artículo 36 del Protocolo Adicional I a los Convenios de Ginebra de 1949 exige una obligación positiva consistente en realizar un examen jurídico de cualquier arma nueva, lo cual incluye aquellas que empleen sistemas de inteligencia artificial, como lo son los sistemas de armas autónomas (Boutin, 2021).

En congruencia, es correcto afirmar que ya existen obligaciones en nuestro marco legal internacional que resultan aplicables a los sistemas de inteligencia artificial, las cuales requieren que los Estados tomen medidas durante su programación y desarrollo, antes de su adquisición e incluso supervisen el uso que los particulares le den a dichos sistemas.

Estas obligaciones positivas pueden ayudar a cerrar la brecha de responsabilidad y presionar a los Estados para que garanticen la preservación como requisito normativo del control humano determinante sobre las tecnologías en comento, especialmente porque los Estados que no cumplan con estas obligaciones serían responsables, no del comportamiento del sistema dotado de inteligencia artificial, sino por su propia omisión al no adoptar previamente las medidas necesarias. Por ejemplo, en el caso relativo al personal diplomático y consular de los Estados Unidos en Teherán, se determinó que Irán había sido responsable por no brindar protección a la embajada y a su personal, inclusive antes de que adoptara la conducta de los ocupantes como propia (Caso relativo al Personal Diplomático y Consular de los Estados Unidos en Teherán: 31).

Sin embargo, es de notarse que la responsabilidad de los Estados en cuanto a sus obligaciones positivas tiene un límite. El Estado no será responsable de un hecho ilícito, aún si éste ocurre, siempre y cuando haya adoptado medidas razonables para su prevención, pues el Estado sólo será responsable por haber omitido tomar medidas razonables o no haber actuado con la diligencia debida, no por los daños que ocurran pese a haber tomado acciones positivas (Crawford y Olleson, 2018: 428).

Aplicando estos principios al contexto que nos ocupa, es conclusivo que los Estados tienen obligaciones positivas previas al uso o despliegue del sistema dotado con inteligencia artificial, las cuales van encaminadas a prevenir el daño injustificado que estas tecnologías pudiesen causar. Dichas obligaciones son las siguientes:

A. Obligaciones durante las etapas
de programación, desarrollo y adquisición

Los Estados deben vigilar que los sistemas de inteligencia artificial que se estén programando o desarrollando bajo su jurisdicción, así como los que adquiera de terceros, puedan utilizarse de conformidad con sus obligaciones internacionales.

El Estado está obligado a garantizar, ya sea por medios legislativos u otras vías de regulación o supervisión, que, durante todas las fases de programación, desarrollo y pruebas de la tecnología, su diseño cumpla o pueda utilizarse siempre de conformidad con las obligaciones internacionales del Estado. En pocas palabras, los Estados deben asumir un papel activo para garantizar que los sistemas de inteligencia artificial se diseñen, programen y desarrollen en plena conformidad con las normas internacionales aplicables (Boutin, 2021).

Además, si un Estado adquiriese un sistema de inteligencia artificial de otro Estado, o de un particular ciudadano de otro Estado, donde no puede
ejercer su jurisdicción y no puede supervisar el desarrollo y programación de esta, aún se le exigiría que actúe con la debida diligencia y verifique previamente que el sistema pueda utilizarse de conformidad con sus propias obligaciones, ya que, de lo contrario, corre el riesgo de incurrir en responsabilidad (Lawand et al., 2006: 22). Cabe mencionar que lo anterior no excluye al otro Estado de también poder incurrir en responsabilidad por incumplir sus obligaciones de supervisión y regulación del desarrollo de la tecnología.

Algunas medidas que los Estados pueden adoptar para garantizar el cumplimiento de sus obligaciones son exigir a los programadores y desarrolladores que durante todos los procesos, desde la creación hasta las pruebas finales de la tecnología, se integren acciones para respetar sus obligaciones internacionales, legislar sobre un marco de responsabilidades penales y civiles para evitar la brecha de responsabilidad, realizar constantes evaluaciones de riesgos y de potenciales impactos a los derechos humanos, realizar acciones de monitoreo y supervisión sobre los programadores y desarrolladores e imponer limitaciones técnicas o éticas en el diseño de la inteligencia artificial (Boutin, 2021).

Además, es necesario tomar medidas para integrar la existencia de los sistemas de inteligencia artificial de manera armónica en el marco legal vigente ya que en varios casos esto podría ser suficiente para llenar algunos de los vacíos que rodean estas tecnologías. A modo de ilustración, los Estados podrían adaptar estándares de seguridad (Vihul, 2020), sistemas de certificación u otros requisitos a estas tecnologías, así como incorporar los sistemas de inteligencia artificial en los regímenes de exportación nacionales y multinacionales de armas convencionales (Halevy, 2019), como lo es el Acuerdo de Wassenaar, con el fin de garantizar una regulación integral sobre los sistemas de inteligencia artificial (Privacy International, 2013).

Por otra parte, también podría analizarse la viabilidad de aplicar un régimen de responsabilidad objetiva, similar al que rige el derecho ambiental, para las actividades peligrosas o riesgosas derivadas del uso de estos sistemas (Maljean-Dubois, 2018). En virtud del derecho ambiental, los Estados están obligados a asumir un papel mucho más activo para prevenir los daños por actividades que conlleven un riesgo (Ceban, 2019: 581), por lo que los Estados pueden ser responsables del daño causado por una actividad prima facie jurídicamente aceptable, que, sin embargo, entrañaba un gran riesgo (Boutin, 2021). Por ejemplo, un Estado podría ser responsable si despliega un sistema de armas autónomo en un campo de batalla a sabiendas de la presencia de civiles que podrían resultar heridos como consecuencia de ello.

Además, en los casos ambientales, las obligaciones positivas del Estado son más amplias. Como ejemplo tenemos el caso de las Plantas de Celulosa sobre el Río Uruguay, en el que Argentina argumentó que la construcción de dos plantas de pasta celulosa sobre el río Uruguay afectaría adversamente la calidad de las aguas, la CIJ declaró que la obligación de preservar el medio ambiente acuático y prevenir su contaminación exigía que el Estado actuará con la debida diligencia y no bastaba con la adopción de normas y medidas apropiadas, sino que requería un cierto nivel de vigilancia y control a los sectores público y privado, como lo sería el seguimiento de las actividades emprendidas por los operadores, lo cual Uruguay había llevado a cabo (Caso de las Plantas de Celulosa sobre el río Uruguay: 69-85).

Otro ejemplo es el caso Di Sarno y otros contra Italia ante el Tribunal Europeo de Derechos Humanos, donde éste declaró que, particularmente en el contexto de actividades peligrosas, los Estados tienen la obligación de establecer regulaciones orientadas a las características especiales de la actividad en cuestión, particularmente considerando el riesgo involucrado, por lo que deben regir la concesión de licencias, la operación, la seguridad y la supervisión de la actividad en cuestión (Caso Di Sarno y otros vs. Italia: 16).

En caso de que se aceptase el régimen de responsabilidad objetiva para los sistemas de inteligencia artificial, los Estados no podrían sólo limitarse a emitir reglamentos, sino que deberían asumir un papel mucho más activo en el monitoreo y verificación para cerciorarse que los sistemas de inteligencia artificial puedan usarse en todo momento conforme al cumplimiento de sus obligaciones internacionales. Con lo anterior, además sería posible que el Estado sea responsable por asumir los riesgos que entraña el uso y/o despliegue de tecnologías de inteligencia artificial.

B. Obligaciones en relación con el papel de los particulares

Las empresas privadas desempeñan un papel importante en el desarrollo de sistemas de inteligencia artificial. En consecuencia, el Estado debe supervisar y emitir reglamentos para garantizar que los particulares que se encuentren bajo su jurisdicción actúen de acuerdo con sus obligaciones internacionales (Boutin, 2021).

Si bien la jurisprudencia de la CIJ ha demostrado que los Estados normalmente no serían considerados responsables del comportamiento de los particulares, un Estado seguiría incumpliendo la obligación que le incumbe en virtud de diversas normas de derechos humanos si su comportamiento revela que éste no ha tomado medidas razonables que podrían haber evitado el hecho, o en su defecto juzgado y sancionado a los responsables (E/C.12/GC/24, 2017: 10).

Como se ha mencionado anteriormente, para hacer efectivos los derechos reconocidos en múltiples tratados de derechos humanos, los Estados están obligados a adoptar medidas legislativas (Lavrysen, 2014: 96). Por lo tanto, es exigible a los Estados que legislen para garantizar que los particulares que participan en la programación y desarrollo de los sistemas de inteligencia artificial cumplan con las normas internacionales aplicables.

De hecho, la Comisión Europea de Derechos Humanos obliga a los Estados a introducir legislación nacional y otras políticas públicas para garantizar que se respeten debidamente los derechos humanos en cuanto al uso y desarrollo de inteligencia artificial. De esta forma, el marco legal internacional de los derechos humanos puede sentar bases sólidas de mecanismos legales que son exigibles y efectivos para garantizar el respeto a los derechos humanos en todo momento con el uso de sistemas de inteligencia artificial (DGI (2019) 05, 2019: 67).

Además, la Declaración de Toronto para la protección del derecho a la igualdad y la no discriminación con relación a sistemas de aprendizaje automático, prevé que los Estados deban establecer una regulación de conformidad al marco legal de los derechos humanos que permita la supervisión del uso de sistemas con aprendizaje automático por parte del sector privado, refiriéndose a contextos que pueden conllevar resultados discriminatorios u otros resultados perjudiciales (Amnistía Internacional y Access Now, 2018). Por ejemplo, el uso de programas de inteligencia artificial para llevar a cabo ciberataques; o inclusive que servicios médicos o de transporte automatizados que usen reconocimiento facial pudieran llegar a negar el servicio por motivos étnicos o de género.

En otras palabras, los Estados están obligados a adoptar, entre otras cosas, medidas legislativas para garantizar que los actores privados desarrollen o utilicen legalmente los sistemas de inteligencia artificial, así como a investigar y sancionar a quienes no cumplan con estas disposiciones.

V. Conclusiones

La complejidad de los sistemas de inteligencia artificial, su imprevisibilidad y sus capacidades autónomas plantean un desafío a las reglas existentes de responsabilidad de los Estados. Es imperativo mantener un control humano determinante para una rendición de cuentas adecuada, ya que cuanta más autonomía se les confiera a estos sistemas, mayor será la brecha de responsabilidad y menor la expectativa de rendición de cuentas.

Atribuir el comportamiento de los sistemas de inteligencia artificial a un Estado requiere un vínculo causal, mismo que sólo será posible establecer cuando exista un control determinante sobre la tecnología por parte de algún órgano del Estado, o, al menos, que los responsables de la toma de decisiones del Estado puedan dirigir u ordenar el despliegue de los sistemas y determinar sus objetivos. Cualquier otra forma de control por debajo de este umbral puede dar lugar a que el vínculo sea demasiado remoto para atribuirse adecuadamente la responsabilidad al Estado.

No obstante, incluso cuando el comportamiento de un sistema de inteligencia artificial no esté bajo un control humano determinante y la atribución de su comportamiento no sea factible, la responsabilidad del Estado todavía puede surgir por el incumplimiento de sus otras obligaciones internacionales. Los Estados tienen obligaciones positivas que les exigen que adopten medidas razonables para prevenir daños o cualquier violación de sus obligaciones internacionales, así como el deber de investigar y castigar a los responsables de cualquier daño. Ergo, los Estados están obligados a garantizar que los sistemas de inteligencia artificial sean compatibles con sus propias obligaciones. Si del uso de estos sistemas resulta un daño, y se observa que el Estado no hizo nada para evitar que ocurriera, se puede invocar la responsabilidad de éste.

Para cumplir con su obligación de prevenir, los Estados deben legislar a nivel nacional, celebrar acuerdos multilaterales para crear nuevas normas jurídicas que rijan el desarrollo, programación, adquisición y uso final de estas tecnologías e incluso emitir reglamentos de importación y exportación de estas. Además, si se adopta un régimen más estricto de responsabilidad objetiva, los Estados podrían resultar responsables incluso por haber asumido los riesgos que rodean el uso de los sistemas de inteligencia artificial.

Asimismo, el Estado debe tomar las medidas necesarias para garantizar que los particulares involucrados en la programación, desarrollo y uso final de tecnologías de inteligencia artificial actúen de conformidad con las obligaciones internacionales del Estado y, en caso de que éstos actúen en contravención de éstas, se investigue, procese y castigue a los responsables.

En conclusión, incluso si al aplicar las normas de responsabilidad de los Estados, resultase imposible atribuirle al Estado el comportamiento de un sistema de inteligencia artificial que actúa de forma autónoma, éste seguirá siendo responsable en caso de no tomar medidas razonables para prevenir que estas tecnologías causen pérdidas humanas, daños materiales, afectaciones al medio ambiente, menoscaben de cualquier manera los derechos humanos de las personas o actúen en contravención de cualquier norma internacional a la que esté sujeto.

VI. Bibliografía

A/RES/56/83 (2002), Asamblea General de las Naciones Unidas, Artículos de la Comisión de Derecho Internacional sobre la Responsabilidad Internacional del Estado por Hechos Internacionalmente Ilícitos.

Amnistía Internacional y Access Now, 2018, The Toronto Declaration, Protecting the right to equality and non-discrimination in machine learning systems, Canadá, disponible en: https://www.torontodeclaration.org/declaration-text/english/.

Asaro, Peter M., 2016, “The Liability Problem for Autonomous Artificial Agents, Association for the Advancement of Artificial Intelligence”, Association for the Advancement of Artificial Intelligence Spring Symposia.

Asunto J. B. Caire de 1929, en Comisión de Derecho Internacional, 1964, “Repertorio de Decisiones de Tribunales Internacionales Relacionadas con la Responsabilidad de los Estados, Preparado por la Secretaría”, Anuario de la Comisión de Derecho Internacional, vol. II.

Boutin, B., 2021, “State Responsibility in Relation to Artificial Intelligence” conferencia dictada durante el ciclo Winter Academy on Artificial Intelligence and International Law. Asser Institute, 18 de febrero de 2021.

Brownlee, Jason, 2019, “What is deep learning?”, Machine Learning Mastery, disponible en: https://machinelearningmastery.com/what-is-deep-learning/.

Bryson, Joanna J., 2010, “Robots should be slaves”, Close Engagements with Artificial Companions: Key Social, Psychological, Ethical and Design Issues.

Cassese, Antonio, 2007, “The Nicaragua and Tadić Tests Revisited in Light of the ICJ Judgment on Genocide in Bosnia”, European Journal of International Law, vol. 18, núm. 4, septiembre.

CCW/GGE.1/2018/3 (2018), Grupo de Expertos Gubernamentales de las Altas Partes Contratantes a la Convención sobre Prohibiciones o Restricciones del Empleo de Ciertas Armas Convencionales que Puedan Considerarse Excesivamente Nocivas o de Efectos Indiscriminados, Informe del período de sesiones de 2018 del Grupo de Expertos Gubernamentales sobre las tecnologías emergentes en el ámbito de los sistemas de armas autónomos letales.

Ceban, Cristina, 2019, “The Responsibility of States in Contemporary International Law”, European Integration Realities and Perspectives, vol. 14, núm. 1.

Chengeta, Thompson, 2016, “Accountability Gap: Autonomous Weapon Systems and Modes of Responsibility in International Law”, Denver Journal of International Law & Policy, vol. 45, núm. 1, otoño.

Coglianese, Cary, y Lehr, David, 2017, “Regulating by Robot: Administrative Decision Making in the Machine-Learning Era”, Georgetown Law Journal, vol. 105, núm. 5.

Comisión de Derecho Internacional, 2001, “Texto del Proyecto y Artículos con sus Comentarios”, Anuario de la Comisión de Derecho Internacional, vol. II, 2a. parte.

Convenios de Ginebra del 12 de agosto de 1949, Suiza, Comité Internacional de la Cruz Roja.

Corte Interamericana de Derechos Humanos, 2009, Caso Kawas Fernández vs. Honduras, sentencia de 3 de abril.

Corte Interamericana de Derechos Humanos, 2003, Caso Juan Humberto Sánchez vs. Honduras, sentencia de 7 de junio.

Corte Internacional de Justicia, 1949, “Caso Relativo al Canal de Corfú (Reino Unido de Gran Bretaña e Irlanda del Norte vs. Albania”, I.C.J. Reports 1949.

Corte Internacional de Justicia, 1980, “Caso Relativo al Personal Diplomático y Consular de los Estados Unidos en Teherán (Estados Unidos vs. Irán)” I.C.J. Reports 1980.

Corte Internacional de Justicia, 1986, “Caso Relativo a las Actividades Militares y Paramilitares en Nicaragua y Contra Nicaragua (Nicaragua vs. los Estados Unidos de América)” I.C.J. Reports 1986.

Corte Internacional de Justicia, 1999, “Opinión sobre la Diferencia Relativa a la Inmunidad Judicial de un Relator Especial de la Comisión de Derechos Humanos”, I.C.J., Reports 1999.

Corte Internacional de Justicia, 2007, “Caso Relativo a la Aplicación de la Convención para la Prevención y Sanción del Delito de Genocidio (Bosnia vs. Serbia)” I.C.J. Reports 2007.

Corte Internacional de Justicia, 2010, “Caso relativo a las Plantas de Celulosa Sobre el Río Uruguay, (Argentina vs. Uruguay)”, I.C.J. Reports 2010.

Corte Internacional de Justicia, 2015, “Caso Relativo a la Aplicación de la Convención para la Prevención y la Sanción del Delito de Genocidio, (Croacia vs. Serbia)” I.C.J. Reports 2015.

Crawford, James y Olleson, Simon, 2018, “The Character and Forms of International Responsibility”, en Evans, Malcolm D. (ed.), International Law, 5a. ed., Estados Unidos, Oxford University Press.

Davison, Neil, 2017, “Autonomous Weapon Systems under International Humanitarian Law”, en Oficina de Asuntos de Desarme de las Naciones Unidas (ed.), Perspectives on Lethal Autonomous Weapon Systems, Documentos Ocasionales núm. 30, noviembre.

DGI (2019)05 (2019), Consejo de Europa, Responsibility and AI: A Study of the Implications of Advanced Digital Technologies (Including AI Systems) for the Concept of Responsibility within a Human Rights Framework.

E/C.12/GC/24, 2017, Consejo Económico y Social de las Naciones Unidas, Observación general Núm. 24 sobre las obligaciones de los Estados en virtud del Pacto Internacional de Derechos Económicos, Sociales y Culturales en el contexto de las actividades empresariales.

Halevy, Amiram, 2019, Artificial Intelligence and Export Control–What’s The Connection?”, Israel’s Homeland Security, disponible en: https://i-hls.com/archives/91615.

Johnson, Deborah G., 2006, “Computer Systems: Moral Entities but not Moral Agents”, Ethics and Information Technology, vol. 8, núm. 4.

Kononenko, Igor y Kukar, Matjaz, 2007, Machine Learning and Data Mining: Introduction to Principles and Algorithms, Reino Unido, Horwood Publishing.

Lavrysen, Laurens, 2014, “Positive Obligations in the Jurisprudence of the Inter-American Court of Human Rights”, Inter-American and European Human Rights Journal, núm. 1.

Lawand, Kathleen et al., 2006, Guía para el examen jurídico de las armas, los medios y los métodos de guerra nuevos Medidas para aplicar el artículo 36 del Protocolo adicional de 1977, Suiza, Comité Internacional de la Cruz Roja.

Malik, Swati, 2018, “Autonomous Weapon Systems: The Possibility and Probability of Accountability”, Wisconsin Journal of International Law, vol. 35, núm. 3.

Maljean-Dubois, Sandrine, 2018, “International Litigation and State Liability for Environmental Damages: Recent Evolutions and Perspectives”, en Jiunn-rong, Yeh, Climate Change Liability and Beyond, Taiwan, National Taiwan University Press.

Matthias, Andreas, 2004, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata”, Ethics and Information Technology, vol. 6, núm. 75.

Medina Ardila, Felipe, 2009, “La responsabilidad internacional del Estado por actos de particulares: análisis jurisprudencial interamericano”, Debate Interamericano, vol. 1.

Nakamitsu, I., 2021, “Global AI Governance-The Necessity and Challenges of Regulating Emerging Technologies”, conferencia dictada durante el ciclo Safeguarding human control over AWS, Ministerio para Europa, Integración y Relaciones Exteriores de la República de Austria, 15 y 16 de septiembre de 2021.

O’Carroll, Brodie, 2017, “What are the 3 Types of AI? A Guide to Narrow, General, and Super Artificial Intelligence”, Codebots, disponible en: https://codebots.com/artificial-intelligence/the-3-types-of-ai-is-the-third-even-possible.

Ohlin, Jens D., 2016, “The Combatant’s Stance: Autonomous Weapons on the Battlefield”, International Law Studies, vol. 92.

Privacy International, 2013, “A guide to the Wassenaar Arrangement” Privacy International, disponible en: https://privacyinternational.org/blog/1333/ guide-wasenaar-arrangement.

Protocolo Adicional I a los Convenios de Ginebra de 1949, Relativo a la Protección de las Víctimas de los Conflictos Armados Internacionales de 1977, Suiza, Comité Internacional de la Cruz Roja.

Real Academia Española, 2020, Diccionario de la Lengua Española, 23a. ed., disponible en: https://dle.rae.es/inteligencia#2DxmhCT.

Rodley, S. Nigel, 2018, “Integrity of the Person”, en Moeckli, Daniel et al. (eds.), International Human Rights Law, 3a. ed., Estados Unidos, Oxford University Press.

Russell, Stuart y Norvig, Peter, 2010, Artificial Intelligence - A Modern Approach, 3a. ed., Reino Unido, Pearson.

Scherer, Matthew, 2016, “Regulating Artificial Intelligence Systems, Risks, Challenges, Competencies and Strategies”, Harvard Journal of Law and Technology, vol. 29.

Sharkey, Noel E., 2012, “The Evitability of Autonomous Robot Warfare”, International Review of the Red Cross, vol. 94, núm. 886.

Shaw, Malcolm, 2008, International Law, 6a. ed., Reino Unido, Cambridge University Press.

Sullins, John P., 2006, “When Is a Robot a Moral Agent?”, International Review of Information Ethics, vol. 6.

Tribunal Europeo de Derechos Humanos, núm. 30765/08, Di Sarno y otros vs Italia, sentencia de 10 de enero de 2012.

Tribunal Penal Internacional para la Ex-Yugoslavia, IT-94-1-A, El Fiscal vs. Tadić, fallo de la Sala de Apelaciones deL 15 de julio de 1999.

Vihul, Liis, 2020, “International Legal Regulation of Autonomous Technologies”, Centre for International Governance Innovation, disponible en: https://www.cigionline.org/articles/international-legal-regulation-autonomous-technologies/.


1* Abogada, especialista en derecho internacional público, penal, humanitario y de los derechos humanos, Maestra LL.M. en derecho internacional público, penal, humanitario y de los derechos humanos en Leiden, Países Bajos. Actualmente es Doctoranda por la Universidad de Colonia en Alemania, en proceso de elaboración de su tesis doctoral bajo la supervisión del doctor Claus Kress sobre las implicaciones de la inteligencia artificial y los sistemas de armas autónomas en el derecho internacional y en el contexto de los conflictos armados, es coordinadora de ponencia de la consejera Loretta Ortiz Ahlf en el Consejo de la Judicatura Federal. Correo electrónico: jimena.s.viveros@gmail.com.

Esta obra está bajo una Licencia Creative Commons
Atribución-NoComercial-SinDerivadas 4.0 Internacional
, IIJ-UNAM.

Revista Estudios en Derecho a la Información,
núm. 14, julio-diciembre de 2022, pp. 83-105.