Derechos humanos: inteligencia artificial

Publicado el 5 de noviembre de 2019

Gloria Marina Villalobos Coronilla
Estudios de maestría en Derecho Constitucional y Amparo,
Universidad Iberoamericana León
emailmarinav_c_@hotmail.com

El adelanto que manifestó Google tener en la publicación online de la revista Nature, con el procesador cuántico capaz de reducir de 10,000 años un cálculo que con una computadora actual tendría esa duración, a 200 segundos, a través de los bits cuánticos (qubits), que le da una supremacía incomparable con la que ya posee, por lo que el desarrollo actual de la inteligencia artificial (IA), su aplicación tendrá dichos avances proporcionalmente.

Ahora bien, las empresas que se basan en la recopilación de información utilizan un sistema de justicia a base de datos, que a través del análisis jurídico que se aplica en Estados Unidos por parte de empresas de análisis jurídicos, la información y procesamiento para servicios, en la que predice los resultados de un juicio, al hacerlos actualmente, con la aplicación de procesadores cuánticos tendrán igualmente un avance cuántico.

El 25 de mayo de este año entró en vigencia el Reglamento General de Protección de Datos (GDPR, por sus siglas en inglés) en la Unión Europea, pero con la IA no sólo estamos frente al uso de datos personales, sino a que cualquier objeto que sea susceptible de agregar o creado con IA, tenga la capacidad de actuar con base en su tecnología en contra del ser humano.

El derecho precede de los hechos, por lo que no hay que dejar de lado las reglas que estableció a través de su obra el escritor y profesor Isaac Asimov, Yo Robot:

Las tres leyes de la robótica:

1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera ley.
3. Un robot debe proteger su propia existencia hasta donde esa protección no entre en conflicto con la primera o segunda ley.

Añadiendo una ley que sería la ley cero: “Ninguna máquina puede dañar a la humanidad; o, por inacción, dejar que la humanidad sufra daño”.

Es notable el avance en la protección del ser humano que establece Isaac Asimov, establecido en su obra en 1950, estas reglas deberían estar impresas en lo que él llamo cerebros positrónicos, que sería un símil de la IA; plasmando con su obra su visión de lo que se presentaría en corto tiempo, por lo que la premura de la existencia de una legislación internacional a través de convenciones o acuerdos será la protección a los derechos humanos, debido a que la práctica nos podría encaminar a una responsabilidad difusa, al no poder determinar quién es el responsable del manejo de la inteligencia artificial, pues puede ser usada para una beneficio o para un perjuicio según su programador, pero ¿qué pasa al ser el programador la propia inteligencia artificial? Esta imputabilidad sería difusa para tal responsabilidad, lo que podría ser encausado al origen de la cadena tecnológica.

Al último añadido de Isaac Asimov estaríamos hablando de una programación con un control de convencionalidad sobre los derechos del hombre, no enunciativos, sino vinculantes, para ser añadidos al programa del programador primario, de tal forma que las subsecuentes creaciones del mismo programador llevarían consigo un código, cadena u holograma con la información del respeto a la humanidad correlacionado a los derechos humanos.

Se tendrá en consideración que la IA es una creación humana, a tal será su responsabilidad, mas si a su vez se crea IA de la IA, son objetos, estarán dentro del derecho patrimonial, materia, deberá ser sujetos de derechos humanos. Deontológicamente no se observó por presentar a Shopia, un robot, que le “dieron” ciudadanía; es claro que deberá tener la procedencia, su origen el país donde se fabricó, elaboró, creó, pero manejarlo como ciudadanía dista mucho de la pretensión del respeto por los derechos humanos.


Formación electrónica: Yuri López Bustillos, BJV
Incorporación a la plataforma OJS, Revistas del IIJ: Ilayali G. Labrada Gutiérrez