logo logo

Inteligencia artificial y neuroderechos. Retos y perspectivas

Artificial intelligence and neurorights. Challenges and perspectives

Recepción: 1o. de octubre de 2021

Juan Manuel Gómez Rodríguez*

Abstract: This article explores the relationships between artificial intelligence (AI) and law, as well as the challenges of its regulation; also analyzes the role of AI in social transformation, as well as the implications it has for the law. The interaction of people with smart devices poses challenges from a legal perspective: the protection of human identity and neural integrity. The advances that machine learning and deep learning represent, as well as the emergence of neuroscience and neurotechnology, have generated the irruption of a new legal category: neurorights, which must be examined and distinguished from traditional rights from a constitutional perspective, in order to guarantee its due regulation in the face of innovative developments in AI.


Keywords: artificial intelligence, machine learning, algorithm, deep learning, neuroscience, neurotechnology, neurorights.

Aceptación: 8 de noviembre de 2021

Resumen: Este artículo explora las relaciones entre inteligencia artificial (IA) y derecho, así como los retos de su regulación; también analiza el papel de la IA en la transformación social, así como las implicaciones que tiene para el derecho. La interacción de personas con dispositivos inteligentes plantea retos desde la perspectiva jurídica: la protección de la identidad humana y la integridad neuronal. Los avances que representan el machine learning y el deep learning, así como la emergencia de la neurociencia y la neurotecnología, han generado la irrupción de una nueva categoría legal: los neuroderechos, que se deben examinar y distinguir de los derechos tradicionales desde una perspectiva constitucional, en aras de garantizar su debida regulación frente a los desarrollos innovadores de la IA.


Palabras clave: inteligencia artificial, aprendizaje automático, algoritmo, aprendizaje profundo, neurociencia, neurotecnología, neuroderechos.

Sumario: I. Introducción. II. La inteligencia artificial y su papel en la transformación social. III. Las aplicaciones de la IA en el derecho. IV. Los retos del derecho en la regulación de la IA. V. La interacción entre tecnología y neurociencia: los neuroderechos y las perspectivas de su regulación constitucional. VI. Conclusiones. VII. Referencias.

I. Introducción

La inteligencia artificial (en adelante, IA) es el gran paradigma de nuestro tiempo. Aunque sus avances en el último lustro son impresionantes, el término “IA” no es reciente y ha tenido un largo proceso de evolución desde finales del siglo pasado. El término “IA” fue creado por John McCarthy en 1956.


Desde sus inicios, existió una interacción entre la IA y la neurociencia, tal y como lo demuestran el diseño de la primera red neuronal artificial en 1957, así como la creación del primer programa de procesamiento del lenguaje humano en una computadora en 1966. En este sentido, el test de Turing, que tenía como finalidad establecer una conversación entre una máquina diseñada para interactuar verbalmente con una persona, demostró ser un avance pionero en este campo.


Los avances fueron realizándose sucesivamente con el diseño de superordenadores con la capacidad de aprender de juegos icónicos como el ajedrez o el Go chino.1 Así, tenemos el caso de Deep Blue creada por IBM en 1996 o el caso de la supercomputadora AlphaGo en 2015, respectivamente.


Más recientemente, la aplicación de tecnologías inteligentes en prácticamente todos los campos del conocimiento está generando una profunda transformación social, respecto a la cual el derecho tampoco es ajeno.


El desarrollo imparable del Internet, de las cosas y de la automatización ha implicado nuevos avances tecnológicos, en los cuales los entornos en línea o digitales transitan de una realidad alternativa a una nueva realidad virtual, en donde la intensificación de su interacción y de su operación poco a poco desplaza los intercambios presenciales y genera nuevas oportunidades de información y comunicación, así como nuevos retos de regulación para la protección de nuestros datos personales y de nuestra privacidad.


Desde otra perspectiva, la combinación del desarrollo tecnológico con los avances en la neurociencia ha generado la irrupción de un nuevo campo del conocimiento: la neurotecnología, cuyos alcances y límites aún no están definidos por los científicos. Las posibilidades que ofrecen estos avances en el ámbito de la medicina han generado preocupaciones ante la falta de conocimiento respecto a cuáles son los alcances y límites que pueden tener estos avances tecnológicos y sus implicaciones tanto éticas como legales.


Por esa razón, este artículo explora las relaciones entre IA y derecho, así como los retos y perspectivas de su regulación. Para ello, analiza el papel de la IA en la transformación social, así como las implicaciones que tiene para el derecho. La relación entre la interoperabilidad de la IA mediante su implementación a personas conectadas a dispositivos inteligentes insertos a través de redes neuronales plantea retos como la protección de la identidad humana, así como de la integridad neuronal y mental, al generarse la posibilidad de realizar manipulaciones mediante dispositivos que usan IA. La pregunta que configura el planteamiento del problema en este artículo es ¿cómo proteger jurídicamente la identidad, el libre albedrío y la integridad neuronal y mental de una persona ante las innovaciones de la IA?


Nuestra hipótesis es que el uso intensivo de la IA y sus aplicaciones para facilitar y mejorar las funciones del derecho, así como la interacción profunda entre neurociencia y neurotecnología,2 están generando nuevas necesidades de regulación para proteger a las personas en su esfera interna, por lo que uno de sus objetivos consiste en analizar las aplicaciones de la IA en el derecho para comprender los retos de su regulación en ámbitos como la salud, la impartición de justicia y las comunicaciones.


Los avances y retos que representan el machine learning o aprendizaje automático y el deep learning o aprendizaje profundo, así como la emergencia de la neurotecnología, han generado la irrupción de una nueva categoría legal: los neuroderechos. Por tal razón, también se plantea como objetivo examinar las perspectivas de su regulación en el ámbito constitucional, en aras de garantizar una protección efectiva para las personas frente a los desarrollos innovadores de la IA y sus implicaciones jurídicas.

II. La inteligencia artificial y su papel
en la transformación social

La IA está ligada a la creatividad humana, que ha impulsado las grandes innovaciones tecnológicas, y ha potenciado los cambios económicos, sociales y culturales de la sociedad de nuestro tiempo. Esta transformación no es posible de explicar sin la evolución de las tecnologías de la información y la comunicación (en adelante, TIC) a través de la computación, y sin el desarrollo de Internet.


Su capacidad para dar a conocer una idea, para expresar pensamientos y para presentar productos a millones de personas en tiempo real ha sido un impulso imparable para la construcción de nuevos conocimientos. Esta transformación supone no sólo un cambio del paradigma predominante para comprender la realidad social, sino también la necesidad de construir una narrativa que explique una nueva realidad: la de la interacción inteligente de las personas con sistemas y dispositivos electrónicos o digitales.


La IA admite diversas concepciones y enfoques. Desde el ámbito de la informática se expresa en el diseño de procesadores y programas para facilitar tareas aplicando el razonamiento. Para las ciencias de la computación, un dispositivo inteligente “es un agente flexible que percibe su entorno y lleva a cabo acciones que incrementan sus posibilidades para el logro de un objetivo” (Poole et al., 1998: 1).


Kaplan y Haenlein (2019) la definen como “la capacidad de un sistema para interpretar correctamente datos externos, para aprender de dichos datos y emplear esos conocimientos para lograr tareas y metas concretas, a través de la adaptación flexible”. Otra perspectiva es cuando “una máquina o dispositivo electrónico imita las funciones cognitivas que las personas asocian con otros seres humanos” (Russell y Norvig, 2009: 2).


En palabras de Martínez Bahena, es “una automatización de actividades que vinculamos con procesos del pensamiento humano como son el aprendizaje, la solución de problemas, y la toma de decisiones” (2012: 828).


Además, la IA puede clasificarse en diferentes tipos:

  1. Sistemas que imitan la actuación humana. Son sistemas que reproducen el comportamiento humano; por ejemplo, la robótica estudia cómo lograr que los robots realicen tareas como los humanos (Rich y Knight, 1991).

  2. Sistemas que actúan racionalmente. Se trata de aquellos sistemas que funcionan como agentes inteligentes y realizan comportamientos inteligentes en dispositivos y artefactos electrónicos (Nilsson, 1998).

  3. Sistemas que piensan como humanos. Son los sistemas que intentan de emular el pensamiento humano; por ejemplo, tenemos a las redes neuronales artificiales, mediante la automatización de actividades como aprender, resolver problemas y tomar decisiones, que se vinculan con procesos de razonamiento humano (Bellman, 1978).

  4. Sistemas que piensan racionalmente. Se trata de sistemas que realizan análisis autónomos y cálculos a partir de múltiples datos y fórmulas estadísticas para encontrar soluciones racionales (Winston, 1992).

Dentro de esta última función se incluyen a los sistemas expertos. Un sistema experto, de acuerdo con Ferrer (1986), se define como “una estructura de programación capaz de almacenar y usar un conocimiento sobre un área determinada en su capacidad de aprendizaje”, que en el caso de la IA se considera automático o machine learning. Los sistemas expertos “buscan emular la toma de decisiones de un especialista humano en áreas de conocimientos bien definidas” (Hartnell, 1986: 146).


Aunque existen diversas clases de sistemas expertos, en este trabajo se consideran aquellos que facilitan la toma de decisiones. Para estos sistemas, de acuerdo con Kurzweil, existen tres componentes básicos:


a) Una base de conocimiento estructurada con bases de datos relacionados con los conceptos propios del área de conocimiento determinada, b) Reglas de decisión que describen los métodos para tomar decisiones en un campo especializado y c) Motor de inferencia, sistema que aplica las reglas de base de conocimientos a la toma de decisiones y es capaz de conducir al razonamiento para resolver un problema (1994: 504).


Un elemento esencial para entender el funcionamiento de la IA y la manera en que las máquinas pueden ser programadas para aprender tareas es el algoritmo. El algoritmo, desde la perspectiva de las matemáticas y de la informática, puede definirse como “un conjunto de instrucciones o reglas definidas, ordenadas y finitas que permite típicamente solucionar un problema, realizar un cómputo, procesar datos y llevar a cabo otras tareas” (Real Academia Española, 2020).


En el ámbito de la IA, los algoritmos reciben y analizan datos de entrada para predecir los valores de salida. A medida que se introducen nuevos datos en estos algoritmos, aprenden y optimizan sus operaciones, desarrollando de esta forma la IA (Sipser, 2012).3


En la actualidad, la IA tiene un vasto campo de aplicaciones en ámbitos tan diversos del conocimiento, como la ingeniería, la economía, la medicina, el derecho, la educación o las comunicaciones. La IA se utiliza para el control de sistemas, la planeación inteligente, resolver consultas de usuarios y consumidores, reconocer patrones, el análisis del lenguaje, el reconocimiento de la escritura y del habla o, incluso, su reproducción.


Otro enfoque de la IA es su uso en juegos de estrategia; el ejemplo más famoso es el de la computadora Deep Blue, que logró dominar y vencer en el juego de ajedrez al campeón mundial de aquella época, el ruso Garry Kaspárov.4 Otro ejemplo sobresaliente es IBM Watson, un dispositivo electrónico que incluye habilidades de aprendizaje automático, razonamiento, toma de decisiones tecnológicas, así como de lenguaje.5


Este dispositivo fue diseñado para desarrollar capacidades para aprender a escala e interactuar con humanos. Al igual que Deep Blue, esta supercomputadora ganó tres juegos seguidos de Jeopardy en 2010, un concurso de televisión estadounidense de conocimientos con preguntas sobre temas diversos a sus máximos exponentes.


Estos ejemplos son ilustrativos de la convergencia de diversas áreas del conocimiento y las tecnologías, que han interactuado para el surgimiento y la evolución de la IA como un conjunto de innovaciones transdisciplinarias en las que se conjugan las TIC, la robótica o las neurociencias, y que han impulsado los grandes avances de la transformación social en nuestro tiempo.


Entre estos avances se tienen a las redes sociales, cuya capacidad de personalización sólo es posible por la IA; a los supermercados automatizados, en los que la selección de productos y la realización de los pagos se llevan a cabo a través de la IA; a los diagnósticos inteligentes en medicina, por medio del uso de aplicaciones que interpretan radiografías e imágenes, o, más recientemente, al coche autónomo.

III. Las aplicaciones de la IA en el derecho

El derecho como ciencia social tampoco es ajeno a las grandes transformaciones que plantea el uso de la IA. El uso de algoritmos para la recopilación y el análisis de grandes cantidades de datos (big data) plantea grandes cambios en la forma de organizar y realizar la práctica legal. La IA interactúa con el derecho mediante el uso de los llamados “sistemas jurídicos expertos”, que están basados en datos y conocimientos.


Además, los modelos de bases de datos y buscadores de leyes y jurisprudencia basados en IA permiten contrastar una gran cantidad de información, así como seleccionar los documentos más importantes sobre criterios y sentencias de los temas de búsqueda específicos realizados. Al respecto, podemos considerar varias funciones en las que la IA puede constituirse como un instrumento invaluable de apoyo para las actividades legales, que a continuación señalaremos.

1. En la organización legal

La IA facilita el trámite procesal mediante la automatización de la oficina judicial; los actos del procedimiento se sujetan a controles previsibles, que encuentran su fundamento en leyes que establecen la información y los datos específicos que deben contener.6


Tras la irrupción de las TIC en la práctica legal hace dos décadas, ahora se da paso a una nueva evolución: la de la implementación de la IA. Dadas las características similares del procedimiento como una secuencia de actos específica, y al hecho de que existen diversos procedimientos para el trámite legal, la IA puede auxiliar e identificar el tipo de procedimiento a aplicar en una determinada controversia y controlar los actos procesales a realizar.


Un sistema de IA constituido como un portal virtual o ventanilla digital puede establecer filtros que determinen la admisibilidad y procedencia de una petición o demanda determinada, o bien su prevención o improcedencia por no acompañar los documentos o elementos necesarios para su trámite, o haberse presentado extemporáneamente o precluido el plazo para hacerlo; asimismo, puede proveer el acuerdo correspondiente, así como las notificaciones, que también serían a través de medios electrónicos.


Otra perspectiva del uso factible de la IA en el procedimiento sería cuando tras conocer la pretensión se trate de una cuestión meramente jurídica, no haya hechos controvertidos o no se hayan ofrecido pruebas que ameriten su valoración. En estos casos, la aplicación de un sistema de IA podría realizar una propuesta o propuestas de resolución de trámite, estableciendo para ello la legislación aplicable y su interpretación. Esta gestión automatizada de revisiones documentales y emisión de resoluciones de trámite a través de IA genera un esquema eficiente de base digital, transparente, inteligente y supervisado al servicio de la tutela sin dilaciones (Perea, 2020: 1).


Un ejemplo exitoso del uso de la IA para facilitar la gestión procesal es el sistema Prometea, que está enfocado en resolver las demandas por tutela, en particular las relacionadas con el restablecimiento del derecho a la salud, y que ha sido utilizado por la Corte Constitucional de Colombia mediante criterios estadísticos.


Rivadeneira (2019) refiere que “este sistema fue entrenado con 2016 providencias y permitió extraer de ellas en menos de dos minutos, un total de 32 casos prioritarios, algo que a una persona le llevaría 96 días hábiles de trabajo de acuerdo con las mediciones hechas”.

2. Apoyo para la investigación y atención
de asuntos legales

En el ámbito de la investigación destaca el caso de Ross Intelligence, un buscador de jurisprudencia y documentación legal que utiliza la IA para apoyar el trabajo legal de abogados y firmas. Es importante precisar que Ross Intelligence no es aplicable a cualquier búsqueda legal, pues está especializado en quiebras y concursos de acreedores (Legaltech, 2017).


Si bien está basado en la tecnología desarrollada para la supercomputadora Watson de IBM, no es precisamente un abogado robot en estricto sentido, ya que no proporciona de manera directa defensa o asesoría legal. Su función es encontrar normas y jurisprudencia y aprender para ofrecer respuestas estructuradas (Puyol, 2017).


La forma de llevar a cabo estas tareas es mediante el procesamiento del lenguaje natural y el machine learning o aprendizaje automático, que reducen el tiempo invertido en las búsquedas y aumentan la calidad de los resultados obtenidos. Otro enfoque está relacionado con el potencial predictivo de la IA como instrumento para diseñar sistemas preventivos en la comisión de delitos o para la evaluación de riesgos.


Éste es el caso de Harm Assessment Risk Tool (HART), una herramienta de evaluación de riesgo de daños que fue desarrollada en el Reino Unido en colaboración con la Universidad de Cambridge y que mediante el aprendizaje automático tiene por objeto evaluar y predecir la reincidencia en la comisión de delitos (Burgess, 2018).


El sistema fue creado para informar sobre las decisiones de custodia; no decide acerca de si los sospechosos deben permanecer bajo custodia. El sistema tiene en cuenta 34 categorías diferentes de datos, que incluyen la edad, el sexo y el historial delictivo de una persona, para clasificar los riesgos como riesgo bajo, medio o alto de posibles reincidentes. Su objetivo es ayudar a los agentes de policía a elegir si una persona debe ser remitida a un programa de rehabilitación.


Sin embargo, en 2017 el algoritmo fue modificado en medio de preocupaciones de que podría discriminar a las personas más pobres. La modificación consistió en la eliminación del código postal como factor predictor, al considerar que incluir datos sociodemográficos y de ubicación puede reforzar los prejuicios existentes en las decisiones policiales y el sistema judicial (Oswald et al., 2017).


Otro sistema con características similares es el programa COMPAS, creado por la empresa privada Northpointe, que consiste en un algoritmo que trabaja en perfiles de gestión de delincuentes penitenciarios para determinar la aplicación de sanciones alternativas. Este sistema predice el riesgo de un acusado de cometer un delito de menor o mayor grado dentro de los dos años de evaluación a partir del análisis de seis factores de un cuestionario de 137 puntos sobre un individuo y sus antecedentes penales.


Este modelo ayuda a los jueces a determinar si una persona debe entrar en prisión, salir en libertad condicional, o bien el tiempo que debe permanecer en la cárcel de acuerdo con su puntuación de riesgo. El componente de reincidencia de COMPAS ha estado en uso en diversos estados de Estados Unidos desde 2000.


Sin perjuicio de ello, diversos estudios han cuestionado su viabilidad desde la perspectiva de que la correlación de los datos utilizados para la generación de sus resultados puede conducir a desigualdades raciales. En mayo de 2016 se analizó la eficacia de COMPAS en más de 7,000 personas arrestadas en Florida entre 2013 y 2014. Los resultados del análisis indicaron que las predicciones realizadas no eran confiables y conducían a prejuicios raciales (Angwin et al., 2016).


Otro estudio determinó que el algoritmo no es más fiable que cualquier humano sin preparación. Así, el resultado de ello fue que las personas acertaron casi con la misma frecuencia que el algoritmo entre el 63% y el 67% de las veces en comparación con el 65% de COMPAS (Dressel y Farid, 2018). Lo que estos casos sugieren es que el potencial de los sistemas de IA en el derecho, si bien son prometedores, siguen teniendo limitaciones relacionadas con las correlaciones de datos, lo que cuestiona la precisión de la predicción algorítmica.7

3. El papel de la IA en la construcción de sentencias
y la resolución alternativa de controversias

Desde otra perspectiva, se ha considerado a la IA (Nieva, 2018) como un sistema ideal de valoración legal de los medios de prueba en un procedimiento legal. La idea es que el sistema se limitaría a verificar el cumplimiento de los presupuestos legalmente previstos para producir la respuesta.


Una cuestión muy distinta es el uso de la IA para determinar la decisión judicial, porque elegir las premisas y las reglas de inferencia de su razonamiento exige una verdadera labor creativa (Martínez, 2012: 836). La construcción de una sentencia parte de la base del desahogo de un proceso legal.


El proceso legal suele observarse como el mecanismo de desahogo de una controversia, en la cual intervienen dos partes que exponen sus ideas con la intención de defender ante un juez sus derechos o sus excepciones y defensas según sea el caso. Una vez fijados los puntos controvertidos, el juez analiza de manera exhaustiva lo expuesto por las partes para construir una sentencia mediante la exposición ordenada y coherente de sus argumentos.


Desde esta perspectiva, la sentencia se transforma en un ejercicio comunicativo complejo, que tiene lugar cuando las partes exponen los argumentos de por qué debe fallar el juez en su favor. Al llevar a cabo este proceso, el juez utiliza las herramientas de la argumentación (la retórica y la dialéctica) y hace un análisis narrativo que le permite elaborar la realidad a su manera (Carofiglio, 2007: 26).


Al construir la decisión judicial, el juez considera, entre otros aspectos, la situación social de las partes, la naturaleza de su relación, así como la ponderación de derechos en relación con la situación de cada una de las partes. Para hacerlo, el juez utiliza una forma de razonar que se denomina “abducción”, que permite analizar lo imprevisible en el ser humano: las implicaciones, los errores y las dificultades de percepción (Ramírez et al., 2020: 133).


Si se compara la abducción con uno de los métodos más utilizados en el derecho, que es conocido como “inducción”, se hacen patentes las limitaciones de la IA para resolver una controversia legal. Para Aguayo, mientras la abducción permite inferir algo de tipo distinto a lo que hemos observado directamente y, con frecuencia, algo que sería imposible observar directamente, la inducción sólo permite inferir la existencia de fenómenos iguales a los que hemos observado en casos similares (2011: 1).


En la práctica legal, esta forma de razonar permite distinguir variables complejas en los comportamientos y actitudes del ser humano, que aún están en fase de desarrollo para la IA. Esto ayuda a conocer si la acción fue realizada de buena o de mala fe o con una intencionalidad determinada; esto es, la sensibilidad humana nos permite comprender nuestros complejos sistemas de valores, de adaptación y de regulación de la realidad.


Aunque la aplicación de la IA ofrece muchas potencialidades para facilitar actividades jurídicas de trámite y de valoración procesal, el reto de garantizar seguridad y eficacia en las decisiones jurídicas sigue generando incertidumbre y polémica: “recrear artificialmente una inteligencia con capacidad para sentir de modo similar al ser humano, sin duda representa un futurible bastante incierto al que se anteponen un buen número de problemas” (Bonet, 2018: 68).


Éste es uno de los campos experimentales actuales para la IA, en el cual se ha buscado desarrollar una función cognitiva a través de modelos conexionistas y de redes neuronales, cuyo principal propósito “es el entender el funcionamiento del cerebro humano y emular su comportamiento” (Martínez, 2012: 827).


Estos modelos de IA deben distinguirse de los modelos de procesamiento simbólico, cuya base, de acuerdo con Fuhua, es considerar el pensamiento humano como un procesamiento de información que puede ser representado mediante la manipulación de símbolos (2005: 130).


Los modelos conexionistas toman como guía al cerebro humano para crear neuronas artificiales e imitar el diseño y conexiones de las neuronas cerebrales mediante la creación de redes neuronales artificiales. Nikolaev refiere que “una red neuronal se forma por un conjunto de unidades (neuronas), cada una de las cuales tienen un conjunto de entrada y otro de salida” (2006: 108).


Las redes neuronales artificiales forman parte de un paradigma diferente del procesamiento simbólico, ya que prescinde del enfoque algorítmico tradicional debido a que toma como modelo a los sistemas biológicos. Desde otra perspectiva, en México el profesor Cáceres Nieto (2006) fue pionero en abordar un proyecto sobre IA y derecho, en el que desarrolló la idea de un modelo de constructivismo jurídico en oposición al modelo del positivismo normativista (2006: 599).


La principal característica de este modelo es concebir a la norma como el esquema mental derivado del procesamiento de enunciados explícitos mediante reglas de razonamiento jurídico, las cuales se integran con otros conocimientos provenientes del discurso de diversas disciplinas, como es el caso de la teoría general del derecho, de las teorías acerca de la argumentación e interpretación, o de la dogmática jurídica.


Estos conocimientos se constituyen como materiales de conocimiento, cuyo procesamiento da lugar a lo que se define como “realidades hermenéuticas” (Cáceres, 2002: 32), y cuya función es necesario conocer para participar en ambientes jurídicos, como la controversia legal, la asesoría o el debate académico.


Un ejemplo de este modelo constructivista aplicado a la compleja función del juez al adoptar decisiones legales lo constituye el sistema experto denominado Judith, cuya finalidad es identificar y determinar las reglas a aplicar del código civil alemán a un caso concreto (Trazegnies, 2013: 112-130).


En el ámbito de la resolución alternativa de controversias, la aplicación de la IA podría contribuir a la solución de conflictos. Para Martínez Bahena, estos sistemas “pueden plantear posibles soluciones a determinados asuntos jurídicos aplicando el conocimiento experto en la materia, así como explicar sus razonamientos” (2012: 833).


Un sistema de IA orientado a la solución alternativa de conflictos podría señalar con precisión las ventajas generales y específicas que podrían obtenerse con una solución autocompositiva e inmediata de la controversia. Al respecto, el modelo de razonamiento legal basado en casos (Aleven, 2003: 184), que retoma la capacidad de resolver problemas por analogía propia de los humanos, se ha desarrollado y usado con más frecuencia.


También podría evaluar las pretensiones en conflicto y realizar una predicción de las probabilidades de éxito para cada una de las partes en un eventual proceso legal, incluyendo los posibles gastos a enfrentar y determinar el tiempo probable de duración de la controversia legal. De esta forma, las partes tendrían la información y las condiciones necesarias para alcanzar un acuerdo que solucione el conflicto.


Un ejemplo es el proyecto Prometea, que es promovido por el Ministerio Público Fiscal de la Ciudad de Buenos Aires y que tiene por objeto “la automatización de tareas reiterativas y la aplicación de la IA para la elaboración automática de dictámenes jurídicos basándose en casos análogos para cuya solución ya existen precedentes judiciales reiterados” (Estevez et al., 2020: 11). Para Magro Servet, “El sistema no es quien adopta la decisión final dado que existe una persona que determina si la propuesta es adecuada (2018: 2).

IV. Los retos del derecho
en la regulación de la IA

El derecho no ha sido ajeno a los avances imparables de la IA de la última década. El uso masivo de datos en Internet y el incremento de la conexión por parte de la población a nivel global han generado preocupaciones en torno a las capacidades institucionales para brindar protección a las personas respecto a sus datos personales o en relación con su derecho a la privacidad.


Algunos de los desafíos que implica esta interrelación están ligados a las influencias en las conductas y comportamientos de los usuarios en el entorno virtual. Uno de ellos se ha identificado como el diseño de arquitecturas de elección manipuladas que conducen a comportamientos no deseados, como el consumo de publicidad que se superpone al contenido seleccionado, o bien configuraciones de privacidad confusas que inducen a las personas a compartir más información de la necesaria (Kozyreva et al., 2020).


Otro inconveniente es que la información mostrada por los algoritmos impulsados por la IA no es neutral, sino que se personaliza de acuerdo con los datos recopilados de los usuarios. Esto puede significar que a dos personas que ingresan la misma consulta se les muestren resultados diferentes.


La obtención de resultados diferentes con base en nuestras preferencias genera que ya exista la exposición a diversas ideas o medios, que es característica de un canal de comunicación como Internet. Sin embargo, esta exposición puede también prestarse a la manipulación ideológica de nuestra capacidad de elección.


Una razón que corrobora esta afirmación es que las empresas y plataformas en Internet buscan atraer de forma permanente la atención de los usuarios mediante notificaciones o anuncios que surgen de ventanas emergentes, porque su modelo de negocios está basado en mantener y captar la atención de los usuarios.8 Por otra parte, si bien la información es más accesible que en ningún otro tiempo de la historia, también existen la desinformación y la presencia de noticias falsas o fake news ante la imposibilidad de evaluar críticamente toda la información generada a diario.


En la actualidad, se parte de la premisa de que los sistemas actuales de IA están diseñados para abordar un problema determinado en un área específica del conocimiento, lo que implica que los sistemas no perciben lo que ha decidido y por qué lo ha decidido. El sistema de IA se entrena con una base de datos históricos, cuyos parámetros se ajustan en función de los algoritmos de decisión.


Hay dos formas de entrenamiento para el aprendizaje de los sistemas de IA. El primero de ellos es el machine learning, que se define como el campo de aprendizaje de las máquinas. De acuerdo con Russell, “observa datos, construye un modelo basado en esos datos y utiliza ese modelo como una hipótesis acerca del mundo y… puede resolver problemas” (2021: 651).


El otro método es el deep learning, que se basa en la creación artificial de redes neuronales y en la imitación de la capacidad de autoaprendizaje del cerebro humano. El deep learning, también denominado aprendizaje profundo, ha obtenido resultados relevantes en la comprensión del lenguaje natural y en el análisis de las emociones. Los últimos avances en IA están basados en el aprendizaje profundo, un método de aprendizaje automático que emplea redes neuronales artificiales y cuyos alcances no están claramente definidos.


Por esta razón, en el ámbito internacional, varias organizaciones de protección de los derechos humanos presentaron la denominada “Declaración de Toronto sobre la protección del derecho a la igualdad y la no discriminación en los sistemas de aprendizaje automático” (Amnesty International, 2018). La Declaración tiene por objeto aplicar las normas internacionales de derechos humanos existentes al desarrollo y uso de sistemas de aprendizaje automático.


La Declaración, en su preámbulo, da cuenta del creciente papel de los sistemas de IA en sectores que tienen un efecto transformador en la vida de las personas, como es el caso, entre otros, del transporte, la atención médica, la educación y el sistema de justicia. Desde otra perspectiva, refiere que su uso indebido puede dañar los derechos de las personas, ya que el aprendizaje automático puede amplificar la discriminación y los sesgos existentes.


Esta situación se genera cuando se utilizan bases de datos históricos para entrenar a los sistemas de aprendizaje automático sin ningún tipo de salvaguarda, lo que puede incrementar los sesgos estructurales existentes. Por tal motivo, la Declaración establece el deber de los Estados de prevenir la discriminación en el diseño o la implementación de los sistemas de aprendizaje automático mediante la inclusión de principios que garanticen la transparencia y la rendición de cuentas, así como mecanismos para su supervisión independiente.


La Declaración también refiere a las responsabilidades de los actores privados en el desarrollo e implementación de sistemas de IA, cuya base son los principios de diligencia debida en materia de derechos humanos para detectar posibles resultados discriminatorios y el de transparencia respecto a la publicación de muestras de los datos de entrenamiento utilizados.


Otro aspecto importante es que considera el derecho a un recurso efectivo y exhorta a los gobiernos a establecer estándares que garanticen el debido proceso para el uso del aprendizaje automático en el sector público, así como a definir líneas claras para el desarrollo e implementación de sus aplicaciones.


Por su parte, la Comisión Europea (2020) ha emitido un Libro Blanco sobre la Inteligencia Artificial. Del análisis del apartado 5, intitulado “Un ecosistema de confianza: el marco regulador de la IA”, se considera que la aprobación de una normativa sobre IA debería incluir como elementos destacados a los siguientes: normas que garanticen seguridad frente al desarrollo de la tecnología; normas que garanticen que los principios y derechos fundamentales se adapten a la realidad tecnológica inherente al uso de la IA, así como que puedan determinarse con claridad las cuestiones relativas a responsabilidades por el uso indebido de la IA y su impacto frente a terceros (Comisión Europea, 2020: 11 y 12).


En relación con el desarrollo, se identifican como características de las tecnologías de la IA que dificultan el cumplimiento de la legislación sobre la protección de derechos fundamentales a la opacidad, la complejidad, la imprevisibilidad y un comportamiento parcialmente autónomo (Comisión Europea, 2020: 14).


En este sentido, se establece que los principales riesgos para los derechos fundamentales relacionados con el uso de la IA pueden afectar las normas diseñadas para proteger los datos personales, la privacidad, la no discriminación, el derecho a una tutela judicial efectiva o la protección de consumidores, y se pueden afectar valores como la libertad de expresión, la libertad de reunión o la dignidad humana.


El Libro Blanco aborda de forma relevante el tema de la opacidad de la IA, que consiste en la dificultad para transparentar los procesos de aprendizaje de las máquinas, o la explicación de por qué los sistemas de aprendizaje profundo llegan a determinados resultados.9


V. La interacción entre tecnología
y neurociencia: los neuroderechos y las perspectivas
de su regulación constitucional


Los avances de las tecnologías de la IA han tenido un desarrollo particular en el campo de la medicina. Explicar este avance requiere tener una noción de la neurociencia o, mejor dicho, neurociencias. Las neurociencias son un campo científico multidisciplinar que estudia cómo se organizan los sistemas nerviosos de los seres humanos y cómo interactúan para generar las bases de la cognición y la conducta (Purves, 2015).


Esto resulta clave en el desarrollo de la IA, porque la interrelación entre la neurociencia y la psicología ha permitido desarrollar la neurociencia cognitiva, cuyo principal objetivo es el estudio de las representaciones internas de los fenómenos mentales (Consejo Mexicano de Neurociencias, 2018), mientras que la interrelación entre las neurociencias y la tecnología ha generado avances impensables en un nuevo campo de la IA: la neurotecnología.


Aunque este campo del conocimiento está en ciernes, la neurotecnología puede definirse como el conjunto de tecnologías que se relacionan entre sí para analizar y comprender el cerebro humano, visualizar sus procesos, así como controlar, reparar y, en su caso, “mejorar sus funciones”.


Aunque ya se conocen diversas técnicas de la neurotecnología que se aplican en la vida cotidiana, como son, entre otras, el electroencefalograma, la resonancia magnética funcional, así como las técnicas para estimular el cerebro para paliar síntomas de enfermedades como el Parkinson o la epilepsia, las innovaciones más interesantes y polémicas se han generado en su relación con las tecnologías cognitivas.


La interacción entre las tecnologías cognitivas de IA y los datos obtenidos sobre las funciones cerebrales mediante el machine learning y el deep learning, así como el procesamiento del lenguaje natural, se emplean para generar lo que se denomina “redes neuronales artificiales”, que están transformando radicalmente las aplicaciones de la IA; éste es el caso de la visión artificial o el reconocimiento de voz por computadora.


Para lograr este proceso, actualmente se desarrolla el Brain Activity Map Project (BAMP), que, de acuerdo con Oppenheimer, “busca establecer un mapa completo de la actividad cerebral” (2014: 138). Otras innovaciones importantes son los implantes neuronales, que buscan recuperar las capacidades sensoriales mediante la estimulación cerebral a través de la conexión con dispositivos de IA.


Estas intervenciones y técnicas de manipulación neuronal han llamado la atención de los expertos respecto a ¿cuáles pueden ser sus límites?, ¿cuáles deben ser las condiciones éticas y legales que deben cumplir las innovaciones en IA?, ¿cómo se pueden proteger bienes intangibles tan valiosos de la persona humana, como su identidad o su integridad mental?


Una propuesta para resolver estos dilemas proviene del profesor Yuste, un neurocientífico por la Universidad de Columbia que reclama la creación de neuroderechos, los cuales deben ser recogidos en la Declaración de Derechos Humanos y que los Estados tengan la obligación de incorporarlos a sus respectivos ordenamientos jurídicos (Yuste et al., 2017: 162).


Ahora bien, para comprender cuál es el objeto que se busca proteger en un neuroderecho, es necesario distinguir las relaciones entre propiedades físicas y propiedades mentales. Las físicas serían aquellas que son observables por un tercero y que están disponibles para ser percibidas en forma directa, es decir, son de acceso público, mientras que las mentales serían aquellas que no son observables por terceros, ya que ocurren en un sujeto y están asociadas a su experiencia personal (López-Silva y Madrid, 2021: 54).


Es importante establecer que en el acontecer de cualquier estado mental concurren tanto propiedades físicas como mentales, pues hasta la fecha no existe una forma de determinar con claridad las relaciones entre el funcionamiento del cerebro y los estados mentales.


Ese desafío para explicar las relaciones entre la actividad cerebral y los estados mentales está siendo retomado a través del BAMP, con el objeto de generar una “radiografía de la forma en que la actividad eléctrica del cerebro produce fenómenos mentales como la percepción, la acción voluntaria, las memorias, los pensamientos y la conciencia” (Alivisatos et al., 2013).


Ante estas innovaciones creativas, un grupo de neurocientíficos, neurotecnólogos e ingenieros de IA conformó el grupo Morningside, con el objetivo de discutir la ética de las neurotecnologías y la IA de estos desarrollos. Este grupo ha reflexionado que las directrices éticas y legales actuales no parecen suficientes, por lo que es necesario pautas éticas para las nuevas neurotecnologías (Goering y Yuste, 2016: 882).


Por esta razón, el grupo Morningside ha considerado que las innovaciones en neurotecnologías deben ir acompañados de neuroderechos, como la capacidad de mantener la privacidad de sus datos neuronales, mediante un consentimiento reforzado que regule y limite estrictamente la venta, la transferencia comercial y el uso de capacidades neuronales.


Otro neuroderecho sería restringir el procesamiento centralizado de datos neuronales mediante el uso de tecnologías blockchain, que permiten una privacidad diferencial al establecer una protección en cadena de bloques, así como rastrear y supervisar quién tiene acceso a los datos neuronales, o bien mediante contratos inteligentes que otorguen un control transparente de su uso.


Una propuesta adicional de neuroderecho es proteger la identidad (integridad física y mental) ante intervenciones de la IA, por medio de modificaciones tecnológicas que generen alteraciones mentales a nuestra identidad y a la capacidad de libre albedrío.


De acuerdo con López-Silva y Madrid, un aspecto a clarificar es “que el concepto de neuroderecho hace, en realidad, referencia a la protección de las propiedades públicas de la experiencia mental humana” (2021: 58). En la actualidad, existen en Chile —país que busca ser pionero en la regulación de estas cuestiones— dos iniciativas legales relacionadas con esta temática: un proyecto de reforma constitucional que busca proteger la integridad mental con relación al avance de las neurotecnologías, y un proyecto sobre la protección de neuroderechos, la integridad mental, el desarrollo de la investigación y las neurotecnologías.


Un aspecto importante para esclarecer es si la protección de neuroderechos debe realizarse, en principio, en el marco constitucional y, después, en el contexto legal. Para López-Silva y Madrid, “al ser estos últimos a la postre un tipo específico de datos personales, la garantía expresamente incorporada por la modificación constitucional… tutelaría de manera suficiente este género de información privada, sin que fuera necesario agregar a la Carta Fundamental un desglose particular” (2021: 63).


Frente a esta postura, se establecen dos posibles argumentos para su inclusión constitucional: uno hace referencia a que, ante la posibilidad de que en sociedades desarrolladas científica y tecnológicamente se tenga acceso a una gran cantidad de conocimientos o de datos en manos particulares, se pueden provocar perjuicios a la comunidad y a terceros mediante su aprovechamiento indebido.10


La otra reflexión se refiere a la concentración de estas tecnologías en el poder público, y que supone nuevos desafíos en los que es necesario limitar el poder político, lo cual, en palabras de Solove (2006: 487), se denominan “problemas estructurales”.


Sin perjuicio de considerar teorías iusnaturalistas que apoyan la idea de derechos no escritos o no enunciados, que lo único que requieren es una regla de reconocimiento, o considerar que los neuroderechos son una subespecie de derechos como el derecho de protección de la vida privada o el de protección de la privacidad, en mi opinión, sí hay elementos para considerar que los neuroderechos requieren una protección legal específica. Un primer elemento es que los neuroderechos quizá no sólo hagan referencia a la protección de las propiedades públicas de la experiencia mental humana, sino también a la integridad mental humana, que tiene un carácter único y privado, y que no parece subsumirse como dato personal.


Por otra parte, si bien la IA se nutre de datos para llevar a cabo sus funciones, el procesamiento de datos neuronales, al no poder determinarse con claridad las relaciones entre las funciones cerebrales y los estados mentales, genera la necesidad de considerar un derecho a la integridad neuronal de las personas. Así, las propiedades mentales serían el objeto de los neuroderechos, los que ameritan protección dado su carácter indisponible ligado a la identidad e integridad mental y, por tanto, “el acceso a los estados mentales es privado y sujeto dependiente” (Jackson, 1986).


En relación con esta cuestión, las potenciales alteraciones a nuestra identidad asociadas a las potenciales mejoras cognitivas y físicas derivadas de una intervención con neurotecnologías requieren un derecho a conocer mejor el impacto y las consecuencias de su uso, así como garantizar nuestra integridad mental. Es una especie de derecho a la protección contra sesgos de IA.


Se trataría de un derecho a conocer cómo y por qué los modelos de IA toman determinadas decisiones, lo cual genere confianza y seguridad, es decir, una especie de derecho a la supervisión y rendición de cuentas de la IA en su interacción con personas humanas, tal como se establece en la Declaración de Toronto, cuando se hace referencia a principios que garanticen la transparencia y la rendición de cuentas, así como mecanismos para su supervisión independiente.


Por otra parte, en el caso de que no se cuente con los conocimientos para determinar las consecuencias imprevistas de la IA, como puede ocurrir por defectos en el diseño de los sistemas de IA, o bien dadas las características de opacidad, imprevisibilidad y complejidad de las potenciales conductas autónomas de los sistemas, se considera importante establecer un principio semejante al principio de precaución en materia ambiental, que implica que, ante la falta de certeza sobre las consecuencias e impactos en el uso de determinadas tecnologías relacionadas con IA, se imponga su restricción o prohibición.


En este sentido, aunque se coincide en la crítica realizada respecto a que los neuroderechos hasta ahora esbozados implican más bien restricciones o prohibiciones y no la enunciación de derechos subjetivos, y que el acceso sin discriminaciones a las neurotecnologías constituye un objetivo plausible en los casos de mejoras significativas en la salud de las personas, hay elementos para considerar que la regulación de los neuroderechos merece una deliberación más amplia y una protección reforzada.


Los sesgos algorítmicos producidos por la IA y el uso de neurotecnologías tampoco parecen reconducirse a la protección exclusiva de datos personales, al derecho a la privacidad o a la integridad en su acepción tradicional, como cuando se hace referencia a cautelar nuevas amenazas en viejos derechos humanos (Zúñiga et al., 2020). Esta deliberación recuerda la originada en torno a la pertinencia de legislar o no acerca del daño moral, al pretender que el daño moral como daño producido en un bien intangible no debía ser regulado porque ya se tenía establecido la regulación de la reparación de daños materiales y objetivos.


Al respecto, el Libro Blanco establece que otros riesgos de la IA pueden estar relacionados con problemas de disponibilidad o calidad de los datos u otros derivados del aprendizaje de las máquinas, por lo que a los problemas relacionados con la seguridad y la responsabilidad en el uso de neurotecnologías de IA se les añade el problema de la accesibilidad de información, bienes y servicios relacionados con su funcionamiento.


Si bien es cierto que estos derechos, en teoría, pueden ser reconducidos a derechos tradicionales como la privacidad, la integridad y la protección de datos personales, ante las amenazas provenientes de un uso indebido de sistemas de IA por parte de autoridades públicas y empresas, no ocurre lo mismo cuando se trata de determinar las consecuencias relacionadas con defectos de diseño (el machine learning o el deep learning), en el que las consecuencias inherentes al aprendizaje autónomo de los sistemas pueden ser potencialmente impredecibles o inciertas.

VI. Conclusiones

En la actualidad, la IA tiene un vasto campo de aplicaciones en ámbitos tan diversos del conocimiento, como la ingeniería, la economía, la medicina, el derecho, la educación o las comunicaciones.


La convergencia de diversas áreas del conocimiento y las tecnologías que han interactuado para el surgimiento y evolución de la IA, como un conjunto de innovaciones transdisciplinares en las que se conjugan las TIC, la robótica o las neurociencias, han impulsado los grandes avances de la transformación social a nivel global.


En el ámbito legal, la gestión automatizada de revisiones documentales y la emisión de resoluciones de trámite a través de IA tienen el potencial de generar esquemas eficientes de gestión de base digital, transparentes, con una adecuada supervisión humana. Los sistemas analizados para la investigación y atención de asuntos legales sugieren que el potencial de los sistemas de IA en el derecho, si bien son prometedores, siguen teniendo limitaciones relacionadas con las correlaciones de datos, lo que cuestiona la precisión de la predicción algorítmica.


Aunque la aplicación de la IA ofrece muchas potencialidades para facilitar actividades jurídicas de trámite y de valoración procesal, el reto de garantizar seguridad y eficacia en las decisiones jurídicas sigue generando incertidumbre y polémica. En el ámbito de la resolución alternativa de controversias, un sistema de IA orientado a la solución alternativa de conflictos podría señalar con precisión las ventajas generales y específicas que podrían obtenerse con una solución autocompositiva e inmediata de la controversia.


Actualmente, se parte de la premisa de que los sistemas actuales de IA están diseñados para abordar un problema determinado en un área específica del conocimiento, lo cual implica que los sistemas no perciben lo que ha decidido y por qué lo ha decidido. Sin embargo, los últimos avances en IA están basados en aprendizaje profundo, un método de aprendizaje automático que emplea redes neuronales artificiales y cuyos alcances no están claramente definidos.


Los avances de las tecnologías de la IA han tenido un desarrollo particular en el campo de la medicina. La interacción entre las tecnologías cognitivas de IA y los datos obtenidos sobre las funciones cerebrales mediante el machine learning y el deep learning, así como el procesamiento del lenguaje natural, se emplean para generar lo que se denomina “redes neuronales artificiales”, que están transformando radicalmente las aplicaciones de la IA.


Los neuroderechos quizá no sólo hagan referencia a la protección de las propiedades públicas de la experiencia mental humana, sino también a la integridad mental humana, que no parece subsumirse de forma simple como un dato personal. El procesamiento de datos neuronales, al no poder establecerse con claridad las relaciones entre las funciones cerebrales y los estados mentales, genera la necesidad de considerar un derecho a la integridad neuronal de las personas.


Las potenciales alteraciones a nuestra identidad asociadas a las potenciales mejoras cognitivas y físicas derivadas de una intervención con neurotecnologías requieren un derecho a conocer mejor el impacto y las consecuencias de su uso, así como garantizar nuestra integridad mental. Se trata de una especie de derecho a la supervisión y rendición de cuentas de la IA en su interacción con personas humanas.


Por otra parte, se considera necesario establecer un derecho a la diligencia debida en el uso de neurotecnologías, así como un principio de precaución en el caso de que no se cuente con los conocimientos para determinar las consecuencias imprevistas de la IA, como puede ocurrir por defectos en el diseño de los sistemas de IA, o bien dadas las características de opacidad, imprevisibilidad y complejidad, que ante la falta de certeza sobre las consecuencias e impactos en el uso de determinadas neurotecnologías de IA, se imponga su restricción o prohibición.


Por lo tanto, en mi opinión, la deliberación acerca de la pertinencia o no de la regulación de los neuroderechos en sede constitucional amerita una reflexión más amplia y cuidadosa, dada la relevancia de los valores jurídicos a proteger y considerando tanto el carácter internacional de los principios para su regulación como el carácter transnacional de los principales actores de la IA: las grandes empresas tecnológicas globales.


VII. Referencias

Aguayo, P. (2011). “La teoría de la abducción de Peirce: lógica, metodología e instinto”. Ideas y Valores. 59(145).

Aleven, V. (2003). “Using Background Knowledge in Case-Based Legal Reasoning: A Computational Model and an Intelligent Learning Environment”. Artificial Intelligence. 150(1-2). Disponible en: https://doi.org/10.1016/S0004-3702(03)00105-X.

Alivisatos, A. Paul et al. (2013). “The Brain Activity Map”. Science. 339(6125). Disponible en: https://doi.org/10.1126/science.1236939.

Amnesty International (2018). “The Toronto Declaration: Protecting the Right to Equality and Non-Discrimination in Machine Learning Systems”. Disponible en: https://www.accessnow.org/cms/assets/uploads/2
018/08/The-Toronto-Declaration_ENG_08-2018.pdf (fecha de consulta: 14 de septiembre de 2021).

Angwin, J. et al. (2016). “Machine Bias”. ProPublica. Disponible en: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (fecha de consulta: 26 de agosto de 2021).

Bellman, R. (1978). An Introduction to Artificial Intelligence: ¿Can Computers Think? San Francisco: Boyd & Fraser Pub. Co.

Bizer, C. et al. (2009). “Linked Data-The Story So Far”. International Journal on Semantic Web and Information Systems. 5(3).

Bonet, J. (2018). “La tutela judicial de los derechos no humanos. De la tramitación electrónica al proceso con robots autónomos”. Revista Ceflegal. 208.

Burgess, M. (2017). “La policía de Reino Unido está utilizando inteligencia artificial para informar las decisiones de custodia, pero podría estar discriminando a los pobres”. WIRED.

Cáceres, E. (2006). “Inteligencia artificial, derecho y e-justice (el proyecto IIJ-Conacyt)”. Boletín Mexicano de Derecho Comparado. 39(116).

Carofiglio, G. (2007). El arte de la duda. Marcial Pons.

Casanovas, P. (2015). “Derecho, tecnología, inteligencia artificial y web semántica. Un mundo para todos y para cada uno”. En Fabra Zamora, J. L. y Núñez Vaquero, A. (eds.). Enciclopedia de filosofía y teoría del derecho. México: UNAM, Instituto de Investigaciones Jurídicas. Vol. 1.

Comisión Europea (2020). “Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza”. Bruselas.

Consejo Mexicano de Neurociencias (2018). “Neurociencia cognitiva”. Disponible en: https://www.consejomexicanodeneurociencias.org/post/neurociencia-cognitiva.

Dressel, J. y Farid, H. (2018). “The Accuracy, Fairness, and Limits of Predicting Recidivism”. Science Advances. 4(1).

Estevez, E. et al. (2020). Prometea: transformando la administración de justicia con herramientas de inteligencia artificial. Nueva York: BID.

Ferrer, A. (1986). “Introducción a la inteligencia artificial”. En Ferrer, A. (ed.). Inteligencia artificial y sistemas expertos. Ediciones Ingelek.

Fuhua, O. (2005). Designing Distributed Learning Environments with Intelligence Software Agents. Estados Unidos: Information Science Publishing.

Goering, S. y Yuste, R. (2016). “On the Necessity of Ethical Guidelines for Novel Neurotechnologies”. Cell. 167(4).

Hartnell, T. (1986). Inteligencia artificial: conceptos y programas. España: Anaya Multimedia.

Hendler, J. y Berners-Lee, T. (2010). “From the Semantic Web to Social Machines: A Research Challenge for AI on the World Wide Web”. Artificial Intelligence. 174.

Jackson, F. (1986). “What Mary Didn’t Know”. The Journal of Philosophy. 83(5). Disponible en: https://doi.org/10.2307/2026143.

Kaplan, A. y Haenlein, M. (2019). “Siri, Siri, in my Hand: Who’s the Fairest in the Land? On the Interpretations, Illustrations, and Implications of Artificial Intelligence”. Business Horizons. 62(1).

Kozyreva, A. et al. (2020). “Citizens versus the Internet: Confronting Digital Challenges with Cognitive Tools”. Psychological Science in the Public Interest. 21(3).

Kurzweil, R. (1994). La era de las máquinas inteligentes. México: Conacyt.

Legaltech (2017). “Qué es y para qué sirve en verdad Ross Intelligence”. Disponible en: https://legaltechies.es/2017/09/20/que-es-y-para-que-sirve-en-verdad-ross-intelligence/ (fecha de consulta: 23 de agosto de 2021).

Lillo Lobo, R. (2010). El uso de nuevas tecnologías en el sistema judicial: experiencias y precauciones. Brasilia: Centro de Estudios de Justicia de las Américas.

López-Silva, P. y Madrid, R. (2021). “Sobre la conveniencia de incluir los neuroderechos en la Constitución o en la ley”. Revista Chilena de Derecho y Tecnología. 10(1). Disponible en: https://doi.org/10.5354/0719-2584.2021.56317.

Martínez Bahena, G. (2012). “La inteligencia artificial y su aplicación al campo del derecho”. Alegatos. 82.

Nieva Fenoll, J. (2018). Inteligencia artificial y proceso judicial. Marcial Pons.

Nikolaev, Nikolay (2006). Adaptive Learning of Polynomial Networks. Nueva York: Springer Verlag.

Nilsson, N. J. (1998). Artificial Intelligence: A New Synthesis. San Francisco: Kaufmann.

Oppenheimer, A. (2014). Crear o morir. La esperanza de América Latina y las cinco claves de la innovación. Debate.

Oswald, M. et al. (2017). “Algorithmic Risk Assessment Policing Models: Lessons from the Durham HART Model and «Experimental» Proportionality”. Information & Communications Technology Law. 27(2).

Perea González, A. (2020). “Inteligencia artificial y proceso judicial: una revolución que se aproxima”. Expansión.

Poole, D. et al. (1998). Computational Intelligence: A Logical Approach. Nueva York: Oxford University Press.

Purves, D. (2015). Neurociencia. Médica Panamericana.

Puyol, J. (2017). “LexNet: la profecía que se cumple”. Confilegal. Disponible en: https://bit.ly/3gprJq5.

Ramírez, D. et al. (2020). “Reflexiones en torno a la inteligencia artificial, el proceso judicial y la educación de los abogados”. Debates contemporáneos del proceso en un mundo que se transforma. Colombia: Universidad Católica Luis Amigo.

Real Academia Española (2020). Diccionario de la lengua española. Madrid.

Rich, E. y Knight, K. (1991). Artificial Intelligence. Nueva York: McGraw-Hill.

Rivadeneira, J. C. (2019). “Prometea, inteligencia artificial para la revisión de tutelas en la Corte Constitucional”. Legis. Ámbito Jurídico.

Russell, S. y Norvig, P. (2009). Artificial Intelligence: A Modern Approach. Nueva Jersey: Prentice Hall.

Sipser, M. (2012). Introduction to the Theory of Computation. Cengage Learning.

Solove, D. (2006). “A Taxonomy of Privacy”. University of Pennsylvania Law Review, 154(3).

Suárez Manrique, W. y León Vargas, G. I. de (2019). “Inteligencia artificial y su aplicación en la administración de justicia”. Revista Jurídica Mario Alario D’Filippo. 11(21).

Trazegnies Granda, F. de (2013). “¿Seguirán existiendo jueces en el futuro?: el razonamiento judicial y la inteligencia artificial”. Ius et Veritas. 23(47).

Winston, P. (1992). Artificial Intelligence. Estados Unidos: Addison-Wesley Pub. Co.

Yuste, R. et al. (2017). “Four Ethical Priorities for Neurotechnologies and AI”. Nature. 551. Disponible en: https://doi.org/10.1038/551159a.

Zúñiga, A. et al. (2020). “¿Neuroderechos? Razones para no legislar”. CIPER. Disponible en: https://www.ciperchile.cl/2020/12/11/neurodere
chos-razones-para-no-legislar/
(fecha de consulta: 26 de septiembre de 2021).


1 El juego del Go es un juego de mesa de estrategia inventado en China hace al menos 2,500 años. El Go fue considerado en la China antigua como una de las cuatro artes tradicionales, junto con la caligrafía, la pintura y la música.

2 La neurotecnología engloba las tecnologías desarrolladas para comprender cómo funciona el cerebro, sus procesos, y, de ser posible, controlar, reparar o mejorar sus funciones.

3 En este sentido, los algoritmos en el machine learning aprenden en la medida en que se introducen nuevos datos e información, lo que les permite optimizar sus procesos y mejorar su rendimiento.

4 Esta computadora fue desarrollada por IBM para jugar ajedrez. La partida se realizó en mayo de 1997.

5 Watson es un sistema basado en IA que combina análisis profundo de contenido, procesamiento del lenguaje natural, recuperación de información y aprendizaje automático, y constituye uno de los avances más innovadores en materia de gestión y análisis de datos.

6 El uso de las TIC permite diversas funciones, como facilitar y hacer más efectiva la tramitación de causas; mejorar la organización del trabajo y la productividad de los tribunales; optimizar la calidad de la información que es producida en audiencia, entre otras (Lillo, 2010).

7 Dentro de la aplicación de la IA al derecho, resulta difícil la neutralidad axiológica o la liberación moral en la toma de decisiones, por cuanto si bien es cierto que los algoritmos no están inmersos en estas limitaciones conceptuales, sí están inmersas las personas que configuran los algoritmos (Wilson y De León, 2019: 80).

8 Una visión distinta es la de la denominada linked open data, que se define como un conjunto de buenas prácticas para publicar y conectar datos estructurados en la red, lo que ha llevado a la creación de un espacio global de datos que se conoce como la web de datos (Bizer et al., 2009).

9 En el ámbito de la relación entre IA y derecho es importante conocer el concepto de “web semántica”, que consiste en una serie de lenguajes distribuidos por capas que permiten la gestión de los objetos de conocimiento y su tratamiento como datos, a partir de lenguajes de anotación semántica (Casanovas, 2015). En este sentido, este autor refiere que son las ontologías jurídicas —las estructuras editadas que delimitan el alcance de los conceptos, relaciones e instancias de un campo del derecho— las que permiten que los programas lo extiendan y apliquen a partir de inferencias consideradas válidas o razonables.

10 Esta problemática está ligada al valor que tienen los datos, la redefinición de su propiedad, sus límites de uso, la protección de la privacidad de los usuarios, y controlar tanto el comportamiento predatorio como las amenazas a la privacidad (Hendler y Berners-Lee, 2010).

* Profesor-investigador de tiempo completo en la Universidad Autónoma del Estado de Morelos, México; miembro del Sistema Nacional de Investigadores, nivel 1, del Conacyt. Correo electrónico: juan.gomezr@uaem.edu.mx; ORCID: https://orcid.org/0000-0002-1612-2542.