logo logo

NeuroDerechos Humanos y Neuroabolicionismo Penal:
Comentarios críticos frente a la neuropredicción
y la detección de mentiras

NeuroRights and Penal Neuroabolitionism: Critical
comments on neuroprediction and lie detection

Recepción: 5 de octubre de 2021

Diego Borbón*
Luisa Borbón**

Abstract: This article critically addresses the convenience of creating new human neurorights to address the use of neuroprediction and lie detection technologies in penal systems. On this point, it is argued that neurorights could be conceptually problematic, or offer less protection than the one that can be extended by better interpretations of current fundamental rights and the constitutional principles of criminal law. The article ends by formulating a new critical proposal to limit neurotechnolo gy and propose the abolition of criminal law; we have called this proposal “penal neuroabolitionism”.


Keywords: neurorights, crminal law, neuroprediction, lie detection, neurolaw, penal abolitionism.

Aceptación: 9 de enero de 2022

Resumen: En este artículo se aborda de manera crítica la conveniencia de crear nuevos neuroderechos humanos para enfrentar el uso de las tecnologías de neuropredicción y de detección de mentiras en materia penal. Sobre dicho punto, se argumenta que los neuroderechos podrían ser conceptualmente problemáticos, u ofrecer una protección menor de la que puede extenderse por mejores interpretaciones de los actuales derechos fundamentales y los principios constitucionales del derecho penal. El artículo finaliza formulando una nueva propuesta crítica para limitar definitivamente los usos indignos de la neurotecnología y plantear la abolición del derecho penal; a esta propuesta la hemos denominado “neuroabolicionismo penal”.


Palabras clave: neuroderechos, derecho penal, neuropredicción, detección de mentiras, neuroderecho, abolicionismo penal.

Sumario: I. Introducción. II. Neuropredicción y detección de mentiras con neurotecnologías. III. Neuroderechos de cara a la neuropredicción y la detección de mentiras. IV. El caso en contra de los neuroderechos. V. Derechos fundamentales y principios constitucionales del derecho penal. VI. El neuroabolicionismo penal como una alternativa humanista.VII. Conclusiones. VIII. Referencias bibliográficas.

I. Introducción

El estudio del encéfalo humano es uno de los retos más grandes e importantes para la ciencia contemporánea. Sin lugar a dudas, la investigación científica en esta materia puede traer innumerables aportes a la salud pública y al bienestar general de las personas; no obstante, con el avance neurotecnológico y de la inteligencia artificial, han sobrevenido varios retos éticos que constituyen potenciales riesgos a los derechos fundamentales de las personas.


Por esta razón, desde 2017 se creó un innovador marco de discusión para proteger a las personas de potenciales usos abusivos de las neurotecnologías: los neuroderechos humanos. A partir de los avances en los foros de neuroética, los investigadores Marcello Ienca y Roberto Andorno (2017) publicaron el artículo seminal “Towards New Human Rights in the Age of Neuroscience and Neurotechnology”, en él proponen la creación de cuatro específicos neuroderechos humanos: derecho a la libertad cognitiva, derecho a la privacidad mental, derecho a la integridad mental y derecho a la continuidad psicológica. Con ello, los investigadores se proponen prevenir consecuencias no deseadas del avance neurotecnológico.


Unos meses más adelante, Rafael Yuste, Sara Goering y todo su equipo (2017) publican el artículo “Four Ethical Priorities for Neurotechnologies and AI”, donde levantan las alarmas por los retos éticos que sobrevienen en áreas como la privacidad, el consentimiento, la mejora cognitiva, la identidad personal y los sesgos de algoritmos de inteligencia artificial. Los autores, en esa misma dirección, recomiendan “agregar cláusulas que protejan tales derechos («neuroderechos») a los tratados internacionales, como la Declaración Universal de Derechos Humanos de 1948” (Yuste et al., 2017: 162).


Más adelante, la Neurorights Initiative (NRI), o Iniciativa de los Neuroderechos, fue creada por el Centro de Neurotecnología de la Universidad de Columbia en 2019, bajo el liderazgo de Rafael Yuste. Hoy se conoce como The NeuroRights Foundation. Dicha iniciativa promueve la creación de cinco neuroderechos: derecho al libre albedrío, derecho a la privacidad mental, derecho a la identidad personal, derecho al acceso equitativo a tecnologías de aumento mental y el derecho a la protección contra sesgos de algoritmos de inteligencia artificial (NeuroRights Initiative, 2021).


La acogida de esta iniciativa ha sido tal que Chile se ha convertido en el primer país del mundo en incorporar estos nuevos neuroderechos, tanto a su Constitución, como en toda su legislación nacional. En efecto, el pasado ١٢ de abril de ٢٠٢١ el congreso chileno aprobó el texto definitivo que modifica el artículo ١٩ de la Constitución, refrendando los derechos a la integridad física y mental, protegiendo la actividad cerebral y sus datos (NeuroRights Initiative, ٢٠٢١). Por otra parte, está siendo discutido un proyecto de ley de “neuroprotección” cuyo propósito es el de “regular satisfactoriamente el contenido de la reforma constitucional que consagra la protección de la integridad y la indemnidad mental en relación con el avance de las neurotecnologías” (Senado de Chile, ٢٠٢٠), desarrollando legislativamente los neuroderechos.


Estas discusiones son relevantes al enfrentarlas con los retos concretos que proponen actualmente las neurotecnologías, en caso de ser empleadas en los sistemas de justicia, en especial en materia penal y sancionatoria. El derecho penal, como un mecanismo de control social formal, “conserva siempre una intrínseca brutalidad que hace problemática e incierta su legitimidad moral y política” (Ferrajoli, 1995: 21), aun estando rodeada de límites y garantías, ve esa carencia de legitimidad exacerbada si se permite el empleo de tecnologías que atentan contra los principios, derechos y garantías ya consolidadas. En especial, como veremos más adelante, tecnologías de “neuropredicción” o de detección de mentiras, atentarían directamente contra derechos fundamentales como el derecho a la no autoincriminación, debido proceso, defensa, contradicción, presunción de inocencia, dignidad humana, contra el principio de derecho penal de acto y no de autor, y el principio de culpabilidad.


Este artículo busca responder si la creación de neuroderechos es la mejor forma de regular la neuropredicción y la detección de mentiras en materia penal. Utiliza una metodología de investigación jurídica documental, mediante el análisis de fuentes secundarias académicas, como artículos, libros, estudios, investigaciones empíricas, y demás, para arrojar una perspectiva y reflexión propia. Se concluye señalando la posibilidad de que los neuroderechos no sean la mejor manera para regular el avance tecnológico, formulando al neuroabolicionismo penal como una alternativa viable desde el humanismo para frenar este tipo de usos tecnológicos por parte del Estado.


En esta ocasión, entonces, nos proponemos abordar los retos éticos que provienen del uso de neurotecnologías en materia penal, concretamente en la evaluación de riesgos y la detección de mentiras. Para ello, abordamos la definición, alcances y retos ético jurídicos provenientes de la utilización de la denominada “neuropredicción”, así como de la detección de mentiras con el empleo de neurotecnologías. Posteriormente, analizamos cómo los neuroderechos podrían crear una barrera de contención contra estos dos usos éticamente cuestionables de las neurotecnologías. El anterior punto lo contrastaremos con la necesidad de crear nuevos derechos humanos o no, considerando la posibilidad de que los actuales derechos fundamentales y los principios constitucionales del derecho penal ya podrían presentar límites jurídicos suficientes, por lo que los neuroderechos podrían ser jurídicamente innecesarios.


Una vez estudiados estos problemas, concluimos que, en efecto, es posible que la creación de nuevos derechos humanos (neuroderechos) sea redundante, y resulte superflua en la protección efectiva de las garantías de las personas que son investigadas y procesadas penalmente. Más aún, los neuroderechos podrían reducir el ámbito de protección de los derechos y garantías actuales, pues su interpretación puede resultar menos favorable para el procesado. Consecuentemente, hacemos un llamado enfático para capacitar a los operadores de justicia frente a los riesgos de las neurotecnologías, así como también difundir estos debates con aquellos encargados de las políticas públicas y legislativas. Consideramos, en esa dirección, la necesidad de promover debates y consensos internacionales para limitar concreta, exhaustiva y efectivamente, el avance de las neurotecnologías, para compatibilizar su desarrollo con los valores del constitucionalismo contemporáneo y la dignidad humana como pilar fundamental de nuestras sociedades globales.


El artículo finaliza con la formulación de una nueva propuesta crítica para limitar la neurotecnología y plantear la abolición del derecho penal; a esta propuesta la hemos denominado “neuroabolicionismo penal”. Desde este punto de vista, el humanismo como base, y la filosofía de las ciencias como fundamento, es posible construir una nueva propuesta para reducir el dolor impuesto mediante mecanismos brutales de control social, como lo es el derecho penal. En adelante, debe interpretarse a la ciencia como una herramienta que puede ser aliada para lograr la abolición del derecho penal, el cual también se erige como una barrera de contención del poder estatal para limitar con vehemencia el ámbito de acción del Estado en la prohibición de emplear neurotecnologías en contra de sus ciudadanos.

II. Neuropredicción y detección de mentiras
con neurotecnologías

El derecho no ha permanecido ajeno al exacerbado avance de las neurotecnologías. Uno de los derivados de esta interacción es el campo del neuroderecho, que pretende indagar cuándo, cómo y si deben incorporarse o no las ciencias del cerebro dentro de los procedimientos judiciales (Petoft, 2015). En esta materia, numerosos aspectos del derecho penal se verían afectados por métodos para la prognosis de la reincidencia mediante tecnologías de neuropredicción y técnicas encaminadas a la detección de mentiras (Julià, 2019). A continuación, se abordarán sumariamente estas dos aplicaciones, junto a los retos que plantea su utilización en el ámbito penal.


En primer lugar, la neuropredicción comprende el uso de variables estructurales o funcionales del encéfalo para realizar cualquier tipo de predicción, incluidos los pronósticos médicos y comportamentales (Morse, 2015). Este campo ha tomado fuerza en materia penal para la tarea de evaluación de riesgo, puesto que las herramientas actuales que utilizan análisis estadístico (por ejemplo, regresión, algoritmos de evaluación de riesgos) no logran proporcionar una estimación probabilística efectiva de la reincidencia, en especial para predicciones a largo plazo. Debido a esto, en los últimos años, nuevas neurotecnologías, junto con algoritmos de inteligencia artificial, se están utilizando para mejorar la precisión de las herramientas de evaluación de riesgos (Tortora et al., 2020).


Uno de los primeros pasos hacia la neuropredicción usando imágenes neuronales fue dado por Aharoni y su equipo, quienes en 2013 utilizaron datos de resonancia magenética funcional (fMRI) para predecir la reincidencia. En su investigación compararon los datos de 96 prisioneros y lograron relacionar la baja activación en la corteza cingulada anterior dorsal (dACC) (región del cerebro asociado con el control de impulsos y el procesamiento de errores), durante una tarea de control motor, con la reincidencia. De esta forma, una baja actividad cingulada anterior podría ser considerado un marcador neurocognitivo del comportamiento criminal asociado a la impulsividad (Aharoni et al., 2013).


A partir de ahí, varios investigadores han intentado mejorar los modelos predictivos, encontrando nuevos marcadores para la reincidencia delictiva y variando las técnicas utilizadas. Por ejemplo, se encontraron mejoras en la precisión del modelo al agregar medidas neuronales asociadas a la edad del cerebro (Kiehl et al., 2018), o incluir datos de neuroimagen en la predicción mediante la inclusión de mediciones del flujo sanguíneo cerebral regional en estado de reposo (rCBF) (Delfin et al., 2019). Sorprendentemente, varias de estas herramientas que incorporan software de machine learning ya se han utilizado en contextos profesionales para apoyar decisiones judiciales en Estados Unidos, incluidos programas de rehabilitación penitenciaria, evaluación de riesgos antes del juicio y sentencia (Kehl et al., 2017; Tortora et al., 2020).


Como lo mencionamos en Borbón (2022), la neurocriminología ha identificado déficits estructurales y funcionales en regiones frontales, temporales y subcorticales, así como disfunciones verbales, espaciales y ejecutivas en la conducta antisocial, y estos hallazgos están ampliamente respaldados por estudios neurológicos de trauma cerebral (Bellesi et al., 2019; Katzin et al., 2020). Este tipo de resultados empíricos podrían servirles a los algoritmos de neuropredicción para procurar identificar los neuromarcadores que influyen en la conducta desviada y antisocial, intentando una predicción de violencia o de reincidencia.


Los investigadores Ruiz y Muñoz (2021) reseñan, en un reciente artículo, que la neuropredicción implica la búsqueda de posibles marcadores a través de varios métodos neurocientíficos como los siguientes:


Pues bien, paralelamente a los avances en la neuropredicción de reincidencia, se ha estado explorando exhaustivamente el uso de neurotecnologías para la detección de mentiras. Tradicionalmente se utilizó el polígrafo para medir cambios fisiológicos en la conductancia de la piel, la presión arterial, la frecuencia cardíaca y/o respiración, éstos asociados con el engaño. Ahora bien, estas alteraciones fisiológicas típicas como signos de nerviosismo, miedo y alteraciones emocionales pueden ocurrir por otro tipo de estímulos diferentes a decir mentiras. Es decir, el polígrafo no detecta mentiras como tal, sino que mide respuestas fisiológicas que presuntamente se asocian con el engaño, y, por tanto, la fiabilidad en este tipo de dispositivos no es tan alta como se pretende (Vicianova, ٢٠١٥).


De esta forma, los esfuerzos recientes para detectar mentiras se han centrado en medidas cerebrales, con la idea de que estas puedan ser más confiables que las respuestas fisiológicas en otras partes del cuerpo. Algunos estudios iniciales utilizaron herramientas como la tomografía por emisión de positrones, medidas de electroencefalografía (EEG) en el cuero cabelludo e imágenes de espectroscopia funcional del infrarrojo cercano (fNIRS) (Farah et al., 2014). A pesar de esto, la mayoría de los intentos de imágenes funcionales para discriminar la mentira de la verdad se han hecho utilizando la resonancia magnética funcional (fMRI).


La fMRI para la detección del engaño se hace mediante una técnica estándar a la que se le llama imagen de contraste dependiente del nivel de oxígeno en la sangre (BOLD). Para que una región del cerebro pueda activarse, recibe un flujo de sangre oxigenada que se desoxigena para permitir el consumo de energía en las neuronas, por tanto, un escáner de resonancia magnética funcional permite observar cómo se activan ciertas zonas del cerebro ante un estímulo específico (que bien podría ser una imagen de la escena del crimen). Posteriormente, para garantizar una respuesta acertada, se realizan análisis estadísticos sofisticados que correlacionan los cambios en la reconstrucción tridimensional del cerebro con una activación de las regiones estudiadas (Greely e Illes, 2007; Norman et al., 2006).


Otras técnicas, por ejemplo, utilizan la tecnología de electroencefalografía para detectar ciertos potenciales eléctricos, como el potencial evocado P300. Esta técnica neurofisiológica ha sido ampliamente documentada, y en ocasiones ha permitido alcanzar un 86% de detección correcta (Abootalebi et al., 2009).


El uso de fMRI para la detección del engaño no se quedó solo en la academia, sino que compañías como Cephos Corporation y No Lie MRI comenzaron a prestar este servicio comercialmente al público en ٢٠٠٦. A pesar de eso, Cephos suspendió su servicio después de que se dictaminó en ٢٠١٠, frente a un tribunal federal, que dicha tecnología no sería permitida puesto que no podía ser validada (Greely, ٢٠٠٩; Lowenberg, ٢٠١٠).


Ciertamente, los avances en las técnicas de neuropredicción y detección de mentiras con neurotecnologías podrían hipotéticamente brindar herramientas para apoyar la toma de decisiones judiciales, mejorar la prevención del delito y garantizar la seguridad ciudadana; pero a su vez, plantean numerosos retos éticos que obstaculizan su implementación (Coronado, 2021).


En primer lugar, se conocen casos en los que los algoritmos de inteligencia artificial han presentado sesgos asociados a respuestas que discriminan a los usuarios y atentan contra su integridad. Estos casos han sido numerosos y diversos a lo largo de la historia, relacionados a intereses corporativos, discriminación de género, sexual, racial o étnica, entre otros. Por ejemplo, un algoritmo de inteligencia artificial de Amazon (AMZN.O) desarrollado para filtrar solicitudes de empleo, estaba sesgado en contra de las mujeres, dando prioridad a las hojas de vida de aplicantes masculinos (Dastin, 2018). Asimismo, en 2013 se demostró un sesgo en las búsquedas de Google asociadas a los nombres de personas afroamericanas, en el cual eran más proclives a obtener resultados relacionados con arrestos, independientemente de si estos tenían o no un registro policial para individuos con ese nombre (Sweeny, 2013).


Además de esto, ya se ha demostrado que los métodos de predicción para la reincidencia tampoco están exentos de sesgos. ProPublica, una organización sin ánimo de lucro dedicada al periodismo de investigación, analizó evaluaciones de riesgo del software COMPAS para más de 10,000 personas, encontrando que éste tenía prejuicios raciales (Angwin et al., 2016). Dicho algoritmo, que es empleado ampliamente en Estados Unidos para predecir la probabilidad de reincidencia criminal, predijo que los afroamericanos tenían una probabilidad del doble que los blancos al ser clasificados como alto riesgo sin llegar realmente a reincidir (Spielkamp, 2017).


Cabe resaltar de esta forma que, aunque con las neurotecnologías y los algoritmos de inteligencia artificial se pretenda dar respuestas más objetivas, acertadas y rápidas a los problemas, aún están lejos de ser perfectas. Además de esto, siguen estando abiertas a la subjetividad de quien interpreta los resultados obtenidos. Consecuentemente, se tendrían que establecer prácticas estandarizadas para el uso e interpretación de los resultados de las nuevas neurotecnologías, que garantizarán un trato justo en los diferentes tribunales (lo cual no es una tarea trivial). En el caso de la neuropredicción para la reincidencia, por ejemplo, si la respuesta es una probabilidad, se tendría que establecer un umbral de aceptación a partir del cual tomar acciones legales contra el individuo.


Por su parte, en el caso de la detección de mentiras utilizando neuroimágenes ocurre algo similar en cuanto aún se tienen muchas incógnitas sobre la interpretación de los resultados. A pesar de que se pueda conocer información sobre la activación de una zona del cerebro al presentar un estímulo, esta actividad podría asociarse a un recuerdo o asociación diferente al que interpreta quien realiza la evaluación de la prueba. No es una tarea fácil determinar que, de cierta activación neuronal, alguien está diciendo algo que pueda catalogarse de manera absoluta como una mentira, pues los pensamientos y las memorias están conectadas entre sí, y la activación de estas estructuras podría implicar muchísimas otras causas distintas al supuesto de hecho difícilmente individualizable de “decir mentiras”.


Esto recuerda al problema difícil de la consciencia (hard problem of consciousness), el cual implica el abismo que impide explicar las características cualitativas y subjetivas de una persona y su comportamiento solo a partir de neuroimágenes o datos provenientes de su encéfalo. La experiencia individual y la consciencia son, irreduciblemente, subjetivas y no es posible acceder a ellas, por lo menos no a sus características cualitativas (qualia) desde la perspectiva de un tercero, ni mucho menos empleando neuroimágenes. Si bien es cierto que la neurociencia contemporánea ha logrado, con más o menos satisfacción, identificar ciertas áreas neuronales y conexiones, con correlatos comportamentales, no deja de ser menos cierto que todo encéfalo es distinto, asimismo, de que una neuroimagen arroje un determinado resultado, no se sigue que este dato pueda extrapolarse a toda la población.


Otro problema ético se refiere a la privacidad mental de los agresores. Aunque todavía no está del todo claro cómo el cerebro se vincula exactamente con el comportamiento, se puede afirmar que los procesos cerebrales son parte de la identidad individual. Por tanto, revelar los correlatos neurales de los pensamientos individuales y los sentimientos, tanto conscientes como inconscientes, pueden verse como una intrusión en la intimidad. Las violaciones a la libertad serían aún más evidentes en los usos hipotéticos de la neuropredicción para sentencias o con fines punitivos, ya que los infractores podrían verse obligados a someterse a escáneres cerebrales sin su consentimiento. ¿Se debería forzar a los posibles infractores de la ley a pruebas de neuroimagen en contra de su voluntad, con el pretexto de la seguridad ciudadana? (Coppola, 2018).


Más aún, si estos datos mentales usados para predecir la reincidencia o la detección de mentiras se utilizan de forma incorrecta podrían dificultar la integración de los pospenados en la sociedad. Clasificar a las personas según neuroimágenes cerebrales que determinan si representan un riesgo para la sociedad o no, podría llevar fácilmente a la estigmatización y efectos discriminatorios en otros aspectos de la vida del individuo. Por ejemplo, las compañías de seguros o los reclutadores de empleo podrían utilizar esta información de riesgo como un factor para excluir a dichos individuos (Tortora et al., ٢٠٢٠).


En la actualidad el uso de neurotecnologías en el ámbito judicial sigue siendo visto con escepticismo, pero a medida que dichos avances se popularizan, podría darse el caso contrario en el cual se recaiga excesivamente en la tecnología para la toma de decisiones. En dicho caso, la confianza desmesurada en las neurotecnologías podría sesgar las decisiones judiciales. Valdría la pena preguntarse, por ejemplo, en el caso de que el algoritmo y la evidencia se contrarresten, ¿qué resultado primaría y cómo se debería abordar dicha decisión?


La dependencia excesiva en las nuevas tecnologías también podría sobresimplificar los procesos jurídicos, si se llegara a recaer solamente en las respuestas de los algoritmos o neuroimágenes en lugar de evidencia y razones fundamentadas. ¿Sería razonable enviar a la cárcel a una persona exclusivamente porque el algoritmo así lo indica? Al proceder de esta manera se estaría yendo en contra de los derechos del acusado, tales como el derecho a la defensa, a la contradicción, al debido proceso y la presunción de inocencia. De esta forma, para evitar una dependencia excesiva e irracional en los sistemas de IA., así como afirma Tortora et al. (2020), estos deben ser lo suficientemente transparentes para poder explicar a las partes interesadas cómo y sobre qué base producen sus resultados.


Nuevamente, todas estas preguntas nos invitan a cuestionar cuál será el rol de las nuevas neurotecnologías en los juzgados y qué peso deberían tener sobre las decisiones judiciales. Parafraseando las ideas de Greely (2009), el verdadero desafío no será poder realizar predicciones acertadas en el futuro o detectar con precisión una mentira, sino decidir cuándo y cómo hacer uso de dichas neurotecnologías.


Además, debe ponerse a consideración la probabilidad de que la respuesta del algoritmo pueda influenciar el comportamiento y experiencia subjetiva de la persona a la cual se le hace la evaluación de riesgo. A este fenómeno se le llama negative “self-fulfilling prophecy”, y hace referencia a que la información proporcionada del riesgo a la reincidencia podría aumentar la probabilidad de que estas personas actúen conforme al veredicto de la neurotecnología (Tortora et al., 2020). De esto se deriva que la forma en que se entregue la información resultante de los análisis con neuroimágenes o algoritmos de inteligencia artificial es altamente sensible y debe requerir de investigación y regulaciones ético legales. Etiquetar a una persona como “peligrosa” podría implicar su misma convergencia con dicha etiqueta, derivando en un cambio comportamental pues ha interiorizado que su “rol”, supuestamente comprobado por neurotecnologías, es ser una persona “peligrosa” y con riesgo de cometer actos violentos o reincidir en la delincuencia.


Finalmente, el uso de estas neurotecnologías no sólo trae consigo los retos éticos mencionados anteriormente, sino que atentarían directamente contra los derechos individuales del procesado, por ejemplo, el derecho a la no autoincriminación, la presunción de inocencia, el debido proceso, defensa y contradicción, el principio de derecho penal de acto y no de autor, de culpabilidad y la proscripción de la responsabilidad objetiva. También podría afirmarse, como lo mencionan Nadelhoffer et al. (2012), que estarían yendo en contra del derecho a rechazar tratamiento médico, en cuanto muchas de las técnicas que involucran las neurotecnologías requieren de una intervención quirúrgica o médica para su implementación.

III. Neuroderechos de cara a la neuropredicción
y la detección de mentiras

Frente a estos retos que presentan las técnicas de neuropredicción y detección de mentiras, es posible vislumbrar la utilidad hipotética y en abstracto que los neuroderechos podrían ofrecer como una barrera de contención para preservar valores superiores de orden constitucional. En ese sentido, neuroderechos como la libertad cognitiva, mal llamada libre albedrío, la privacidad mental y la protección contra sesgos, permitiría limitar, con una adecuada interpretación, el avance de estas tecnologías.

1. Libertad cognitiva o libre albedrío

En el artículo “Towards New Human Rights in the Age of Neuroscience and Neurotechnology”, Ienca y Andorno (2017) proponen la creación de un neuroderecho a la libertad cognitiva, que entendieron como un complejo derecho que involucra libertades negativas y positivas (Ienca, 2021). Para nuestro análisis resulta especialmente relevante la faceta negativa de la libertad cognitiva que comprendería la protección de las personas contra el uso coercitivo y sin consentimiento de neurotecnologías (Bublitz, 2013). En esta dirección, para Sententia (2004), el papel del Estado, el derecho penal, la ciencia y la ética deben limitarse y guiarse por principios que maximicen las oportunidades para que cada individuo se determine por sí mismo.


Consideramos que este podría ser un concepto clave para limitar directamente el uso coercitivo de tecnologías como la neuropredicción o la detección de mentiras con neurotecnologías. En esta dirección, dentro de los ya reconocidos derechos fundamentales de libertad y autodeterminación, los ciudadanos podrían contar con una protección expresa frente al uso no consentido de tecnologías. Así las cosas, una interpretación rígida y fuerte del derecho a la libertad cognitiva podría comprender una prohibición absoluta de que el Estado irrumpa en el encéfalo de las personas que libremente deciden rehusarse al uso de estas tecnologías en su contra. En ese camino, consideramos que este debe ser el sentido a otorgar a dicho neuroderecho, de lo contrario, no amparar la protección contra el uso no consentido de neurotecnologías por parte del Estado terminaría por crear un derecho inocuo sin mayor protección en materia penal.


De cualquier manera, surge el inconveniente del carácter relativo de este y otros neuroderechos. Ienca y Andorno (2017) sugieren que la incorporación de los neuroderechos no implica ipso facto su carácter absoluto. Este debate lo enmarcan, especialmente para el caso de la llamada “mejora moral” o moral enhancement. Este concepto implica la utilización consensuada, e incluso coercitiva, para intervenir en el encéfalo de personas que han infringido la ley penal, con el fin de modificar ciertos rasgos comportamentales. En este caso, si bien Ienca y Andorno (2017) no optan por tomar una decisión definitiva sobre su permisibilidad, sí hacen entender que los neuroderechos no necesariamente protegerían a los ciudadanos frente al uso de estas tecnologías por parte del Estado, en nombre del interés general.


En ese sentido, la libertad cognitiva podría ceder y ser, en la práctica, un derecho pisoteado en nombre de las finalidades preventivo negativas y otras aparentemente “resocializadoras” del derecho penal. Esto se convierte en un gran riesgo porque si los promotores de las iniciativas de los neuroderechos no toman posiciones fuertes para frenar la posibilidad de que el Estado utilice neurotecnologías en contra de sus ciudadanos, los neuroderechos tendrían poco impacto en la protección real de los individuos.

2. Privacidad mental

Para Marcello Ienca y Roberto Andorno (2017) la infoesfera actual es más intrusiva que en cualquier otro momento de la historia. Frente a ello, la privacidad mental denota el derecho de las personas frente a la intrusión no consentida de terceros en sus datos cerebrales, así como contra la recopilación no autorizada de esos datos (Ienca y Andorno, 2017; Ienca, 2021). Para la NeuroRights Initiative (2021), todos los datos obtenidos de la medición de la actividad neuronal deben mantenerse privados; la venta, la transferencia comercial y el uso de datos neuronales deben estar estrictamente regulados.


Es imperativo señalar que, debido a que estos conceptos aún no han sido interpretados o incorporados rígidamente en los ordenamiento jurídicos nacionales e internacionales, las propuestas de neuroderechos pueden tener amplias interpretaciones. De estas, Ienca y Andorno (2017) plantean algunos debates frente a la relativización de los derechos, especialmente cuando los intereses generales pueden estar por encima de los individuales. De esa manera, con relación al derecho penal, Ienca y Andorno (2017) plantean:


...los derechos de privacidad no son absolutos, sino relativos. La recopilación, uso y divulgación de información privada está permitida cuando el interés público está en juego. Por ejemplo, en muchas jurisdicciones, se pueden realizar pruebas genéticas obligatorias para intentar identificar a los delincuentes. Teniendo en cuenta la naturaleza no invasiva e indolora de los escáneres cerebrales, existen buenas razones prima facie para pensar que su uso no consensual estaría justificado, con una orden judicial, en circunstancias especiales cuando existen motivos razonables para creer que una persona ha cometido un delito grave o está involucrado en la planificación de un delito grave.


Estos mismos autores reconocen que para interpretar este derecho se debería hacer uso de otros ya existentes, en específico, el derecho a la no autoincriminación. Si bien se podría pensar que quizás se prohibiría con esto la detección de mentiras con neurotecnologías, no queda tan claro si ello comprende la protección de los recuerdos, memorias, intenciones, emociones y demás. Esto en el entendido de que, por ejemplo, las neuroimágenes podrían vislumbrar si una persona, mediante la activación de ciertas áreas de su encéfalo, pudo haber estado en la escena de un crimen o no, por los recuerdos asociados. Tampoco queda claro si este neuroderecho pudiera proteger frente a tecnologías como la neuropredicción, ya que, en estricto sentido, la persona no está declarando contra sí mismo; a pesar de que dicha información puede ser utilizada en su contra para generar o prolongar un periodo de encarcelamiento.


Lo cierto es que estamos viviendo en una época donde es cada vez más claro que nuestra privacidad como individuos se ve amenazada. Los algoritmos de inteligencia artificial en redes sociales pueden, en esencia, “saber” más de nosotros mismos que cualquier otro ser humano, a saber: nuestros gustos, preferencias, conversaciones, ideologías y demás. Ahora bien, teniendo en cuenta que también los Estados alrededor del mundo utilizan la información disponible en Internet para mantener esquemas de vigilancia, los datos cerebrales plantean la frontera final para acceder directamente a datos aún más íntimos, lo que podría profundizar los perfiles de datos personales ya robustos (Goering et al., 2021). Es por eso que Sara Goering y su equipo de investigadores, que incluye a Rafael Yuste, publicaron recientemente un artículo sobre recomendaciones para el desarrollo responsable de neurotecnologías, donde aconsejan la incorporación del neuroderecho a la privacidad mental que comprenda:


En primer lugar, las personas tienen un derecho estricto a no verse obligadas a tener datos cerebrales o códigos escritos en ellos. En segundo lugar, las personas tienen un derecho estricto a no verse obligadas a ceder datos cerebrales. En tercer lugar, las personas tienen derecho a la restricción de la transferencia comercial y el uso de sus datos cerebrales, de modo que se prohíbe la lectura y escritura comerciales de datos cerebrales (independientemente del estado de consentimiento), dependiendo de qué información esté contenida (o podría inferirse) de esos datos (Goering et al., 2021).


Consideramos que el derecho a la privacidad mental debería comprender una protección rígida frente al poder coercitivo del Estado. En este sentido, para el proceso penal no deberían utilizarse las neurotecnologías en contra de los procesados. Las tecnologías de neuropredicción en la evaluación de riesgos o la detección de mentiras con neurotecnologías, serían contrarios a este derecho pues la persona debe tener la facultad de proteger sus datos neuronales, y con ello, el contenido íntimo de su propia mente. No debería ser posible, entonces, que en nombre del “interés general” se permitiera al Estado invadir hasta el más preciado rincón de nuestra mente.

3. Protección contra sesgos de algoritmos
de inteligencia artificial

Siguiendo a Yuste et al. (2017), cuando las decisiones científicas o tecnológicas se basan en un conjunto limitado de conceptos y normas sistémicas, estructurales o sociales, la tecnología resultante puede privilegiar a ciertos grupos y dañar a otros. En ese sentido, los sesgos podrían eventualmente impactar los algoritmos de inteligencia artificial y las neurotecnologías. Así las cosas, el neuroderecho de protección contra sesgos en IA implica que las contramedidas para combatir los sesgos deberían ser la norma; el diseño del algoritmo debe incluir información de los grupos de usuarios para abordar fundamentalmente los sesgos (NeuroRights Initiative, 2021).


En esa dirección, el neuroderecho contra la protección de sesgos algorítmicos es fundamental para garantizar un juicio justo, tanto en la neuropredicción de la reincidencia como en la detección del engaño con neuroimágenes. Como se mencionó en el apartado sobre dichas tecnologías, los casos de sesgo en la actualidad no son escasos. En términos generales, el sesgo puede ocurrir cuando las decisiones científicas o tecnológicas se basan en datos, metodologías, valores o conceptos limitados. Así, sin una consideración cuidadosa, los sesgos pueden llegar a excluir, oprimir o denigrar a los grupos de poblaciones minoritarias o vulnerables (Goering et al., 2021).


Debido al impacto y la atención que han tenido en los medios y la academia, en la actualidad se han estado desarrollando herramientas para combatir los sesgos como FairML (Adebayo, 2016), la AI Fairness 360, de IBM (Varshney, 2018); Fairlearn, de Microsoft (Bird, 2020), entre otros. Así como manuales de buenas prácticas como los estándares del Instituto de Ingeniería Eléctrica y Electrónica (IEEE, por sus siglas en inglés) que se enfocan específicamente en evitar sesgos en los diferentes sistemas tecnológicos (Koene, 2017). A pesar de que se están haciendo avances significativos al respecto, con la incorporación de la inteligencia artificial a nuevas neurotecnologías pueden surgir sesgos que aún no estén cubiertos por las estrategias o regulaciones existentes (Goering et al., 2021).


En este sentido, instaurar un derecho específicamente designado para la protección contra los sesgos algorítmicos permitiría, no solo proteger a los usuarios de las neurotecnologías, sino trazar una línea base sobre la cual construir mejores sistemas tecnológicos. La NeuroRigths Initiative (2021) establece como norma de partida la inclusión de información de los grupos de usuarios para abordar el sesgo. Esta medida es precisa puesto que la mayoría de los sesgos se introducen como resultado de propios sesgos humanos en los datos de entrenamiento de la inteligencia artificial. Es por eso que garantizar que los datos de entrenamiento sean imparciales debe ser la máxima prioridad al implementar herramientas de evaluación de riesgos y sistemas artificialmente inteligentes.

IV. El caso en contra de los neuroderechos

Ciertamente hay algo en lo que todos deberían estar de acuerdo: debemos actuar para establecer límites éticos y jurídicos al avance tecnológico. Pero, como es de resaltar, el diablo está en los detalles, en las formas y en los fines. Los neuroderechos, por más disruptivos e innovadores que puedan parecer, quizás no sean la mejor manera de limitar las neurotecnologías. En efecto, algunos de los inconvenientes que pueden surgir los hemos venido mencionando, pero debemos especificarlos.

1. Definición de los neuroderechos

Al contrario de los ya establecidos derechos humanos y derechos fundamentales, los neuroderechos no han recibido ninguna interpretación concreta por parte de tribunales de justicia, y a duras penas se han intentado definir en la Ley de Neuroprotección de Chile. Esto presenta un inconveniente en el entendido de que ni siquiera los foros académicos se han puesto de acuerdo en cuáles son los neuroderechos a promover, ni su contenido material o conceptual.


En esa dirección, vislumbramos la existencia de dos grandes propuestas de neuroderechos: la inicial de Marcello Ienca y Roberto Andorno (2017), y la subsecuente de Rafael Yuste, Sara Goering y otros autores (2017), que terminó en la consolidación de la más influyente, la de The NeuroRights Foundation. Así las cosas, la fundacional de Ienca y Andorno (2017) propone los neuroderechos a la libertad cognitiva, privacidad mental, integridad mental y continuidad psicológica. Por otra parte, la de la NeuroRights Initiative (2021) comprende los derechos al libre albedrío, la privacidad mental, identidad mental, acceso equitativo a tecnologías de mejora, y protección contra sesgos algorítmicos.


Varias de las categorías conceptuales utilizadas por ambas propuestas remiten a discusiones especializadas de disciplinas y corrientes filosóficas, bioéticas, neuroéticas, médicas, entre otras. Esto puede explicarse en el entendido de que la propuesta de crear nuevos neuroderechos humanos no proviene del derecho, sino, principalmente, de las discusiones neuroéticas y científicas.


En primer lugar, el concepto de “libre albedrío” remite a una complejísima discusión filosófica sobre la definición de éste, que es diametralmente lejano a cualquier referencia sobre el consentimiento informado, que sería lo que realmente pretende proteger la NeuroRights Initiative (Borbón y Borbón, 2021). Desde la filosofía se discuten dos principales posiciones frente al libre albedrío: el compatibilismo y el incompatibilismo. Mientras que la primera postura afirma la compatibilidad entre el determinismo y el libre albedrío, la segunda niega la posibilidad de que, en un universo determinista, o incluso indeterminista, el libre albedrío pueda metafísicamente existir (Muñoz, ٢٠١٢; Harris, ٢٠١٢; McKenna y Pereboom, ٢٠١٦).


Estas discusiones nos remiten a profundos e inconclusos debates metafísicos que llevan más de dos milenios en pugna, por lo que elevar el “libre albedrío” a categoría de derecho humano, es, cuanto menos, problemático conceptualmente. Lo anterior aunado a lo paradójico que resulta ser que se cree un neuroderecho al libre albedrío, cuando la misma neurociencia parece poner en la cuerda floja a este concepto, o lo ha intentado negar con los experimentos propuestos (Libet et al., 1983; Haggard y Eimer, 1999; Soon et al., 2008; Fried et al., 2011; Soon et al., 2013; Borbón y Borbón, 2021). Teniendo esto claro, debe usarse con precaución un concepto como este (Muñoz, 2019), siendo deseable no incorporarlo siquiera como categoría de derecho humano (Borbón et al., 2020; Borbón y Borbón, 2021).


Por su parte, la libertad cognitiva también tiene una tremenda carga filosófica y nos remonta a discusiones neuroéticas igual de complejas. En palabras sencillas, la libertad cognitiva, como habíamos señalado antes, se refiere al derecho de los individuos a usar neurotecnologías emergentes y a protegerse de usos coercitivos o no consentidos (Ienca y Andorno, 2017). En el artículo inicial, Ienca y Andorno (2017) solo se refieren a la faceta negativa de la libertad cognitiva, es decir, la posibilidad de negarse al uso coercitivo de neurotecnologías, primando el consentimiento. Sin embargo, Marcello Ienca (2021) da cuenta de la existencia de un complejo debate en torno a la faceta positiva de facultar al uso de neurotecnologías emergentes. Esto abre un debate profundamente complejo en el entendido de que ciertas neurotecnologías pueden utilizarse con el propósito de mejorar aspectos como la inteligencia, la memoria, la creatividad, entre otros, por lo que son denominados tecnologías de mejora o de enhancement.


El problema resulta, entonces, en las repercusiones éticas de las neurotecnologías de mejora que podrían tener aplicaciones transhumanistas. En efecto, el transhumanismo implica la paulatina incorporación de tecnologías de mejora que nos conduzcan a la condición posthumana: “la era posthumana comienza cuando ya no nos parece necesario, o posible, distinguir entre humanos y naturaleza; un tiempo en el que realmente nos movemos de la condición de existencia humana a la posthumana” (Pepperell, 2003: 161). Cuando podemos identificar un ser futuro cuyas capacidades básicas exceden radicalmente a las de los humanos actuales, “la palabra estándar para tales seres es posthumano” (Bostrom, 2003: 5).


En ese sentido, autores como Francis Fukuyama se han opuesto con vehemencia a la posibilidad de permitir este tipo de aplicaciones en el entendido de que “la amenaza más significativa que plantea la biotecnología contemporánea es la posibilidad de que altere la naturaleza humana y por lo tanto nos lleve a una etapa posthumana de la historia” (2002: 7).


Por otra parte, crear un neuroderecho, como facultad subjetiva de reclamarle al Estado una función prestacional de proveer a sus ciudadanos tecnologías de mejora, es, consideramos, un error. Tanto la faceta positiva de la libertad cognitiva, pero especialmente la textual propuesta de la NeuroRights Initiative a un neuroderecho al acceso equitativo a tecnologías de mejora, podría conducir a crear un nuevo derecho imposible de implementar en la práctica. Lo anterior en el entendido de que el Estado tendría que asumir una nueva carga fiscal que financiar, con recursos públicos, la incorporación de millones de neurotecnologías de mejora en sus ciudadanos. Más aún, esta carga no solo es insostenible fiscalmente, sino que contraría los deberes de los sistemas de salud alrededor del mundo, pues estas tecnologías no tienen finalidades terapéuticas, sino de mejora. Además, este neuroderecho podría atropellar cosmovisiones y posiciones religiosas que no ven con buenos ojos la modificación de la naturaleza humana. Incluso, podría conducir a desigualdades entre la población mejorada y no mejorada en términos de oportunidades laborales, académicas y sociales. Argumentos en este sentido se pueden encontrar desarrollados en Borbón et al. (2020; 2021) y, Borbón y Borbón (2021).


Por otra parte, conceptos como el de “identidad personal” o “continuidad psicológica” se presentan como categorías complejas de definir jurídicamente, también por las discusiones en torno a ellas. La definición de estos términos depende en gran medida de la de otros como el concepto del “yo”, lo que implica la identidad y los alcances de la autenticidad (Borbón y Borbón, 2021).


Finalmente, gran parte de la discusión relacionada con los sesgos algorítmicos está en su definición e implementación de medidas en su contra. En algunas ocasiones, por ejemplo, hay sesgos algorítmicos que resultan ser positivos para contrarrestar otros sesgos y hacer un algoritmo más justo, según los estándares éticos y morales. De esta forma, pretender erradicar todos los sesgos sin entender un poco mejor su trasfondo resultaría en una sobresimplificación del problema (Borbón y Borbón, 2021).


Asimismo, a pesar de que la NeuroRights Initiative es clara en cuanto a la inclusión de información de los grupos de usuarios para abordar el sesgo asociados a la base de datos, dicha medida no es suficiente para abordar todos los tipos de sesgos. Por ejemplo, hay algunos que surgen incluso antes de la recolección de los datos de entrenamiento, con la definición del problema que se quiere resolver. Digamos, el hecho de que un algoritmo de predicción arroje que un tipo de población racial es más propensa a delinquir puede ser resultado de un problema en la formulación del algoritmo, que solo se implementa para arrojar datos estadísticamente correspondientes, más no explicar que este dato se obtiene porque dicha población ha sido sometida a condiciones de marginalidad y discriminación histórica.


En ese sentido, son necesarias medidas adicionales para tratar con los sesgos. Sería valioso, por ejemplo, promover la implementación de software de código abierto, como garantía de transparencia para verificar la certeza de los resultados obtenidos mediante un algoritmo. De esta forma, el derecho a la protección contra sesgos se vería íntimamente relacionado con el derecho a la privacidad mental, en el entendido de que, para lograr proteger a los usuarios de los diferentes tipos de sesgos, es necesario utilizar grandes cantidades de información que permitan mejorar sustancialmente los algoritmos. En el caso de que con el derecho a la privacidad mental se prohibiera terminantemente el uso de datos mentales, sería cada vez más arduo obtener bases de datos que sean lo suficientemente representativas de la población y se dificultaría el desarrollo de algoritmos más justos sin sesgos potencialmente dañinos (Borbón y Borbón, 2021).

2. Riesgos de una menor protección
con los neuroderechos

Hemos señalado anteriormente que desde la academia aún no existe un consenso sobre los puntos básicos en las propuestas de los neuroderechos, ni sobre su definición o alcances. Esto supone un riesgo mayúsculo de que los neuroderechos, fuera de representar un avance progresivo del ámbito de protección de los derechos humanos, sean un retroceso. Esto iría en contravía de los compromisos internacionales de los Estados en garantizar el principio de progresividad, reconocido incluso en el preámbulo de la Declaración Universal de Derechos Humanos. Si bien es cierto que el avance positivo podría pensarse en lo innovador que resultan ser los neuroderechos, no se podría decir lo mismo de ciertas interpretaciones a la libertad cognitiva, o la privacidad mental.


Bajo la interpretación abierta de Ienca y Andorno (2017), quienes no niegan la posibilidad de relativizar estos neuroderechos en nombre del interés general, el Estado podría adquirir dominios que rozan con lo totalitario. En otras palabras, la posibilidad de que el Estado intervenga de maneras invasivas o no en el encéfalo de posibles infractores de la ley penal no se ve, bajo la perspectiva de estos autores, como algo que deba prohibirse de manera absoluta. Si esto se permite, dicha relativización podría terminar de impactar todos los neuroderechos que se propongan, abriendo la puerta a que se implementen usos de neurotecnologías contrarios a la dignidad humana. Lo mismo se puede decir de los argumentos, mencionados anteriormente, de Ienca y Andorno (2017), respecto de la relativización del neuroderecho a la privacidad mental en materia penal.


Es por esto que el principio de progresividad, como barrera de contención, ha sido históricamente interpretado por tribunales de justicia nacionales e internacionales, así como consagrados en instrumentos de derecho internacional. La Convención Americana de Derechos Humanos, en efecto, contempla el principio de progresividad en su artículo 26 frente a los derechos sociales, económicos y culturales. Sin embargo, como ha reconocido la Comisión Interamericana de Derechos Humanos (1993), dicha protección va más allá:


El fundamento del principio de la realización progresiva de los derechos es que los gobiernos tienen la obligación de asegurar condiciones que, de acuerdo con los recursos materiales del Estado, permitan avanzar gradual y constantemente hacia la más plena realización de tales derechos. Además, el desarrollo progresivo de los derechos no se limita a los económicos, sociales y culturales. El principio de la progresividad es inherente a todos los instrumentos de derechos humanos a medida que se elaboran y amplían.


En ese sentido, un riesgo que debe considerarse seriamente es que los neuroderechos sean interpretados y consagrados internamente como derechos que puedan ceder ante la acción del Estado. Frente a ello, los principios de progresividad y no regresividad deben respetarse para garantizar que, de incorporarse en los ordenamientos jurídicos, los neuroderechos representen un verdadero avance en garantías fundamentales, y no que se constituyan como instrumentos para la acción totalitaria del Estado. El derecho penal ya es un mecanismo de control social formal lo suficientemente brutal, cruel e inhumano como para permitirle adquirir nuevas herramientas para invadir la última barrera de privacidad y libertad: nuestra mente.

3. ¿Son necesarios los neuroderechos?

Un comentario importante también debe ser que crear un nuevo derecho humano implica solo una descripción general y breve de sí mismo. En efecto, al consagrar los derechos humanos o los fundamentales se hace en términos simples, evadiendo una regulación completa, exhaustiva y eficaz al avance neurotecnológico. Por supuesto se podría pensar que los neuroderechos podrían ser esa primera base o funcionar como principios sobre los cuales construir una regulación completa. Sin embargo, como hemos mencionado, junto con las consideraciones por venir, ponen en serias dudas la viabilidad o conveniencia de crearlos. En ese sentido, podría ser incluso más recomendable llegar a consensos internacionales para crear tratados de fondo que vinculen globalmente y se incorporen internamente como leyes. Este tipo de instrumentos podrían, con mayor efectividad, desarrollar los puntos detallados sobre los cuales establecer límites concretos al avance tecnológico.


Un último punto que debe abordarse es sobre la necesidad jurídica de crear una nueva categoría de derechos humanos, considerando que ya la mayoría de ordenamientos jurídicos nacionales e internacionales protegen las distintas libertades, el consentimiento, la igualdad, la garantía de no discriminación, la integridad, la privacidad y la información. Es por esta razón que debe verse con ojos escépticos la conveniencia de crear una nueva categoría de derechos humanos que puedan ser conceptualmente problemáticos, o incluso ser regresivos en la protección de los derechos y garantías de las personas de cara a la acción del Estado. Para ello, dedicaremos un breve apartado para hacer alusión a los ya existentes derechos fundamentales y los límites que proponen los principios constitucionales del derecho penal.

V. Derechos fundamentales y principios
constitucionales del derecho penal

De manera directa, la Declaración Universal de Derechos Humanos, en los artículos 1o., 2o., 3o., 5o., 7o., 8o., 9o., 10, 11, 18 y 19, expresa los diversos tipos de libertades, derechos y garantías, incluso procesales, en ámbitos penales. Un papel similar cumple la Convención Americana de Derechos Humanos, y de manera directa en los Estados, las correspondientes Constituciones políticas.


En palabras sencillas, lo que pretende proteger el neuroderecho al libre albedrío o la libertad cognitiva ya se encuentra bajo la protección de distintos derechos de libertad, y el derecho al consentimiento informado. Por su parte, lo que pretende proteger el derecho a la privacidad mental ya podría ser interpretado jurisprudencialmente como parte de la intimidad, la privacidad y el derecho de habeas data. Más aún, en Chile se percataron que era innecesaria la creación de un neuroderecho a la privacidad mental, limitando el proyecto de Ley de Neuroprotección a consagrar los neurodatos dentro de la ya existente Ley 19.628 sobre la Vida Privada de las Personas (Senado de Chile, 2021). Por último, si lo que se pretende proteger con el derecho contra sesgos algorítmicos es la no discriminación, la igualdad y el debido proceso, estos ya se podrían garantizar dentro de los derechos con esos mismos nombres.


En esa dirección, las interpretaciones jurisprudenciales van a tener un papel clave en la definición de los alcances y el ámbito de protección frente a las neurotecnologías y la inteligencia artificial. Es por eso que se vuelve imprescindible capacitar a los operadores de justicia frente a estos retos y de cara a la importancia de emitir interpretaciones acordes con los principios humanistas y constitucionalistas de nuestros ordenamientos jurídicos contemporáneos. Así las cosas, no se muestra como necesaria la creación de una nueva categoría de derechos humanos inconvenientes hasta tanto no se hayan discutido y llegado a consensos en los foros académicos y políticos, para construir una verdadera política pública global.


A la luz de los derechos y principios
constitucionales del derecho penal


Las Constituciones de los países, así como también los tratados vinculantes de derechos humanos, han impregnado y constitucionalizado todas las ramas del derecho, incluyendo, especialmente, la penal (Gómez, 2016). En ese sentido, la rama penal constitucional contempla como límites claros y rigurosos los derechos fundamentales, las garantías y los principios constitucionales.


Así las cosas, el principio de dignidad humana prohíbe la instrumentalización del individuo, que debe ser considerado un fin en sí mismo y no un medio. Este principio debería interpretarse para imposibilitar el uso de tecnologías de neuropredicción que reducen al ser humano como un mero instrumento para una falsa prevención de la delincuencia. Tampoco podría avalar la utilización de tecnologías de detección de mentiras en el entendido de que el ser humano conserva su condición digna como límite a la obligación del Estado de investigar, juzgar y sancionar conductas punibles, y su mente no puede ser utilizada con estos fines que atentan contra sí mismo. Amparando también la protección del derecho a la no autoincriminación que tiene toda persona en un proceso penal, la detección de mentiras no puede utilizarse válidamente.


Por otra parte, el principio de culpabilidad se erige como una manera de proscribir la responsabilidad objetiva, garantizando que la sanción penal sólo pueda imponerse a la persona que actúa culpablemente. En ese sentido, se requiere que la persona comprenda la ilicitud de su conducta y se pueda conducir conforme a esa comprensión, que tenga conciencia de la antijuridicidad de su conducta y que pueda ser reprochada su acción porque podía ser conforme al derecho y actuó en contra de este.


Ahora bien, más allá de estas consideraciones ya sentadas, el principio de culpabilidad, junto al principio de conducta y el principio de derecho penal de acto y no de autor, proscriben cualquier aplicación peligrosista de una sanción penal. En ese sentido, el derecho penal no se encarga de sancionar encéfalos que puedan considerarse desviados o incluso patológicos, sino que se encarga de sancionar conductas culpables de seres humanos. La neuropredicción, por consiguiente, no tiene cabida dentro de ordenamientos jurídicos constitucionales que amparan estos principios. En un mismo sentido, el derecho penal no puede anticiparse a la hipotética comisión de un delito futuro (predicción), sino que debe partir del principio de lesividad pues la competencia penal solo se puede activar cuando se lesiona o se pone en riesgo concreto un bien jurídico.


Por otra parte, los principios de intervención mínima y ultima ratio fundan los límites del poder punitivo estatal. El derecho penal, tal como lo imponen los códigos penales, es la imposición consciente de dolor (Christie, 1988). Es, como las condiciones materiales lo revelan, un mecanismo de control social profundamente lesivo de derechos fundamentales que debe ser limitado rigurosamente. En ese sentido, las neurotecnologías podrían otorgarle al Estado herramientas poderosas y profundamente invasivas de la privacidad mental o la misma integridad de la persona. En esa dirección, el derecho penal solo puede ser un mecanismo de intervención mínima y no utilizarse para anticiparse a posibles crímenes o para invadir la esfera última de privacidad de las personas. El derecho penal no soluciona los conflictos sociales detrás de la desviación, por lo que no se puede pretender su uso prima ratio, ni aumentar su lesivo ámbito de aplicación.


Sin embargo, más allá de los límites existentes con los derechos fundamentales, las garantías y los principios constitucionales, creemos que esta discusión requiere un aporte radical. Por el camino que apunta el avance neurotecnológico, la ciencia parece colocarse como amplificador del poder punitivo de los Estados, pero ello no debería ser así.

VI. El neuroabolicionismo penal
como una alternativa humanista

Para abandonar por completo la posibilidad de aceptar la neuropredicción y la detección de mentiras, además de otros usos nefastos de las tecnologías emergentes, proponemos un nuevo enfoque, negando incluso que los neuroderechos, o el derecho penal mínimo sean alternativas satisfactorias. A esta propuesta la hemos denominado neuroabolicionismo penal (Borbón, 2021a; Borbón, 2021b; Borbón, 2022).


El abolicionismo penal europeo de corte sociológico se ha formulado tradicionalmente por los autores Nils Christie, Thomas Mathiesen y Louk Hulsman. En esencia, el abolicionismo denuncia que el derecho penal se construye sobre una política criminal del dolor (Christie, 1988), que es una política criminal irracional, reactiva y expansiva, y que el ius puniendi es profundamente selectivo contra grupos vulnerables. Lo anterior, considerando las políticas estigmatizantes y reduccionistas del derecho penal y la industria detrás de la prisión. Fundamentalmente, el abolicionismo denuncia que el derecho penal nunca ha cumplido una función real, ni efectiva, más que promover la degradación humana de cualquiera que entre en contacto con el sistema penitenciario.


En ese sentido, hemos sostenido que, en lugar de usar la ciencia y las neurotecnologías en contra de los derechos fundamentales de las personas, estas pueden estar en consonancia con una propuesta abolicionista que sea verdaderamente humanista. Es por eso que hemos propuesto el neuroabolicionismo penal como una teoría complementaria al abolicionismo europeo.


En la reciente publicación de Borbón bajo el título “Incompatibilismo humanista: una contrapropuesta del neuroabolicionismo penal” (2021b), hemos esbozado las bases científicas de una nueva propuesta abolicionista para construir la política criminal del futuro. En dicho artículo, enunciamos cinco postulados básicos para iniciar una gran conversación internacional:

  1. Sin libre albedrío no puede existir el derecho penal de la culpabilidad.
  2. Existen alternativas humanas al derecho penal.
  3. La prisión causa efectos neuropsicológicos adversos y debe abolirse.
  4. La neurociencia, la criminología y la sociología pueden prevenir.
  5. La dignidad humana como límite a cualquier desarrollo de la ciencia y el derecho.

El neuroabolicionismo penal parte de comprender la dificultad teórica de seguir sosteniendo un derecho penal de la culpabilidad, cuando el libre albedrío es, en esencia, un concepto refutable. La culpabilidad requiere la negación del determinismo, cuando este, al menos en escalas macroscópicas, es una realidad científica innegable. Siguiendo a Harris (2012), sabemos que el determinismo, en cualquier sentido relevante para el comportamiento humano es verdad en razón a la certeza de que los eventos neuronales determinan nuestras acciones y estos eventos, asimismo, están determinados por causas precedentes de las que somos subjetivamente inconscientes. Lo anterior aunado a los múltiples experimentos neurocientíficos que ponen en duda la posibilidad de pensar que algo llamado libre albedrío existe (Libet et al., 1983; Haggard y Eimer, 1999; Soon et al., 2008; Fried et al., 2011; Soon et al., 2013). Por consiguiente, sin libre albedrío ni culpabilidad, no puede haber derecho penal.


Dentro de la filosofía del libre albedrío, el incompatibilismo duro es la posición que soporta estos argumentos. En general, la tesis del incompatibilismo duro se presenta mediante el argumento consecuencial que sostiene que si el determinismo es verdad, el libre albedrío no existe.


Si el determinismo es cierto, entonces nuestros actos son consecuencia de las leyes de la naturaleza y de los acontecimientos del pasado remoto. Pero no depende de nosotros lo que sucedió antes de nacer, ni tampoco depende de nosotros cuáles son las leyes de la naturaleza. Por lo tanto, las consecuencias de estas cosas (incluidos nuestros actos presentes) no dependen de nosotros (van Inwagen, 1983: 16).


En las teorías de la física contemporánea no parece haber duda de que, a nivel macroscópico, es decir, en el mundo sensible para el humano, el determinismo es cierto y la física newtoniana conserva su validez. Sin embargo, a nivel nanoscópico, del mundo atómico y subatómico, las partículas ya no actúan de manera determinista, sino indeterminista y probabilísticamente. Todavía no se tiene certeza de cuál es la propiedad fundamental del universo, o si tiene una naturaleza dual determinista e indeterminista. Sea cual sea la verdad, el incompatibilismo duro presenta suficientes argumentos para negar el libre albedrío y la responsabilidad moral por cualquiera de las dos opciones. Si el determinismo es cierto, no podemos actuar de manera distinta ni tenemos control último sobre nuestras acciones; si el indeterminismo es cierto, podríamos haber actuado probabilísticamente de manera distinta, pero no fruto de una decisión consciente y responsable, sino fruto del azar cuántico.


Consideramos valioso traer la visión del incompatibilismo del filósofo Derk Pereboom (2003) quien ve al libre albedrío y a la responsabilidad moral como incompatibles, tanto con el determinismo como con el indeterminismo del universo material, que nos incluye como seres hechos de materia. Lo que expresa de la siguiente manera:


Según lo veo, no solo el determinismo es incompatible con la responsabilidad moral, sino también el tipo de indeterminación especificado por la interpretación estándar de la mecánica cuántica, si ese es el único tipo de indeterminación que existe. Además, sostengo que no tenemos evidencia de indeterminación del tipo que se requeriría para el libertarismo agente-causal y que, por lo tanto, no tenemos evidencia de que seamos moralmente responsables.


Así las cosas, el principio de culpabilidad como juicio de reproche, es un concepto defectuoso y fundamentalmente falso. La idea de que es legítimo imputar una acción que infringe la ley penal, y, en un mismo sentido, sancionar al agente por ser libre, es una idea metafísicamente refutable que debería desaparecer del ideario contemporáneo. En esencia, esto es una simplificación de la realidad que permite al Estado lavarse las manos y sustraerse de su responsabilidad de garantizar condiciones de vida digna a sus ciudadanos.


Cuando se crean y mantienen las suficientes causas y factores de riesgo individuales y ambientales, las personas deberán satisfacer sus necesidades mínimas de alguna forma. Es por eso que, en condiciones de marginalidad, ignorancia, o pobreza extrema, el ámbito de acción de cualquier persona se reduce significativamente. El Estado que ha fallado en solucionar estas circunstancias, no puede, válidamente, pretender sancionar al ciudadano que ha conducido a actuar de manera antijurídica. Estas mismas condiciones son las que subyacen en pruebas de evaluación de riesgos como factores para considerar que una persona es “peligrosa” y, por lo tanto, debe mantenerse encerrado en prisión.


En otras palabras, las condiciones asociadas a la marginalidad son, muchas veces, detonantes para los neuromarcadores asociados a factores de riesgo y a la terrible etiqueta de “peligrosidad”, que está mandada a desaparecer. La mala alimentación, la ausencia de estabilidad en la infancia, la supresión del acceso a educación y en general la pobreza, no solo afecta negativamente el encéfalo en desarrollo de niños, niñas y adolescentes, sino que se configuran a futuro como factores de riesgo de criminalidad (Sargent, 2008; Papaioannou, 2017; de Courson, 2021; Gaitán-Rossi y Velázquez, 2021).


Adicionalmente, siguiendo a Borbón (2021a) y a Ostrosky (2009), con relación a trastornos mentales frecuentemente relacionados con neuromarcadores y factores de riesgo para la criminalidad, como el trastorno de la personalidad antisocial o las psicopatías, existe una compleja interacción de factores genéticos, neurobiológicos, socioculturales y de aprendizaje en relación con la vivencia de eventos traumáticos en edades tempranas. Por eso, será necesario fomentar las políticas públicas necesarias para garantizar un desarrollo cerebral sano, y así evitar el daño sobre las estructuras cerebrales del niño o de la niña que ha sufrido maltrato o carencias graves (Borrajo, 2014).


Con esto claro, la neuropredicción es una tecnología muy favorable para el Estado pues le permite ignorar las razones de fondo para considerar a una persona como peligrosa, y optar por el camino fácil de encarcelarla. En otras palabras, el Estado, que ha creado y sostenido en el tiempo las condiciones de marginalidad y pobreza, ahora utiliza tecnologías para imputarle dichas condiciones a sus ciudadanos y tildarlos de peligrosos. Junto con el falso discurso de libre albedrío/culpabilidad, el Estado simplifica el asunto, enviando a prisión al sujeto, pero manteniendo la estructura social anómica intacta.


Ahora bien, aquí es donde una visión verdaderamente humanista debe señalar que el derecho penal no es necesario, ya que existen alternativas restaurativas, civiles, terapéuticas, comunitarias e indígenas para solucionar todos los conflictos sociales. En esa misma dirección, la neurociencia y la psicología también pueden denunciar que la prisión causa efectos neuropsicológicos adversos en los prisioneros (Meijers et al,. 2018) y no cumple ninguna función real (Mathiesen, 2003), por lo que debería abolirse (Borbón, 2022). En ese sentido, el enfoque de la neurociencia, en lugar de servir para el análisis de riesgos o la detección de mentiras, debería ser utilizada para prevenir la comisión de los delitos desde la modificación de las estructuras sociales de marginalidad y pobreza extrema que afectan el entorno de las personas, y, por tanto, el bienestar psicológico y cerebral.


Finalmente, esta propuesta abolicionista debe reivindicar el papel del humanismo como un límite al avance de las ciencias y las tecnologías. De tal modo, no se podría permitir la incorporación de tecnologías de neuropredicción y detección de mentiras, no solo por el hecho de que no serían necesarios sin un sistema penal, sino porque estos “avances” contrarían todos los principios y desarrollos del pensamiento humanista liberal. Así las cosas, el neuroabolicionismo penal se erige como una alternativa para el futuro; un porvenir esperanzador donde se aborden las causas sociales y estructurales de la desviación y se ponga en alto el ideal humanista de mirar al otro como ser digno.


Bajo esta propuesta, las tecnologías deben estar al servicio de la humanidad, no en contra de los derechos fundamentales de las personas. En adelante, sugerimos repensar radicalmente la dirección que están tomando las investigaciones neurocientíficas, que se mueven constantemente hacia aplicaciones peligrosistas y contrarias a la dignidad humana de las personas. Por consiguiente, dentro del marco de acción neuroabolicionista se encuentra repensar el papel de la ciencia para denunciar los excesos y la falta de legitimidad intrínseca del derecho penal. Con esta perspectiva, se les pone un punto final a las aplicaciones tecnológicas de neuropredicción o de detección de mentiras, para así colocar la acción del Estado hacia la dirección de la prevención de los delitos con política social y con la garantía de las condiciones de vida digna de sus ciudadanos.


El neuroabolicionismo penal es una propuesta de política criminal para el futuro, que conlleve una transición cultural e ideológica del punitivismo contemporáneo hacia la racionalización del poder del Estado y la abolición del derecho penal. Implica vincular ciencias, derecho y sociología, para enarbolar las banderas del humanismo que tanto hacen falta.


En adelante, esta es una invitación abierta para académicos, investigadores, legisladores y la sociedad en general, para aportar en discusiones con base en la evidencia, y construir consensuadamente un futuro digno.

VII. Conclusiones

En este artículo hemos señalado las razones por las cuales consideramos que los neuroderechos son inconvenientes para enfrentar tecnologías de neuropredicción y de detección de mentiras. Argumentamos que los neuroderechos son conceptualmente problemáticos e incluso podrían ofrecer un ámbito de protección reducido y regresivo. Por el contrario, proponemos una nueva visión radical desde el incompatibilismo humanista para crear una nueva propuesta denominada neuroabolicionismo penal. Desde esta postura, el derecho penal debe perecer, junto con cualquier instrumentalización negativa de la ciencia y la tecnología, ya que éstas, por el contrario, deben situarse en favor de las personas y los derechos fundamentales. En adelante, esta nueva postura abolicionista deberá ser desarrollada exhaustivamente para ofrecer una teoría completa, junto con una propuesta que radicalmente modifique la política criminal contemporánea, hacia una visión restaurativa. El papel de la ciencia, entonces, servirá para desmentir los falsos discursos estatales de control social, y denunciar las graves vulneraciones de derechos humanos.

VIII. Referencias bibliográficas

Abootalebi, Vahid et al. (2009). “A New Approach for EEG Feature Extraction in P300-Based Lie Detection”. Computer Methods and Programs in Biomedicine. 94(1). Disponible en: https://doi.org/10.1016/j.cmpb.2008.10.001.

Adebayo, Julius (2016). FairML: ToolBox for Diagnosing Bias in Predictive Modeling. Massachusetts: Massachusetts Institute of Technology.

Aharoni, Eyal et al. (2013). “Neuroprediction of Future Rearrest”. Proceedings of the National Academy of Sciences. 110(15). Disponible en: https://doi.org/10.1073/pnas.1219302110.

Angwin, Julia et al. (2016). “Machine Bias”. ProPublica. Disponible en: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

Bellesi, Giulia et al. (2019). “Pediatric Traumatic Brain Injury and Antisocial Behavior: Are They Linked? A Systematic Review”. Brain Injury. 33(10). Inglaterra. Disponible en: doi:10.1080/02699052.2019.1641621.

Bird, Sara et al. (2020). “Fairlearn: A Toolkit for Assessing and Improving Fairness in AI”. Microsoft.

Borbón, Diego (2021a). “Trastorno de la personalidad antisocial desde el neuroderecho: responsabilidad penal, libre albedrío y retos de política criminal”. Revista Mexicana de Ciencias Penales. 4(13). Disponible en: https://revistaciencias.inacipe.gob.mx/index.php/02/article/view/416.

Borbón, Diego (2021b). “Incompatibilismo humanista: una contrapropuesta del neuroabolicionismo penal”. Cuadernos Electrónicos de Filosofía del Derecho. 45. Disponible en: http://dx.doi.org/10.7203/CEFD.4
5.20713.

Borbón, Diego (2022). “Neurosociology and Penal Neuroabolitionism: Rethinking Justice with Neuroscience”. Frontiers in Sociology, Disponible en: https://www.frontiersin.org/articles/10.3389/fsoc.2022.8143
38/full
.

Borbón, Diego et al. (2020). “Análisis crítico de los neuroderechos humanos al libre albedrío y al acceso equitativo a tecnologías de mejora”. IUS ET SCIENTIA. 6(2). Disponible en: https://doi.org/10.12795/IET
SCIENTIA.2020.i02.10
.

Borbón, Diego et al. (2021). “Neuroderecho al acceso equitativo a tecnologías de mejora. Análisis desde el posthumanismo, el derecho y la bioética”. Revista Iberoamericana de Bioética. 16. Disponible en: https://doi.org/10.14422/rib.i16.y2021.006.

Borbón, Diego y Borbón, Luisa (2021). “A Critical Perspective on NeuroRights: Comments Regarding Ethics and Law”. Frontiers in Human Neuroscience. Disponible en: https://doi.org/10.3389/fnhum.2021.70
3121.

Borrajo, Elena (2014). “Desde el maltarto en el principio de la vida hasta la dificultades en el hogar y el aula”. En Fernández García, Rosa M. (coord.). Neuropsicología del abandono y el maltrato infantil. Barcelona: Hilo Rojo.

Bostrom, Nick (2003). The Transhumanist FAQ. Oxford: The World Transhumanist Association.

Bublitz, Jan-Christoph (2013). “My Mind is Mine!? Cognitive Liberty as a Legal Concept”. En Hildt, Elisabeth y Franke, Andreas (eds.). Cognitive Enhancement. An Interdisciplinary Perspective. Dordrecht: Springer.

Christie, N. (1988). Los límites del dolor. México: Fondo de Cultura Económica.

Comisión Interamericana de Derechos Humanos (1993). Informe anual “Campos en los cuales han de tomarse medidas para dar mayor vigencia a los derechos humanos, de conformidad con la Declaración Americana de los Derechos y Deberes del Hombre y la Convención Americana sobre Derechos Humanos”. CIDH. Disponible en: https://www.cidh.oas.org/annualrep/93span/cap.v.htm.

Coppola, F. (2018). “Mapping the Brain to Predict Antisocial Behaviour: New Frontiers in Neurocriminology, «New» Challenges for Criminal Justice”. UCL Journal of Law and Jurisprudence. 7(1). Disponible en: https://doi.org/10.14324/111.2052-1871.099.

Coronado, B. (2021). Aportación de la neurociencia a la predicción de la conducta violenta. Madrid: Universidad Pontificia Comillas. Disponible en: https://repositorio.comillas.edu/xmlui/bitstream/handle/11
531/46609/TFG%20Coronado%20Gonzalez%2C%20Beatriz%20de%20Silva.pdf?sequence=1&isAllowed=y
.

Dastin, Jeffrey (2018). “Amazon Scraps Secret AI Recruiting Tool that Showed Bias against Women”. Reuters. San Francisco. Disponible en: https://www.reuters.com/article/us-amazon-com-jobs-automation-in
sight-idUSKCN1MK08G.

De Courson, B. y Nettle, D. (2021). “Why do Inequality and Deprivation Produce High Crime and Low Trust?”. Scientific Reports. 11 (1937). Disponible en: https://doi.org/10.1038/s41598-020-80897-8.

Delfin, Carl et al. (2019). “Prediction of Recidivism in a Long-Term Follow-Up of Forensic Psychiatric Patients: Incremental Effects of Neuroimaging Data”. PLoS ONE. 14(5). Disponible en: https://doi.org/10.1371/journal.pone.0217127.

Farah, Martha et al. (2014). “Functional MRI-Based Lie Detection: Scientific and Societal Challenges”. Nature Reviews Neuroscience. 15 (2). Disponible en: https://doi.org/10.1038/nrn3665.

Ferrajoli, Luigi (1995). Derecho y razón. Teoría del garantismo penal. Madrid: Trotta.

Fried, I. et al. (2011). “Internally Generated Preactivation of Single Neurons in Human Medial Frontal Cortex Predicts Volition”. Neuron. 69(3). Disponible en: https://doi.org/10.1016/j.neuron.2010.11.045.

Fukuyama, F. (2002). Our Posthuman Future Consequences of the Biotechnology Revolution. New York: Farrar, Straus and Giroux.

Gaitán-Rossi, P., y Velázquez, C. (2021). “A systematic literature review of the mechanisms linking crime and poverty”. Convergencia. Revista de Ciencias Sociales. 28. Disponible en: https://doi.org/10.29101/crcs.v28i0.14685.

Goering, Sara et al. (2021). “Recommendations for Responsible Development and Application of Neurotechnologies”. Neuroethics. 14.

Gómez, C. (2016). Introducción al derecho penal constitucional. Bogotá: Ediciones Nueva Jurídica.

Greely, Henry (2009). “Law and the Revolution in Neuroscience: An Early Look at the Field”, Akron Law Review. 42(3). Disponible en: https://ideaexchange.uakron.edu/akronlawreview/vol42/iss3/2.

Greely, Henry e Illes, Judy (2007). “Neuroscience-Based Lie Detection: The Urgent Need for Regulation”. American Journal of Law & Medicine. 33(2-3). Disponible en: https://doi.org/10.1177/009885880703300211.

Haggard, P. y Eimer, M. (1999). “On the Relation between Brain Potentials and the Awareness of Voluntary Movements”. Experimental Brain Research. 126. Disponible en: https://doi.org/10.1007/s002210050722.

Harris, Sam (2012). Free Will. Estados Unidos de América: Simon & Schuster.

Ienca, Marcelo (2021). “On Neurorights”. Frontiers in Human Neuroscience. Disponible en: https://doi.org/10.3389/fnhum.2021.701258.

Ienca, Marcelo y Andorno, Roberto (2017). “Towards New Human Rights in the Age of Neuroscience and Neurotechnology”. Life Sciences, Society and Policy. 13(5). Disponible en: https://doi.org/10.1186/s40504-017-0050-1.

Julià, M. (2019). Proceso penal y (neuro) ciencia: una interacción desorientada (tesis doctoral). Barcelona: Universidad de Barcelona.

Katzin, Samuel et al. (2020). “Exploring Traumatic Brain Injuries and Aggressive Antisocial Behaviors in Young Male Violent Offenders”. Front Psychiatry. 11. Disponible en: doi:10.3389/fpsyt. 2020.507196.

Kehl, Danielle et al. (2017). “Algorithms in the Criminal Justice System: Assessing the Use of Risk Assessments in Sentencing”. Responsive Communities Initiative. Berkman Klein Center for Internet & Society. Harvard Law School. Disponible en: https://cyber.harvard.edu/publica
tions/2017/07/Algorithms
.

Kiehl, Kent A. et al. (2018). “Age of Gray Matters: Neuroprediction of Recidivism”. NeuroImage: Clinical. 19. Disponible en: https://doi.org/
10.1016/j.nicl.2018.05.036
.

Koene, Ansgar (2017). “Algorithmic Bias: Addressing Growing Concerns [Leading Edge]”. IEEE Technology and Society Magazine. 36(2). Disponible en: https://doi.org/10.1109/mts.2017.2697080.

Libet, Benjamin et al. (1983). “Time of Conscious Intention to Act in Relation to onset of Cerebral Activity (Readiness-Potential): The Unconscious Initiation of a Freely Voluntary Act”. Brain. 106(3). Disponible en: https://doi.org/10.1093/brain/106.3.623.

Lowenberg, Kelly (2010). “fMRI Lie Detection Fails Its First Hearing on Reliability”. Stanford Law School. Disponible en: https://law.stanford.edu/2010/06/01/fmri-lie-detection-fails-its-first-hearing-on-reliability/.

Mathiesen, T. (2003). Juicio a la prisión: una evaluación crítica. Buenos Aires: EDIAR.

McKenna, Michael y Pereboom, Derk (2016). Free Will. A Contemporary Introduction. Nueva York: Routledge.

Meijers, Jesse et al. (2018). “Reduced Self-Control After 3 Months of Imprisonment: A Pilot Study”. Frontiers in Psychology. Disponible en: https://doi.org/10.3389/fpsyg.2018.00069.

Morse, Stephen (2015). “Neuroprediction: New Technology, Old Problems”. Bioethica Forum. 8. Disponible en: https://doi.org/10.2139/ssrn.2722765.

Muñoz, José M. (2012). “Hacia una sistematización de la relación entre determinismo y libertad”. Daimon. Revista Internacional de Filosofía. 56. Disponible en: https://revistas.um.es/daimon/article/view/141761.

Muñoz, José M. (2019). “Chile-Right to Free Will Needs Definition”. Nature. Disponible en: https://doi.org/10.1038/d41586-019-03295-9.

Nadelhoffer, Thomas y Sinnott-Armstrong, Walter (2012). “Neurolaw and Neuroprediction: Potential Promises and Perils”. Philosophy Compass. 7(9). Disponible en: https://doi.org/10.1111/j.1747-9991.20
12.00494.x
.

NeuroRights Initiative (2021). “The Five Ethical NeuroRights”. Disponible en: https://nri.ntc.columbia.edu/.

Norman, K. et al. (2006). “Beyond Mind-Reading: Multi-Voxel Pattern Analysis of fMRI Data”. Trends in Cognitive Sciences. 10(9). Disponible en: https://doi.org/10.1016/j.tics.2006.07.005.

Ostrosky, F. (2009). “Los eventos traumáticos tempranos y su relación con la psicopatía criminal”. Revista Chilena de Neuropsicología. 4(2).

Papaioannou, Kostadis J. (2017). “«Hunger makes a thief of any man»: Poverty and Crime in British Colonial Asia”. European Review of Economic History. 21(1). Disponible en: https://doi.org/10.1093/ereh/hew019.

Pepperell, R. (2003). The Posthuman Condition Consciousness Beyond the Brain. Portland: Intellect.

Pereboom, D. (2003). Living without Free Will, Cambridge: Cambridge University Press.

Petoft, A. (2015). “Neurolaw: A Brief Introduction”. Iranian Journal of Neurology. 14(1).

Ruiz, Aura y Muñoz, José M. (2021). “Neuroprevention: Developing Legal Policies in Risk Assessment without Aspiring to Predict Crime”. The Journal of Science & Law. 9(1). Disponible en: doi:10.35005/y991-wv96.

Sargent, M. (2008). “Starvation: Crime and Punishment”. Nature. 451. Disponible en: https://doi.org/10.1038/451524a.

Senado de Chile (2021). Boletín N° 13.828-19. Sobre protección de los neuroderechos y la integridad mental, y el desarrollo de la investigación y las neurotecnologías. Disponible en: https://www.senado.cl/appsena
do/templates/tramitacion/index.php?boletin_ini=13828-19
.

Sententia, Wrye (2004). “Neuroethical Considerations: Cognitive Liberty and Converging Technologies for Improving Human Cognition”. Annals of the New York Academy of Sciences. Disponible en: https://doi.
org/10.1196/annals.1305.014.

Soon, C. et al. (2008). “Unconscious Determinants of Free Decisions in the Human Brain”. Nature Neuroscience. 11(5). Disponible en: https://doi.org/10.1038/nn.2112.

Soon, C. et al. (2013). “Predicting Free Choices for Abstract Intentions”. Proceedings of the National Academy of Sciences. 110(15). Disponible en: https://doi.org/10.1073/pnas.1212218110.

Spielkamp, Matthias (2017). “Unámonos para evitar la discriminación de los algoritmos que nos gobiernan”. MIT Technology Review. Disponible en: https://www.technologyreview.es/s/7950/unamonos-para-evitar-la-discriminacion-de-los-algoritmos-que-nos-gobiernan.

Sweeney, L. (2013). “Discrimination in Online Ad Delivery”. Social Science Research Network. 14. Disponible en: https://doi.org/10.2139/ssrn.
2208240.

Tortora, Leda et al. (2020). “Neuroprediction and A.I. in Forensic Psychiatry and Criminal Justice: A Neurolaw Perspective”. Frontiers in Psychology. Disponible en: https://doi.org/10.3389/fpsyg.2020.00220.

Van Inwagen, Peter (1983). An Essay on Free Will. Oxford: Clarendon Press.

Varshney, Kush (2018). “Introducing AI Fairness 360”. IBM Research Blog. Disponible en: https://www.ibm.com/blogs/research/2018/09/ai-fairness-360/.

Vicianova, M. (2015). “Historical Techniques of Lie Detection”. Europe’s Journal of Psychology. 11(3). Disponible en: https://doi.org/10.5964/ejop.v11i3.919.

Yuste, Rafael et al. (2017). “Four Ethical Priorities for Neurotechnologies and AI”. Nature. 551. Disponible en: https://doi.org/10.1038/551159a.

* Investigador y coordinador de la línea de investigación en Neuroderechos y Tecnologías del Observatorio Latinoamericano de Derechos Humanos y Empresas. Correo electrónico: diego.borbon01@est.uexternado.edu.co; ORCID: https://orcid.org/0000-0002-2115-2105.

** Ingeniera biomédica, Universidad de los Andes. Correo electrónico: lf.borbon@uniandes.edu.co; ORCID: https://orcid.org/0000-0003-2220-4277.