NEUROTECNOLOGÍAS Y NEURODERECHOS
Perspectivas regulatorias en el ámbito europeo y latinoamericano
NEUROTECHNOLOGY AND NEURORIGHTS
Regulatory perspectives in the european and latin american framework
Claudia Aniballi*
RESUMEN: El avance de las neurotecnologías ha impulsado un intenso debate en torno a la necesidad de reconocer los neuroderechos y regular las neurotecnologías. Europa se centra en regulaciones sobre protección de datos e inteligencia artificial, mientras que América Latina, con Chile como referente, ha constitucionalizado estos derechos. Sin embargo, ambas regiones enfrentan desafíos regulatorios y la falta de un marco unificado genera cierta incertidumbre. La comparación evidencia la necesidad de marcos legales que favorezcan la innovación sin comprometer los derechos fundamentales.
ABSTRACT: The progress of neurotechnology has led to an intense debate about the need to recognize neurorights and regulate these technologies. Europe focuses on data protection and artificial intelligence regulations, while Latin America, with Chile as a leading example, has included these rights in its Constitution. However, both regions face legal challenges, and the lack of a unified framework creates uncertainty. This comparison shows the importance of legal rules that support innovation without compromising fundamental rights.
PALABRAS CLAVE: neurotecnologías, neuroderechos, inteligencia artificial, unión europea, consejo de europa, américa latina.
KEYWORDS: neurotechnologies, neurorights, artificial intelligence, european union, council of europe, latin america.
Fecha de recepción: 31/03/2025
Fecha de aceptación: 25/05/2025
doi:https://doi.org/10.20318/universitas.2025.9574
1.- INTRODUCCIÓN
Cuando hablamos de neurotecnologías hacemos referencia a una de las llamadas tecnologías disruptivas y convergentes, disruptivas por su potencial innovador y convergentes porque están profundamente vinculadas entre sí y muy a menudo operan conjuntamente —como en el caso de neurotecnologías e inteligencia artificial —amplificando así su potencial disruptivo y potencialmente perjudicial para los derechos y libertades de la persona.
Si bien es verdad que la posibilidad de acceder a la actividad cerebral no es nueva, ya que la exploración del cerebro mediante resonancia magnética funcional o neuroimagen estaba ya en auge en la segunda mitad del siglo pasado, sí lo es “la recopilación, almacenamiento, procesamiento y alteración de datos neuronales”1 que de ella deriva, así como su expansión fuera del ámbito médico.
Las neurotecnologías generan “grandes esperanzas para pacientes con trastornos neurológicos o enfermedades mentales. Pero, ¿qué ocurre cuando estos métodos para registrar, interpretar o alterar la actividad cerebral salen del ámbito clínico, regido por estrictos estándares y normas bioéticas, y se convierten en un producto disponible para los consumidores?”2.
El rápido avance de esas tecnologías y su expansión en el mercado ha despertado cierta preocupación en los expertos en este ámbito, que ha generado a su vez un amplio debate sobre la necesidad de regular su uso y reconocer nuevos derechos fundamentales, además de reformular algunos de los existentes.
El punto de partida es la necesidad de proteger la actividad cerebral en dos frentes, esto es, “contra el acceso y las inferencias de los datos neuronales” y “contra la alteración de los estados mentales”3, presentándose los neuroderechos – y la consecuente introducción de “especificaciones normativas relacionadas con la protección del dominio cerebral y mental de la persona”4 – como la solución más adecuada para llevar a cabo estas tareas.
No obstante, la falta de consenso en torno al contenido y alcance de estos derechos ha dado lugar a una “jungla normativa” que complica “los esfuerzos para establecer un marco regulatorio coherente y unificado”5. En el ámbito europeo, la normativa es claramente insuficiente y no aborda de manera explícita estos temas, mientras que en América Latina se ha optado por una regulación más clara, incluso a través de reformas constitucionales como la de Chile.
El presente trabajo se desarrolla con la intención de recopilar algunas de las respuestas más relevantes.
2.- NEUROTECNOLOGÍAS Y DERECHOS FUNDAMENTALES
El término neurotecnologías abarca todos aquellos “dispositivos y procedimientos utilizados para acceder, supervisar, investigar, evaluar, manipular y/o emular la estructura y función de los sistemas neuronales de las personas físicas”6. En otras palabras, se trata de “establecer una vía de conexión con el cerebro humano a través de la cual se pueda registrar y/o alterar la actividad neuronal”7.
Las neurotecnologías “abren nuevas oportunidades para explorar, influir o intercomunicarse con el cerebro humano” en ámbito médico y no médico y por medio de técnicas más o menos invasivas: “las neurotecnologías médicas tienen el potencial de ayudar a personas con condiciones neurológicas o psiquiátricas como el Parkinson, la demencia, el ictus y trastornos depresivos” y “los sistemas de neurotecnologías no médicas ofrecen nuevas herramientas y métodos para monitorear y modular la actividad cerebral en sujetos sanos, así como para interactuar con dispositivos digitales”8 y potenciar las funciones cognitivas.
Como resultado, si bien su empleo en ámbito médico representa un avance extremadamente prometedor, existen “cuestiones éticas, legales y sociales planteadas por ciertas aplicaciones de las neurotecnologías” —sobre todo en ámbito no médico— que resulta imperativo abordar debido a “la centralidad (…) del cerebro y la función cognitiva para las nociones de identidad humana, libertad de pensamiento, autonomía, privacidad y florecimiento humano”9 —o, lo que es lo mismo, debido a sus repercusiones para los derechos fundamentales de la persona y su dignidad—.
La decodificación de la actividad cerebral y su traducción en un formato comprensible con la ayuda de algoritmos de inteligencia artificial10, y la posibilidad de estimular el cerebro para modificar y/o manipular el funcionamiento de los procesos neuronales11 han llevado a imaginar un futuro distópico dominado por manipulación, vigilancia y desigualdad en caso de no regular el uso de las neurotecnologías.
En 2017 se hizo un llamamiento a la reflexión ética y la regulación jurídica para garantizar los derechos fundamentales de las personas frente al desarrollo neurotecnológico, abogando por el reconocimiento de nuevos derechos.
Yuste y el Grupo Morningside destacaron “cuatro áreas de preocupación que requieren una acción inmediata” —esto es: “privacidad y consentimiento; agencia e identidad; mejora; y sesgo”12— y empezaron a promover el reconocimiento de cinco neuroderechos:
“(1) el derecho a la identidad, o la capacidad de controlar la integridad física y mental; (2) el derecho a la agencia, o la libertad de pensamiento y libre voluntad para elegir las propias acciones; (3) el derecho a la privacidad mental, o la capacidad de mantener los pensamientos protegidos contra la divulgación; (4) el derecho a un acceso justo al aumento mental, o la capacidad de garantizar que los beneficios de las mejoras de la capacidad sensorial y mental a través de la neurotecnología se distribuyan con justicia en la población; y (5) el derecho a la protección contra el sesgo algorítmico, o la capacidad de garantizar que las tecnologías no inserten prejuicios”13.
De manera similar, tras recordar que “la neurotecnología sigue siendo en gran medida una tierra incógnita para el derecho internacional de los derechos humanos”, Ienca y Andorno identificaron “cuatro nuevos derechos que pueden ser de gran relevancia en las próximas décadas: el derecho a la libertad cognitiva, el derecho a la privacidad mental, el derecho a la integridad mental y el derecho a la continuidad psicológica” 14. El derecho a la libertad cognitiva —en su vertiente negativa— se configura como “el derecho a rechazar usos coercitivos de la neurotecnología”; el derecho a la privacidad mental protegería “a las personas del acceso ilegítimo a su información cerebral” para “prevenir la fuga indiscriminada de datos cerebrales a través de la infoesfera”; el derecho a la integridad mental proporciona “una protección normativa específica contra posibles intervenciones habilitadas por la neurotecnología que implican la alteración no autorizada de la computación neuronal de una persona, potencialmente resultando en un daño directo a la víctima”; por último, el derecho a la continuidad psicológica sería “una forma especial del derecho a la identidad resultante de las neurotecnologías”15.
De acuerdo con Rafael de Asís, es necesario llevar a cabo “un debate académico profundo y amplio (…) que parta de la elaboración de los problemas y las respuestas en forma de derechos y del estudio exhaustivo sobre si los instrumentos de garantía actuales son suficientes o no. Y, en el caso de que se llegue a la conclusión de que son insuficientes, que determine un catálogo de neuroderechos, fundamentados y con un sistema de garantías que los haga eficaces”16.
3.- PERSPECTIVAS DE REGULACIÓN
En su Informe de 2022, el Comité de Bioética de la UNESCO señaló una amplia gama de cuestiones éticas derivadas de las neurotecnologías y concluyó que los bienes jurídicos que pretenden proteger los neuroderechos se encuentran ya protegidos en el Derecho internacional y nacional, si bien advirtió de la necesidad de crear diálogos globales para, al menos, llegar a un consenso en torno a la naturaleza y el concepto de los neuroderechos y en torno a cómo adaptar y reinterpretar el marco jurídico existente17.
Además, en su Informe de 2024 el Comité Asesor del Consejo de Derechos Humanos de Naciones Unidas advirtió de que “a nivel nacional las respuestas (…) responden a una variedad de enfoques inconexos” que “tiene a menudo como resultado un conjunto incoherente de normas o políticas fragmentadas” y recomendó “la elaboración de un documento (…) que contenga un conjunto de principios rectores” que “contribuiría a fomentar un enfoque coordinado y coherente basado en los derechos humanos para afrontar los nuevos retos”, si bien, en principio, no se defiende la necesidad de proclamar nuevos derechos, sino solo la importancia de desarrollar y adaptar el marco jurídico existente18.
En síntesis, se echa en falta una respuesta jurídica global y coherente. Esto se debe, entre otras cosas, a la falta de consenso en torno a los conceptos jurídicos a utilizar —esto es, en torno al concepto, fundamento y alcance de los neuroderechos propuestos— y sobre cuál sea la respuesta jurídica más adecuada para abordar la cuestión, es decir, si hay que reconocer nuevos derechos modificando la Declaración Universal y las Constituciones nacionales o si sería suficiente con una interpretación evolutiva del marco jurídico actual.
3.1.- El ámbito europeo
Los principales instrumentos normativos del Consejo de Europa —como el Convenio de Oviedo y sus protocolos adicionales— se centran de forma prioritaria en el ámbito biomédico, lo que limita su aplicabilidad directa a otros contextos en los que se desarrollan y emplean las neurotecnologías.
La Unión Europea cuenta con “algunas normativas específicas para algunos sectores (como las que regulan la privacidad, la inteligencia artificial, los dispositivos y productos médicos)” que podrían aplicarse a las neurotecnologías “con el fin de proteger la dignidad humana y los derechos de las personas”, si bien “la multiplicidad de diferentes fuentes legales —como el Reglamento General de Protección de datos (de ahora en adelante, GDPR por sus siglas en inglés) , la Ley de IA y el Reglamento de Dispositivos Médicos— que se aplican a las interfaces cerebro-computadoras (BCI) podría generar conflictos de leyes, dificultades de interpretación e incertidumbre tanto para los ciudadanos como para las empresas”19, puesto que la UE no cuenta con un marco regulatorio específico sobre la materia.
3.1.1.- El Convenio de Oviedo y sus protocolos adicionales
El Convenio de Oviedo de 1997 (Convenio sobre Derechos Humanos y Biomedicina del Consejo de Europa) representa el principal instrumento vinculante a nivel europeo en materia de bioética. Con el fin de garantizar la primacía del ser humano frente al progreso científico, configura “un conjunto mínimo de principios bioéticos, que (…) se fundamentan en el respeto a la dignidad personal, los derechos humanos y las libertades fundamentales”20.
Su ámbito de aplicación incluye cualquier intervención en el ámbito de la biomedicina que pueda afectar la dignidad, identidad e integridad de la persona. En concreto, el art. 1 establece que los Estados parte "protegerán al ser humano en su dignidad y su identidad y garantizarán a toda persona, sin discriminación alguna, el respeto a su integridad y a sus demás derechos y libertades fundamentales con respecto a las aplicaciones de la biología y la medicina”; el art. 2 dispone que “el interés y el bienestar del ser humano deberán prevalecer sobre el interés exclusivo de la sociedad o de la ciencia”; el art. 5 señala que “una intervención en el ámbito de la sanidad sólo podrá efectuarse después de que la persona afectada haya dado su libre e informado consentimiento”21.
Las disposiciones del Convenio “que regulan los principios generales en la materia, están llamadas a ser desarrolladas ulteriormente”22 en virtud del art. 31, que establece que “podrán redactarse protocolos de conformidad con lo dispuesto en el artículo 32, con el fin de desarrollar, en los ámbitos específicos, los principios contenidos en el presente Convenio”23. Hasta la fecha se han aprobado cuatro Protocolos adicionales “sobre aspectos concretos que se proyectan en campos determinados de la actividad biomédica, a saber: sobre la prohibición de la clonación de seres humanos (1998), sobre trasplantes de órganos y tejidos de origen humano (2002), sobre investigación biomédica (2005) y sobre biomedicina y pruebas genéticas con fines de salud (2008)”24.
Aunque el Convenio no menciona específicamente las neurotecnologías, sus disposiciones son directamente aplicables cuando estas se emplean en el ámbito de la medicina y la investigación clínica. Sin embargo, su aplicabilidad se limita expresamente al entorno biomédico, lo que genera un vacío normativo significativo ante el desarrollo y uso creciente de neurotecnologías en contextos no médicos, como el entretenimiento o la mejora cognitiva. Estas tecnologías, que permiten acceder, registrar o incluso modificar la actividad cerebral, plantean desafíos éticos y jurídicos similares a los del ámbito clínico, pero quedan fuera del alcance de las salvaguardias previstas por el Convenio.
3.1.2.- El Convenio Marco sobre Inteligencia Artificial, Derechos Humanos, Democracia y Estado de Derecho
El Convenio Marco sobre Inteligencia Artificial del Consejo de Europa, adoptado en 2024, establece obligaciones generales para que los Estados garanticen que el diseño, desarrollo y uso de sistemas de IA sean compatibles con los derechos humanos.
El Convenio nace en respuesta a la preocupación “por que determinadas actividades en el marco del ciclo de vida de los sistemas de inteligencia artificial pueden minar la dignidad humana y la autonomía individual, los derechos humanos, la democracia y el Estado de Derecho”25.
Su ámbito de aplicación abarca todas las “actividades en el marco del ciclo de vida de los sistemas de inteligencia artificial que son susceptibles de interferir en los derechos humanos, la democracia y el Estado de Derecho”, llevadas a cabo por autoridades públicas o por agentes privados (art. 3)26.
La IA hace posible buena parte de las aplicaciones de las neurotecnologías – tanto en ámbito médico, como no médico – y, entre ellas, las interfaces cerebro-máquina o BCIs, protagonistas del discurso. Como resultado, aunque el Convenio no menciona explícitamente las neurotecnologías, sí puede aplicarse a ellas en la medida en que estas incorporen sistemas de inteligencia artificial.
A diferencia del IA Act —que se analizará a continuación— no regula productos específicos, sino que orienta a los legisladores nacionales a alinear sus marcos jurídicos y establecer “principios generales y normas comunes que rijan las actividades en el marco del ciclo de vida de los sistemas de inteligencia artificial” para preservar los valores compartidos y aprovechar los beneficios de la IA para el fomento de estos valores27.
3.1.3.- El Reglamento Europeo sobre Inteligencia Artificial (IA ACT)
El Reglamento Europeo sobre Inteligencia Artificial es la primera ley integral y vinculante del mundo sobre IA, aprobada para “promover la adopción de una inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando al mismo tiempo un elevado nivel de protección de (…) los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea (…), proteger frente a los efectos perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la innovación”28.
Conviene recordar que la IA es parte integrante de otras tecnologías disruptivas —entre ellas, las neurotecnologías— y que, claramente, al combinarse la IA con otras tecnologías, los desafíos éticos y jurídicos se disparan: las cuestiones resultantes del uso convergente entre IA y neurotecnologías van mucho más allá de las preguntas generadas solo por la IA a las que se ha intentado responder en la Ley.
Aunque no se mencionan de manera específica, la Ley de IA podría abarcar todas las neurotecnologías basadas en IA. De ser así, las neurotecnologías podrían encajar en dos categorías: prácticas de riesgo inaceptable y/o prácticas de alto riesgo.
La primera está prohibida independientemente del consentimiento de la persona y, de acuerdo con el art. 5 incluye, entre otras cosas:
“la introducción en el mercado, la puesta en servicio o la utilización de un sistema de IA que se sirva de técnicas subliminales que trasciendan la conciencia de una persona o de técnicas deliberadamente manipuladoras o engañosas con el objetivo o el efecto de alterar de manera sustancial el comportamiento de una persona o un colectivo de personas, mermando de manera apreciable su capacidad para tomar una decisión informada y haciendo que tomen una decisión que de otro modo no habrían tomado, de un modo que provoque, o sea razonablemente probable que provoque, perjuicios considerables a esa persona, a otra persona o un colectivo de personas” (art. 5.a)
“la introducción en el mercado, la puesta en servicio para este fin específico o el uso de sistemas de IA para inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto cuando el sistema de IA esté destinado a ser instalado o introducido en el mercado por motivos médicos o de seguridad” (art. 5.f)29
De aplicarse esas disposiciones, se prohibiría todo tipo de manipulación mental y la lectura mental no consentida en ciertos entornos —si bien sólo en caso de que estas tecnologías se utilicen para la inferencia de emociones, no abordándose la detección de otros estados mentales como pensamientos, intenciones, procesos cognitivos—.
Por otro lado, un sistema de IA se considerará de alto riesgo “cuando plantee un riesgo importante de causar un perjuicio a la salud, la seguridad o los derechos fundamentales de las personas físicas” (art. 6.3) y requerirá un proceso continuo de “determinación y análisis de los riesgos conocidos y previsibles” y la “estimación y la evaluación de los riesgos que podrían surgir” (art. 9.2)30.
En cuanto a los neuroderechos, la Ley sólo aborda de manera explícita, amplia y detallada la protección contra el sesgo algorítmico: entre otras disposiciones, el art. 10 menciona la importancia de “detectar, prevenir y mitigar” todos los “posibles sesgos que puedan afectar a la salud y la seguridad de las personas, afectar negativamente a los derechos fundamentales o dar lugar a algún tipo de discriminación prohibida por el Derecho de la Unión”31.
De todos modos, de manera parecida a lo que ocurría con el GDPR, no está claro qué disposiciones de la Ley podrían aplicarse a las neurotecnologías. Considerando el impacto de las neurotecnologías para la persona y la sociedad entera, es necesario y preferible que la Ley las mencione y regule explícitamente.
Una de las críticas que se han movido hacia la Ley de IA se relaciona con la alfabetización, es decir, el hecho de poseer unas nociones básicas sobre el funcionamiento de la IA: la Ley establece la obligación de adquirir esos conocimientos únicamente para los responsables del desarrollo de los sistemas de IA, si bien “la alfabetización en IA no debería ser solo para los que se ocupan de IA, sino y sobre todo para los que son tratados por dichos sistemas y eventualmente sufren las consecuencias”32. La importancia de la cuestión se debe a que, sin conocimientos sobre la IA, “corremos el riesgo de no poder entender ni detectar los problemas, ni, consecuentemente, oponernos a los distintos usos de la IA tanto por parte del sector público como del sector privado”33.
Aplicando el discurso anterior a las neurotecnologías, la alfabetización de la sociedad europea permitiría no solo el uso adecuado de estos dispositivos —sobre todo en ámbito no médico— sino que también llevaría a todos los usuarios —consumidores y pacientes— a ser conscientes de los riesgos derivados de un uso inapropiado, evaluarlos y conocer y ejercer sus derechos frente a esos peligros.
Dicho lo anterior, tres son los elementos clave: regulación, protección de los derechos fundamentales y alfabetización neurotecnológica.
3.1.4.- Reglamento General de Protección de datos (GDPR)
En cuanto a la protección de datos, el GDPR se presenta como una herramienta valiosa para la protección de los datos personales, si bien existen ciertos límites a la hora de suponer que los datos neuronales tengan cabida en la definición proporcionada por el Reglamento —sobre todo en caso de anonimizarse— 34 que se refiere a los datos personales como “toda información sobre una persona física identificada o identificable” y define el consentimiento necesario para su tratamiento como “toda manifestación de voluntad libre, específica, informada e inequívoca por la que el interesado acepta, ya sea mediante una declaración o una clara acción afirmativa, el tratamiento de datos personales que le conciernen”35.
El Tribunal de Justicia de la Unión Europea (en adelante TJUE) se ha expresado en varias ocasiones acerca del concepto de datos personales. Entre ellas, cabe destacar dos casos: Nowak v. Data Protection Commissioner y Breyer v. Germany. En el primero, el TJUE aclaró que debe entenderse por datos personales cualquier información que pueda relacionarse con el interesado y vincularse a una persona en particular, si bien insistió en que la capacidad de identificar al sujeto de los datos indirecta o indirectamente o la vinculabilidad es fundamental para determinar la aplicación del GDPR36. Sin embargo, en el segundo caso del TJUE amplió el concepto de datos personales considerando que, si bien ciertas categorías de datos, por sí solas, no constituyen información relacionada con una persona identificada al no revelar directamente la identidad de la persona, debe tenerse en cuenta que la posibilidad de combinar esos datos con informaciones adicionales sí podría llevar a la identificación, y en caso de ser posible, esos datos deberían incluirse bajo la categoría de datos personales37. Este tipo de razonamiento podría aplicarse a los datos cerebrales anonimizados que, combinados con otras informaciones, podrían llevar a la re-identificación del titular de esos datos.
Claramente, en caso de que el uso de las neurotecnologías se produzca en ámbito clínico y bajo la supervisión médica, los datos generados serán datos de salud y, por ende, especialmente sensibles. No obstante, en caso de no encajar en la categoría de datos personales, la privacidad mental estaría bajo amenaza, sobre todo por el uso de neurotecnologías de consumo.
En síntesis, no está claro cómo la categorización del GDPR se aplicaría a los datos cerebrales, sobre todo en ámbito no médico.
Por todo lo anterior, es conveniente y deseable revisar y reformular las disposiciones contenidas en el GDPR para que todos los estados mentales —“cognitivos, afectivos y conativos”— encuentren protección en la regulación como datos especialmente sensibles: “«cognitivo» se refiere específicamente a procesos relacionados con el conocimiento, la comprensión y el pensamiento, «afectivo» pertenece a las emociones y los sentimientos, y «conativo» involucra deseos, voluntad e intenciones de comportamiento relacionadas”38.
3.1.5.- El Reglamento Europeo de Productos Sanitarios (MDR)
Además, conviene hacer referencia a la regulación sobre productos sanitarios de la UE y, en concreto: al Reglamento 2017/745 del Parlamento Europeo y del Consejo, que sí menciona explícitamente las neurotecnologías invasivas y no invasivas, médicas y no médicas; al Reglamento de Ejecución 2022/2346 de la Comisión, que establece algunas especificaciones para los productos sin finalidad médica enumerados en el Anexo XVI del primer Reglamento —entre ellos, las neurotecnologías de estimulación cerebral—; al Reglamento de Ejecución 2022/2347 de la Comisión, que los clasifica como sistemas de clase III, es decir, de alto riesgo.
El ámbito de aplicación del Reglamento (UE) 2017/745 se extiende a algunos productos mencionados en el Anexo XVI que, si bien no persiguen fines médicos, se basan en tecnologías similares a productos análogos con fines médicos (art. 1.2): entre ellos, “equipos destinados a la estimulación cerebral que aplican corrientes eléctricas o campos magnéticos o electromagnéticos que penetran en el cráneo para modificar la actividad neuronal del cerebro” o, en palabras simples, todos los dispositivos de estimulación cerebral no invasivos utilizados en ámbito no médico39. Lo anterior sugiere “que los neurodispositivos que interactúan con el cerebro midiendo («investigación») o alterando («modificación») la actividad del sistema nervioso” serán tratados como “dispositivos médicos en todos los ámbitos, independientemente del contexto de su uso”40.
El Anexo VII del Reglamento (UE) 2022/2346 añade que esas disposiciones se aplican a “dispositivos para la estimulación de corriente alterna transcraneal, la estimulación de corriente continua transcraneal, la estimulación magnética transcraneal y la estimulación de ruido aleatorio transcraneal”41. Es decir, que “no se aplica a dispositivos invasivos como los electrodos implantados para grabaciones neuronales o estimulación cerebral profunda porque estos dispositivos aún no se comercializan con fines no médicos en la UE” y “tampoco se aplica a los dispositivos de neuroimagen no invasivos para fines no médicos, como los auriculares EEG para la meditación o las pulseras para controlar computadoras”42.
Finalmente, el Reglamento (UE) 2022/2347 clasifica esas tecnologías como dispositivos de clase III (art. 1.c), puesto que “según las pruebas científicas disponibles (…) el uso de estos productos puede causar efectos secundarios, por ejemplo, desarrollo atípico del cerebro, patrones anormales de actividad cerebral”, es decir, modificaciones no deseadas que pueden tener efectos duraderos y ser difíciles de revertir43. En pocas palabras, la clasificación se lleva a cabo en base al riesgo que, de acuerdo con el art. 2.23 del Reglamento (UE) 2017/45, se configura como “la combinación de la probabilidad de que se produzca un daño y la gravedad de dicho daño”44. Si bien, en muchos casos, los riesgos son raros, se considera el gran impacto que tendrían en caso de verificarse, lo que da lugar a una regulación bastante estricta, requiriéndose numerosos ensayos clínicos y una evaluación de impacto y riesgos antes de la comercialización de dispositivos no médicos.
Conviene recordar que la regulación no abarca los dispositivos de neuroimagen con fines no médicos. No obstante, de incluirse en la regulación, se propone colocarlos en la clase de riesgo I, “para evitar la sobrerregulación, especialmente el requisito de ensayos clínicos que podría sofocar seriamente la innovación”45.
Como he mencionado en las páginas anteriores, los dispositivos de lectura mental con fines no médicos son los que más preocupaciones generan en cuanto a la privacidad, y el hecho de no incluirlos en la regulación se traduce en la falta de protección frente a la posibilidad de que los datos mentales de los usuarios se recopilen y compartan con terceros sin su consentimiento
No obstante, la comunidad científica parece no estar de acuerdo con la clasificación de las neurotecnologías no invasivas y no médicas como dispositivos de alto riesgo (grupo III): la European Society for Brain Stimulation (ESBS), un grupo de profesionales especializados en la investigación de las neurotecnologías no invasivas, consideran “inapropiado” clasificar esas tecnologías como si tuvieran el mismo riesgo que las neurotecnologías invasivas y afirman que se trata de una decisión que se ha tomado sin tener en cuenta las evidencias científicas46. Además de generar costes más altos y retrasos en la investigación y desarrollo, dicha clasificación estaría comprometiendo la influencia de los investigadores europeos a nivel mundial y perjudicando a los ciudadanos47.
Claramente, la falta de consenso acerca del peligro neurotecnológico y de cómo abordarlo, se traduce en la falta de un marco regulatorio específico, exhaustivo y coherente sobre neurotecnologías.
3.1.6.- La Declaración de León
Con la Declaración de León, impulsada en 2023 por la presidencia española del Consejo de la Unión Europea, los Estados miembros se comprometieron a iniciar “una reflexión sobre la promoción de neurotecnologías centradas en la persona que tenga en cuenta los derechos fundamentales”: tras definir las neurotecnologías, se pone el foco en las “aplicaciones no invasivas y no médicas” que, si bien “presentan una nueva oportunidad para transformar la educación, el bienestar o el entretenimiento a través de la neuroestimulación o la modulación y estimulación cerebral”, plantean “cuestiones cruciales que requieren un debate, por ejemplo, en lo referente al respeto de los derechos humanos” y que se tengan “en cuenta los derechos de los consumidores y las implicaciones para la privacidad, así como ciertas cuestiones críticas para la salud, tanto en términos de efectos físicos y mentales sobre los individuos como de consecuencias más amplias para la salud pública48.
Si bien se valora positivamente “el objetivo de una neurotecnología «europea», útil, eficaz y confiable”, una de las críticas que se han movido hacia la Declaración es “que podría haber sido más concreta respecto a cuáles son los riesgos verdaderamente nuevos que están planteados en orden a la conciencia, la privacidad o intimidad cerebral, la igualdad, la libertad, y la autonomía del pensamiento” para que “los ciudadanos comprendieran mejor lo que está en juego, y dieran importancia a la protección de sus derechos”49.
3.1.7.- El caso de España
En 2021 el Gobierno de España aprobó la Carta de Derechos Digitales, un documento no vinculante que “se limita a ser un marco de referencia para las autoridades públicas” y servir “como guía o modelo para futuros proyectos legislativos”50, si bien constituye una base inicial sólida para la promoción de una neurotecnología humanista —que se desarrolle “teniendo en cuenta el bienestar humano de manera integral y la promoción de los derechos humanos”— “en el marco del humanismo tecnológico y los derechos digitales”51.
Conviene recordar “que, aunque cartas como esta no están destinadas a ser textos legalmente vinculantes, sí ofrecen marcos de referencia y herramientas para interpretar las leyes existentes” y, sobre todo, al no requerir un proceso legislativo formal, se presentan como una solución rápida para promover el desarrollo de esas tecnologías mientras se aboga por que el marco jurídico se adapte al “ritmo rápido del desarrollo tecnológico”52.
La Carta proclama seis categorías de derechos y el apartado XXVI de la sección 5 —dedicado a los “derechos digitales en entornos específicos”— se refiere a los “derechos digitales en el empleo de las neurotecnologías”. En las consideraciones previas se lee que el objetivo no es crear derechos nuevos, sino “perfilar los más relevantes en el entorno y los espacios digitales”; “reconocer los novísimos retos de aplicación e interpretación que la adaptación de los derechos al entorno digital plantea”; “asegurar la existencia de un marco abierto de reflexión que permita mejorar la adecuación del marco jurídico a las nuevas realidades”53. En cuanto a las neurotecnologías, la Carta menciona que “las condiciones, límites y garantías” de su uso podrán ser reguladas para: proteger la identidad; garantizar la autodeterminación; asegurar la confidencialidad y seguridad de los datos cerebrales; regular las neurotecnologías susceptibles de afectar la integridad; asegurar que no se utilicen datos sesgados; regular las neurotecnologías de mejora54. En síntesis, se mencionan todos los bienes jurídicos que mueven la propuesta de los neuroderechos, si bien se advierte de que no se trata de nuevos derechos, sino de adaptar los existentes a las nuevas exigencias y nuevos retos. Dicho lo anterior, “salta a la vista que la redacción del precepto, más allá de efectuar un mandato al legislador para la regulación, trata de introducir en la Carta la enumeración de los neuroderechos de la propuesta de la Fundación Neuroright, aunque evita mencionar cualquier referencia al respecto” por lo que “más que arrojar luz sobre cómo debería acometerse dicho proceso normativo, introduce una serie de conceptos teóricos hasta la fecha no resueltos (…) tales como la identidad personal, el libre albedrío, la integridad y privacidad mental, o el aumento cognitivo, que requieren aún alcanzar ciertos consensos, principalmente en el plano internacional”55.
3.2.- El ámbito latinoamericano
América Latina ha jugado un papel pionero en la regulación de las neurotecnologías y la protección de los neuroderechos, anticipándose a los desafíos éticos y legales que surgen con estos avances y adoptando un enfoque proactivo que posiciona a la región como referente en este campo y, a la vez, como objeto de crítica por el riesgo de que tal rapidez en la regulación de lugar a “proposiciones normativas apresuradas e inadecuadas”, teniendo en cuenta que “los conceptos empleados por las iniciativas de neuroderechos están lejos de tener validez o aceptación universal”56.
3.2.1.- La Declaración de Principios Interamericanos del Comité Jurídico de la OEA
La Declaración de Principios Interamericanos del Comité Jurídico de la OEA es otra respuesta de soft law frente a los retos planteados por el mal uso de las neurotecnologías. Si bien no obliga a los Estados miembros a adoptarla, sí establece estándares que los países pueden considerar al desarrollar su propia legislación sobre neurotecnologías y derechos humanos: el Comité Jurídico define la Declaración “como una directriz importante para que las personas puedan aprovechar con plenitud las ventajas y beneficios de los avances científicos y sus aplicaciones en el campo de la neurociencia y desarrollo de las neurotecnologías en la seguridad de que no habrá menoscabo de sus derechos humanos”, enunciando una serie de principios con el fin de establecer “estándares internacionales que contribuyan a orientar y armonizar las regulaciones nacionales necesarias en esta materia”57. Estos principios son “el resultado de un trabajo de análisis de las normas y estándares internacionales vigentes que pueden aplicarse en el desarrollo de las neurotecnologías para adelantarse en las buenas prácticas y combatir cualquier situación que tienda a vulnerar los derechos de las personas”58. Entre otros, se mencionan: la identidad y el libre desarrollo de la personalidad (Principio 1); la protección de los datos neuronales como “datos personales altamente sensibles” (Principio 3); el acceso equitativo a las neurotecnologías (Principio 5); la “integridad neurocognitiva” (Principio 7)59. Además, si bien se defiende la “aplicación terapéutica exclusiva respecto al aumento de las capacidades cognitivas” (Principio 6), se añade que “los Estados procurarán regular con especial cautela el uso de las neurotecnologías para aumentar las habilidades cognitivas de las personas”, por lo que se da cabida al uso de las neurotecnologías de mejora, si bien se advierte de la necesidad de tener “especial cuidado y precaución” y de adoptar “pautas legislativas para delimitar con especial cautela los contextos de utilización de tecnologías de neuro mejoramiento”60.
En ámbito internacional, “el soft law ha ido ganando progresivamente fuerza como un instrumento más resiliente, capaz de adaptarse a los cambios rápidos mientras supera las formalidades que bloquean los procesos de creación de tratados”, cumpliendo “una función crucial para prevenir la fragmentación y garantizar que este marco de gobernanza esté basado en el derecho de los derechos humanos”61.
3.2.2.- La Ley Modelo de Neuroderechos del Parlantino
La Ley Modelo de Neuroderechos del Parlantino ha sido, probablemente, la solución más cuestionada.
Aprobada en 2023 por el Parlamento Latinoamericano y Caribeño, pretende proporcionar a los países miembros “elementos de juicio básicos para legislar sobre neuroderechos” (art. 1) – por lo que, a diferencia de la Declaración de Principios Interamericanos, se mencionan expresamente los neuroderechos y se definen, además, como “un nuevo marco jurídico internacional de derechos humanos destinados específicamente a proteger el cerebro y su actividad (…) que se puede entender en dos aspectos: la privacidad mental (…) y el derecho a la identidad”62. Ante todo, el hecho de “señalar que la palabra neuroderechos es fungible, intercambiable o equivalente a los derechos del cerebro” es un “error conceptual”, puesto que los neuroderechos deben atribuirse “a la persona como un todo”63: “la regulación normativa debe considerar al ser humano en su integridad de cuerpo y mente, y no reducirlo únicamente a su soporte material, es decir, su cerebro, ya que es titular y portador de bienes morales y jurídicos inherentes a su naturaleza personal”64.
Además, “se obvia la necesidad previsible de modificar las Constituciones de cada uno de los países, pues del tenor del precepto parece que sea a través de una ley como se deba definir la fundamentalidad de los derechos”65.
El art. 5 menciona la neuroética como parte del conjunto de principios éticos universales que inspiraron la ley y una serie de derechos fundamentales que esta “debe incluir y preservar” y que son, en palabras simples, todos los neuroderechos propuestos66. No obstante, no parece convincente el hecho de “entender que la neuroética sea un principio universal”, ya que sería más bien “una disciplina interdisciplinaria con múltiples visiones y perspectivas que varían por cada autor y región”67. De hecho, en el Anexo de la misma Ley se lee que, si bien deben tomarse como referente, “no se trata de definiciones universales y concluyentes”68.
Además, “de las más de noventa citas a pie de página que se pueden extraer del documento Anexo, la inmensa mayoría de ellas son fuentes de internet” citadas con poca precisión, lo que hace que el Anexo Marco Teórico Conceptual General esté “lejos de ser un documento con bases filosóficas y conceptuales, académicamente sustentadas”, siendo más bien “un texto de recopilación y divulgación de fuentes sin carácter académico ni investigativo”69.
Dicho lo anterior, “adoptar un marco de este tipo podría llevar a la creación de políticas públicas y regulaciones (…) apresuradas y mal fundamentadas, que no logren abordar los verdaderos desafíos planteados por las neurotecnologías”70: su “cuestionable técnica normativa (…) lastra desde su mismo inicio las posibilidades reales de servir a su propósito”71.
3.2.3.- El caso de Chile
Chile fue el primer país en incorporar la propuesta de los neuroderechos a su marco jurídico.
En 2020 se presentó una reforma constitucional (Boletín Nº 13827-19), que fue aprobada en 2021 con la promulgación de la Ley 21.383 y la consecuente modificación del art. 19.1 con la agregación de un párrafo nuevo en el que se lee que “el desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respecto a la vida y a la integridad física y psíquica” y que la ley se encargará de regular “los requisitos, condiciones y restricciones para su utilización en las personas”, debiéndose proteger de manera prioritaria “la actividad cerebral, así como la información procedente de ella”72.
En 2020 se presentó también el Proyecto de Ley sobre protección de los neuroderechos y la integridad mental (Boletín Nº 13828-19), que se está actualmente discutiendo en la Cámara. Entre otras cosas, en el borrador inicial de la propuesta, se menciona la necesidad de dar respuesta efectiva a la protección de estos nuevos derechos fundamentales, que constituyen el contenido esencial de un nuevo “derecho a la neuroprotección”, entendido como una manifestación de la dignidad humana que otorga a su titular un conjunto de derechos como: la protección de su integridad física y psíquica; el derecho a la privacidad mental; a la identidad personal y autodeterminación; al acceso equitativo a los avances en neurotecnologías (arts. 1 y 10)73. Además, se define como “norma eje” la prohibición de acceder e intervenir en el cerebro sin contar con el consentimiento libre, expreso e informado de la persona —tanto en ámbito médico, como no médico, y tanto con tecnologías invasivas, como no invasivas— (art. 3) y se prohíbe todo tipo de neurotecnología que pueda perjudicar la continuidad psicológica de la persona, es decir, su identidad, o la autonomía de su voluntad y su libre elección (art. 4)74. Por último, se definen los datos neuronales como una categoría especial de datos sensibles de salud (art. 6) y se establece que su recopilación, almacenamiento, tratamiento y difusión debe ajustarse a las disposiciones contenidas en la ley sobre trasplante y donación de órganos (art. 7), con lo cual los datos cerebrales, tanto en ámbito médico, como no médico, deben tratarse con la confidencialidad reservada para los datos médicos, especialmente sensibles75.
En cuanto a la reforma constitucional, se valora positivamente la decisión de eliminar algunos “conceptos controvertidos” como identidad, libertad y consentimiento —que sí estaban presentes en la redacción inicial— “por la dificultad que a día de hoy sigue presentando su conceptualización”76.
En cuanto al proyecto de Ley, se echa en falta “un mejor desarrollo y determinación del contenido esencial de los nuevos neuroderechos (…) que establezca con claridad su esfera de protección”, para que esas medidas se conviertan en instrumentos “de real y efectiva protección y no en un listado de situaciones que por su imprecisión terminológica genere mayores inconvenientes al tratar de determinarse su debida interpretación, aplicación y efectos”77.
El Proyecto de Ley parece haber atendido las críticas, habiéndose introducido importantes modificaciones: el texto aprobado en el primer trámite constitucional abandona la intención de reconocer nuevos derechos y, por medio de un articulado “mucho más concreto y preciso que el borrador inicial, se centra únicamente en regular el uso de las neurotecnologías, aplicando el modelo médico a aquellas destinadas para el consumo” sin “intención de aprobar o reconocer neuroderechos”78. Se mantiene la consideración de los datos neuronales como datos sensibles (art. 11) y se pone el foco en el consentimiento informado expreso por medio de un formulario que deberá contener información sobre “las normas de privacidad de datos neuronales personales” y sobre los posibles efectos de las neurotecnologías “de acuerdo a la evidencia disponible” (art. 5)79.
No obstante, la reforma constitucional parece ser problemática bajo algunos puntos de vista. Ante todo, por la inclusión en el texto constitucional de conceptos ambiguos resultantes de un debate no resuelto: “aunque novedosa y atractiva para el público, la enmienda chilena relativa a los derechos neurológicos debe aclararse desde el punto de vista epistemológico (…): sin un examen preciso de algunos problemas preliminares (como la diferencia entre datos neuronales y mentales; la definición de los conceptos utilizados en las principales enmiendas y la distinción entre valores morales y derechos), parece imposible abordar adecuadamente los neuroderechos”80. En segundo lugar, por las posibles consecuencias no deseadas de una regulación apresurada y demasiado estricta que estaría limitando el desarrollo científico y tecnológico sobre la base de una narrativa especulativa poco acorde con la realidad: la regulación de las neurotecnologías “deben basarse en la humildad epistemológica, es decir, en la capacidad de adherirse estrictamente a la realidad científica”, evitando confiar en “predicciones no respaldadas”81, separando claramente ciencia y especulación y diferenciando entre “las preocupaciones del presente, del cercano futuro y del futuro distante”82.
En síntesis, “si bien la regulación legal debe, por supuesto, ser anticipatoria, también debe basarse en una evaluación realista del poder y del potencial de las tecnologías”: lo que se cuestiona es “la distinción no clara entre las preocupaciones inmediatas que requieren una acción regulatoria rápida, las preocupaciones anticipadas que pueden o no materializarse en algún momento en el futuro y que a menudo se entremezclan con la ciencia ficción, y los experimentos mentales que se basan en la imaginación para ilustrar un punto normativo”83. Por último, la reforma constitucional chilena presentaría un claro desequilibrio entre derechos positivos y negativos: “si bien los derechos negativos son importantes para proteger las libertades civiles, una agenda prematura y poco matizada de los neuroderechos podría socavar la capacidad restaurativa de las neurotecnologías para mejorar la autonomía”, sobre todo para “individuos cuya condición excluye la capacidad de dar su consentimiento”84. En su formulación actual, el art. 19.1 y, en concreto, el concepto de integridad y consentimiento que defiende, podría frenar el desarrollo neurotecnológico y los beneficios que de ello derivan para el libre desarrollo de la personalidad y vida humana digna de estas personas, perjudicando el ejercicio de sus derechos.
4.- CONCLUSIÓN
La proliferación de respuestas jurídicas distintas y fragmentadas en el ámbito nacional e internacional es una clara muestra de que el debate sobre los neuroderechos sigue abierto y, sobre todo, no resuelto.
Si bien existe un amplio consenso en torno a que “es obligatorio, al abordar jurídicamente esta clase de regulación, hacerlo desde la perspectiva de los derechos fundamentales afectados por las nuevas tecnologías”, no queda claro “cuál es el respectivo papel de los Estados o las organizaciones en un mundo caracterizado por la globalización tecnológica y las grandes corporaciones que operan en ámbitos transnacionales de mercado; o cuál es la manera más eficaz de regular (…) en los distintos niveles y sectores de los ordenamientos jurídicos, tanto nacionales como internacionales”85.
Lo que es cierto es que “el avance regulativo no puede estar regulado, exclusivamente, desde la política y la ciencia”, siendo “imprescindible la actuación del derecho, (…) puesto que la constatación de ciertos descubrimientos por la ciencia, máxime de esta envergadura, no puede concluir con la elaboración de normas sin un previo examen desde la teoría del derecho”86.
En todo caso, el objetivo no es desincentivar la innovación, sino que estas tecnologías se implementen siendo conscientes tanto de los beneficios médicos, como de los riesgos para los derechos fundamentales, asegurándonos de aprovechar sus beneficios incuestionables sin perjudicar la autonomía, dignidad y libre desarrollo de todas las personas.
5.- BIBLIOGRAFÍA
Asamblea General, Efectos, oportunidades y retos de la neurotecnología en relación con la promoción y la protección de todos los derechos humanos. Informe del Comité Asesor del Consejo de Derechos Humanos, 8 de agosto de 2024, A/HRC/57/61.
Baeken, Chris, et al. "European reclassification of non-invasive brain stimulation as class III medical devices: A call to action." Brain Stimulation: Basic, Translational, and Clinical Research in Neuromodulation 16.2 (2023): 564-566.
Barcia Lehmann, R. et al., “¿Cómo avanzar en los nuevos neuroderechos y su regulación? Comentarios al proyecto de reforma constitucional (Boletín n. 13827-19) y al proyecto de ley (Boletín n. 13828-19)”, Documento de Trabajo n. 5 (2021): pp. 1-31.
Borbón, D. et al., “El preocupante clausulado de la Ley Modelo de Neuroderechos del Parlantino”, IUS ET SCIENTIA, vol. 9, n. 2 (2023): pp. 228-260.
Borbón, D., “What a NeuroRights legislation should not look like: the case of the Latin American Parliament”, Frontiers in Neuroscience, vol. 18 (2025): pp. 1-5.
Bublitz, C. Y Lightart, S., “The New Regulation of Non-Medical Neurotechnologies in the European Union: Overview and Reflection,” Journal of Law and the Biosciences 11, n. 2 (2024): pp. 1-15.
Bublitz, J.C., “Novel Neurorights: From Nonsense to Substance”, Neuroethics, vol. 15, núm. 7 (2022): pp. 1-15.
Congreso Nacional de Chile, Ley 21.383: Modifica la Carta Fundamental para establecer el desarrollo científico y tecnológico al servicio de las personas, 2021.
———, Proyecto de Ley sobre Protección de los Neuroderechos y la Integridad Mental, 2020.
Congreso Nacional de Chile, Proyecto de Ley sobre Protección de los Neuroderechos y la Integridad Mental
Consejo de Europa, Common Human Rights Challenges Raised by Different Applications of Neurotechnologies in the Biomedical Fields, 2021.
Consejo de Europa, Convenio marco sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho, 17 de mayo de 2024.
Consejo de Europa, Convenio para la protección de los derechos humanos y la dignidad del ser humano con respecto a las aplicaciones de la biología y la medicina (Convenio de Oviedo), 4 de abril de 1997.
De Asís, R., “Sobre la propuesta de los neuroderechos”, Derechos y libertades, núm.47 (2022): pp. 51-70.
Declaración de León sobre la neurotecnología europea, 2023.
Digital Future Society, Humanistic neurotechnology: a new opportunity for Spain, 2023.
Fins, J.J., “The Unintended Consequences of Chile’s Neurorights Constitutional Reform: Moving beyond Negative Rights to Capabilities”, Neuroethics, vol. 15, núm. 26 (2022): pp. 1-11.
Ienca, M. y Andorno, R., “Hacia nuevos derechos humanos en la era de la neurociencia y neurotecnología”, Análisis Filosófico, vol. 41, núm. 1 (2021): pp. 145-185.
Ienca, M., et al., “Towards a Governance Framework for Brain Data”, Neuroethics, vol. 15, n. 20 (2022): pp. 1-14.
Laukyte, M., “Reflexión sobre los derechos fundamentales en la nueva ley de inteligencia artificial”, Derechos y libertades, n. 51 (2024): pp. 151-175.
Lavazza, A. et al., “Neuralink’s brain computer interfaces: medical innovations and ethical challenges”, Frontiers in Human Dynamics, vol. 7 (2025): pp. 1-9.
Magee, P., Ienca, M. Y Farahany, N., “Beyond Neural Data: Cognitive Biometrics and Mental Privacy”, Neuron, n. 112 (2024): pp. 3017-3028.
Marín Castán, M. L., “Sobre el significado y alcance de los hitos más decisivos en el desarrollo de la bioética universal: el Convenio de Oviedo y la Declaración Universal sobre Bioética y Derechos Humanos de la UNESCO”, Revista de Bioética y Derecho, núm. 52 (2021): pp. 155-172.
Moreu Carbonell, E., “The Regulation of Neuro-Rights”, European Review of Digital Administration & Law”, vol. 2, núm. 2 (2021): pp. 149-162.
Organización de Estados Americanos, Declaración de Principios Interamericanos en materia de Neurociencias, Neurotecnologías y Derechos Humanos, 2023.
Parlamento Latinoamericano y Caribeño, Ley Modelo de Neuroderechos para América Latina y el Caribe, 2023.
Reche Tello, N., “Nuevos derechos frente a la neurotecnología: la experiencia chilena”, Revistra de Derecho Político, núm. 112 (2021): pp. 415-446.
———., Mens Iura Fundamentalia: la neurotecnología ante la Constitución, España: Colex (2024).
Recommendation of the Council on Responsible Innovation in Neurotechnology, OECD/LEGAL/0457, 11 de diciembre de 2019.
Reglamento de Ejecución 2022/2346 de la Comisión por el que se establecen especificaciones comunes para los grupos de productos sin finalidad médica prevista enumerados en el anexo XVI del Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo, sobre los productos sanitarios, 1 de diciembre de 2022.
Ruiz, S. et al., “Neurorights in the Constitution: from neurotechnology to ethics and politics”, Philosophical Transactions, núm. 379 (2024): pp. 1-10.
Sanz de Galdeano, M., “La Declaración de León sobre la neurotecnología europea: Un primer paso necesario”, Diario LA LEY, núm. 77, 10 de noviembre de 2023.
Sosa Navarro, M., The role of soft law in the regulation and governance of human rights challenges posed by neurotechnology, Torino: Giappichelli (2025).
Tang, J. et al., “Semantic reconstruction of continuous language from non-invasive brain recordings”, Nature Neuroscience, vol. 26 (2023): pp. 858-866.
TJUE, Breyer v. Germany, Sentencia del 16 de octubre de 2016.
TJUE, Nowak v. Data Protection Commissioner, Sentencia del 20 de diciembre de 2017.
UNESCO, Ethical issues of neurotechnology, 2022, disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000383559 (última consulta 28 de marzo de 2025)
Unión Europea, Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y la libre circulación de estos datos por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos), 27 de abril de 2016.
———, Reglamento 2017/745 del Parlamento Europeo y del Consejo sobre los productos sanitarios, por el que se modifican la Directiva 2001/83/CE, el Reglamento (CE) 178/2002 y el Reglamento (CE) 1223/2009 y por el que se derogan las Directivas 90/385/CEE y 93/42/CEE del Consejo, 5 de abril de 2017.
———, Reglamento 2024/1689 del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) 300/2008, (UE) 167/2013, (UE) 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial), 13 de junio de 2024.
———, Reglamento de Ejecución 2022/2347 de la Comisión por el que se establecen disposiciones de aplicación del Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo en lo que respecta a la reclasificación de grupos de determinados productos activos sin una finalidad médica prevista, 1 de diciembre de 2022.
Wexler, A., “Separating neuroethics from neurohype”, Nature Biotechnology, núm. 37 (2019): pp. 988-990.
Yuste, R. et al., “Four ethical priorities for neurotechnologies and AI”, Nature, vol 551 (2017): pp. 159-163.
Yuste, R., Genser, J. Y Herrmann S., “It’s time for neuro-rights”, Horizons, núm. 18 (2021): pp. 154-164.
* Investigadora del Instituto de Derechos Humanos Gregorio Peces-Barba. Doctoranda en Estudios Avanzados en Derechos Humanos en la Universidad Carlos III de Madrid, E-mail:caniball@pa.uc3m.es. ORCID: https://orcid.org/0009-0005-1232-8817↩︎ ↩︎
1 Sosa Navarro, M., The role of soft law in the regulation and governance of human rights challenges posed by neurotechnology, Torino: Giappichelli (2025): p. XIII.↩︎ ↩︎
2 Lavazza, A. et al., “Neuralink’s brain computer interfaces: medical innovations and ethical challenges”, Frontiers in Human Dynamics, vol. 7 (2025): pp. 1-9, p. 4.↩︎ ↩︎
3 Sosa Navarro, M., The role of soft law…, cit., p. 14.↩︎ ↩︎
4 Consejo de Europa, Common Human Rights Challenges Raised by Different Applications of Neurotechnologies in the Biomedical Fields, 2021: p. 7.↩︎ ↩︎
5 Sosa Navarro, M., The role of soft law…, cit., pp. 51 y 179.↩︎ ↩︎
6 Recommendation of the Council on Responsible Innovation in Neurotechnology, OECD/LEGAL/0457, 11 de diciembre de 2019, p. 6, disponible en: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0457↩︎ ↩︎
7 Consejo de Europa, Common Human Rights Challenges…, cit., p. 5.↩︎ ↩︎
8 Ibid., p. 6.↩︎ ↩︎
9 Ibíd.↩︎ ↩︎
10 Tang, J. et al., “Semantic reconstruction of continuous language from non-invasive brain recordings”, Nature Neuroscience, vol. 26 (2023): pp. 858-866.↩︎ ↩︎
11 Yuste, R., Genser, J. Y Herrmann S., “It’s time for neuro-rights”, Horizons, núm. 18 (2021): pp. 154-164, pp. 156-157.↩︎ ↩︎
12 Yuste, R. et al., “Four ethical priorities for neurotechnologies and AI”, Nature, vol 551 (2017): pp. 159-163, pp. 160-161.↩︎ ↩︎
13 Yuste, R., Genser, J. Y Herrmann S., “It’s time for neuro-rights”…, cit., pp. 160-161.↩︎ ↩︎
14 Ienca, M. y Andorno, R., “Hacia nuevos derechos humanos en la era de la neurociencia y neurotecnología”, Análisis Filosófico, vol. 41, núm. 1 (2021): pp. 145-185, pp. 152 y 141.↩︎ ↩︎
15 Ibid., pp. 157-158, 164, 169 y 175.↩︎ ↩︎
16 De Asís, R., “Sobre la propuesta de los neuroderechos”, Derechos y libertades, núm.47 (2022): pp. 51-70, p. 70.↩︎ ↩︎
17 UNESCO, Ethical issues of neurotechnology, 2022, pp. 69-70, disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000383559↩︎ ↩︎
18 Asamblea General, Efectos, oportunidades y retos de la neurotecnología en relación con la promoción y la protección de todos los derechos humanos. Informe del Comité Asesor del Consejo de Derechos Humanos, 8 de agosto de 2024, A/HRC/57/61, párrs 58, 62 y 64. disponible en: https://documents.un.org/doc/undoc/gen/g24/133/31/pdf/g2413331.pdf↩︎ ↩︎
19 Lavazza, A. et al., “Neuralink’s brain computer interfaces…”, cit., p. 5.↩︎ ↩︎
20 Marín Castán, M. L., “Sobre el significado y alcance de los hitos más decisivos en el desarrollo de la bioética universal: el Convenio de Oviedo y la Declaración Universal sobre Bioética y Derechos Humanos de la UNESCO”, Revista de Bioética y Derecho, núm. 52 (2021): pp. 155-172, p. 158.↩︎ ↩︎
21 Consejo de Europa, Convenio para la protección de los derechos humanos y la dignidad del ser humano con respecto a las aplicaciones de la biología y la medicina (Convenio de Oviedo), 4 de abril de 1997, https://www.coe.int/en/web/conventions/full-list?module=treaty-detail&treatynum=164↩︎ ↩︎
22 Marín Castán, M. L., “Sobre el significado y alcance…”, cit., p. 160.↩︎ ↩︎
23 Consejo de Europa, Convenio de Oviedo, cit.↩︎ ↩︎
24 Marín Castán, M. L., “Sobre el significado y alcance…”, cit., p. 160.↩︎ ↩︎
25 Consejo de Europa, Convenio marco sobre inteligencia artificial, derechos humanos, democracia y Estado de Derecho, 17 de mayo de 2024, https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CONSIL:ST_12516_2024_INIT↩︎ ↩︎
26 Ibid.↩︎ ↩︎
27 Ibid.↩︎ ↩︎
28 Unión Europea, Reglamento 2024/1689 del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) 300/2008, (UE) 167/2013, (UE) 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial), 13 de junio de 2024, Considerando 1, https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=OJ:L_202401689↩︎ ↩︎
29 Unión Europea, Reglamento de Inteligencia Artificial, cit.↩︎ ↩︎
30 Ibid.↩︎ ↩︎
31 Ibid.↩︎ ↩︎
32 Laukyte, M., “Reflexión sobre los derechos fundamentales en la nueva ley de inteligencia artificial”, Derechos y libertades, n. 51 (2024): pp. 151-175, pp. 159-160.↩︎ ↩︎
33 Ibid., p. 160.↩︎ ↩︎
34 Ienca, M., et al., “Towards a Governance Framework for Brain Data”, Neuroethics, vol. 15, n. 20 (2022): pp. 1-14, p. 6.↩︎ ↩︎
35 Unión Europea, Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y la libre circulación de estos datos por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos), 27 de abril de 2016, https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32016R0679↩︎ ↩︎
36 TJUE, Nowak v. Data Protection Commissioner, Sentencia del 20 de diciembre de 2017.↩︎ ↩︎
37 TJUE, Breyer v. Germany, Sentencia del 16 de octubre de 2016.↩︎ ↩︎
38 Magee, P., Ienca, M. Y Farahany, N., “Beyond Neural Data: Cognitive Biometrics and Mental Privacy”, Neuron, n. 112 (2024): pp. 3017-3028, p. 3022.↩︎ ↩︎
39 Unión Europea, Reglamento 2017/745 del Parlamento Europeo y del Consejo sobre los productos sanitarios, por el que se modifican la Directiva 2001/83/CE, el Reglamento (CE) 178/2002 y el Reglamento (CE) 1223/2009 y por el que se derogan las Directivas 90/385/CEE y 93/42/CEE del Consejo, 5 de abril de 2017, https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32017R0745↩︎ ↩︎
40 Bublitz, C. Y Lightart, S., “The New Regulation of Non-Medical Neurotechnologies in the European Union: Overview and Reflection,” Journal of Law and the Biosciences 11, n. 2 (2024): pp. 1-15, p. 3.↩︎ ↩︎
41 Reglamento de Ejecución 2022/2346 de la Comisión por el que se establecen especificaciones comunes para los grupos de productos sin finalidad médica prevista enumerados en el anexo XVI del Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo, sobre los productos sanitarios, 1 de diciembre de 2022, https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:32022R2346↩︎ ↩︎
42 Bublitz, C. Y Ligthart, S., “The new regulation of non-medical…”, cit., p. 7.↩︎ ↩︎
43 Unión Europea, Reglamento de Ejecución 2022/2347 de la Comisión por el que se establecen disposiciones de aplicación del Reglamento (UE) 2017/745 del Parlamento Europeo y del Consejo en lo que respecta a la reclasificación de grupos de determinados productos activos sin una finalidad médica prevista, 1 de diciembre de 2022, https://eur-lex.europa.eu/eli/reg_impl/2022/2347/oj/spa↩︎ ↩︎
44 Unión Europea, Reglamento 2017/745…, cit.↩︎ ↩︎
45 Bublitz, C. Y Ligthart, S., “The new regulation of non-medical…”, cit., p. 13↩︎ ↩︎
46 “European Reclassification of Non-Invasive Brain Stimulation as Class III Medical Devices: A Call to Action,” Brain Stimulation, n. 16 (2023): pp. 564-566, p. 564.↩︎ ↩︎
47 Ibid., pp. 565-566.↩︎ ↩︎
48 Declaración de León sobre la neurotecnología europea, 2023, pp. 1-2, disponible en:https://digital.gob.es/dam/es/portalmtdfp/DigitalizacionIA/declaracion_de_Leon.pdf1↩︎ ↩︎
49 Sanz de Galdeano, M., “La Declaración de León sobre la neurotecnología europea: Un primer paso necesario”, Diario LA LEY, núm. 77, 10 de noviembre de 2023, disponible en: https://diariolaley.laleynext.es/Content/Documento.aspx?params=H4sIAAAAAAAEAFWNMQ7CMBAEf-PadiRI4yrmB-5RklujE9YdukBEfk9SpGDLkWaWiVIufl937UMf3QpbWCVFH7sQ_MWJEkoe0kcIlQXk2jihDQfG950eEBjPNzO1w-a6ZZ3L9kKqY1vgMKk-_07uZ_wHjzzHCX4AAAA=WKE↩︎ ↩︎
50 Moreu Carbonell, E., “The Regulation of Neuro-Rights”, European Review of Digital Administration & Law”, vol. 2, núm. 2 (2021): pp. 149-162, p. 161.↩︎ ↩︎
51 Digital Future Society, Humanistic neurotechnology: a new opportunity for Spain, 2023, pp. 10 y 48.↩︎ ↩︎
52 Ibid., p. 42.↩︎ ↩︎
53 Gobierno de España, Carta de Derechos Digitales, 2021.↩︎ ↩︎
54 Ibid., p. 28.↩︎ ↩︎
55 Reche Tello, N., Mens Iura Fundamentalia: la neurotecnología ante la Constitución, España: Colex (2024): p. 142.↩︎ ↩︎
56 Borbón, D. et al., “El preocupante clausulado de la Ley Modelo de Neuroderechos del Parlantino”, IUS ET SCIENTIA, vol. 9, n. 2 (2023): pp. 228-260, pp. 229 y 248.↩︎ ↩︎
57 Organización de Estados Americanos, Declaración de Principios Interamericanos en materia de Neurociencias, Neurotecnologías y Derechos Humanos, 2023, disponible en: https://www.oas.org/es/sla/cji/docs/CJI-RES_281_CII-O-23_corr1_ESP.pdf↩︎ ↩︎
58 Ibid.↩︎ ↩︎
59 Ibid↩︎ ↩︎
60 Ibid↩︎ ↩︎
61 Sosa Navarro, M., The role of soft law…, cit., pp. 37 y 57.↩︎ ↩︎
62 Parlamento Latinoamericano y Caribeño, Ley Modelo de Neuroderechos para América Latina y el Caribe, 2023, disponible en: https://parlatino.org/wp-content/uploads/2017/09/leym-neuroderechos-7-3-2023.pdf↩︎ ↩︎
63 Borbón, D. et al., “El preocupante clausulado…”, cit., p. 247.↩︎ ↩︎
64 Reche Tello, N., “Nuevos derechos frente a la neurotecnología: la experiencia chilena”, Revistra de Derecho Político, núm. 112 (2021): pp. 415-446, p. 431.↩︎ ↩︎
65 Reche Tello, N., Mens Iura Fundamentalia…, cit., pp. 89-90.↩︎ ↩︎
66 Parlamento Latinoamericano y Caribeño, Ley Modelo…, cit.↩︎ ↩︎
67 Borbón, D. et al., “El preocupante clausulado…”, cit., p. 248.↩︎ ↩︎
68 Parlamento Latinoamericano y Caribeño, Ley Modelo…, cit.↩︎ ↩︎
69 Borbón, D. et al., “El preocupante clausulado…”, cit., pp. 253-254.↩︎ ↩︎
70 Borbón, D., “What a NeuroRights legislation should not look like: the case of the Latin American Parliament”, Frontiers in Neuroscience, vol. 18 (2025): pp. 1-5, p. 1.↩︎ ↩︎
71 Reche Tello, N., Mens Iura Fundamentalia…, cit., p. 89.↩︎ ↩︎
72 Congreso Nacional de Chile, Ley 21.383: Modifica la Carta Fundamental para establecer el desarrollo científico y tecnológico al servicio de las personas, 2021.↩︎ ↩︎
73 Congreso Nacional de Chile, Proyecto de Ley sobre Protección de los Neuroderechos y la Integridad Mental, 2020.↩︎ ↩︎
74 Ibid.↩︎ ↩︎
75 Ibid.↩︎ ↩︎
76 Reche Tello, N., “Nuevos derechos frente a la neurotecnología…”, cit., p. 428.↩︎ ↩︎
77 Barcia Lehmann, R. et al., “¿Cómo avanzar en los nuevos neuroderechos y su regulación? Comentarios al proyecto de reforma constitucional (Boletín n. 13827-19) y al proyecto de ley (Boletín n. 13828-19)”, Documento de Trabajo n. 5 (2021): pp. 1-31, pp. 4-5 y p. 19.↩︎ ↩︎
78 Reche Tello, N., Mens Iura Fundamentalia…, cit., p. 125.↩︎ ↩︎
79 Congreso Nacional de Chile, Proyecto de Ley sobre Protección de los Neuroderechos y la Integridad Mental↩︎ ↩︎
80 Ruiz, S. et al., “Neurorights in the Constitution: from neurotechnology to ethics and politics”, Philosophical Transactions, núm. 379 (2024): pp. 1-10, p. 4.↩︎ ↩︎
81 Ibid., p. 5.↩︎ ↩︎
82 Wexler, A., “Separating neuroethics from neurohype”, Nature Biotechnology, núm. 37 (2019): pp. 988-990, p. 990.↩︎ ↩︎
83 Bublitz, J.C., “Novel Neurorights: From Nonsense to Substance”, Neuroethics, vol. 15, núm. 7 (2022): pp. 1-15, p. 8.↩︎ ↩︎
84 Fins, J.J., “The Unintended Consequences of Chile’s Neurorights Constitutional Reform: Moving beyond Negative Rights to Capabilities”, Neuroethics, vol. 15, núm. 26 (2022): pp. 1-11, p. 2.↩︎ ↩︎
85 Reche Tello, N., Mens Iura Fundamentalia…, cit., pp. 71-72.↩︎ ↩︎
86 Reche Tello, N., “Nuevos derechos frente a la neurotecnología…”, cit., p. 441.↩︎ ↩︎