A pesar de la abrumadora producción literaria, reflexión ética en el centro, por momentos aparece la sensación de que nos falta tiempo para madurar una posición concreta respecto del modo en que las tecnologías emergentes deben afrontarse para asegurar que todas sus virtudes sean acompañadas de herramientas que garanticen el efectivo respecto de los derechos humanos y su consistencia con los principios éticos correspondientes.
Para superar esa sensación, que aumenta la ansiedad, se corre el riesgo de sobre-simplificar el fenómeno, oscilando entre pesimismos catastróficos, propuestas éticas “light” que no aportan demasiado en términos prácticos y optimismos lacónicos que subestiman los riesgos asociados al desarrollo tecnológico contemporáneo.
Ciertamente nos enfrentamos a un rasgo característico de nuestra era: El conocimiento de los fenómenos estudiados es más lento que su evolución y su inserción en dinámicas ordinarias de la vida de las personas. Un poco más lenta es aún la síntesis ético-jurídica asociada. La tecnología progresa más rápido que nuestra comprensión de sus alcances y efectos. Ello nos interpela como operadores jurídicos, generando dudas en torno al modo en que hemos de plantarnos frente a ello desde la ética aplicada y desde el Derecho.
Existen muchos matices, pero en orden a hacer foco diremos sintéticamente que existen tendencias que no parecen acercarnos al objetivo deseado, vale decir, al descubrimiento de las normas que definan el cauce por el que debe transitar el desarrollo científico y tecnológico conforme criterios de justicia y bien común.
Por un lado, la legitimación nihil obstat del avance tecno-científico, pues cede sin objeción ante utilidades que presentan riesgos ciertos para la persona humana o para la sociedad. En el extremo contrario, actitudes que denominaremos “paralizantes”, tampoco permiten balancear adecuadamente ventajas y desventajas, presentándose como un obstáculo para el progreso tecnológico.
En esta ocasión nos centraremos en las últimas, las que creemos identificar motivadas o en el miedo o lo que llamaremos “parálisis por análisis”.
Ética del miedo
Tal como enseña Andrea Ciucci, algunos descubrimientos científicos e innovaciones tecnológicas como la energía nuclear o -más próximo en el tiempo- la edición genética, generan temor por sus posibles consecuencias incontrolables y/o destructivas, a partir de lo cual se acude a la ética como escudo protectorio para la humanidad o el planeta, como freno ante un progreso que parece ilimitado y fuera de control[1].
Así las cosas, ante la avalancha de los sistemas basados en inteligencia artificial y de sus impresionantes utilidades en muy diversos ámbitos, nos encontramos perplejos y con dificultades para posicionarnos respecto de su conveniencia y licitud. Y el desconcierto puede generar miedo, según la RAE: “angustia por un riesgo o daño real o imaginario”. Ahora, esa emoción -como cualquier otra- no debería operar como fundamento de las normas que aspiren a regular la realidad que la ha motivado en primer lugar.
Ciucci sostiene al respecto que “cuando la ética nace esencialmente del miedo, se configura principalmente como un remedio de emergencia”[2] [la traducción nos pertenece].
Podría decirse que, ante la inminencia de un riesgo probable, independientemente de la emoción resultante, una respuesta sensata sea la demanda de tiempo e información para analizar mejor la situación. Tal fue la reacción de la comunidad internacional frente a la posibilidad de la edición genética de células de línea germinal, la que motivó una pausa reflexiva global en orden a sopesar los alcances de la técnica[3].
Parálisis por análisis
Para superar la situación de parálisis antes descripta debe superarse el shock inicial y abordar el análisis correspondiente. El análisis es presupuesto necesario para la ponderación de una herramienta tecnológica. Se trata de un íter gnoseológico fundamental: el conocimiento de la cosa permite un juicio sobre ésta. El conocimiento, de todas formas, es gradual e incremental, se va construyendo sucesivamente de la mano de evidencias aportadas por enfoques novedosos y superadores de sus antecedentes.
La parálisis aparece cuando no logra sintetizarse una posición respecto de lo analizado. Se trata de una actitud que presenta dos aristas: Por un lado, una prolongación que puede tornarse excesiva en el escrutinio de las herramientas bajo estudio y, por el otro, cierto facilismo asociado a la superficialidad analítica.
No pretendemos que en favor de la celeridad se sacrifique rigor analítico, sino que el análisis sea consistente con los bienes a tutelar y permita salir del estupor inicial, bien sea con una prescripción prohibitiva, restrictiva o, eventualmente, legitimadora.
La complejidad de los dilemas generados por las herramientas tecnológicas actuales exige conocimientos técnicos específicos y una aproximación antropológica, ética y jurídica complementaria, por lo que adoptar posición al respecto demanda adentrarse en estudios profundos que deberían ser superadores de los prejuicios iniciales.
Creemos que mantenerse en situación de indefinición no resulta intrascendente en términos normativos, pues el aplazamiento de debates que impiden la prescripción podría dar lugar a una restricción del conocimiento científico, a un retardo de la síntesis filosófica correspondiente o un laissez faire, laissez passer que -mientras tanto- permita la vulneración de intereses personales y colectivos.
Anticipación y prescripción
Frente a la inevitabilidad del adelanto tecnológico y valorando, además, su capacidad para responder a necesidades humanas, la parálisis prescriptiva no pareciera ser aconsejable. Desde ya, partimos de la convicción de que la tecnología debe ser puesta al servicio de la humanidad y no al revés, por lo que es fundamental valorar su carácter instrumental y su idoneidad para satisfacer las exigencias del bien común.
Sin embargo, en momentos de la historia como el que nos toca vivir, en los que la evolución en el conocimiento técnico parece por momentos abrumadora, la ética fundada en el miedo no resulta suficiente. En lugar del miedo Ciucci propone considerar el asombro como origen de eventuales regulaciones para la IA. Afirma que “la ética que nace del asombro no es restrictiva (…) sino propositiva y liberadora; no es un remedio para tiempos de emergencia, sino una atención constante que acompaña y permite crecer” [la traducción nos pertenece].
Ante el ineludible avance de la IA, el estudio profundo de la herramienta y la anticipación de sus efectos parecieran ser sensatos. Ello podría ser consistente con la “heurística del miedo” jonassiana, vale decir, la anticipación de riesgos concretos para la humanidad en orden al despliegue de una conducta responsable.
Aunque luzca contra intuitivo, la propuesta del autor bien podría expresar una salida del miedo ya que no refleja una emoción paralizante[4], sino que enfatiza la responsabilidad de la humanidad de mantener su propia existencia y la del planeta. La toma de conciencia del mal a evitar opera en este caso como un habilitador para que el agente se haga cargo de sus acciones, presupuesto del juicio ético y jurídico posterior.
La previsión anticipada de los efectos no deseados de las herramientas desarrolladas o en desarrollo permite ganar tiempo y evitar la sorpresa, aminorando la sensación de estupor frente a lo desconocido y permitiendo avanzar hacia la prescripción necesaria.
Mientras tanto, a medida que se sintetiza una posición, principios práctico-morales ordenan la conducta humana y han de orientar el devenir tecno-científico.
Pro homine
Es dable citar en este punto al principio pro homine al que hemos referido en otras oportunidades, pauta hermenéutica que posee utilidad para resolver planteos en contexto de certeza insuficiente[5].
Como dijimos, la prevención de los riesgos del desarrollo difiere sustancialmente del miedo paralizante. En el esquema preventivo, por aplicación del principio mencionado, ante riesgos para la persona humana[6] el Derecho no queda en situación de indefinición, sino que resuelve en favor de la solución que resulte más consistente con los derechos comprometidos.
Los riesgos no son teóricos, son riesgos probables. De allí que el principio pro homine tampoco sea formulado como mera abstracción, sino como una pauta prescriptiva con aplicación concreta según la cual, ante la posibilidad de un riesgo cierto, se protege a la persona humana.
Reflexiones de cierre
Ni la Bioética ni el Derecho deben asociarse necesariamente a la prohibición de conductas. Como disciplinas prescriptivas poseen un objeto práctico que podría sintetizarse en el descubrimiento de un cauce para la conducta humana a partir del establecimiento de fronteras claras (normas) entre lo lícito y lo ilícito en relación con la naturaleza de la persona en todas sus dimensiones. Ambas disciplinas aspiran a acortar la distancia entre el ser y el deber ser.
En ese sentido, frente al tsunami de la IA nos interpela la búsqueda de las reglas que permitirán sacar el máximo provecho a la herramienta de un modo consistente con el Bien Común. Se trata de sopesar y equilibrar riesgos, amenazas y oportunidades, priorizando el bien humano individual y colectivo por encima de los criterios operativos o económicos asociados.
En este marco, compartimos con Ciucci que un abordaje de la IA desde la perspectiva ética debe evitar los escenarios apocalípticos que “corren el riesgo de imponer una urgencia ética de corta duración y responsabilidad limitada”[7] [la traducción nos pertenece].
Tal como enseña Paolo Benanti “un eticista sabe que si hay algo que la ética no es, es el reflejo del miedo. No hacemos ciertas cosas porque tenemos miedo, debemos hacerlas porque buscamos y deseamos el bien. Si pensamos que ser éticos, o incluso tener fe, significa dejarnos guiar por el miedo, estamos equivocándonos en ambas cosas. Es normal saber que podemos tener miedo al cambio, y las tecnologías traen cambios, pero el cambio no significa necesariamente algo mejor ni peor. No es momento de evitar el cambio, sino de ser actores en este cambio, para que tome la forma que deseamos. Es el momento de ser activos, para que esos valores que animan nuestra comprensión del mundo puedan, en alguna medida, ser efectivos en la contemporaneidad. Si hay algo que no debemos hacer, es dejarnos guiar por el miedo”[8].
Se trata de acompasar el desarrollo tecnológico con la profundidad y rigurosidad prescriptiva que amerita. El bien supremo es el bien de la humanidad. No en abstracto, sino de personas humanas concretas, tanto en su faceta individual como social. Considerando que tal es la prioridad, cobra mayor claridad el carácter instrumental de la IA, como el de cualquier herramienta producto de la inteligencia humana.
Como hemos dicho, se trata de un análisis de medios, de oportunidad y de idoneidad. Y, como tal, propio de las sociedades prudentes[9].
Informe de Leonardo Pucheta
[1] Andrea Ciucci, Intelligenza artificiale ed etica dal fiato corto. Disponible en línea en https://www.ilsole24ore.com/art/intelligenza-artificiale-ed-etica-fiato-corto-AGkc1gHC [último acceso el 27 de enero de 2025].
[2] Andrea Ciucci, Op. Cit.
[3] Leonardo Pucheta. Moratoria de la edición genética de línea germinal,
https://centrodebioetica.org/moratoria-de-la-edicion-genetica-de-linea-germinal/ [Último acceso el 27 de enero de 2025].
[4] Aunque las referencias a la “destrucción, catástrofe o aniquilación de la especie” podrían sugerir algo en sentido contrario.
[5] Matilde Pérez Álvarez. El principio de precaución y los riesgos de desarrollo. La incertidumbre científica y la toma de decisiones jurídicas. Ciudad de Buenos Aires, El Derecho, 2024.
[6] Existen desmembraciones del principio que aplican en casos concretos, tal como el principio precautorio en materia ambiental.
[7] Andrea Ciucci, Op. Cit.
[8] https://www.abc.es/sociedad/asesor-papa-onu-ia-debemos-resistir-tentacion-20250115203502-nt.html
[9] Leonardo Pucheta. Ni pesimistas ni optimistas, prudentes. Una mirada a la era tecnológica. Disponible en línea en https://centrodebioetica.org/ni-pesimistas-ni-optimistas-prudentes/ [Último acceso el 28 de enero de 2025].