La ética computacional se siente como un problema puramente del siglo XXI. Se debate en Silicon Valley y en foros de la ONU: ¿Cómo programamos la moralidad en una Inteligencia Artificial? ¿Quién es responsable cuando un algoritmo se equivoca? Sin embargo, la ambición de reducir los dilemas morales a una fórmula matemáticano es nueva. Sus raíces se hunden más de tres siglos, en la mente de un genio que soñó con zanjar todas las disputas con un simple cálculo: Gottfried Wilhelm Leibniz (1646-1716).
La conexión entre el filósofo alemán y la ética de la IA, el software y el manejo de datos, es más profunda de lo que parece. Leibniz no solo fue codescubridor del cálculo infinitesimal y el creador del sistema binario (la base de toda la informática moderna), sino que también propuso una solución radical para la moralidad: un "Cálculo Moral" o Calculus Moralis.
La máquina que zanjó disputas: El origen de una utopía lógica
Leibniz estaba obsesionado con el orden. Creía que la mayoría de los conflictos humanos—ya fueran filosóficos, legales o morales—se originaban en la ambigüedad del lenguaje. Si las palabras podían ser confusas, ¿por qué no reemplazarlas con símbolos?
Así concibió dos proyectos monumentales: la Characteristica Universalis (un lenguaje universal de símbolos lógicos) y el Calculus Ratiocinator (un método para calcular con esos símbolos). El sueño de Leibniz era que, una vez traducido un problema a su lenguaje universal, dos personas en desacuerdo simplemente se sentarían y dirían: "¡Calculemos!" ("Calculemus!").
El Cálculo Moral era la extensión natural de esta utopía lógica a la ética. Leibniz sugería que los juicios morales podían ser racionalizados estimando dos factores: la probabilidad de un resultado y la deseabilidad (o Perfección) de ese resultado. La acción correcta sería la que maximizara la deseabilidad ponderada por la probabilidad. Por ejemplo, cuando un sistema de IA toma una decisión de vida o muerte en un vehículo autónomo, está realizando un "cálculo moral" leibniziano: sopesar probabilidades y daños.
La intervención de Bentham: del cálculo moral a la máquina hedónica
Décadas después de Leibniz, el filósofo inglés Jeremy Bentham dio al "cálculo moral" su forma más influyente: el Utilitarismo.
Bentham reemplazó la vaga "deseabilidad/perfección" de Leibniz con un valor concreto y medible: la felicidad o el placer. Sostuvo que la acción moralmente correcta es la que produce la mayor felicidad para el mayor número de personas.
Bentham incluso propuso un procedimiento detallado llamado Cálculo Felicífico (o Cálculo Hedónico) para sopesar formalmente el valor moral de una acción basándose en cualidades medibles del placer y el dolor, tales como:
- Intensidad (¿cuán fuerte es el placer/dolor?)
- Duración (¿cuánto tiempo dura?)
- Certeza (¿qué tan seguro es que sucederá?)
- Fecundidad (¿qué tan probable es que produzca más placer o dolor después?)
El cálculo de Bentham se convirtió en el modelo filosófico para la ética algorítmica moderna. Cuando los ingenieros de IA programan un coche autónomo para minimizar daños, están aplicando esencialmente una versión digital del cálculo de Bentham: el algoritmo intenta encontrar la ruta que minimice las consecuencias negativas (dolor) para la mayoría.
Lecciones de la Moralidad Algorítmica: ¿Es la Ética Computable?
Las visiones de Leibniz y Bentham nos obligan a enfrentar la pregunta central de la ética computacional: ¿Es realmente posible programar el comportamiento ético en una máquina?*
Hoy, la Inteligencia Artificial intenta este "cálculo moral" ya sea mediante programación explícita clásica (estableciendo reglas) o con técnicas de *machine learning que infieren patrones éticos a partir de grandes conjuntos de datos. El objetivo es basar la ética en cantidades medibles evaluadas por algoritmos de decisión.
Sin embargo, el intento contemporáneo de crear una moralidad algorítmica ha revelado limitaciones profundas que desafían la utopía de una cálculo moral completo:
1. La ética no es un juego de imitación. Si bien las máquinas pueden copiar patrones de comportamiento de los datos, la moralidad va más allá de la simple imitación; implica juicio y contexto.
2. Las consecuencias importan, pero el utilitarismo no basta. Aunque debemos considerar las consecuencias de nuestras acciones, el intento de cuantificar la moralidad, como propone el utilitarismo estricto de Bentham, es problemático. Es imposible "calcular la felicidad" o el valor moral de una vida con una fórmula universal.
3. No existe un algoritmo moral universal. Al igual que la lógica ha demostrado que no existe un algoritmo universal para distinguir lo verdadero de lo falso, tampoco parece haber un algoritmo infalible para distinguir lo correcto de lo incorrecto.
Si la mejor opción fuera computable con absoluta certeza, ¿cómo podría no ser obligatoria? Y si la máquina solo ejecutara ciegamente las acciones dictadas por un algoritmo de decisión, ¿qué le quedaría a la voluntad humana? La ética perdería su esencia deliberativa y se convertiría en una simple tarea de ejecución.
El Calculus Moralis de Leibniz y el Cálculo Felicífico de Bentham nos llevan a una paradoja moderna: El comportamiento ético no parece ser puramente computable. El código binario que Leibniz descubrió nos dio el poder de las máquinas, pero la complejidad de la moralidad humana, ese espacio para la voluntad y el juicio, se resiste a ser traducida por completo a ceros y unos.
En la era de la IA, quizás debamos aceptar que el objetivo no es programar la moralidad, sino diseñar máquinas que nos fuercen a ser más conscientes de los límites de nuestra propia ética.
Ya veremos.
0 comentarios:
Publicar un comentario