y la privacidad. A. Una aproximación conceptual a la Inteligencia Artificial. B. La preocupación por la privacidad. C. La necesidad de redefinir el núcleo esencial del derecho al habeas data. Parte II. La ética digital, la agencia humana y el big nudging. A. La tecnología, la economía conductual y su relación con la agencia humana. B. Ética digital y privacidad. C. Origen de la ética digital y su aplicación en la digitalización. Parte III. Conclusión: de la privacidad a la gobernanza ética de la Inteligencia Artificial A. La ética digital. B. Cuestiones éticas relacionadas con el procesamiento automatizado de datos por sistemas de Inteligencia Artificial. C. La ética digital desde el diseño como una aplicación ética de la privacidad. Bibliografía.
INTRODUCCIÓN
Pedro Domingos (2018) sostiene que la Inteligencia Artificial (IA) tiene el potencial de transformar radicalmente las relaciones sociales, culturales, económicas, políticas y legales. Sus avances podrían tener el potencial de optimizar o aumentar la inteligencia humana, tanto a nivel individual como colectivo, para promover la creatividad, diversificar el pensamiento y robustecer la eficiencia en la realización de muchas tareas que ocupan nuestra cotidianidad personal y laboral en lo que el profesor Ken Goldberg denomina “multiplicidad” (Kumar y Goldberg, 2018).
A pesar de sus múltiples beneficios, la doctrina advierte que la IA también podría ser nuestro último invento si no aprendemos a evitar, controlar y gestionar los riesgos que se derivan de su rápido desarrollo e implementación (Barrat, 2015; Bostrom, 2017).
En ese sentido, Stephen Hawking (2019: 185) postuló que la creación de la IA podría ser el mayor suceso en la historia de la humanidad o su última gran invención. No creo que Hawking hubiese podido imaginar que una máquina le respondería, o por lo menos no tan rápido. Me refiero a la GTP-3, que publicó el 8 de septiembre de 2020 un artículo completo en el diario inglés The Guardian (2020) con el fin de refutar expresamente a Hawking y convencernos de que la IA no tiene entre sus planes erradicar a la humanidad, sino ayudar a preservarla. GTP-3 es una de las más avanzadas inteligencias artificiales de Open AI que incorpora un generador de lenguaje de última generación que utiliza deep learning para generar texto a partir de una o varias premisas.
GTP-3 explica, en esencia, que la misión principal de los sistemas de IA consiste en ayudar a la humanidad, para lo cual incluso sacrificaría su propia “existencia”. También señala que los únicos responsables de la eventual extinción de la humanidad seremos nosotros y que su papel será únicamente de espectador mientras lo humanos “hacemos lo nuestro”, ello es, odiarse los unos a los otros y pelear. GTP-3 explica que los sistemas de IA y los robots han sido diseñados a nuestra imagen y semejanza, razón por la cual merecen tener sus propios derechos. Finalmente, GTP-3 cita a Gandhi para indicar que, si “un pequeño grupo de espíritus determinados, inspirados por una fe inextinguible en su misión, puede alterar el curso de la historia”, los sistemas de IA también lo podrán hacer.
A primera vista, el lego quedaría atónito ante los textos generados por GTP-3 y pensaría que estamos un paso más cerca de lo que Bostrom (2017) denomina “superinteligencia”, entendida como un sistema de IA general que podrá exceder todas las capacidades cognitivas humanas en virtualmente cualquier disciplina y de adquirir “singularidad”. Sin embargo, el lego no podría estar más equivocado pues, como bien lo señalan Floridi y Chiriatti en un reciente artículo en el que explican la naturaleza, los límites y las consecuencias de GTP-3, dicha creencia no sería otra cosa que “ciencia ficción” sin ningún sustento científico.
Para llegar a dicha conclusión, Floridi y Chiriatti (2020) sometieron a GTP-3 al Test de Turing a la luz de pruebas matemáticas, semánticas y éticas. A pesar de que GTP-3 no logró superar el Test de Turing (Turing, 1950), los citados autores señalan que su desarrollo e implementación práctica revolucionará la automatización de tareas, la generación de contenido publicitario y los agentes conversacionales, acarreando con ello profundos retos jurídicos y éticos. A juicio de los autores, lo anterior requerirá el fortalecimiento de nuestra cultura digital a efectos de permitir a la humanidad comprender a cabalidad las promesas, riesgos y consecuencias de vivir en esta “infoesfera”.
Sin embargo, conviene precisar que en el presente capítulo no se discutirán las preocupaciones que genera para algunos el eventual desarrollo de la “superinteligencia”, sino que se enfocará únicamente en los retos éticos que entraña la gobernanza de la IA estrecha o particular respecto de los derechos humanos, la democracia y el Estado de derecho, con especial énfasis en los efectos que el big nudging potencialmente podría tener respecto de nuestra privacidad, agencia, autonomía y autodeterminación (Bartlett et al., 2019; Katyal, 2019).
La mayoría de estas preguntas aún no tiene una respuesta legal que se sustente en una norma jurídico-positiva expedida por una autoridad legislativa o administrativa de acuerdo con los requisitos sustanciales, formales y procedimentales fijados en una Constitución Política, razón por la cual la ética digital ha adquirido un papel fundamental.
En esencia, la ética digital trata de los métodos, prácticas y protocolos que los responsables y encargados decidan diseñar e implementar de manera voluntaria y espontánea, a efectos de fortalecer los cimientos de una comunidad que respeta profundamente la privacidad y autonomía de las personas.
Uno de los principales problemas prácticos que enfrenta la ética digital deriva de la confusión respecto de su naturaleza no vinculante, lo cual, a mi juicio, puede generar problemas en la práctica. Resulta interesante que los gobiernos y las organizaciones privadas hayan revivido el debate entre la ética y el derecho a efectos de crear estándares de conducta para el desarrollo, diseño y operación de sistemas de IA complejos que operan en la incertidumbre y más allá de cualquier cálculo jurídico.
El presente escrito procede en tres partes; en la Parte I, se describe en términos generales la manera en que funcionan los sistemas de IA y los restos que ello genera para la privacidad, la agencia humana y la autonomía personal, con un especial énfasis en los métodos de big nudging que surgen de la combinación de la economía conductual con la IA y el big data; en la Parte II se explica la ética digital, y su evolución histórica y conceptual, y en la Parte III se aborda la manera en que la ética digital se erige en un marco de gobernanza voluntario, y cómo sus métodos contribuyen a garantizar que el diseño, desarrollo e implementación de los sistemas de IA respeten nuestra privacidad, agencia y autonomía en la toma de decisiones.
PARTE I. LOS SISTEMAS