La caja negra de la Inteligencia Artificial

Publicado en elDiarioAR el 24 de septiembre de 2021

Hay que airear la sala de máquinas de la IA

por Martín Becerra

Regular no es prohibir: un reciente informe de la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, Michelle Bachelet, aboga por la regulación de la Inteligencia Artificial para corregir usos dañinos para los derechos humanos.

Robert Bowen – Art Works for Change
Robert Bowen

Es inexacto el título de la nota publicada el 22 de septiembre por elDiarioAR y elDiario.es. El título, además, reproduce la confusión entre regulación y prohibición, conceptos que no son sinónimos y que, en cuestiones novedosas como la Inteligencia Artificial y su “caja negra”, es importante distinguir. El tema del artículo en cuestión, sensible como pocos, lo demuestra. Con el título “Michelle Bachelet alerta en la ONU sobre la expansión de sistemas peligrosos de inteligencia artificial y pide paralizar su uso”, la nota comunica las conclusiones del informe sobre los usos de IA publicado esta semana por la Alta Comisionada de las Naciones Unidas para los Derechos Humanos, la expresidenta chilena Michelle Bachelet.

La IA, la automatización, la extracción y el procesamiento algorítmico de datos en volúmenes inéditos y crecientes, que suelen incluir datos personales recolectados y almacenados sin consentimiento explícito de sus titulares, han capturado la imaginación contemporánea, como afirma el informe. Más aún, su ubicua y veloz aplicación en todos los procesos productivos es un indicador de su impacto en la estructuración de las sociedades y en las prácticas de individuos, grupos y organizaciones. La IA moldea nuestra vida, mercantiliza y utiliza datos para obtener beneficios económicos y/o políticos por parte de empresas y gobiernos y, en tal sentido, prescribe comportamientos. Desde luego, hay efectos virtuosos de la IA en el marco del progreso de las comunicaciones, y también experiencias catastróficas por sesgo en la programación de inferencias acerca del comportamiento de grupos vulnerables y por la exposición de información confidencial de millones de personas e instituciones.

Como dice Sofía Scasserra en un artículo publicado en Nueva Sociedad, “se han detectado algoritmos que estigmatizan a las personas de color, que otorgan menos crédito a mujeres por el solo hecho de ser mujeres o que directamente imposibilitan el acceso a empleos por diversos motivos (…) Si los algoritmos deciden sobre las personas, sobre su libertad, sobre su empleo, sobre su capacidad de acceder a seguros, servicios médicos y otras cuestiones fundamentales de la vida, es menester tener la posibilidad de regularlos”.

Pero quien lea el reporte oficial de la ONU corroborará que no existe un pedido para “paralizar el uso” de la IA sino que, a partir de la descripción de los aspectos de la IA que facilitan la interferencia en la privacidad y los derechos asociados, formula recomendaciones para los Estados y las empresas relativas al diseño y la implementación de salvaguardas para prevenir y minimizar los resultados nocivos y para acceder a los beneficios que la tecnología puede brindar.

El contenido de la nota en cuestión, en cambio, sí refleja el reporte encargado por el Consejo de DDHH de la ONU. Este documento es un aporte al debate, imprescindible en el estado actual de desarrollo de las TIC, porque define el respeto (o no) por los derechos humanos como son la protección de datos personales, el acceso a la cultura, la libertad de expresión, la privacidad y la no discriminación, sin cuyas garantías algunas tecnologías pueden carcomen las cualidades democráticas de las sociedades.

Este documento es un aporte al debate, imprescindible porque define el respeto (o no) por los derechos humanos como son la protección de datos personales, el acceso a la cultura, la libertad de expresión, la privacidad y la no discriminación

La interferencia con la privacidad es uno de los ejes tratados en el informe, que recuerda que “los Estados pueden interferir con el derecho a la privacidad sólo sobre la base de la ley y de conformidad con esa ley” en la medida que cumpla con los estándares internacionales en materia de derechos humanos, es decir, que las eventuales injerencias a la privacidad deben tener un propósito legítimo, ser necesaria para lograr ese propósito legítimo y ser proporcionadas. “Cualquier restricción también debe ser la opción menos intrusiva disponible y no debe menoscabar la esencia del derecho a la privacidad”, subraya.

Otra dimensión de la IA que preocupa a la comisionada de DDHH de la ONU es que los procesos de toma de decisiones de muchos sistemas de IA son opacos. La veda actual, para que la “caja negra” de la IA pueda ser auditada y para que sus procedimientos sean conocidos por parte de los sujetos cuyos datos nutren su actividad impiden que las personas y organizaciones puedan recurrir ante efectos lesivos de sus derechos. El refuerzo de los sistemas de propiedad intelectual colisiona, pues, con otros derechos. De allí la necesidad de instituir autoridades regulatorias independientes, abiertas al escrutinio de la sociedad civil, y que trabajen con autoridades administrativas, judiciales y órganos dedicados a la protección de datos personales, agencias de protección de consumidores, reguladores sectoriales, organismos contra la discriminación e instituciones de defensa de los derechos humanos para armonizar una controversia compleja en la que coexisten intereses diversos.

Los sistemas automatizados de predicción de comportamientos son, además de opacos, fuertemente disciplinadores. Son tan performativos como prescriptivos, en el sentido que predisponen conductas basadas en las inferencias que los sujetos a quienes les son aplicados esos sistemas realizan respecto del modelo esperado y respecto de las prácticas sancionables. Esta estandarización del control social produce errores frecuentes que documentan el sesgo algorítmico y las consecuencias desastrosas del mal empleo de la inteligencia artificial, por ejemplo en predicción de conductas delictivas en barrios de bajos recursos, en sistemas de crédito social (scoring) en China o en políticas de evaluación docente en EEUU y estudiantil en el Reino Unido. Tras citar algunas de estas evidencias, Strasserra concluye que “la vigilancia para captar datos y su consecuente procesamiento para emitir juicios de valor sobre la ciudadanía puede tener un efecto muy nocivo en la sociedad: el miedo a equivocarse”.

La oficina de la ONU presidida por Bachelet reclama una moratoria en la aplicación de sistemas de reconocimiento de emociones o identificación biométrica, entre otros, y reclama tanto a Estados como a compañías privadas que evalúen su impacto en los derechos humanos. “La escalabilidad de las soluciones de IA puede aumentar drásticamente los efectos negativos de tasas de error aparentemente pequeñas”, sobre todo si, como constatan muchos casos del pasado reciente en materia de seguridad pública, los sistemas de IA se basan en datos defectuosos o incompletos pero sus resultados se usan como si fueran representativos. 

Además, en la escala actual la IA afecta la libertad de expresión, dado que “los vastos conjuntos de datos en los que se basan los sistemas de curación, amplificación y moderación se crean y amplían continuamente a través de un extenso monitoreo en línea y perfiles de los usuarios de la plataforma y sus redes personales”, lo que, “combinado con una concentración extrema del mercado, ha llevado a la situación en la que un puñado de empresas a nivel mundial mantienen y controlan perfiles sobre miles de millones de personas y la esfera pública en red en general”. No es casual que la edición de la conversación pública por parte de las plataformas digitales mediante sistemas automatizados, cuyos parámetros de programación son también una “caja negra” pero cuyo sesgo exhibe discriminación por motivos raciales, culturales o de género, sea crecientemente criticada por representantes políticos y sociales de distintas perspectivas ideológicas.

Regular no es prohibir: el informe aboga por regulaciones democráticas e inteligentes que sean a la vez específicas para abordar los problemas que presenta la IA. “Cuanto mayor sea el riesgo para los derechos humanos, más estrictos deberían ser los requisitos legales para el uso de la tecnología de IA. En consecuencia, los sectores en los que hay mucho en juego para las personas, como la aplicación de la ley, la seguridad nacional, la justicia penal, la protección social, el empleo, la atención de la salud, la educación y el sector financiero, deberían tener prioridad”. Ciertamente, para la oficina de la ONU no deberían permitirse sistemas de IA estén directamente en conflicto con la prohibición de la discriminación, pero ello también vale para las prácticas y regulación de conductas en el mundo físico o analógico, que no pueden violar los derechos humanos, incluso si se trata de empresas u organizaciones privadas.

La regulación recomendada por el informe desemboca en el reconocimiento de derechos de la ciudadanía digital, que es un ejercicio pendiente de concreción. En su trabajo Terms of Disservice, Dipayan Ghosh pregunta, en la lectura que hace Ángel Melguizo en El Mundo, “qué tan representativos son en verdad los datos que usan los algoritmos; de qué manera se entrena a los modelos para que funcionen mejor, y en particular la necesidad de identificar causalidad y correlación” que opera en la programación de la inteligencia artificial. Ghosh aboga por “el consentimiento (aceptación explícita), la elección (que incluya una forma fácil de salir), y el control sobre el acceso, uso y retención de datos (que incluye el derecho a la información sobre el uso de nuestros datos, su corrección, o remoción)”. Este inventario puede colaborar en que la democracia sobreviva y logre ingresar a la sala de máquinas donde funciona la caja negra de la IA.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.