Autoridad algorítmica: ¿cómo empezar a pensar la protección de los derechos humanos en la era del “big data”?


Abstract

Recientes cambios tecnológicos han creado las condiciones para el surgimiento de una nueva forma de ejercicio del poder, la “autoridad algorítmica”, con características particulares y novedosas. Este texto es una contribución a un vocabulario jurídico que permita, en primera instancia, describir este nuevo ejercicio de poder como un fenómeno jurídico y, en segundo lugar, pensar normativamente diversos modelos para su regulación, con el objetivo de promover la protección de los derechos humanos. Se proponen cuatro nociones centrales: (1) autoridad algorítmica, (2) lex algorítmica, (3) autonomía y (4) transparencia. Mediante estos cuatro conceptos se sienta la base para modos argumentativos y doctrinas jurídicas ajustados al proceso tecnológico que se busca regular.


Recent technological changes have set the stage for the rise of algorithmic authority as a new and particular way of exercising power. This paper seeks to enrich the legal vocabulary that will allow this new kind of authority to be understood as a legal phenomenon. Furthermore, it intends to contribute to debates over the normative models better suited to regulate algorithmic authority, within a human rights framework. Four main concepts are discussed: (1) algorithmic authority, (2) lex algorítmica, (3) autonomy, and (4) transparency. Analyzing these four concepts allows for a deeper understanding of the argumentative frameworks and legal theories that will regulate this new legal field.


The future is already here – it’s just not evenly distributed.

William Gibson

INTRODUCCIÓN

Hace un par de años, un hombre entró en alto estado de agitación a un Walmart en Estados Unidos, y exigió hablar con el administrador. Quería reclamar por el hecho de que su hija estuviese recibiendo cupones de descuento para cunas y fórmula para bebés. “¡Mi hija está apenas en bachillerato! —gritó— ¿Quieren alentarla a que quede embarazada?” La joven en efecto estaba embarazada, y Walmart se enteró primero que la familia: el supermercado le había enviado la publicidad porque, mediante sus algoritmos, la había relacionado con ciertos hábitos de consumo de personas en ese estado1.

De alguna forma, esta anécdota podría haber ocurrido 1975 o 1985: desde hace décadas, las grandes tiendas han hecho lo posible para acopiar conocimientos sobre sus clientes con fines de mercadeo. Hay, sin embargo, dos aspectos novedosos que hacen de esta historia un producto característico de la segunda década del siglo XXI. El primero es el acceso a cantidades masivas de información sobre los hábitos de las personas. Esta es la revolución del big data: nunca antes había sido posible recopilar tanta información sobre tanta gente, con tanta precisión2 —particularmente por las grandes plataformas digitales como Facebook, Google o Amazon, que registran cada una de las actuaciones de sus usuarios3—. Así, mientras que las estrategias de mercadeo o las campañas políticas siempre han buscado conocer las preferencias de segmentos particulares de la población, el big data hace posibles perfiles detallados que reflejan los hábitos y gustos de individuos específicos, y no solamente de grupos demográficos o de ciertas áreas geográficas.

El segundo aspecto novedoso es el incremento exponencial en la capacidad computacional de la última década. Una forma de pensar esta transformación es la “ley de Moore”, llamada así por el fundador de la compañía de procesadores Intel, quien observó acertadamente en 1965 que la capacidad de los microprocesadores se doblaría aproximadamente cada dos años4. Este crecimiento exponencial (que puede estar camino a cambiar5) implica que un microprocesador del 2017 tuvo casi nueve veces más capacidad que uno del 2010, o 511 veces más capacidad que uno del año 2000[6]. Nunca antes existió tal capacidad para procesar información —y nunca antes, como vimos, fue posible recopilar tal cantidad de información—. Así lo puso en evidencia el caso de la empresa de consultoría política Cambridge Analytica, que usó de manera inapropiada la información de millones de usuarios de Facebook para prestar servicios a sus clientes, e influyó en elecciones en Estados Unidos, Reino Unido, Nigeria, India, Brasil y Colombia, entre otros países7.

Estos dos cambios han captado, de manera creciente, la atención de la literatura jurídica. En primer lugar, la forma en que se recopila, almacena, analiza y utiliza la información puede entrar en conflicto con el derecho a la privacidad8 y la intimidad9, como lo decidió la Corte Suprema de Justicia en Carpenter, en junio del 2018[10]. De igual forma, otra fuente de preocupación es la protección al buen nombre y, en general, el manejo de la información personal en bases de datos electrónicas. Esta es la discusión del habeas data11, incluido el controversial “derecho al olvido”, reconocido en Europa12, pero no en Colombia13 ni en Brasil14.

Este artículo comparte algunas de esas preocupaciones, pero busca intervenir en un aspecto diferente de la conversación: más allá del problema de privacidad o buen nombre, aun si los datos se recogen y almacenan de manera apropiada, los recientes cambios han creado las condiciones para el surgimiento una nueva forma de ejercicio del poder, con características particulares y novedosas. En ese contexto, este texto contribuye al desarrollo de un vocabulario jurídico que nos permita, en primera instancia, describir este nuevo ejercicio de poder algorítmico como un fenómeno jurídico y, en segundo lugar, pensar normativamente diversos modelos para su regulación, con el objetivo de promover la protección de los derechos humanos. La mayoría de la literatura jurídica existente, enfocada en debates como el habas data o la privacidad, tiende a ignorar el hecho de que el ejercicio de poder mediante algoritmos tiene características particulares, esencialmente diferentes de otras tecnologías, como la internet. En consecuencia, carecemos de un vocabulario preciso que nos permita pensar la autoridad algorítmica en términos jurídicos y, en particular (como veremos más adelante), en términos de derecho público.

Este artículo busca contribuir a llenar este vacío, y propone cuatro elementos para el desarrollo de un marco conceptual que pueda regular ese ejercicio de poder: (1) autoridad algorítmica, (2) lex algorítmica, (3) autonomía y (4) transparencia. Así, más que proponer un argumento específico respecto a la responsabilidad algorítmica, este texto busca fijar los pilares de un marco jurídico que permita la protección efectiva de los derechos humanos en la era del big data, y sentar así la base para modos argumentativos y doctrinas jurídicas ajustados al proceso tecnológico que buscan regular.

Para hacerlo, la siguiente sección hace una introducción a los sistemas automatizados de decisión: el lector con conocimiento de éstos puede omitirla sin ningún problema. Luego, las siguientes secciones presentan los cuatro elementos del marco conceptual propuesto. La última sección presenta unas breves conclusiones.

1. PARA ENTENDER LOS SISTEMAS AUTOMATIZADOS DE DECISIÓN

Como se sugirió en la introducción, el primer paso para entender los sistemas automatizados de decisión es familiarizarse con el big data15. A pesar de que no existe un definición técnica, es posible caracterizar el big data como información de altísimo volumen (tera o aún petabytes), que es recopilada a muy alta velocidad (es decir, creada en casi tiempo real), y que es diversa en su variedad (compuesta por información estructurada y desestructurada), exhaustiva (en el sentido de que busca capturar poblaciones o sistemas enteros), de alta definición (pues permite hacer índices o búsquedas con relativa facilidad, y mantiene el rigor de la información aun en una escala granular) y que es relacional en sus características (en la medida en que permite relacionar la información con aquella contenida en otras bases de datos)16. Así, lo nuevo y diferente del big data no es sólo su volumen (que ya de por sí es extraordinario), sino también (y sobre todo) lo que se puede hacer con la información a muy bajo costo.

El big data alimenta la operación de algoritmos; estos son “un conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”17. Así, una receta de cocina, por ejemplo, puede ser considerada un algoritmo. En el contexto digital, sin embargo, las operaciones son implementadas por computadores, que siguen las instrucciones reflejadas en el “código”, que no es otra cosa que la expresión concreta, en cierto lenguaje de programación, de las operaciones abstractas del algoritmo. A su vez, el algoritmo describe operaciones que se han de realizar respecto a los datos recopilados (el “input”), los cuales son, por definición, externos al programa.

Ahora bien, los algoritmos pueden consistir en una serie de instrucciones que se repiten estáticamente: si se quiere conseguir el resultado X, primero debe hacer el paso uno, después el paso dos, finalmente el paso tres, y así, siempre. Pero el algoritmo también puede incluir instrucciones para que el programa busque mejorar su desempeño en conseguir el resultado X, y varíe los pasos en virtud de ese objetivo. En este sentido, el programa “aprende”, porque su desempeño respecto a cierta tarea mejora en virtud de su experiencia. Esta es la idea de “machine learning”, o “aprendizaje autónomo”, en la cual el algoritmo incluye la orden de analizar los datos para “decidir” cuál es el siguiente paso, con el objetivo de mejorar el desempeño.

El término “machine learning” existe desde 1959, y desde entonces se han desarrollado técnicas que logran, de una forma u otra, el proceso de aprendizaje descrito18. Sin embargo, la importante transformación reciente aparece, nuevamente, en virtud los dos cambios paralelos: big data y aumento de capacidad computacional. Gran parte del aprendizaje autónomo ocurre mediante el reconocimiento de patrones: el programa es capaz de encontrarlos en una base de datos y de aplicar automáticamente esos patrones a otra base de datos para tomar una “decisión” o hacer una predicción. Un ejemplo son los servicios de streaming de música: el programa analiza mis selecciones musicales previas, y con base en esa información busca artistas que tengan las mismas características y me “propone” un artista que no conozco y me puede gustar. Por lo tanto, cuanto más rica sea la base de datos (en el ejemplo, cuantas más canciones marque yo como “me gusta”), más puede “aprender” el programa, y mejor se vuelve para lograr su objetivo (en el ejemplo, más acertadas serán las recomendaciones).

Los desarrollos recientes más importantes del género aprendizaje autónomo se han dado en una de sus especies, el “deep learning”. Este proceso se basa en una estructura de varias capas de algoritmos, llamada “red neural artificial”, que está inspirada en la estructura biológica de las neuronas en cerebro humano. En esta red, los datos pasan por una capa del algoritmo, que los transforma y los pasa a la siguiente capa, que a su vez los transforma para lograr su cometido —de ahí el nombre “deep learning”: cuantas más capas de algoritmos haya, más “profunda” será la red neural.

Lo importante de la red neural, sin embargo, es que no lo hace mediante el reconocimiento de patrones dados por el programador (como lo hace el machine learning), sino mediante ejemplos, de los cuales extrae autónomamente patrones para aplicarlos a una nueva base de datos. Así, supongamos que queremos un programa que sepa reconocer, de manera autónoma, imágenes de vacas y de pájaros. En machine learning, se alimenta al algoritmo con una gran base de datos de fotos de vacas y pájaros, y se le “enseña” a identificar en ellas características escogidas por el programador como propias de cada animal: por ejemplo, “cuernos” y “pico”. El programa entonces ya “aprende” a identificar imágenes de vacas y pájaros en grandes bases de datos como Facebook o imágenes satelitales. En deep learning, por el contrario, el programador no da las características que deben buscarse en la base de datos (“cuernos”), sino que alimenta directamente las imágenes de entrenamiento19, y el programa autónomamente extrae sus características para aplicarlas a una nueva base de datos, diferente de los datos de entrenamiento. En consecuencia, el programador no necesita saber las características de la imagen de vaca o de pájaro: el programa las identifica y “aprende” autónomamente, y puede hacer predicciones sobre una nueva base de datos respecto a la presencia de una vaca o un pájaro.

2. ¿CÓMO EMPEZAR A PENSAR LA PROTECCIÓN DE LOS DERECHOS HUMANOS EN LA ERA DEL “BIG DATA”? CUATRO ELEMENTOS PARA LA CONSTRUCCIÓN DE UN MARCO CONCEPTUAL

El resumen anterior no busca ser exhaustivo. Sí busca, sin embargo, poner de presente las características de la tecnología algorítmica que dejan claro que, en este punto de la discusión, el desafío central no parece ser formular nuevos principios jurídicos o positivizar nuevos derechos humanos, sino desarrollar marcos cognitivos (o heurísticos, si se quiere) que permitan una efectiva protección de los derechos humanos en la era del big data20. En lo que resta de este artículo, presentaré cuatro pilares que ayuden a los operadores jurídicos en esta tarea: autoridad algorítmica, lex algorítmica, autonomía algorítmica y transparencia21. A continuación se explora cada uno de ellos.

2.1. Autoridad algorítmica

Los procesos de aprendizaje autónomo y deep learning son algunas veces llamados “inteligencia artificial”, un término general que puede incluir numerosas técnicas específicas en este campo22, con innumerables ámbitos de aplicación: desde la creación autónoma de textos y la clasificación de objetos hasta la traducción autónoma de textos y la tecnología que permite el funcionamiento de carros autónomos. En la mayoría de estas aplicaciones los procesos de decisión automatizada se encuentran insertos en dinámicas comerciales reguladas por una combinación de obligaciones contractuales y protección de propiedad intelectual que las mantienen, en general, fuera del radar del juez constitucional y de derechos humanos.

Sin embargo, los procesos de decisión autónomos se usan en ocasiones para cumplir funciones estatales, o son usados por particulares de forma tal que pueden poner en riesgo los derechos humanos. En estos dos casos, estamos ante el ejercicio de una verdadera autoridad algorítmica, que tiene, al menos, cuatro características:

Es “autoridad”, pues se trata de un ejercicio de la capacidad de determinar, mediante el uso de algoritmos, el comportamiento de un individuo o entidad23.

Es transnacional, en el sentido de que esta capacidad se ejerce, en la mayoría de los casos, en el marco de interacciones transnacionales, que involucran actores ubicados en diversos estados.

Es ejercida por actores públicos (en el sentido de que estén creados por el derecho público de la respectiva jurisdicción) o privados (como las diversas compañías que prestan servicios).

Y tiene un potencial de afectación de derechos humanos, porque un actor privado los pone en riesgo o bien porque el ejercicio de la autoridad pública se hace mediante procesos algorítmicos.

Es importante no confundir este ejercicio específico de autoridad con un concepto más amplio de poder. El concepto de autoridad aquí sugerido implica un ejercicio concreto de poder, contenido y movilizado en una cierta decisión adoptada por medios algorítmicos, sea esta pública o privada24. Esta distinción entre autoridad y poder algorítmico es importante, toda vez que mientras que la primera cuenta con unas características propias y diferenciables, el segundo no las tiene. Así, mientras que la autoridad algorítmica es un vehículo específico de poder, el poder que mediante ella se ejerce no es nada diferente de aquel que surge de las estructuras sociales existentes más allá del uso de algoritmos.

Esta diferencia entre poder (en general) y autoridad algorítmica (en particular) implica que las relaciones forjadas mediante el ejercicio de autoridad algorítmica reflejan las diferencias de poder que subyacen a la sociedad en la cual tal poder se ejerce. Como se recordará, los procesos de decisión automatizada toman sus datos (“aprenden”) de una descripción ya existente de la realidad —sea ésta dada por el programador o reflejada en datos sin procesar—. Es decir, serán los criterios de un programador humano o, en procesos de deep learning, serán los materiales descriptivos de la realidad ya desarrollados por humanos (las fotos, los textos, videos o audios) los que “eduquen” a los programas. Por lo tanto, el algoritmo “aprenderá” las diferencias de poder que se vean reflejadas en los materiales que se le provean, o por los prejuicios del programador. Una sociedad machista produce datos machistas (por ejemplo, pornografía), del cual el proceso de aprendizaje autónomo extraerá patrones machistas, que aplicará después a una nueva base de datos para extraer conclusiones machistas. Así, es equivocado pensar que un “algoritmo es machista”: machista es la interacción entre los humanos, y por lo tanto la sociedad en la que opera el algoritmo, que los procesos de aprendizaje autónomo reflejan.

Tal continuidad entre las estructuras profundas de poder en la sociedad humana y la autoridad algorítmica implica que, como todo ejercicio concreto de poder, esta última es también un mecanismo de distribución de recursos. El riesgo, en este caso, es doble: por una parte, que la aparente objetividad de los procesos de toma de decisión autónomos termine perpetuando desigualdades en términos de distribución —la autoridad algorítmica, en este sentido, puede generar un barniz de aceptabilidad técnica a la cristalización desigualdades sociales—; por otra parte, la autoridad algorítmica como mecanismo de distribución de bienes y servicios esenciales puede limitar de manera significativa la capacidad de los ciudadanos para entender y cuestionar las razones detrás de la provisión de tales servicios, pues las puede hacer más opacas, y en consecuencia más difíciles de cuestionar o controvertir.

Finalmente, el papel distributivo de la autoridad algorítmica no se restringe a la capacidad de distribuir bienes y servicios en la sociedad humana, sino también a la distribución de la capacidad misma de sentir y registrar la realidad, mediante la cual se generan los datos que alimentarán el proceso de aprendizaje del algoritmo. Como hemos visto, los procesos de decisión autónoma se alimentan de data, sin la cual proceso mismo de aprendizaje autónomo es imposible. Así, el ejercicio de poder es no solo de aquel que desarrolla y administra el algoritmo, sino de aquel que genera los datos que lo “educan”25. En la práctica, hay tres opciones para conseguir esos datos: o el usuario desarrolla él mismo sus propias bases de datos, o las compra, o las extrae de fuentes públicas26. El problema es que la primera opción en realidad solo está disponible para algunas firmas multinacionales extraordinariamente grandes, o para las fuerzas militares de países muy ricos, y la tercera puede generar bases de datos que no son del todo confiables para ciertas funciones estatales. Por lo tanto, el ejercicio de autoridad algorítmica en América Latina probablemente dependerá de la compra de acceso a data a alguna de las grandes empresas, que disponen en varios órdenes de magnitud de más información que cualquier gobierno de la región. Es socialmente significativo, por lo tanto, considerar los efectos de la autoridad algorítmica no solo en la distribución de los recursos de la sociedad, sino también en la distribución de la altamente especializada capacidad de percibir (digitalmente) la realidad, y probablemente coproducirla para efectos del ejercicio de autoridad local27.

Como puede verse, los procesos sociales de desigualdad, discriminación y arbitrariedad son realizados por humanos en contra de humanos: los procesos de decisión autónoma simplemente reproducen o dan efecto a relaciones de poder ya existentes. Los efectos de la autoridad algorítmica siempre estarán en las relaciones entre humanos28. La noción de autoridad algorítmica, en consecuencia, no implica un espacio de poder diferente a la sociedad humana en la que todos habitamos. Sin embargo, sí implica una forma particular de ejercer ese poder, que merece un marco regulador particular, al cual giramos ahora, en la siguiente definición.

2.2. En contra de la “lex algorítmica”

La autoridad algorítmica tiene características específicas que exigen una forma esencialmente diferente de pensar su regulación. Dada la complejidad técnica de algunas de estas tecnologías, es previsible que un modelo de regulación que se proponga (particularmente por parte de las empresas dueñas de los algoritmos) sea el de la autorregulación de la industria29. Esta es la forma en que, por ejemplo, la internet fue inicialmente regulada, mediante la Internet Engineering Task Force (IETF), el World Wide Web Consortium (W3C) y, sobre todo, la Internet Corporation for Assigned Names and Numbers (ICANN)30.

Así, de la misma forma en que los últimos veinte años han visto el surgimiento de una nueva lex mercatoria, en la cual complejas transacciones comerciales transnacionales han dado lugar al surgimiento de una verdadera codificación paralela al derecho nacional e internacional aplicable31, es posible que el giro hacia la autorregulación de los procesos lleve a la defensa de una nueva lex algorítmica: un complejo regulatorio de estándares, procesos y guías adoptados por la industria para hacer los algorítmicos más responsables, que opere de manera paralela de los estándares nacionales e internacionales relevantes, protegida por las limitaciones jurisdiccionales propias de la naturaleza transnacional de los procesos de decisión autónomos.

Aún más: gran parte del trabajo actual respecto a la responsabilidad de algoritmos está enfocado en la integración de estándares de responsabilidad dentro del algoritmo: es decir, que el proceso sea “fair by design”, sin la intervención de regulación externa32. En este marco, la idea misma de “regulación” pierde sentido, en la medida en que colapsa la distinción básica entre la práctica que va a ser regulada y el conjunto de prescripciones, aun si son autoimpuestas, que recaen sobre tal práctica.

Así, a pesar de que los esfuerzos de autorregulación y de adaptación interna del algoritmo deben ser bienvenidos, la realidad es que la lex algorítmica como régimen autocontenido y fuente única de responsabilidad algorítmica es riesgosa, y se debe evitar. En particular, los efectos de las técnicas de decisión algorítmica sobrepasan el ámbito estrictamente comercial y se vuelven relevantes en términos de derecho público cuando se trata del ejercicio de autoridad algorítmica, esto es, cuando el Estado las utiliza para cumplir sus funciones, o cuando arriesgan afectar los derechos humanos al ser utilizadas por particulares. Esto no quiere decir, por supuesto, que la adopción de estándares y procedimientos por parte de la industria sea indeseable, pero sí implica que la autorregulación debe someterse a un marco general de derecho público —incluidos, en particular, los estándares nacionales e internacionales de derechos humanos relevantes33.

La necesidad de aplicar un marco de derecho público resulta clara cuando considera el uso de procesos de decisión autónoma para cumplir funciones estatales. En Estados Unidos se usan con frecuencia los algoritmos para calcular el riesgo de reincidencia de personas condenadas en proceso penal34. Estas herramientas, la más famosa de las cuales es el Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), de la compañía Northpointe, hacen un cuestionario al condenado que incluye información sobre edad, delito y condenas previas (pero, de manera importante, no sobre su raza), así como otra información sobre la vida del condenado (“¿Su padre ha sido arrestado?”, “¿Fue usted suspendido o expulsado de su escuela?”35), y le asignan un cierto puntaje que refleja su probabilidad de reincidencia, el cual se comunica a los jueces al momento de establecer la pena36.

Por razones obvias, el uso de estas herramientas ha sido controversial. Por una parte, algunos han afirmado que el algoritmo otorga peores puntajes a hombres de raza negra37 (es decir, les asigna una mayor probabilidad de reincidencia), mientras que otros sostienen que el COMPAS no aporta nada nuevo en comparación con la predicción que podría hacer un humano con un nivel mínimo de información38. Sea cual fuere el caso, resulta claro que este algoritmo va más allá de la relación contractual entre el proveedor del servicio y su cliente, y que debe estar sujeto a un marco de derecho público y, por implicación, de protección de los derechos humanos.

Lo mismo ocurre con la segunda dimensión de la autoridad algorítmica: el uso, por parte de particulares, de sistemas de decisión autónoma que puedan afectar los derechos humanos. Ejemplos abundan, aunque probablemente el más cercano para muchos sean los sistemas de puntaje crediticio, como Datacrédito en Colombia, Inforcorp en Perú, o Dicom en Chile. Hasta muy recientemente, las centrales de riesgo registraban el comportamiento crediticio pasado de los consumidores, pero no adelantaban procesos de decisión autónoma sobre ellos. Sin embargo, muchos de estos operadores locales han sido adquiridos por compañías multinacionales, cuyo modelo de negocios es el uso de procesos algorítmicos para generar valor agregado sobre las bases de datos de cumplimientos o incumplimientos pasados. En particular, los proveedores crean sistemas de puntajes crediticios que, de forma similar al COMPAS, procuran predecir la probabilidad de incumplimiento crediticio. Así, Datacrédito en Colombia es ahora parte de Experian, desarrolladores de FICO (el sistema de puntaje crediticio más usado en Estados Unidos), mientras que Infocorp del Perú y Dicom de Chile son parte de Equifax, otra importante multinacional de los puntajes crediticios. En estos casos, el uso de procesos algorítmicos por parte de particulares puede poner en riesgo los derechos humanos, pero lo hace de manera diferente al riesgo que implicaba el uso de bases de datos estáticas, las cuales han sido objeto de amplio tratamiento constitucional39: mientras que en estas últimas el problema es uno de veracidad, transparencia y acceso a la información, en el proceso algorítmico el problema radica en el efecto del cálculo, pues el problema de transparencia y veracidad de la información, como veremos más adelante, no tiene sentido en este contexto. Todo lo anterior genera un marco de responsabilidad que va más allá de la relación contractual entre las centrales de riesgo y sus usuarios, y exige la aplicación de un marco de derecho público.

Ahora bien: rechazar como normativamente indeseable una lex algorítmica autocontenida y argumentar, por el contrario, a favor del sometimiento de la autoridad algorítmica a un marco de derecho público implica afirmar un horizonte normativo privilegiado para este último que se debe explicar. En contra de las lecturas que argumentan el colapso de la dicotomía público/privado40, mi argumento acepta que el carácter “público” de ciertas normas implica que éstas se presentan “no como una serie de ordenes por parte de los poderosos [o] unas reglas reconocidas por una elite, sino como unas normas adoptadas públicamente, y en el nombre del público […] y que las personas del común pueden apropiar como suyas, en tanto son parte del público”41. En este sentido, aún si es claro que la distinción público/privado se puede usar para fines ideológicos42, también es cierto que cuando se adopta una norma jurídica en nombre de la comunidad (y no en nombre del interés de uno de los actores de ella), tal norma genera una pretensión de carácter público la cual, aún si incumplida en la práctica, crea un horizonte normativo diferente al del derecho privado —y es normativamente más deseable que un esquema de autorregulación como lo sería la lex algorítmica—. En consecuencia, es en el marco de ese horizonte normativo propio del derecho público donde debe evaluarse la autoridad algorítmica, y no en el marco del derecho privado y de las normas creadas por los actores del mercado algorítmico.

2.3. Autonomía algorítmica

El marco de derecho público aplicable a la autoridad algorítmica debe entrar a operar respecto a procesos informáticos que se caracterizan por su autonomía —y ese es, precisamente, el tercer concepto que debemos definir—. El problema central surge porque, como hemos visto, el ejercicio de la autoridad algorítmica puede mostrar cierto nivel de independencia de los programadores, o de los operarios del programa. Esta es la idea que, como hemos visto, coloquialmente se conoce como “inteligencia artificial”: cierta capacidad de “aprender” de manera parecida a un humano, para después aplicar este “conocimiento” de manera independiente de los humanos, lo cual hace a los procesos de decisión autónoma cualitativamente diferentes de otras tecnologías importantes en nuestra época, como la internet43.

El primer paso para empezar a pensar la autonomía algorítmica es rechazar la denominada “falacia del homúnculo”, consistente en la idea de pensar que hay un “agente” tomando las “decisiones” autónomas del programa: una especie de personita, de golem, que llega a conclusiones buenas o malas44. Pero no hay tal personita: el algoritmo no es un agente al que se le pueda asignar “responsabilidad” ni hacer un reproche ético. El reproche surge respecto al tipo de interacción humana que el proceso de decisión autónoma permite: como ya hemos discutido, a pesar de que la autoridad algorítmica tiene características particulares, su ejercicio refleja las estructuras de poder en la sociedad humana y es inescindible de ellas. Sólo en el contexto de la sociedad humana tiene sentido el reproche al algoritmo. En consecuencia, las doctrinas jurídicas que impliquen un título de imputación de responsabilidad basado en algún tipo de reproche de conducta (como el dolo o la culpa en derecho penal, la negligencia en derecho civil, o falla del servicio en derecho administrativo) no pueden predicarse respecto al algoritmo en sí mismo, sino del humano que lo utiliza. La autonomía algorítmica, aunque ciertamente existente, no implica un destinatario no-humano del reproche ético o jurídico.

Por supuesto, en ocasiones habrá un incentivo ideológico para “culpar” al algoritmo: la “falacia del homúnculo” permite lo que Balkin ha llamado el “efecto de sustitución”45, en virtud del cual el debate público se centra en un fetichizado proceso de decisión autónoma, como si se tratara de un “agente” con el poder mágico de afectar la vida de los humanos, en lugar de enfocarse en las profundas diferencias de poder que se reflejan en el algoritmo. Al igual que, en virtud del fetichismo de las mercaderías, la trabajadora alienada habita un mundo fantasmagórico poblado de objetos que ella hizo, pero que le son ajenos y extraños46, así mismo el fetichismo del algoritmo nos ubica en un mundo de “máquinas pensantes” que son ajenas a la comunidad humana, de las cuales todos somos potenciales víctimas. Pero esta descripción es ideológica, en el sentido clásico de implicar la movilización de significados para la perpetuación de estructuras de dominación47: las supuestas “máquinas pensantes” en realidad operan en función de relaciones humanas de poder, y sobrevalorar su autonomía solo sirve para distraer de las relaciones de poder que las subyacen.

Ahora bien: partir de las relaciones humanas y sólo entonces moverse hacia los procesos de decisión automatizados nos permite comenzar a pensar en la imposición de límites externos a la autonomía algorítmica, más allá de los límites técnicos. En este punto, el concepto de dignidad humana resulta central para el argumento48. La aplicación de un marco de derecho público implica, por necesidad, la aplicación del concepto de dignidad humana, el cual inspira los tratados centrales de derechos humanos, y numerosas constituciones nacionales —en particular, el artículo 1.1 de la Ley Fundamental alemana de 1949, el cual influyó de manera importante en los sistemas latinoamericanos49.

Aun dando espacio para sus diferentes interpretaciones, el principio de dignidad humana tiene, como mínimo, dos dimensiones: por una parte, un aspecto ontológico, referido al respeto al valor inherente del ser humano (esto es, la conocida formula kantiana de que el humano es un fin en sí mismo, y no el medio para un fin) y, por otra, un aspecto relacional, que exige el respeto de ese valor inherente en las interacciones sociales, sean entre particulares o de particulares con el Estado50. Es este segundo aspecto el que resulta problemático en el contexto de los procesos de decisión autónoma pues, en su más básica manifestación, el reconocimiento de la dignidad humana requiere el reconocimiento de la humanidad en el otro, la cual sólo puede surgir de la propia humanidad, cuyo vínculo con la humanidad del otro cimenta, en últimas, el carácter “digno” de la comunidad51. El problema con la autoridad algorítmica, en ese sentido, no es la dimensión ontológica de la dignidad: a pesar de que el concepto de dignidad es obviamente difícil de programar, no parece existir ningún obstáculo conceptual para programar operaciones que reflejen el valor no-instrumental del ser humano en ciertas tareas, o para que el patrón de reconocimiento del valor no-instrumental en ciertas tareas sea “aprendido” de materiales de entrenamiento apropiados. El desafío conceptual está en que el programa no podrá reconocer la humanidad del otro, y por lo tanto resultaría imposible, por definición, forjar el vínculo de humanidad que requiere la dimensión relacional de la dignidad.

La dificultad que impone la aplicación de la dignidad humana en el contexto de la autonomía algorítmica puede generar dos reacciones. En primer lugar, una estrategia de regulación puede ser la creación de una categoría de decisiones que, en virtud del principio de dignidad humana, simplemente no puedan ser sujetas a procesos de decisión autónomos, aún si son técnicamente automatizables. Estas serían decisiones no automatizables, por principio.

Ese puede ser el caso, por ejemplo, de los sistemas de armamento letales completamente autónomos —esto es, sistemas de armamento con la capacidad de escoger a sus objetivos y eliminarlos de manera independiente del humano52—. El principio de dignidad exige que cada persona sea considerada única, para lograr generar el vínculo de humanidad antes mencionado. Sin embargo, el proceso de decisión autónoma necesariamente impide que la persona que se va a matar sea considerada única, pues requiere que se le considere un caso de la regla diseñada de antemano por el programador, o expresión del patrón extraído autónomamente por el algoritmo. En cualquiera de los dos casos, la acción de matar se realiza siguiendo unos pasos definidos antes del encuentro letal, cuando no se sabía quién habría de verse envuelto en éste.

Por lo tanto, la consideración de la persona específica que se va a matar es lógicamente imposible, de modo que el vínculo de humanidad no se genera, lo cual hace que las armas letales autónomas sean inherentemente contrarias a la dignidad humana53. En este sentido, puede existir un límite constitucional externo a aceptar ciertas decisiones autónomas (aún si son técnicamente posibles), como lo han sostenido, con respecto a las armas letales autónomas, miles de expertos, juristas y empresarios de la tecnología que llamaron, en el 2015 y en el 2017, a una prohibición completa de tales sistemas54.

Menos estricta que la prohibición completa es la noción de “control humano significativo55” o, fuera de contextos de armamento autónomo, la idea de mantener a un humano en el proceso de decisión56. La idea central en este caso es que el principio de dignidad humana requiere, si bien no la prohibición absoluta de automatización de ciertas decisiones, sí la creación de espacios algorítmicos para que un humano pueda revisar y retractar de manera efectiva la “decisión” del algoritmo, de ser necesario. A pesar de sonar razonable, la realidad es que esta aproximación es difícil de concretar pues, al menos en el área de uso de la fuerza, es poco claro qué significa “control efectivo” en el diseño del algoritmo57: ¿implica, por ejemplo, que un humano deba aprobar cada acción letal? ¿O que un humano deba ser informado de las acciones más riesgosas? Y si es este último caso, ¿la priorización de acciones debe, a su vez, ser sujeta a control humano efectivo? Además, en ocasiones la idea de un humano en el proceso de decisión (por ejemplo, un soldado) puede ser simplemente una forma de asignar responsabilidad jurídica a una persona que, en el marco general del proceso de decisiones, en realidad carece del poder fáctico de contradecir el resultado del proceso algorítmico58.

Este tipo de problemas limita la susceptibilidad del humano de recibir reproche ético o jurídico, pero, como vimos, tampoco convierte al algoritmo en el agente responsable. En realidad, el principio de control humano efectivo, o alguno de sus equivalentes, exige una ponderación del control efectivo humano en la interacción máquina-humano, para lo cual doctrinas ya existentes, como responsabilidad por mando en derecho penal internacional o la atribución por actos de particulares en responsabilidad internacional del Estado, pueden servir de punto de partida.

A pesar de estos desafíos, el derecho europeo creó explícitamente el derecho a tener un humano en el proceso de decisión. Así, el Reglamento Europeo de Protección de Datos del 2016 (Reglamento [UE] 2016/679, con efectos a partir del 2018)59 estableció en su considerando 71 y artículo 22 que el interesado tiene derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos, o lo afecte de modo similar. Se trata, en la práctica, del primer instrumento jurídico vinculante que genera el derecho subjetivo a tener un humano en el proceso de decisión algorítmica, que probablemente exija el rediseño de los algoritmos existentes en la actualidad (o el menos respecto a su operación en jurisdicción europea)60. Aún con sus limitaciones61, la experiencia de esta regulación generará un espacio interesante para aprender los efectos prácticos de la idea de “control humano” a futuro.

2.4. Transparencia algorítmica

El derecho a exigir la presencia de un humano en el proceso automatizado de toma de decisiones señala el último elemento que merece un desarrollo particular para la aplicación de un marco de derecho público a la autoridad algorítmica: el problema de la transparencia. El desafío, en general, se ha planteado en términos de una “caja negra”62. Los procesos de decisión autónomos son opacos, en el sentido de que se conoce la entrada y el resultado, pero no se sabe de manera específica el proceso que llevó de uno al otro. Esta opacidad, aunada al hecho de que el proceso algorítmico reviste suresultado con un velo de objetividad e inevitabilidad, ha llamado a que se busque mayor transparencia, “abrir el algoritmo”, para que se explique y los humanos puedan entenderlo. Esta es, nuevamente, la opción que siguió el Reglamento Europeo de Protección de Datos, el cual establece que además de los derechos a conocer y cuestionar la información almacenada (estándar en materia de habeas data), las personas tienen el derecho a recibir una “explicación” de la “decisión” adoptada mediante la creación de perfiles (en los términos del considerando 71) y a recibir información significativa respecto a la “lógica aplicada” en ciertas decisiones automatizadas que afectan sus derechos (en los términos de los artículos 13.2.f y 14.2.g).

El instinto que inspira el reclamo de mayor transparencia es entendible. De la misma forma en que el ejercicio de la autoridad informal llevó la exigencia de estándares de transparencia en la gobernanza global63, así también la autoridad algorítmica debe estar sujeta a estándares de transparencia. Y, por supuesto, así como los estándares de habeas data en términos de colección y almacenamiento de datos son una garantía necesaria, la posibilidad de conocer, en la medida en que sea posible, el proceso de análisis de datos sería también una garantía clave.

Sin embargo, el problema radica en que la transparencia, en el sentido de conocer la “lógica” del resultado de la decisión autónoma, es actualmente problemática. Como hemos visto, los procesos de machine learning y, sobre todo, los de deep learning consisten en millones de operaciones cuya “lógica” difícilmente se puede describir al humano —ese es precisamente el punto del reconocimiento de patrones: detectar lo que el humano no puede detectar—. Ordenar transparencia directa, como la que se le pediría a una agencia reguladora que adopta una decisión, parecería ser una solución poco ajustada al problema que se plantea.

Piénsese, por ejemplo, en instancias de discriminación algorítmica. El COMPAS, la plataforma de predicción de reincidencia reseñada antes, señalaba sistemáticamente a los hombres negros como más proclives a la reincidencia64. El proceso de reconocimiento de fotos de Google, un ejemplo típico de machine learning, categorizó fotos de personas de raza negra como “gorilas”65. Y el algoritmo de anuncios de Google tendió en un momento dado a mostrar a las mujeres menos anuncios de los trabajos mejor pagos66.

En todos estos ejemplos, el llamado a la transparencia directa puede eliminar una primera capa de prácticas discriminatorias. Es posible que un programador hubiese reflejado sus prejuicios raciales o de género en algún conjunto de criterios de clasificación en la base de datos de entrenamiento de Google Photos o de Google Ads. Pero esto es poco probable, y sería irrelevante en procesos de deep learning, donde el algoritmo “aprende” de enormes bases de datos de ejemplos.

Lo más probable es, entonces, que esta discriminación no sea intencional, sino que derive de los patrones en bases de datos que, como hemos visto, reflejan estructuras de discriminación en la sociedad. Por supuesto, la ausencia de intención no hace que el resultado del proceso de decisión autónomo deje de ser discriminatorio, lo cual refleja el estado del arte en derecho antidiscriminación actual. Sin embargo, la ausencia de intención sí implica que un llamado a la transparencia directa parece poco efectivo para solucionar este problema. Un algoritmo neutro puede tener efectos discriminatorios en virtud de la base de datos de la cual “aprende”. Este es el resultado de la continuidad entre estructuras de poder social y autoridad algorítmica, antes comentada.

Existe al menos un precedente que muestra la limitación de una concepción directa de transparencia. En Wisconsin, Estados Unidos, Eric Loomis, un detenido cuya pena había sido decidida en parte con base en un reporte del COMPAS, buscó cuestionar la constitucionalidad del uso del algoritmo, afirmando que éste violaba su debido proceso por desconocer la forma en que se calculó el puntaje67. Toda vez que el algoritmo estaba protegido por derechos de propiedad intelectual, Northpointe, la compañía que lo produce, se negó a entregar la información.

Ahora bien: ante esa negativa, el detenido buscaba (entre otras cosas) que Northpointe revelara el código del COMPAS, esto es, como se recordará, la expresión del algoritmo en un lenguaje de programación. El punto central es que Loomis sabía qué información tenía el COMPAS sobre él (él había llenado el cuestionario), pero no sabía cómo se derivaba de esa información el puntaje que se le había asignado68. La Corte negó esta pretensión, con el argumento, entre otros, de que el debido proceso no se había violado, pues Loomis tenía el derecho de acceder y verificar la información sobre él con que se alimentaba al algoritmo —un típico argumento de habeas data respecto a bases de datos estáticas, analíticamente similar al que ha desarrollado la Corte Constitucional colombiana respecto a Datacrédito.

Sin embargo, la Corte subrayó su escepticismo respecto al uso indiscriminado de la herramienta. Prohibió a los jueces basar una decisión exclusivamente en el puntaje del algoritmo y exigió que, en adelante, cuando se usaran los puntajes, se introdujera lenguaje para el efecto de advertir que el carácter privado del algoritmo impide saber cómo se calcularon los puntajes, al tiempo que advirtió también, entre otras, que estudios han sugerido que los puntajes clasifican de manera desproporcionada a condenados pertenecientes a minorías como más proclives a la reincidencia69.

Loomis ilustra tres tensiones subyacentes en términos de transparencia. Por una parte, es crucial resaltar el papel que cumple la protección de la propiedad intelectual para impedir la aplicación de un marco de derecho público a la autoridad algorítmica. A pesar de que en este caso parecería existir un interés público en que el derecho de propiedad intelectual se viera limitado ante los imperativos del debido proceso, en la práctica tanto el estado de Wisconsin como el Gobierno Federal manifestaron, en sus respectivos escritos, que el derecho de propiedad intelectual no planteaba obstáculo alguno, pues el condenado podía conocer la información que entraba al algoritmo70. En este sentido, la visión del algoritmo como una simple base de datos terminó beneficiando la protección de la propiedad intelectual, en posible detrimento del debido proceso de Loomis.

En segundo lugar, como debe resultar claro en este punto de la discusión, el código no es la información más importante para efectos de la decisión autónoma. Por lo tanto, el estándar de transparencia directa (“conocer el código, que está protegido por la propiedad intelectual”) que debaten el demandante, el estado y el Gobierno Federal no es el más relevante. Se trata, en últimas, de la identificación del problema jurídico equivocado: lo importante son los datos que se usaron para “entrenar” al COMPAS71. Pero nadie discutió ese punto. Aún si la Corte hubiese accedido a que Northpointe entregara el código, la pretensión no habría solucionado el problema planteado por Loomis: al igual que con el caso de Google mencionado antes, se sabe que el código del COMPAS no incluye explícitamente categorías sospechosas de discriminación (como etnicidad) como criterio para otorgar el puntaje de predicción de reincidencia.

Esta situación plantea la tercera tensión que subyace al problema de la transparencia. Los procesos de decisión autónomos existen precisamente para extraer patrones de cierta información. Los patrones pueden reflejar categorías sospechosas de discriminación (como la raza o el género), aun si los criterios explícitos programados o los datos de entrenamiento en casos de deep learning no lo hacen. Así, como vimos en la anécdota de la joven embarazada con la que abre este artículo, el proceso de decisión autónomo predice el género de una persona con base en sus hábitos de compra, y permite discriminar con base en una categoría sospechosa (género). Este no es un error: es exactamente lo que el proceso de decisión autónoma debe hacer, y que el humano no puede. De igual forma, ciertos procesos de deep learning en reconocimiento facial han logrado predecir la orientación sexual de hombres con un 91% de éxito, y de mujeres en un 83%72. Así, cinco fotos por persona, sin mención alguna a la orientación sexual, permiten generar una clasificación con base en una categoría prohibida, con obvios efectos en los derechos humanos. Y lo mismo ocurre con la etnicidad o la condición socioeconómica y las direcciones de vivienda en algoritmos de predicción de reincidencia: un algoritmo entrenado con datos históricos de direcciones geográficas de reincidentes puede asignar mayor probabilidad de reincidencia a personas que viven en barrios predominantemente pobres, o de etnicidad minoritaria, con lo cual se genera una discriminación en contra de personas en estas categorías —aún si ellas no aparecen en el código ni en los datos de entrenamiento73.

Ante estos desafíos de transparencia, una primera estrategia es incentivar una cultura de inteligibilidad en el desarrollo de procesos de decisión autónomos. A pesar de las dificultades en la aplicación práctica del Reglamento Europeo de Protección de Datos, el desarrollo de técnicas para hacer comprensibles procesos de deep learning, al menos por parte de expertos, es una línea importante de avance74. Sin embargo, esta línea no genera mayor esperanza en términos de la aplicación de un estándar de transparencia, en términos de derecho público, a la autoridad algorítmica. Aun el trabajo explícitamente desarrollado para hacer más comprensibles ciertas técnicas, como la visualización de redes neurales75, parece estar más allá de la experticia técnica que razonablemente se le puede pedir a un juez de derechos humanos o a un ciudadano. Lo mismo ocurre con la posibilidad de que terceros hagan auditorías externas a los procesos de decisión autónoma: aun si los derechos de propiedad intelectual no imponen un obstáculo a la idea de “algoritmos abiertos”, este proceso requeriría que el auditor entrenase el programa en controversia y buscara interpretar para un juez lo que el programa hizo en su proceso de decisión, lo cual dispara las dificultades ya mencionadas.

En consecuencia, una estrategia exterior al proceso de decisión autónomo es enfocar el requisito de transparencia no en el algoritmo pensado de manera aislada sino en su interacción con la realidad social76. Se trata, si se quiere, de buscar la transparencia de la interfase humano-máquina, particularmente respecto a los efectos del uso del algoritmo en la distribución de recursos en la sociedad humana. Así, la discusión relevante de transparencia no sería respecto al código (como ocurrió en Loomis) y su propiedad intelectual, y ni siquiera respecto a los datos de entrenamiento del algoritmo, sino respecto al impacto del algoritmo en la sociedad: al margen de su motivación y diseño, ¿tiene este proceso de decisión autónoma un efecto desproporcionado en una población específica? Esta pregunta es familiar en términos de derecho de los derechos humanos, el cual ha desarrollado numerosas herramientas analíticas para responderla de manera efectiva.

CONCLUSIÓN

Este artículo propone cuatro conceptos que permiten desarrollar nuestro vocabulario jurídico para pensar la protección efectiva de los derechos humanos en la era del big data: autoridad algorítmica, derecho público, autonomía limitada y transparencia. Por supuesto, estos conceptos no agotan la discusión de lo que significa la protección de los derechos en este contexto, pero sí proveen el marco conceptual básico a partir del cual pueden desarrollarse doctrinas jurídicas más específicas, ajustadas al proceso tecnológico que buscan regular.

Como hemos visto, el desafío central yace en reconocer la novedad de la tecnología, pero entender también que ella tiene sentido solo en el contexto de la sociedad humana, donde la tecnología se despliega y donde tiene sus efectos. Así, reconocer la continuidad entre el poder social y la autoridad algorítmica es la clave para el desarrollo de un marco jurídico que permita dar cuenta de los nuevos vehículos de poder y los conecte con las viejas estructuras de injusticia y exclusión que mutan y se reproducen en los más avanzados mecanismos de decisión automatizada.

BIBLIOGRAFÍA

1. 

Amoroso, Daniele, y Guglielmo Tamburrini. “The Ethical and Legal Case Against Autonomy in Weapons Systems”. Global Jurist; Berlin 17, n.° 3 (2017): 1-20.

2. 

Ananny, Mike, y Kate Crawford. “Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability”. New Media & Society, (2016), 1-17.

3. 

Angwin, Julia, y Jeff Larson. “Machine Bias”. ProPublica, 23 de mayo del 2016. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.

4. 

Arendt, Hannah. The Origins of Totalitarianism. San Diego: Harcourt, 1979.

5. 

Balkin, Jack. “The Path of Robotics Law”. California Law Review Circuit 6 (2015): 45.

6. 

Balkin, Jack M. “The Three Laws of Robotics in the Age of Big Data Lecture”. Ohio State Law Journal 78 (2017): 1217-1242.

7. 

Barr, Alistair. “Google Mistakenly Tags Black People as ‘Gorillas,’ Showing Limits of Algorithms”. WSJ (blog), 1.° de julio del 2015. https://blogs.wsj.com/digits/2015/07/01/google-mistakenly-tags-black-people-as-gorillas-showing-limits-of-algorithms/.

8. 

Bartle, Ian, y Peter Vass. Self-regulation and the regulatory state: A survey of policy and practice. Citeseer, 2005.

9. 

Benvenisti, Eyal. “EJIL Foreword: Upholding Democracy Amid the Challenges of New Technology: What Role for the Law of Global Governance?” Global Trust Working Paper, 2018. https://papers.ssrn.com/abstract=3106847.

10. 

Berger, Klaus Peter. The Creeping Codification of the New Lex Mercatoria. 2.a ed. Alphen aan den Rijn: Kluwer Law International, 2010.

11. 

Bogdandy, Armin von, Philipp Dann, y Matthias Goldmann. “Developing the Publicness of Public International Law: Towards a Legal Framework for Global Governance Activities Special Issue: The Exercise of Public Authority by International Institutions: Introduction and Concept”. German Law Journal 9 (2008): 1375-1400.

12. 

Bonchi, Francesco, Sara Hajian, Bud Mishra, y Daniele Ramazzotti. “Exposing the probabilistic causal structure of discrimination”. International Journal of Data Science and Analytics 3, n.° 1 (2017): 1-21.

13. 

Brennan, Tim, William Dieterich, y Beate Ehret. “Evaluating the Predictive Validity of the Compas Risk and Needs Assessment System”. Criminal Justice and Behavior 36, n.° 1 (2009): 21-40.

14. 

Calo, Ryan. “Artificial Intelligence Policy: A Primer and Roadmap”. U.C. Davis Law Review 51 (2017): 399-436.

15. 

Cannataci, Joseph. “Report of the Special Rapporteur on the right to privacy”, A/72/43103 (19 de octubre del 2017).

16. 

Caral, Jose Ma Emmanuel A. “Lessons from ICANN: Is Self-Regulation of the Internet Fundamentally Flawed”. International Journal of Law and Information Technology 12 (2004): 1-31.

17. 

Chander, Anupam. “The Racist Algorithm”. Michigan Law Review 115 (2017): 1023-1046.

18. 

Cheney-Lippold, John. We Are Data: Algorithms and the Making of Our Digital Selves. New York: New York University Press, 2017.

19. 

Comisión Interamericana de Derechos Humanos - Relatoría Especial para la Libertad de Expresión. “Libertad de expresión e Internet”, OEA/Ser.L/V/ii, cidh/rele/inf.11/13 (31 de diciembre del 2013).

20. 

Crootof, Rebecca. “A Meaningful Floor for Meaningful Human Control Autonomous Legal Reasoning: Legal and Ethical Issues in the Technologies in Conflict”. Temple International & Comparative Law Journal 30 (2016): 53-62.

21. 

Datta, Amit, Michael Carl Tschantz, y Anupam Datta. “Automated Experiments on Ad Privacy Settings”. Proceedings on Privacy Enhancing Technologies 2015, n.° 1 (2015): 92-112.

22. 

Desmarais, Sarah, y Jay P Singh. “Risk Assessment Instruments Validated and Implemented in Correctional Settings in the United States”, 27 de marzo del 2013. https://csgjusticecenter.org/reentry/publications/risk-assessment-instruments-validated-and-implemented-in-correctional-settings-in-the-united-states/.

23. 

Dressel, Julia, y Hany Farid. “The Accuracy, Fairness, and Limits of Predicting Recidivism”. Science Advances 4, n.° 1 (2018): eaao5580.

24. 

Duhigg, Charles. “How Companies Learn Your Secrets”. The New York Times Magazine, 16 de febrero del 2012. https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html.

25. 

Elish, M. C. “Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction”. We Robot Working Paper, 2016. robots.law.miami.edu/2016/wp-content/uploads/2015/07/ELISH_WEROBOT_cautionary-tales_03212016.pdf.

26. 

Elster, Jon. Making Sense of Marx. Cambridge, New York, Paris: Cambridge University Press, Editions de la Maison des sciences de l’homme, 1985.

27. 

Feller, Avi, Emma Pierson, Sam Corbett-Davies, y Sharad Goel. “A Computer Program Used for Bail and Sentencing Decisions Was Labeled Biased against Blacks. It’s Actually Not That Clear”. Washington Post, 17 de octubre del 2016. https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-our-analysis-is-more-cautious-than-propublicas/?noredirect=on&utm_term=.1e4f7ae9a504.

28. 

Flores, Anthony W., Christopher T Lowenkamp, y Kristin Bechtel. “False Positives, False Negatives, and False Analyses: A Rejoinder to ‘Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And it’s Biased Against Blacks’”, 2017. http://www.crj.org/assets/2017/07/9_Machine_bias_rejoinder.pdf.

29. 

Friedman, Batya, y Helen Nissenbaum. “Bias in computer systems”. ACM Transactions on Information Systems (TOIS) 14, n.° 3 (1996): 330-347.

30. 

Future of Life Institute. “An Open Letter to the United Nations Convention on Certain Conventional Weapons”, 2017. https://futureoflife.org/autonomous-weapons-open-letter-2017/.

31. 

Future of Life Institute. “Autonomous Weapons: An Open Letter from AI & Robotics Researchers”, 2015. https://futureoflife.org/open-letter-autonomous-weapons/.

32. 

Gandomi, Amir, y Murtaza Haider. “Beyond the hype: Big data concepts, methods, and analytics”. International Journal of Information Management 35, n.° 2 (2015): 137-144.

33. 

Garriga Domínguez, Ana. Nuevos retos para la protección de datos personales en la Era del Big Data y de la computación ubicua. Madrid: Dykinson, S.L., 2016.

34. 

Gavison, Ruth. “Feminism and the Public/Private Distinction”. Stanford Law Review 45 (1993): 1-46.

35. 

Goldsmith, Jack L., y Tim Wu. Who Controls the Internet?: Illusions of a Borderless World. Oxford, New York: Oxford University Press, 2006.

36. 

Goodman, Bryce, y Seth Flaxman. “European Union regulations on algorithmic decision-making and a ‘right to explanation’”. Presented at 2016 ICML Workshop on Human Interpretability in Machine Learning (WHI 2016), arXiv preprint arXiv:1606.08813, 2016.

37. 

Hajian, Sara, Francesco Bonchi, y Carlos Castillo. “Algorithmic bias: From discrimination discovery to fairness-aware data mining”. En Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining, 2125-26. ACM, 2016.

38. 

Heyns, Christof. “Human Rights and the Use of Autonomous Weapons Systems (AWS) During Domestic Law Enforcement”. Human Rights Quarterly 38, n.° 2 (2016): 350-378.

39. 

Human Rights Watch. “Losing Humanity. The Case against Killer Robots”, 19 de noviembre del 2012.

40. 

ICRC. “Autonomous weapon systems: Technical, military, legal and humanitarian aspects. Expert meeting, Geneva, Switzerland, 26-28 March 2014”, 1.° de noviembre del 2014. https://www.icrc.org/en/document/report-icrc-meeting-autonomous-weapon-systems-26-28-march-2014.

41. 

Israni, Ellora. “Algorithmic Due Process: Mistaken Accountability and Attribution in State v. Loomis”. JOLT Digest - Harvard Journal of Law & Technology, 31 de agosto del 2017. http://jolt.law.harvard.edu/digest/algorithmic-due-process-mistaken-accountability-and-attribution-in-state-v-loomis-1.

42. 

Jasanoff, Sheila. “The Idiom of Co-Production”. En States of knowledge: The co-production of science and social order, editado por Sheila Jasanoff, 1-12. London, New York: Routledge, 2004.

43. 

Johns, Fleur. “Data, Detection, and the Redistribution of the Sensible in International Law”. American Journal of International Law 111, n.° 1 (2017): 57-103.

44. 

Just, Natascha, y Michael Latzer. “Governance by Algorithms: Reality Construction by Algorithmic Selection on the Internet”. Media, Culture & Society 39, n.° 2 (2017): 238-258.

45. 

Kelsen, Hans. Pure Theory of Law, 2.a ed. Berkeley: University of California Press, 1967.

46. 

Kennedy, Duncan. “Stages of the Decline of the Public/Private Distinction”. University of Pennsylvania Law Review 130 (1982): 1349.

47. 

Kenny, Anthony John Patrick. “The Homunculus Fallacy”. En The Legacy of Wittgenstein, editado por Anthony John Patrick Kenny, 125-136. Oxford, New York: Blackwell, 1984.

48. 

Kilbertus, Niki, Mateo Rojas Carulla, Giambattista Parascandolo, Moritz Hardt, Dominik Janzing, y Bernhard Schölkopf. “Avoiding discrimination through causal reasoning”. En Advances in Neural Information Processing Systems, 656-666, 2017.

49. 

Kingsbury, Benedict, Richard B. Stewart, y Niko Krisch. “The emergence of global administrative law”. Law and Contemporary Problems 68 (2005): 15-61.

50. 

Kuang, Cliff. “Can A.I. Be Taught to Explain Itself?”, The New York Times Magazine, 21 de noviembre del 2017, sec. Magazine.

51. 

Kurzweil, Ray. The Singularity Is near: When Humans Transcend Biology. New York: Viking, 2005.

52. 

Levendowski, Amanda. “How Copyright Law Can Fix Artificial Intelligence’s Implicit Bias Problem”. SSRN Scholarly Paper. Rochester, NY: Social Science Research Network, 24 de julio del 2017. https://papers.ssrn.com/abstract=3024938.

53. 

Lewis, Dustin Andrew, Gabriella Blum, y Naz Khatoon Modirzadeh. “War-Algorithm Accountability”. Harvard Law School Program on International Law and Armed Conflict - PILAC, 2016. http://nrs.harvard.edu/urn-3:HUL.InstRepos:28265262.

54. 

McCrudden, Christopher. “Human Dignity and Judicial Interpretation of Human Rights”. European Journal of International Law 19, n.° 4 (2008): 655-724.

55. 

McGinnis, John O. “Accelerating AI”. Northwestern University Law Review 104 (2010): 1253-1270.

56. 

Moore, Gordon E. “Cramming more components onto integrated circuits”. Electronics 38, n.° 8 (1965): 114.

57. 

Office of the High Commissioner for Human Rights. “The right to privacy in the digital ages” A/HRC/27/37 (30 de junio del 2014).

58. 

Olah, Chris, Alexander Mordvintsev, y Ludwig Schubert. “Feature Visualization”. Distill 2, n.° 11 (7 de noviembre del 2017): e7.

59. 

Pasquale, Frank. The Black Box Society: The Secret Algorithms That Control Money and Information. Cambridge: Harvard University Press, 2015.

60. 

Relator Especial de la ONU para la Libertad de Opinión y de Expresión, Representante para la Libertad de los Medios de Comunicación de la OSCE, Relator Especial de la CIDH para la Libertad de Expresión y Relatora Especial sobre Libertad de Expresión y Acceso a la Información de la CADHP. “Declaración conjunta sobre la libertad de expresión y las respuestas a las situaciones de conflicto”, 3 de mayo del 2015.

61. 

Relatoría Especial de la CIDH para la Libertad de Expresión y Relator Especial de la ONU para la Promoción y Protección del Derecho a la Libertad. “Declaración conjunta sobre programas de vigilancia y su impacto en la libertad de expresión”, 21 de junio del 2013.

62. 

Remolina Angarita, Nelson. Tratamiento de datos personales: aproximación internacional y comentarios a la Ley 1581 de 2012, 1.a edición. Bogotá: Legis, 2013.

63. 

Rob Kitchin. “Big Data, new epistemologies and paradigm shifts”. Big Data & Society 1, n.° 1 (2014): 1-12.

64. 

Rosenberg, Matthew, Nicholas Confessore, y Carole Cadwalladr. “How Trump Consultants Exploited the Facebook Data of Millions”. The New York Times, 17 de marzo del 2018, sec. Politics.

65. 

Rupp, Karl. “42 Years of Microprocessor Trend Data”. Accedido el 15 de febrero del 2018. https://www.karlrupp.net/2018/02/42-years-of-microprocessor-trend-data/.

66. 

Samuel, Arthur L. “Some studies in machine learning using the game of checkers”. IBM Journal of research and development 3, n.° 3 (1959): 210-229.

67. 

Simonite, Tom. “Moore’s Law Is Dead. Now What?”. MIT Technology Review, 23 de mayo del 2016.

68. 

Sweet, Alec Stone. “The new Lex Mercatoria and transnational governance”. Journal of European Public Policy 13, n.° 5 (1.° de agosto del 2006): 627-646.

69. 

Tene, Omer, y Jules Polonetsky. “Big Data for All: Privacy and User Control in the Age of Analytics”. Northwestern Journal of Technology and Intellectual Property 11 (2013): 239-274.

70. 

Teubner, Gunther, y Peter Korth. “Two Kind of Legal Pluralism: Collision of Transnational in the Double Fragmentation of the World Society”. En Regime Interaction in International Law: Facing Fragmentation, editado por Margaret Young, 23-54. Cambridge: Cambridge University Press, 2012.

71. 

Thompson, John B. Studies in the Theory of Ideology. Berkeley: University of California Press, 1984.

72. 

Turing, Alan M. “Computing Machinery and Intelligence”. Mind 59 (1950): 433-460.

73. 

Urueña, Rene. “Indicators and the Law: A case study of the Rule of Law Index”. En The Quiet Power of Indicators: Measuring Governance, Corruption, and Rule of Law, editado por Sally Engle Merry, Kevin E. Davis, y Benedict Kingsbury. Cambridge, New York: Cambridge University Press, 2015.

74. 

Urueña, Rene. No Citizens Here: Global Subjects and Participation in International Law. Leiden/Boston: Martinus Nijhoff Publishers, 2012.

75. 

Urueña, Rene. “Indicators as Political Spaces”. International Organizations Law Review 12, n.° 1 (2015): 1-18.

76. 

Urueña, Rene. “International Law as Expert Knowledge: Exploring the Changing Role of International Lawyers in National Contexts”. En International Law as a Profession, editado por Jean d’Aspremont, Tarcisio Gazzini, André Nollkaemper, y Wouter G. Werner, 389-410. Cambridge, New York: Cambridge University Press, 2017.

77. 

US Department of Defense. “Autonomy in Weapons Systems”. Directive 3000.09, 21 de noviembre del 2012.

78. 

Waldron, Jeremy. “Can There Be a Democratic Jurisprudence?”. Emory Law Journal 58 (2009): 675-712.

79. 

Wang, Yilun, y Michal Kosinski. “Deep neural networks are more accurate than humans at detecting sexual orientation from facial images”. PsyArXiv, 7 de septiembre del 2017. https://psyarxiv.com/hv28a/.

80. 

Wittgenstein, Ludwig. Investigaciones filosóficas. México D. F.: UNAM, 2003.

Notes

[1] La historia está relatada en Charles Duhigg, “How Companies Learn Your Secrets”, The New York Times Magazine, 16 de febrero del 2012, https://www.nytimes.com/2012/02/19/magazine/shopping-habits.html.

[2] Amir Gandomi y Murtaza Haider, “Beyond the hype: Big data concepts, methods, and analytics”, International Journal of Information Management 35, n.° 2 (2015): 137-44.

[3] Véase John Cheney-Lippold, We Are Data: Algorithms and the Making of Our Digital Selves (New York: New York University Press, 2017), 37-50.

[4] Gordon E. Moore, “Cramming more components onto integrated circuits”, Electronics 38, n.° 8 (1965): 114.

[5] Tom Simonite, “Moore’s Law Is Dead. Now What?”, MIT Technology Review, 23 de mayo del 2016, https://www.technologyreview.com/s/601441/moores-law-is-dead-now-what/.

[6] Fuente: Karl Rupp, “42 Years of Microprocessor Trend Data”, acceso el 15 de febrero del 2018, https://www.karlrupp.net/2018/02/42-years-of-microprocessor-trend-data/. Estas proporciones se correlacionan, en términos generales, con lo anunciado en Ray Kurzweil, The Singularity Is near: When Humans Transcend Biology (New York: Viking, 2005), 234.

[7] Matthew Rosenberg, Nicholas Confessore, y Carole Cadwalladr, “How Trump Consultants Exploited the Facebook Data of Millions”, The New York Times, 17 de marzo del 2018, https://www.nytimes.com/2018/03/17/us/politics/cambridge-analytica-trump-campaign.html.

[8] Véase Omer Tene y Jules Polonetsky, “Big Data for All: Privacy and User Control in the Age of Analytics”, Northwestern Journal of Technology and Intellectual Property 11 (2013): 239-274.

[9] Véase Ana Garriga Domínguez, Nuevos retos para la protección de datos personales en la Era del Big Data y de la computación ubicua (Madrid: Dykinson, S.L., 2016), 75-88. En el sistema interamericano de derechos humanos, véase Comisión Interamericana de Derechos Humanos - Relatoría Especial para la Libertad de Expresión, “Libertad de expresión e Internet” OEA/Ser.L/V/ii, cidh/rele/inf. 11/13 (31 de diciembre del 2013). Paras. 130-137. Relatoría Especial de la CIDH para la Libertad de Expresión y Relator Especial de la ONU para la Promoción y Protección del Derecho a la Libertad, “Declaración conjunta sobre programas de vigilancia y su impacto en la libertad de expresión”, 21 de junio del 2013. Relator Especial de la ONU para la Libertad de Opinión y de Expresión, Representante para la Libertad de los Medios de Comunicación de la OSCE, Relator Especial de la CIDH para la Libertad de Expresión y Relatora Especial sobre Libertad de Expresión y Acceso a la Información de la CADHP, «Declaración conjunta sobre la libertad de expresión y las respuestas a las situaciones de conflicto”, 3 de mayo del 2015. En el sistema universal, es de particular interés el marco conceptual en Office of the High Commissioner for Human Rights, “The right to privacy in the digital ages” A/HRC/27/37 (30 de junio del 2014). Además, el Consejo de Derechos Humanos de la ONU creó, en el 2015, una Relatoría Especial para el Derecho a la Privacidad, y nombró al profesor maltés Cannataci, quien presentó su primer reporte preliminar en octubre del 2017. Véase Joseph Cannataci, “Report of the Special Rapporteur on the right to privacy” A/72/43103 (19 de octubre del 2017). La Asamblea General ha, igualmente, adoptado tres resoluciones de importancia sobre el derecho a la privacidad en la era digital: 68/167 de 18 de diciembre del 2013, 69/166 de 18 de diciembre del 2014, y 71/199, del 19 de diciembre del 2016.

[10] Corte Suprema de Estados Unidos. Carpenter v. United States. 585 US (2018). El caso giró alrededor de Timothy Ivory Carpenter, un ladrón de celulares que, irónicamente, fue capturado porque su proveedor de servicio celular le entregó al FBI la información de su ubicación, durante 127 días, sin orden judicial previa, bajo la Stored Communications Act. Esta ley es aplicable a la información de usuarios de comunicaciones almacenada por terceras partes (como un proveedor celular o internet), e impone un estándar de evidencia más bajo para justificar la entrega a las autoridades de la información almacenada por tercera partes, que el estándar de evidencia impuesto por la Cuarta Enmienda para autorizar órdenes de cateo. La pregunta central ante la Corte era, entonces, cuáles son los límites de esta “third party rule” y, en consecuencia, si el uso de los registros celulares de ubicación geográfica sin orden judicial violaba la Cuarta Enmienda. La decisión de la Corte fue que la “third party rule” no aplica y que, en consecuencia, adquirir la información de ubicación física de un celular es en efecto un cateo. Según la Corte, “[…] we decline to grant the state unrestricted access to a wireless carrier’s database of physical location information. In light of the deeply revealing nature of CSLI (‘cell site location information’ - la información de ubicación física de un teléfono celular recopilada por el proveedor del servicio), its depth, breadth, and comprehensive reach, and the inescapable and automatic nature of its collection, the fact that such information is gathered by a third party does not make it any less deserving of Fourth Amendment protection. The Government’s acquisition of the cell-site records here was a search under that Amendment” (p. 22).

[11] Garriga Domínguez, Nuevos retos para la protección de datos personales en la Era del Big Data y de la computación ubicua, 89-140. Comisión Interamericana de Derechos Humanos - Relatoría Especial para la Libertad de Expresión, “Libertad de expresión e Internet”. Paras. 138-142.

[12] Tribunal Europeo de Justicia, Google Spain SL, Google Inc. v Agencia Española de Protección de Datos, Mario Costeja González. C-131/12.

[13] Véase Corte Constitucional, sentencias T-020/14 y T-277/15.

[14] Tribunal de Justiça do Estado do Rio de Janeiro, Maria da Graça Xuxa Meneghel vs. Google Brasil Internet Ltda, 0027986-70.2013.8.19.0000.

[15] La siguiente descripción se basa en René Urueña, Virtue in Algorithms? Law and Ethics in Algorithmic Governance (en prensa).

[16] Para las características aquí citadas, véase Rob Kitchin, “Big Data, new epistemologies and paradigm shifts”, Big Data & Society 1, n.° 1 (2014): 1-12.

[17] Diccionario de la Real Academia Española.

[18] Véase Arthur L. Samuel, “Some studies in machine learning using the game of checkers”, IBM Journal of research and development 3, n.° 3 (1959): 210-229. Ya en 1950, Alan Turing había presentado su famoso test, basado en un juego de imitación en el cual un humano (juez) puede interactuar con otro humano y con un computador, sin saber cuál de estos últimos es el humano y cuál el computador. Si el juez confunde al computador con el humano, el computador gana. (Alan M. Turing, “Computing Machinery and Intelligence”, Mind 59 [1950]: 433-60). Allí, Turing hace mención de las características teóricas de una “learning machine”, que podría ganar el juego de imitación. Sin embargo, el test de Turing hace referencia a inteligencia artificial (IA) general, en la que el computador puede aplicar su capacidad a cualquier problema, como un humano (por ejemplo, C-3PO de StarWars, o Terminator). Por el contrario, el horizonte que abrió Samuel, y que es la línea que nos importa en este artículo, es la de una posible IA limitada, en la que la máquina aprende con el fin de realizar una función discreta asignada por un humano (por ejemplo, ganar un juego de ajedrez). Sobre la diferencia entre IA general e IA limitada, véase John O. McGinnis, “Accelerating AI”, Northwestern University Law Review 104 (2010): 1253-1270,1256-1260.

[19] En mi ejemplo, las imágenes las sacaríamos del CIFAR-100 dataset que contiene miles de imágenes gratuitas de entrenamiento, agrupadas en 100 clases y 20 superclases (disponible en https://www.cs.toronto.edu/~kriz/cifar.html). En la práctica, las bases de imágenes serán propiedad de un proveedor (Facebook, o Google), proveídas “voluntariamente” por sus usuarios, lo cual es la parte del problema que se discutirá después.

[20] Se ha sostenido que uno de los roles centrales de derecho internacionales en el contexto nacional es, precisamente, el desarrollo de este tipo de marcos cognitivos de nivel medio, entre la teoría jurídica transnacional y la concreción positiva bajo la forma de principios y reglas. Véase René Urueña, “International Law as Expert Knowledge: Exploring the Changing Role of International Lawyers in National Contexts”, en International Law as a Profession, eds. Jean d’Aspremont et al. (Cambridge, New York: Cambridge University Press, 2017), 389-410.

[21] La siguiente propuesta se basa en la conceptualización en René Urueña, Virtue in Algorithms? Law and Ethics in Algorithmic Governance (en prensa).

[22] Ryan Calo, “Artificial Intelligence Policy: A Primer and Roadmap”, U.C. Davis Law Review 51 (2017): 399-436.

[23] El concepto de autoridad aquí está inspirado en la noción de autoridad pública internacional, desarrollada originalmente en Armin von Bogdandy, Philipp Dann, y Matthias Goldmann, “Developing the Publicness of Public International Law: Towards a Legal Framework for Global Governance Activities Special Issue: The Exercise of Public Authority by International Institutions: Introduction and Concept”, German Law Journal 9 (2008): 1375-1400.

[24] No se trata, entonces, de un ejercicio de poder más amplio (de una “gobernanza algorítmica”) que implicaría un ejercicio difuso del poder de influencia en las preferencias de los individuos. Respecto a esta lectura del algoritmo como orden(ador) social, véase Natascha Just y Michael Latzer, “Governance by Algorithms: Reality Construction by Algorithmic Selection on the Internet”, Media, Culture & Society 39, n.° 2 (2017): 238-258.

[25] Una tensión similar en el contexto de los indicadores se ha explorado en René Urueña, “Indicators and the Law: A case study of the Rule of Law Index”, en The Quiet Power of Indicators: Measuring Governance, Corruption, and Rule of Law, ed. (s). Sally Engle Merry, Kevin E. Davis, y Benedict Kingsbury (Cambridge, New York: Cambridge University Press, 2015). Y en René Urueña, “Indicators as Political Spaces”, International Organizations Law Review 12, n.° 1 (2015): 1-18. Por su parte, Fleur Johns se centrado en esta tensión respecto a la tecnología informática en concreto, en Fleur Johns, “Data, Detection, and the Redistribution of the Sensible in International Law”, American Journal of International Law 111, n.° 1 (2017): 57-103.

[26] Amanda Levendowski, “How Copyright Law Can Fix Artificial Intelligence’s Implicit Bias Problem”, Washington Law Review 93, n.° 579 (2018), https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3024938.

[27] La idea de coproducción proviene de los estudios de ciencia y tecnología, y sugiere un proceso en espiral, en el que la forma en que representamos al mundo (natural y social) mediante conocimiento científico constituye el orden social, que a su vez constituye las representaciones creadas mediante conocimiento científico, las cuales, por su parte, constituyen nuevamente el orden social, en un proceso de infinitas iteraciones. Veáse Sheila Jasanoff, “The Idiom of Co-Production”, en States of knowledge: The co-production of science and social order, ed. Sheila Jasanoff (London, New York: Routledge, 2004), 1-12.

[28] Jack M. Balkin, “The Three Laws of Robotics in the Age of Big Data Lecture”, Ohio State Law Journal 78 (2017): 1234.

[29] Sobre autorregulación, véase generalmente Ian Bartle y Peter Vass, Self-regulation and the regulatory state: A survey of policy and practice (Citeseer, 2005).

[30] Véase Jose M.a Emmanuel A. Caral, “Lessons from ICANN: Is Self-Regulation of the Internet Fundamentally Flawed”, International Journal of Law and Information Technology 12 (2004): 1-31. Sin embargo, es cada vez más claro que la autorregulación de internet no es más que una ilusión. Sobre esta transformación, hasta cierto punto la que este artículo propone para la autoridad algorítmica, véase Jack L. Goldsmith y Tim Wu, Who Controls the Internet?: Illusions of a Borderless World (Oxford, New York: Oxford University Press, 2006), 49-128.

[31] Véase Alec Stone Sweet, “The new Lex Mercatoria and transnational governance”, Journal of European Public Policy 13, n.° 5 (2006): 627-646. Para una defensa de esta nueva lex mercatoria, véase Klaus Peter Berger, The Creeping Codification of the New Lex Mercatoria, 2.a ed. (Alphen aan den Rijn: Kluwer Law International, 2010), 64-146.

[32] Véase, por ejemplo, Francesco Bonchi et al., “Exposing the probabilistic causal structure of discrimination”, International Journal of Data Science and Analytics 3, n.° 1 (2017): 1-21. Sara Hajian, Francesco Bonchi y Carlos Castillo. “Algorithmic bias: From discrimination discovery to fairness-aware data mining”, en Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining (ACM, 2016), 2125-2126. En el contexto de “machine learning”, Niki Kilbertus et al., “Avoiding discrimination through causal reasoning”, en Advances in Neural Information Processing Systems, 2017, 656-66. Sobre esta aproximación “interna”, una de las mejores introducciones disponibles es Batya Friedman y Helen Nissenbaum, “Bias in computer systems”, ACM Transactions on Information Systems (TOIS) 14, n.° 3 (1996): 330-347.

[33] Y, en ese sentido, una lex algorítmica autocontenida y autónoma, particularmente si la industria interesada la desarrolla como autorregulación, presenta los mismos riesgos de cualquier otro sistema autocontenido, que tiende a presentar “vision de túnel” y no permite una narrativa general del bien público que, por supuesto, incluye la protección de los derechos humanos. Sobre el riesgo de vision de túnel de los sistemas autocontenidos, véase Gunther Teubner y Peter Korth, “Two Kind of Legal Pluralism: Collision of Transnational in the Double Fragmentation of the World Society”, en Regime Interaction in International Law: Facing Fragmentation, ed. Margaret Young (Cambridge: Cambridge University Press, 2012), 23-54.

[34] Véase Sarah Desmarais y Jay P Singh, “Risk Assessment Instruments Validated and Implemented in Correctional Settings in the United States”, The National Reentry Resource Center, 27 de marzo del 2013, https://csgjusticecenter.org/reentry/publications/risk-assessment-instruments-validated-and-implemented-in-correctional-settings-in-the-united-states/.

[35] Un ejemplo del cuestionario del COMPAS se puede encontrar en https://www.documentcloud.org/documents/2702103-Sample-Risk-Assessment-COMPAS-CORE.html.

[36] Sobre el COMPAS, véase Tim Brennan, William Dieterich y Beate Ehret, “Evaluating the Predictive Validity of the Compas Risk and Needs Assessment System”, Criminal Justice and Behavior 36, n.° 1 (2009): 21-40.

[37] Véase Julia Angwin y Jeff Larson, “Machine Bias”, ProPublica, 23 de mayo del 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Cuestionan estos resultados Anthony W. Flores, Christopher T. Lowenkamp y Kristin Bechtel, “False Positives, False Negatives, and False Analyses: A Rejoinder to “Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And it’s Biased Against Blacks””, 2017, http://www.crj.org/assets/2017/07/9_Machine_bias_rejoinder.pdf. En contra de la crítica, también Avi Feller et al., “A Computer Program Used for Bail and Sentencing Decisions Was Labeled Biased against Blacks. It’s Actually Not That Clear”, Washington Post, 17 de octubre del 2016, https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-our-analysis-is-more-cautious-than-propublicas/?noredirect=on&utm_term=.1e4f7ae9a504.

[38] Julia Dressel y Hany Farid, “The Accuracy, Fairness, and Limits of Predicting Recidivism”, Science Advances 4, n.° 1 (2018): eaao5580.

[39] Véase Nelson Remolina Angarita, Tratamiento de datos personales: aproximación internacional y comentarios a la Ley 1581 de 2012, 1.a ed. (Bogotá: Legis, 2013).

[40] Véase, por ejemplo, Duncan Kennedy, “Stages of the Decline of the Public/Private Distinction”, University of Pennsylvania Law Review 130 (1982): 1349.

[41] Jeremy Waldron, “Can There Be a Democratic Jurisprudence?”, Emory Law Journal 58 (2009): 684.

[42] Hans Kelsen, Pure Theory of Law, 2.a ed. (Berkeley: University of California Press, 1967), 285. La crítica feminista ha sido clave en resaltar el uso político de la distinción público/privado, por ejemplo en Ruth Gavison, “Feminism and the Public/Private Distinction”, Stanford Law Review 45 (1993): 1-46.

[43] Calo, “Artificial Intelligence Policy”.

[44] La “falacia del homúnculo” es usualmente rastreada al argumento de Wittgenstein sobre la posibilidad de atribuir a una parte de la criatura características que sólo le corresponden al todo (por ejemplo, decir que ciertas partes del cerebro “ven” es falaz, porque es la persona quien ve). Así, en Investigaciones Filosóficas, se sostiene “[…] sólo de seres humanos vivos y de lo que se les asemeja (se comporta de modo semejante) podemos decir que tienen sensaciones, ven, están ciegos, oyen, están sordos, son conscientes o inconscientes”. (Ludwig Wittgenstein, Investigaciones filosóficas [México D. F.: UNAM, 2003]. Para. 281). A pesar de que el argumento de Wittgenstein es mereológico, pues no habla nunca de que la falacia implique afirmar que hubiese una personita en el cerebro que “ve”, también es claro que el sólo hecho de asignar a la parte el atributo de una persona (“ver”) implica afirmar que la parte es también una persona, por lo que esta falacia sí implica afirmar que en la parte hay un homúnculo que hace lo que el todo (la persona) también hace. Para esta lectura de la falacia, véase Anthony John Patrick Kenny, “The Homunculus Fallacy”, en The Legacy of Wittgenstein, ed. Anthony John Patrick Kenny (Oxford, New York: Blackwell, 1984), 125-136.

[45] Jack Balkin, “The Path of Robotics Law”, California Law Review Circuit 6 (2015): 55-59.

[46] Para una introducción breve al fetichismo de las mercaderías, véase Jon Elster, Making Sense of Marx (Cambridge, New York, Paris: Cambridge University Press, Editions de la Maison des sciences de l’homme, 1985), 56-58.

[47] John B. Thompson, Studies in the Theory of Ideology (Berkeley: University of California Press, 1984), 4.

[48] Eyal Benvenisti, “Upholding Democracy Amid the Challenges of New Technology: What Role for the Law of Global Governance?,” European Journal of International Law 29, n.° 1 (2018): 9-82, pp. 61-63.

[49] El artículo 1.1. de la Grundgesetz establece “La dignidad humana es intangible. Respetarla y protegerla es obligación de todo poder público”. Para un resumen de la historia e instancias de positivización del principio de dignidad humana, véase Rene Urueña, No Citizens Here: Global Subjects and Participation in International Law (Leiden, Boston: Martinus Nijhoff Publishers, 2012), 106-110.

[50] Christopher McCrudden, “Human Dignity and Judicial Interpretation of Human Rights”, European Journal of International Law 19, n.° 4 (2008): 679. McCrudden identifica una tercera dimensión en algunos textos de jurídicos: la idea del “Estado limitado”, en el sentido de que la justificación del Estado es el ser humano, y no viceversa. Desde su más temprana jurisprudencia, la Corte Constitucional colombiana reconoció el papel central de la dimensión ontológica de la dignidad humana como valor jurídico vinculante (veáse, por ejemplo, sentencia T-499/92 M. P.: Eduardo Cifuentes Muñoz) y posteriormente desarrolló reglas para la implementación de la dimensión relacional, al enmarcar “(i) la dignidad humana entendida como autonomía o como posibilidad de diseñar un plan vital y de determinarse según sus características (vivir como quiera). (ii) La dignidad humana entendida como ciertas condiciones materiales concretas de existencia (vivir bien). Y (iii) la dignidad humana entendida como intangibilidad de los bienes no patrimoniales, integridad física e integridad moral (vivir sin humillaciones)” Corte Constitucional de Colombia. STC T-881 del 17 de octubre del 2002. Magistrado ponente: Eduardo Montealegre.

[51] Mi lectura de la dimensión relacional de la dignidad relevante para los procesos de decisión autónoma construye sobre el trabajo de Hanna Arendt, para quien los derechos humanos tenían poco sentido para aquellos que se encontraban más allá de la protección del Estado. Para Arendt, la privación fundamental de los derechos humanos ocurre cuando se priva al individuo de una comunidad que quiera hace respetar esos derechos, los cuales son en últimas creados para resolver problemas al interior de una comunidad dada. Así, sin comunidad, no hay derechos-no puede haber derechos. Por el contrario, el humano puede perder sus derechos, pero no perder su dignidad, siempre y cuando siga perteneciendo a una comunidad. Para Arendt, es la pérdida de la comunidad lo que expulsa al individuo de la humanidad (véase Hannah Arendt, The Origins of Totalitarianism [San Diego: Harcourt, 1979], 290-302).

[52] Esta es la definición adoptada por el Departamento de Defensa de Estados Unidos, la cual no requiere que el sistema de armamento se active autónomamente. Aún si la activación depende del humano, el sistema será autónomo si escoge y elimina el objetivo sin intervención humana. Véase US Department of Defense, “Autonomy in Weapons Systems” (Directive 3000.09, 21 de noviembre del 2012), 3-14. Esta es la misma definición adoptada por Human Rights Watch y el CICR. Al respecto, véase Human Rights Watch, “Losing Humanity. The Case against Killer Robots”, 19 de noviembre del 2012; “Autonomous weapon systems: Technical, military, legal and humanitarian aspects. Expert meeting”, International Committee of The Red Cross, https://www.icrc.org/en/document/report-icrc-meeting-autonomous-weapon-systems-26-28-march-2014.

[53] Véase Christof Heyns, “Human Rights and the Use of Autonomous Weapons Systems (AWS) During Domestic Law Enforcement”, Human Rights Quarterly 38, n.° 2 (2016): 370-371. Hay, por supuesto, otros argumentos, tanto deontológicos como consecuencialistas, en contra de las armas letales autónomas que no derivan del principio de dignidad, los cuales no serán explorados aquí. Al respecto, véase Daniele Amoroso y Guglielmo Tamburrini, “The Ethical and Legal Case Against Autonomy in Weapons Systems”, Global Jurist; Berlin 17, n.° 3 (2017): 1-20. En derecho internacional humanitario hay también argumentos en tal sentido; para ejemplos, véase Dustin Andrew Lewis, Gabriella Blum, y Naz Khatoon Modirzadeh, “War-Algorithm Accountability”, Harvard Law School Program on International Law and Armed Conflict PILAC (2016): 66-76, http://nrs.harvard.edu/urn-3:HUL.InstRepos:28265262.

[54] Véanse las cartas públicas “Autonomous Weapons: An Open Letter from AI & Robotics Researchers”, Future of Life Institute, 2015, https://futureoflife.org/open-letter-autonomous-weapons/, y “An Open Letter to the United Nations Convention on Certain Conventional Weapons”, Future of Life Institute, 2017, https://futureoflife.org/autonomous-weapons-open-letter-2017/.

[55] Lewis, Blum, y Modirzadeh, “War-Algorithm Accountability”, 57-62.

[56] Benvenisti, “EJIL Foreword”.

[57] Rebecca Crootof, “A Meaningful Floor for Meaningful Human Control Autonomous Legal Reasoning: Legal and Ethical Issues in the Technologies in Conflict”, Temple International & Comparative Law Journal 30 (2016): 54.

[58] Elish propone la noción de “moral crumple zones”, en referencia a las áreas de las carrocerías de los carros que se arrugan para absorber los golpes. De igual forma, sugiere Elish, los humanos terminan siendo los repositorios de responsabilidad jurídica y moral en entramado humano-máquina en la que el humano carece de verdadera agencia, pero es el único posible responsable. M. C. Elish, “Moral Crumple Zones: Cautionary Tales in Human-Robot Interaction”, We Robot Working Paper 3/20 (2016), robots.law.miami.edu/2016/wp-content/uploads/2015/07/ELISH_WEROBOT_cautionary-tales_03212016.pdf.

[59] DO L 119 de 4.5.2016, p. 1.

[60] Véase Bryce Goodman y Seth Flaxman, “European Union regulations on algorithmic decision-making and a ‘right to explanation’”, AI Magazine 38, n.° 3 (2016), https://arxiv.org/abs/1606.08813.

[61] El propio artículo 22 establece que el derecho no aplica respecto a decisiones que son: (a) necesarias para la celebración o la ejecución de un contrato entre el interesado y un responsable del tratamiento; (b) autorizadas por el Derecho de la Unión o de los estados miembros que se aplique al responsable del tratamiento y que establezca asimismo medidas adecuadas para salvaguardar los derechos y libertades y los intereses legítimos del interesado, o (c) basadas en el consentimiento explícito del interesado.

[62] Véase Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (Cambridge: Harvard University Press, 2015), 1-19.

[63] Véase Benedict Kingsbury, Richard B. Stewart y Niko Krisch, “The emergence of global administrative law”, Law and Contemporary Problems 68 (2005): 15-61.

[64] Angwin y Larson, “Machine Bias”.

[65] Alistair Barr, “Google Mistakenly Tags Black People as ‘Gorillas’, Showing Limits of Algorithms”, WSJ (blog), 1 de julio del 2015, https://blogs.wsj.com/digits/2015/07/01/google-mistakenly-tags-black-people-as-gorillas-showing-limits-of-algorithms/.

[66] Amit Datta, Michael Carl Tschantz y Anupam Datta, “Automated Experiments on Ad Privacy Settings”, Proceedings on Privacy Enhancing Technologies 2015, n.° 1 (2015): 92-112.

[67] Véase en primera instancia State v. Loomis 881 N.W.2d 749 (Wis. 2016). La apelación en Loomis v. Wisconsin, 137 S. Ct. 2290 (2017). Certiorari no fue otorgado por la Corte Suprema.

[68] Véase Ellora Israni, “Algorithmic Due Process: Mistaken Accountability and Attribution in State v. Loomis”, JOLT Digest - Harvard Journal of Law & Technology (2017), http://jolt.law.harvard.edu/digest/algorithmic-due-process-mistaken-accountability-and-attribution-in-state-v-loomis-1.

[69] State v. Loomis, 757-769.

[70] Véase Brief for the United States as Amicus Curiae, Loomis v. Wisconsin, 137 S. Ct. 2290 (2017) (No. 16-6387), 2017 WL 2333897. También: Brief in Opposition, Loomis v. Wisconsin, 137 S. Ct. 2290 (2017) (No. 16-6387).

[71] En el mismo sentido, véase Israni, “Algorithmic Due Process”.

[72] Yilun Wang y Michal Kosinski, “Deep neural networks are more accurate than humans at detecting sexual orientation from facial images”, PsyArXiv (2017), https://psyarxiv.com/hv28a/.

[73] Véase Anupam Chander, “The Racist Algorithm”, Michigan Law Review 115 (2017): 1023-1046.

[74] Para una descripción de los cambios en la cultura respecto al desafío de transparencia, véase Cliff Kuang, “Can A.I. Be Taught to Explain Itself?”, The New York Times Magazine, 21 de noviembre del 2017, https://www.nytimes.com/2017/11/21/magazine/can-ai-be-taught-to-explain-itself.html.

[75] Chris Olah, Alexander Mordvintsev, y Ludwig Schubert, “Feature Visualization”, Distill 2, n.° 11 (2017): e7.

[76] Véase Mike Ananny y Kate Crawford, “Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability”, New Media & Society (2016), 10-12.