Una receta de salsa es un poco como un algoritmo.
Uno de los mejores que conozco es la salsa bearnesa. Te voy a decir cuáles oportunidades tienes para hacer un bearnaise:
- Podemos comprar una bolsa desde Toro, poner la mantequilla y la leche y después cocinar cinco minutos. El resultado será perfectamente okay.
- Podemos utilizar huevos, mantequilla, estragón y bearnesa. Se convierte en un poco más avanzado.
- Podemos crear la esencia individualmente. Se convierte en un poquito más avanzado.
- O podemos mezclarlo con un poquito de puré de tomate. Se convierte en salsa al choron y empezamos a alejarnos del producto original.
En realidad, una receta de salsa es un algoritmo. Si es simple es bastante fácil de controlar. Podemos leer sobre el paquete que está dentro y controlar mantequilla y leche es una cuestión estricta.
Pero cuantos más elementos pongamos en la salsa o en el algoritmo, más difícil será tener control sobre el producto final. Muchas cosas pueden salir mal, la salsa puede, por ejemplo, cortarse a sí misma o el algoritmo puede dar una imagen distorsionada de una persona. Podemos introducir de contrabando un nuevo ingrediente, como la harina, que tal vez ni siquiera notemos en el sabor, pero una persona con enfermedad celíaca se enfermará gravemente y es terriblemente difícil de controlar. Así que también es con un algoritmo. Si es muy avanzada, puede producir resultados muy difíciles de predecir.
En el pequeño minuto que has pasado hasta ahora leyendo esta entrada de blog, se han enviado 2,5 millones de instantáneas, se han hecho 4,1 millones de búsquedas en Google y 1,6 millones de veces se han desplazado en Tinder. Los datos que dejamos atrás se usan para algo. Se pueden incluir como parte de la base de decisión que decide si debemos obtener un préstamo, qué tipo de publicidad debemos mostrar en un sitio web o, como en China, si podemos alquilar un coche o qué cantidad de depósito debemos pagar cuando alquilamos un apartamento.
Para responder a esta evolución es necesario discutir la legislación, la ética y las nuevas formas de regulación. Y empezaré con la supervisión. Es una pregunta difícil y aún no hemos «terminado de pensar».
Hasta ahora tenemos poca experiencia en la supervisión de algoritmos, pero me gustaría mencionar un problema específico. Es dudoso que este caso fuera realmente un algoritmo, pero sigue siendo muy ilustrativo. En el caso se trataba de estudiantes de escuelas, que sin explicación alguna recibieron notas significativamente más bajas de lo esperado. Estos estudiantes tomaron las líneas de IB que muchas escuelas secundarias ofrecen. Este año, los exámenes fueron cancelados en muchos lugares debido al coronavirus, por lo que fue necesario utilizar elementos distintos a las notas en el examen para determinar la calificación final. La razón por la que se bajaron las notas es que en la evaluación se utilizaron datos históricos de antiguos alumnos de la misma escuela, en un intento de compensar los exámenes cancelados. Y los datos históricos intercambiados entre otras cosas, sobre cómo los estudiantes de la escuela normalmente lo hacían. A esto le dijimos lo siguiente:
Los estudiantes son normalmente puestos en la audiencia basados en los logros históricos de la escuela, aunque todos los estudiantes son diferentes. Al mismo tiempo, la evaluación puede tener un impacto muy grande en los estudios, la carrera y la vida del individuo. Esto no es justo para los estudiantes que han trabajado duro y ahora no entran en los estudios que querían.
En cuanto a la justificación legal más específica, es que las calificaciones son datos personales y, según la Ordenanza de Privacy, los datos personales deben ser corregidos y procesados de forma abierta y justa. Creíamos que las notas del IB no eran correctas porque no reflejan el nivel académico individual del individuo, que es el propósito de la evaluación. En cambio, la evaluación trata de predecir qué calificaciones habría recibido el individuo en el examen si éste no hubiera sido cancelado, pero no es posible predecir con precisión.
También pensamos que era injusto construir notas sobre cómo se comportaron otros estudiantes de la misma escuela en años anteriores. Esto puede conducir a la discriminación porque el modelo de la escuela trata a los estudiantes de diferentes escuelas de manera diferente.
Así que ya tenemos una inspección de los algoritmos en Noruega, y esto es la Inspección de Datos. Podemos supervisar las decisiones automatizadas, donde las decisiones se toman por un algoritmo. Podríamos pedir que se presente la evaluación de riesgos y evaluar si la evaluación de las consecuencias sobre la privacy es suficientemente buena, podemos ordenar la supresión y dar acceso a los datos, por citar algunos ejemplos. Y podemos, como en el caso de IB, examinar qué fragmentos de información se incluyen en la decisión y si son injustos. Pero ir a comprobar el algoritmo en sí, incluso la cadena numérica, es mucho más difícil.
Hace unos días, el Parlamento Europeo pidió a la Comisión Europea que creara un marco para la inteligencia artificial, la robótica y tecnologías similares. No he leído todo el documento, que está en muchas páginas, pero tiene un arreglo interesante. Señala, entre otras cosas, los aspectos positivos de la inteligencia artificial, pero también los peligros, con los que estamos familiarizados. Una decisión tomada con la ayuda de la inteligencia artificial y los algoritmos puede ser prevenida, racista, sexista y discriminatoria en cuanto a la edad. Sin entrar en detalles aquí, el informe subraya en gran medida la importancia de la evaluación de los riesgos, la seguridad, la transparencia y la rendición de cuentas en la RPI. En particular, los prejuicios, la responsabilidad social y la igualdad de género, la inteligencia artificial, la robótica y las tecnologías conexas pueden contribuir a reducir las desigualdades sociales y sostener que el modelo de desarrollo europeo debe basarse en la confianza pública y en una mayor cohesión social;
Para la cuestión actual, también es interesante que se proponga nombrar autoridades de supervisión, en su mayoría, que supervisen estas normas. Esto es muy emocionante. Debemos darnos cuenta de que la legislación actual no siempre puede adaptarse a un mundo modificado algorítmicamente, ni tampoco es posible regular en un mundo que se mueve tan rápido como ahora. Por lo tanto, es muy importante que la ética sea una envoltura en torno a la legislación. No es que nada que no sea ilegal esté bien. Tomemos el seguro, por ejemplo: podemos predecir muchas enfermedades trazando un mapa detallado de los patrones de vida de las personas y podemos calcular una prima de seguro que corresponda al riesgo individual de enfermarse. Es casi imposible regularlo, por lo que la ética debe ser un envoltorio de la legislación. Y la cuestión ética que se plantea aquí es, evidentemente, hasta dónde hay que llegar en la individualización de la prima de seguro, antes de socavar el producto de seguro propiamente dicho, que es un producto colectivo. Es una cuestión profundamente ética el tiempo que, como sociedad, debemos permitir que se discrimine a los ancianos, a las personas con enfermedades congénitas o con sobrepeso.
La Autoridad Noruega de Protección de Datos trabaja para asegurar el cumplimiento de los reglamentos. Podemos supervisar, procesar casos individuales y realizar un trabajo de información sobre cómo se deben aplicar las normas. Hemos establecido un método de trabajo completamente nuevo, a saber, una caja de arena reguladora para la inteligencia artificial. Se trata de un entorno de prueba en el que las empresas pueden probar nuevos servicios y soluciones en un entorno seguro y obtener asesoramiento de nuestros expertos en derecho y tecnología.
El objetivo general es estimular la innovación ética y responsable de la inteligencia artificial. La privacy y la innovación son a veces únicas. Esto es un malentendido. Por el contrario, una privacy mal mantenida en el desarrollo de la inteligencia artificial puede obstaculizar el grado de innovación.
Estamos abiertos a preguntas en la caja de arena el 1 de diciembre. Subrayo que los admitidos deben usar la inteligencia artificial en su solución. Pero, por supuesto, habrá un umbral de calidad para entrar en el proyecto. Así que no basta con llegar con un paquete de polvo de salsa Tauro y un poco de mantequilla, tal vez ni siquiera una simple esencia. ¿Pero qué pasa si alguien tiene la idea de mirar alrededor, usando la inteligencia artificial, en la gran red del mundo, para encontrar un nuevo ingrediente para la barba? Y tal vez encuentren puré de tomate. Pero desafortunadamente, esa salsa ya está hecha y se llama salsa choron. Es algo malo, pero la caja de arena debería poder jugar.
Esta es una versión ampliada y popularizada de una conferencia que di en la Conferencia Anual del Ombudsman para la Igualdad y la Lucha contra la Discriminación el 29 de octubre de 2020.