Un choque entre la burocracia de la Unión Europea y la inteligencia artificial es una trama digna de una novela de ciberpunk. Y ocurrirá en la vida real en el 2018, cuando entren en vigor leyes de protección de datos europeas aprobadas este año. Y, aunque instintivamente estemos tentados a apoyar al progreso antes que a la regulación, la UE está del lado de los buenos en esta batalla.
El Reglamento General de Protección de Datos de la UE y una normativa separada contienen directrices para proteger a las personas contra las decisiones tomadas automáticamente por un algoritmo. “El sujeto de los datos tendrá el derecho a no estar sujeto a una decisión basada únicamente en un proceso automatizado, incluyendo la elaboración de perfiles, que tenga efectos legales concernientes a dicha persona u otros efectos similares en él o ella” es lo que dice el reglamento. La normativa, que regulará el trabajo de la policía e inteligencia, es aún más dura: prohíbe el uso de datos de etnia, ideas políticas o religiosas, orientación sexual o afiliación sindical en la toma de decisiones automatizadas.
La idea es que, como dice la introducción del reglamento, el procesamiento de datos personales debería estar “sujeto a los resguardos adecuados”. En términos reales, esto significa que, si un banco niega un préstamo basado en un procesamiento de algoritmos de los datos de una persona, una aseguradora fija una prima alta o una persona es seleccionada para atención especial de la policía producto de una operación general de recolección de datos como las reveladas por Edward Snowden en la Agencia Nacional de Seguridad, las personas deberían poder cuestionar estas decisiones y pedir que un ser humano las revise. También deberían ser capaces de exigir una explicación de por qué se tomó dicha decisión.
La revista Wired, basándose en parte en un estudio reciente de dos científicos de Oxford, Bryce Goodman y Seth Flaxman, sugirió recientemente que las nuevas reglas podrían afectar los algoritmos de fondo de Google y Facebook, que usan inteligencia artificial para dirigir publicidad, entregar resultados de búsqueda relevantes o dar forma a las noticias que ve un usuario. Probablemente este no sea el caso: las decisiones automatizadas serán permitidas con el consentimiento explícito del usuario o donde son “necesarias para entrar o realizar un contrato entre el sujeto de los datos y un regulador”. Esto hace que los Googles y Facebooks de este mundo queden inmunes, siempre y cuando no olviden solicitar la aprobación del usuario del documento de términos de uso que nadie nunca lee.
Sin embargo, la UE va por buen camino. Ellos y otros reguladores deberían darse cuenta de cómo se está usando la tecnología de aprendizaje automático y deberían darles más poder a los ciudadanos en la batalla potencialmente perdida contra aplicaciones de empresas y del Estado.
La inteligencia artificial puede ser sólo tan imparcial como los conjuntos de datos los que se basa. Solon Barocas, empleado de Microsoft y Andrew Selbst, de Yale, publicaron recientemente un estudio fundamental sobre cómo “grandes bases de datos” pueden incorporar sesgos. Por ejemplo, los graduados de ciertas universidades pueden parecer mejores para ciertos trabajos, pero dar un gran peso a este criterio dejará fuera a candidatos de minorías calificadas, ya que pocos de estos fueron a dichas universidades. Y aun excluyendo las variables obvias de discriminación (como las mencionadas en la normativa de la UE) puede que el sesgo no desaparezca, porque usualmente están correlacionadas con variables aparentemente inofensivas, como el área donde vive una persona o sus hábitos de compra.
Se podría argumentar que los humanos hasta pueden ser peores que un algoritmo tomando decisiones libres de sesgo. A diferencia de un software, un oficial de crédito humano puede simular que no le afecta la raza del solicitante, pero ser racista. Incluso personas que no tienen los sesgos más tremendos pueden ser peores analizando su experiencia que una red neuronal artificial descomponiendo una base de datos. Sin embargo, las decisiones humanas por lo menos se pueden cuestionar y se puede exigir una explicación al respecto. Esto es más difícil con una máquina.
Las redes neuronales, sistemas modelados como un cerebro humano, encuentran regularidades en los datos que ningún humano les ha dicho que busquen; en ese sentido, funcionan como sustitutos tempranos de un cerebro humano digital. Sin embargo, a diferencia del cerebro, son cajas negras, ya que es difícil preguntarles qué afectó su decisión. “Las redes neuronales, especialmente con el incremento del aprendizaje profundo, quizás plantean un reto mayor aún: ¿qué esperanza hay de recibir una explicación de lo aprendido en una red neuronal de varias capas con una arquitectura compleja?”, escribieron Goodman y Flaxman.
Hay formas de proveer explicaciones y rectificar sesgos. Se pueden desarrollar algoritmos para cuantificar la influencia de diferentes inputs en sistemas que procesan datos personales y generar reportes de transparencia. Pero estos aún no funcionan con redes neuronales profundas.
Es el trabajo de los reguladores presionar a los investigadores y desarrolladores de software para que mejoren estas técnicas y las hagan tan ubicuas como la inteligencia artificial. Yo incluso diría que deberían ir más lejos: la gente debería tener el derecho de determinar exactamente qué datos puede permitir que cualquier sistema recolecte y procese, y debería poder optar por excluirse de ciertos usos algorítmicos de sus datos.
Facebook, por ejemplo, continúa modificando su algoritmo de noticias. Recientemente puso énfasis en poner en contacto al usuario con gente con gustos parecidos, un concepto terrible para organizaciones noticiosas que usan Facebook como una plataforma de distribución, ya que esto sólo sirve para reforzar y confirmar los sesgos de los lectores, dividiéndolos en compartimentos donde no entran en contacto con más opiniones que las propias. Me gustaría excluirme de enviar ciertos datos que alimentan este algoritmo. Esto requeriría una explicación de Facebook respecto a qué hace exactamente dicho algoritmo y la habilidad de actuar en base a esa explicación.
Desafortunadamente, las nuevas leyes de la UE no van tan lejos. Sólo requieren que organizaciones que usan algoritmos se hagan cargo de decisiones que produzcan “efectos legales”. Esto ya es algo, especialmente si para el momento en que el reglamento entre en vigor, la UE no pierde el interés por garantizar su cumplimiento.