Por qué la equidad digital depende de los datos democratizados

Por Marty Graham, colaborador

Muchos responsables del gobierno y residentes están de acuerdo en que el cambio de ladrillo y mortero a píxeles y datos ha transformado, racionalizado y mejorado las operaciones diarias.

Los ciudadanos pueden pagar sus cuentas de servicios públicos e impuestos, solicitar permisos para realizar un desfile y reportar problemas en el vecindario sin tener que viajar a oficinas municipales que a veces se encuentran en lugares inconvenientes. Los gobiernos también se benefician de las tecnologías digitales. En Indiana, por ejemplo, un portal móvil envía las actualizaciones de tráfico de los usuarios directamente a sus teléfonos, aliviando la congestión; mientras tanto, en Las Vegas, los sensores y el aprendizaje automático mantienen a la ciudad en la cima de la recolección de basura antes de que se convierta en un peligro para la salud y una monstruosidad.

TAMBIÉN TE PUEDE INTERESAR: Pulso urbano: El estado de las ciudades inteligentes hoy (y mañana)

Pero a medida que el negocio de gobernar se traslada a la web, los científicos de datos se preocupan cada vez más de que la información de los usuarios que utilizan para mejorar los servicios existentes, tomar decisiones de política y planificar para el futuro se vea distorsionada por la cantidad de datos que recopilan de los usuarios frecuentes y la escasez de datos de las personas que no están involucradas. La fuerte inclinación de los datos hacia los usuarios actuales puede resultar en un sesgo que beneficia a un grupo sobre el otro.

«Esta inequidad es una de las piezas más importantes[del gobierno virtual]», dijo Michael Lake, director ejecutivo de Leading Cities, en una entrevista en septiembre, poco después de que su empresa publicara su informe de ciudades inteligentes, una medida de cómo 24 ciudades de todo el mundo están logrando sus objetivos de ciudades inteligentes. «Una ciudad inteligente tiene a la gente de una ciudad en su centro», continuó. «Si no estás atendiendo sus necesidades inmediatas, entonces por definición no puedes alcanzar un estatus de ciudad inteligente.»

MÁS INFORMACIÓN SOBRE LAS CIUDADES DIGITALES

Sesgo de datos: ¿Quién queda excluido?

Desde mediados de la década de 1990 hasta 2016, el número de adultos estadounidenses conectados a Internet aumentó de 6 por ciento a cerca de 90 por ciento, según Pew Research. En 2016, las cifras se aplanaron, dejando alrededor del 10 por ciento de los adultos que no tienen acceso a Internet o que han optado por no tenerlo. Una buena parte de esas personas son mayores, aunque un número cada vez mayor de personas mayores usan la red con la misma frecuencia y habilidad que cualquier milenio.

Las principales razones por las que las personas no están en la web o tienen acceso limitado tienden a solaparse. La raza y la etnia juegan un papel importante: Los negros e hispanos tienen casi el doble de probabilidades de no usar la web que los blancos, encontró Pew Research. Cuando se conectan, lo hacen principalmente a través de sus teléfonos, cuya capacidad es limitada en comparación con la de un ordenador. Los ingresos más bajos y la educación limitada también son factores importantes, y la brecha que existe desde hace mucho tiempo entre los entornos rurales y urbanos sigue existiendo, en gran medida debido a la falta de acceso a la banda ancha o a la conexión Wi-Fi. Mientras tanto, las barreras del idioma y de la ciudadanía son un factor, y la mayoría de las personas que se enfrentan a una barrera se enfrentan a varias.

El 10 por ciento de la población que no está conectada digitalmente a los gobiernos locales y regionales se enfrenta a un gran desafío: estos individuos son los que más probablemente necesitarán la ayuda de las agencias gubernamentales, pero son los menos capaces de acceder a los recursos necesarios y disponibles, incluyendo los beneficios de alimentación y vivienda, seguro de salud, información sobre el transporte público y ayuda con la búsqueda de empleo.

Su ausencia digital también profundiza el problema con el que muchos gobiernos ya están lidiando: ¿Cómo se involucra a las poblaciones vulnerables cuando no están proporcionando datos personales?

Según Jeremy Gillula, director de proyectos tecnológicos de la Electronic Frontier Foundation, eso se convierte en un grave problema a la hora de entrenar algoritmos para el servicio público.

«La primera y más importante regla es: No se limite a asumir que un conjunto de datos que encuentre será representativo del mundo», explica Gillula. «La mejor manera de asegurar datos de alta calidad es pensar primero en el problema que se está tratando de resolver, hacer una lluvia de ideas sobre las posibles formas en que una solución podría salir mal, y luego recopilar datos específicamente para resolver el problema mientras se abordan esos problemas».

«Hay dos tipos de prejuicios, y ambos pueden socavar la democracia», dice Gillula. El primero es el sesgo sociocultural, que incluye el racismo, el sexismo, la discriminación por edad y la discriminación contra los discapacitados. El segundo, continúa, es el sesgo estadístico, que es cuando un modelo constantemente hace la predicción errónea sobre algo de una manera sistemática. Por ejemplo, un modelo para predecir qué propiedades en California podrían ser susceptibles a daños por terremotos podría sistemáticamente predecir de manera insuficiente o excesiva los posibles daños, independientemente del valor de la propiedad.

«El daño a la sociedad es que los recursos se malgastan o se asignan mal», dice Gillula, «pero cuando estos dos tipos de prejuicios se entrecruzan, pueden ser realmente horribles». Por ejemplo, si tuviéramos ese modelo de daños sísmicos, pero que sistemáticamente subpredijo los daños en las comunidades más pobres y los sobrepredijo en las comunidades ricas, entonces el modelo terminaría reforzando las desigualdades que ya existen en la sociedad, todo ello con el barniz de ser `científico'».

Pero Gillula cree que hay maneras de tratar de añadir personas que no dejan un rastro de datos porque no usan Internet.

«Los métodos se denominan generalmente métodos de’remuestreo'», dice. «Varían en sus detalles técnicos, pero a un nivel realmente básico, funcionan tomando los datos que están disponibles de las personas que no están participando y, por un ejemplo muy simple,[extrayendo] lo que se sabe de los datos recopilados de 1.000 personas que normalmente no son visibles y ampliándolos para que representen a miles más».

Hay personas que se conectan con el gobierno y que demográficamente se asemejan a aquellos que no lo hacen -personas que han solicitado un espacio de estacionamiento para discapacitados cerca de sus hogares o personas de la tercera edad que están conectadas a los servicios sociales y a los subsidios de tránsito, pero que viven en un vecindario donde muchos otros no lo están; las familias inmigrantes cuyos hijos asisten a la escuela pueden asemejarse a los inmigrantes que no tienen hijos en términos de sus necesidades y desafíos, y de cómo acceden a los recursos de la ciudad, como las ferias de la salud y los programas de alimentación.

Pero, señala, lo que el algoritmo produce debe ser revisado por los humanos antes de ser aplicado, y esas aplicaciones deben ser monitoreadas por personas escépticas y preocupadas.

Más privacidad, más lagunas de datos

A medida que crecen las preocupaciones sobre la privacidad y las personas adquieren más derechos para controlar su información, los datos que se recopilan -incluidos los datos recopilados por los gobiernos- cambiarán. Los gobiernos dependen cada vez más de los sensores -desde cámaras de tráfico hasta medidores inteligentes que miden el uso de los servicios públicos-, un enfoque que se basa en la recopilación de datos de una manera muy similar a la de Facebook y Google, a los que a menudo se hace referencia como capitalismo de vigilancia.

«Dejar que la gente opte por no ser recolectada sólo aumenta la probabilidad de conjuntos de datos sesgados si su modelo primario de recolección de datos es el capitalismo de vigilancia», dice Gillula. «Si estás haciendo bien tu ciencia de datos, no puedes confiar en aspirar cualquier dato que sea útil; tienes que salir explícitamente a recoger datos, lo que puede significar incentivar a la gente a participar en algo así como un estudio anónimo».

La mayoría de la gente entiende que las interacciones con el gobierno son públicas: piense en los registros de las cortes y de las votaciones. Pero la gente no necesariamente sabe -o no está de acuerdo- que sus movimientos diarios para ir a trabajar, recoger la ropa de la tintorería y conducir para recoger a sus hijos pueden ser de dominio público.

Udo Kock, teniente de alcalde de Ámsterdam, la decimotercera ciudad más inteligente del mundo, cree que los gobiernos deben asegurar a la gente que utilizarán sus datos de forma responsable. «No pienses en las ciudades inteligentes como una simple solución tecnológica, piensa en ello como una colaboración», dijo en una entrevista con CNN el pasado mes de febrero. «Involucrar a las comunidades, involucrar a los ciudadanos: es muy importante que los gobiernos trabajen juntos con las empresas y los ciudadanos».

El gobierno del pueblo, para el pueblo

El tema recurrente entre los científicos, los críticos sociales y los residentes preocupados es que los datos y su uso deben ser de utilidad para las personas que los proporcionaron y una herramienta, en lugar de un imperativo, para las personas que los utilizan.

Por ejemplo, un algoritmo en el condado de Johnson, Kansas, predijo una mayor reincidencia para algunas personas con enfermedades mentales que ya habían sido encarceladas. Los responsables del condado usaron esa información para proporcionar agresivamente servicios sociales y tratamiento de salud mental a esas personas como parte de sus términos de liberación, no como una justificación para vigilarlas intensamente hasta que volvieran a ofenderlas.

Este esfuerzo tuvo éxito porque se basó en datos específicos de las personas a las que el Condado de Johnson quería ayudar, y su información estaba disponible debido a su compromiso previo con el sistema de justicia penal. Sin datos de esa cohorte (las personas con enfermedades mentales tienen menos probabilidades de estar en la web), es mucho menos probable que se detecten el patrón y su vulnerabilidad, y luego se comparen los servicios con las personas que los necesitan.

En 2017, el primer año del programa, el algoritmo predijo con precisión quién regresaría a la cárcel dentro de un año. Con esa información, el condado pudo identificar a las personas en quienes invertir recursos sociales y de salud mental.

Es demasiado fácil hacer suposiciones sobre cómo’todos’ encajan en nuestro entorno ideal ‘inteligente'», dice Hannah Kaner, una defensora de las ciudades inteligentes. «Todavía es más fácil asumir que las personas para las que estamos diseñando son capaces, están alfabetizadas digitalmente y son financieramente estables. Pero cuando creamos el ambiente del futuro, debería funcionar para gente real, no para ciudadanos modelo idealizados y poco realistas».

La idea de construir la inclusión -y aceptar lo difícil que es conseguir los datos correctos- en los esfuerzos de IA del gobierno se ha convertido en parte de la corta lista de temas éticos de la industria de las ciencias de la información. En la conferencia del G7 de marzo de 2018, por ejemplo, Canadá y Francia solicitaron la creación de un grupo de estudio internacional para determinar cómo aplicar políticas de inclusión; y tres meses más tarde, la India anunció una estrategia nacional para la IA denominada AI para todos.

«Los países deben tomar nota del objetivo de la India de un liderazgo tecnológico inclusivo», dice Tim Dutton, fundador de la publicación digital Politics + AI. «La IA puede utilizarse para aumentar la productividad, la competitividad y el desarrollo económico, pero también debe utilizarse para mejorar la capacidad de cada persona de participar activa y plenamente en todos los aspectos de la vida que le son significativos».

About the Author: Dell Technologies