Cómo los motores de búsqueda utilizan nuestros datos en nuestra contra de Diksha Dutta Enero de 2021

Safiya Noble, autora de Algorithms of Oppression, sobre el uso indebido de datos por parte de las grandes tecnologías y el gobierno y cómo afecta a los usuarios

En el décimo episodio de Voices of the Data Economy, tuvimos una conversación con la Dra. Safiya Umoja Noble, autora de Algoritmos de opresión y profesora asociada de la Universidad de California, Los Ángeles (UCLA) en el Departamento de Estudios de la Información. Durante esta discusión, habló sobre cómo los motores de búsqueda como Google refuerzan la discriminación, el papel de las regulaciones gubernamentales en la protección de datos y por qué las grandes corporaciones ahora están hablando de derechos de protección de datos. A continuación se muestran extractos editados del podcast.

“Aquí estamos, en 2021, y las preocupaciones sobre las que escribí y que he documentado en el libro siguen siendo tan actuales como lo eran hace siete u ocho años. Es una experiencia interesante escribir algo que sigue siendo oportuno porque los problemas se han agudizado cada año ”, dice Noble mientras habla sobre su libro Algoritmos de opresión: cómo los motores de búsqueda refuerzan el racismo publicado en 2018.

Noble dice que Web 1.0, el conocimiento web temprano, fue administrado principalmente por expertos en la materia, bibliotecarios y personas profundamente conocedoras. Si alguien recuerda los días de estar en Internet antes de un motor de búsqueda, fue más torpe. Se necesitaba tiempo y energía para analizar y discernir qué era legítimo y qué no. “Creo que con el legado de esa historia temprana de la organización del conocimiento en la web, los motores de búsqueda heredaron la confianza de aquellos primeros expertos que estaban haciendo ese tipo de trabajo. La suposición de mucha gente es que alguien está curando el conocimiento experto aquí. Querrán que los expertos hayan decidido qué se debe clasificar en primer lugar y qué se debe clasificar en un millonésimo lugar ”, dice Noble. Sin embargo, éste no es el caso.

Noble menciona que muchas investigaciones muestran que la exposición a los estereotipos raciales afectará la forma en que la gente ve a los grupos marginados. Entonces, si vives en una sociedad donde hay muchos estereotipos racistas descarados, la gente se volverá insensible a los grupos que están siendo estereotipados. Y esos grupos estarán sujetos no solo a imágenes e ideas deshumanizadoras, sino que también estarán sujetos a más daño porque el público está insensible a su humanidad.

“Google es una plataforma publicitaria; la gente piensa que es un verificador de hechos. Las personas recurren a Google para verificar las cosas que encuentran en las redes sociales que podrían estar apagadas. Y luego use Google como un sí o no autorizado. Google también está plagado de desinformación y propaganda racista, propaganda sexista. Eso es increíblemente inútil y creo que cada vez tiene más consecuencias en el mundo ".

La conciencia del público sobre los estereotipos es una de las razones por las que, especialmente en el cine y la televisión, hemos visto una reducción generalizada de los tropos racistas y sexistas en los medios de comunicación. Esto se ha unido a la representación positiva de mujeres, minorías y personas LGBTQ.

Noble siente que los autores y periodistas que escriben sobre las grandes empresas de Internet están abriendo un boleto. En cierto modo, recibe una señal de que alguien debe atender este problema y resolverlo y cerrar el ticket.

“Pienso en mi libro como un libro gigante de boletos que Google pudo tomar. Ciertamente noté que atendieron muchas de las preocupaciones que ambos documenté en ese libro, pero también que muchos de mis colegas, periodistas y académicos han expresado. Una cosa que sabemos es que, aunque el liderazgo y los fundadores de Google dirán que no hacen nada que afecte los resultados de búsqueda, sabemos que sí lo hacen. Y cuanto más profundo sea el fiasco de las relaciones públicas o cuanto más caliente sea la temperatura para ellos, es más probable que cambien los resultados. Una de las cosas que animo a la gente a hacer es mirar cuáles han sido las críticas durante los últimos diez años y si esos problemas persisten. Eso le dirá mucho sobre la forma dinámica en la que la empresa cambia constantemente los resultados de búsqueda, según un entorno político o según las críticas, o según quién paga más ".

Noble señala que muchas de las empresas estadounidenses han sido financiadas y respaldadas en gran medida por el gobierno estadounidense. Esto incluye empresas que son nombres conocidos como Google y Facebook. Luego están otras empresas menos entendidas por el público, como Palantir u otras empresas de tecnología de vigilancia.

“Cuando se habla de un entorno regulatorio, uno de los desafíos es que los gobiernos legislativos, especialmente los de Estados Unidos, tienen una relación única con muchas empresas del sector tecnológico, ya que pueden acceder a cientos de millones de datos e información de estadounidenses. Tienen una puerta trasera abierta y pueden entrar con las fuerzas del orden y otros tipos de agencias y encontrar todo tipo de información sobre las personas ".

Los gobiernos realizan un gran esfuerzo para pensar en regular el uso de la IA. La regulación es complicada porque esos gobiernos también están profundamente comprometidos con el uso de la IA. Noble cree que los marcos y las leyes de derechos civiles y humanos son muy importantes. Uno de los lugares en los que tendremos una cantidad increíble de poder en diversos públicos es a través de los derechos civiles y humanos y los derechos soberanos, las leyes y las protecciones legales. En algunos casos, los daños que deben pagar las empresas al público y a las personas, la reparación y restauración que deben hacerse. Por ejemplo, el papel del sector tecnológico en el colapso de muchas instituciones sociales importantes, instituciones públicas, simplemente en virtud de no pagar impuestos o deslocalizar las ganancias.

“Puede tener un número infinito de perfiles de datos que podrían existir sobre nosotros en cualquier sistema dado en cualquier momento dado con miles de empresas. Esto se convierte en algo realmente difícil de regular. ¿Cómo recupera todos esos datos? ¿Es siquiera posible? Siento que hay un poco de humo y espejos aquí para satisfacer la indignación del público sobre la forma en que estos sistemas nos están rastreando y perfilando y sobredeterminando nuestro futuro en muchos casos. Están creando predicciones sobre nosotros, si deberíamos ir a la cárcel, permanecer en la cárcel; si debemos recibir atención médica o no; si deberíamos ingresar a la universidad; si deberíamos conseguir un trabajo. Aquí es donde se utilizan los análisis predictivos de la información sobre nosotros ".

Según Safiya, la mayoría del mundo no está en condiciones de darse el lujo de pensar en un rediseño técnico. Pero estas tecnologías continuarán siendo probadas y practicadas en versión beta con nosotros.

“Creo que lo que estamos viendo es más tecnología, más datos que nunca en la historia de la humanidad. Y tenemos más desigualdad global, desigualdad económica y social que la acompaña. La pregunta es, ¿en qué medida se utilizarán estas tecnologías (descentralizadas) para deshacer la desigualdad? ¿Hasta qué punto estas tecnologías podrán redistribuir la riqueza y la mayor productividad colectiva de la humanidad? ”