Nesse livro, a autora alerta para os vieses e preconceitos dos algoritmos de IA e como atua a Liga da Justiça Algorítmica, fundada por ela.
Autora: Joy Buolamwini
Ideias centrais:
1 – Um “olhar codificado” é aquele que mostra como as prioridades, preferências e preconceitos daqueles que têm o poder de moldar a tecnologia podem propagar danos, como a discriminação e o não-reconhecimento da face, mesmo que não seja intencional;
2 – O enviesamento na tecnologia pode levar a várias formas de discriminação, como racismo, sexismo, capacitismo, etarismo, entre outras;
3- A inteligência artificial reflete as aspirações e as limitações dos seus criadores. As configurações padrão não são neutras. Muitas vezes refletem as preferências daqueles que têm o poder de escolher em que assuntos focar;
4 – É possível transformar a forma como a IA é criada para minimizar o que é desumano. Ela pode ser usada como ferramenta para a criação de uma sociedade mais justa;
5 – Sistemas de reconhecimento facial falharam na detecção do rosto da autora, que tem a pele negra. Ela só conseguiu usá-los com o auxílio de uma máscara branca;
6 – A autora mostrou como essa falha técnica da visão computacional tinha um viés algorítmico prejudicial e preconceituoso contra as mulheres negras;
7- Decisões feitas pela máquina podem ser aplicadas de uma forma que não atendam às expectativas de justiça;
8 – Os dados refletem o pensamento daqueles que têm o poder de coletar e decidir o que será usado para treinar um sistema. Aqueles mais facilmente disponíveis são muitas vezes usados por conveniência;
9 – Atualmente há um ecossistema crescente de organizações de justiça tecnológica, centros de investigação preocupados com a equidade e iniciativas educativas sobre os perigos que estão do outro lado das promessas da IA.
Sobre a autora:
Joy Buolamwini é PhD pelo MIT (Massachusetts Institute of Technology) e fundadora da Algorithmic Justice League (Liga da Justiça Algorítmica, em tradução livre), instituição que defende os direitos dos cidadãos contra os perigos da Inteligência Artificial. Sua pesquisa sobre tecnologias de reconhecimento facial é apresentada no documentário “Coded Bias”.
Introdução:
Como estudante do primeiro ano de pós-graduação do MIT Media Lab, em 2015, a autora criou um experimento tecnológico chamado “Aspire Mirror”. No projeto, tentava mudar a imagem de seu rosto na tela do computador, que funcionaria como um espelho.
Ao utilizar softwares para rastrear seus movimentos, ela percebeu que os sistemas não detectavam seu rosto, que tem a pele negra. Detectavam, no entanto, sua face quando ela colocava uma máscara branca. Com isso, ela encontrou o que chama de “olhar codificado”.
“O olhar codificado descreve as formas como as prioridades, preferências e preconceitos daqueles que têm o poder de moldar a tecnologia podem propagar danos, como a discriminação e o apagamento. Podemos codificar o preconceito na tecnologia, mesmo que não seja intencional.”
O aprofundamento da pesquisa mostrou que esse enviesamento na tecnologia pode levar a várias formas de discriminação, além do racismo, como sexismo, capacidade, preconceito de idade, entre outros.
“A IA (Inteligência Artificial) reflete tanto as aspirações como as limitações dos seus criadores. Ela não transcende a humanidade. Ainda assim, podemos transformar a forma como a IA é criada para minimizar o que é desumano. Também podemos transformar a forma como pensamos sobre a IA no contexto da criação de uma sociedade mais justa.”
Parte I – Imigrante Idealista
Capítulo 1: Filha da Arte e da Ciência
Joy cresceu vendo a mãe trabalhar como artista e o pai como cientista. Começou a fazer questionamentos sobre computadores na infância. “Meus pais me ensinaram que o desconhecido era um convite ao aprendizado, não uma dimensão ameaçadora a ser evitada.”
Aos 9 anos, viu pela televisão o robô Kismet, criado no MIT. Ficou fascinada pelo tema e decidiu que queria se tornar uma engenheira robótica. Começou a aprender programação. No terceiro ano da graduação no Georgia Institute of Technology, em Atlanta, já trabalhava com robôs sociais.
Desenvolveu um projeto em que o robô deveria interagir com um humano. O objetivo era descobrir se ele poderia ajudar no diagnóstico precoce de atrasos no desenvolvimento de crianças. O robô precisava detectar rostos humanos. Essa era sua introdução no estudo da detecção facial.
Neste momento, o software mostrou dificuldades para detectar o rosto de Joy. Isso a obrigou a utilizar o rosto de uma colega de pele clara para levar o projeto adiante.
Capítulo 2: A Fábrica do Futuro
Na pós-graduação do Media Lab do MIT (Massachusetts Institute of Technology), Joy entrou no grupo chamado Civic Media, focado no impacto da tecnologia na sociedade atual. Mesmo sendo estudante da universidade, a autora se sentia uma estranha em alguns momentos. Por exemplo, quando sua corrida foi rejeitada por um motorista de aplicativo e quando foi acompanhada por um carro da polícia enquanto caminhava.
Foi em uma das aulas em que se inscreveu que começou a desenvolver o projeto “Aspire Mirror”, cuja ideia inicial era conseguir mudar a imagem de seu rosto na tela do computador. No entanto, as bibliotecas de softwares que incorporou não haviam sido otimizadas para pessoas com o tipo de pele dela.
“Apesar de todos os desenvolvimentos na IA ao longo dos anos seguintes [às suas primeiras tentativas de utilização da detecção facial], o problema ainda não tinha sido resolvido. Embora eu tenha aplicado o software de reconhecimento facial em outro domínio, os problemas subjacentes permaneceram, agarrando-se a mim como um mosquito persistente.”
Capítulo 3: Quebre o Alabastro
Em 2016, quando começou seu segundo ano de pós-graduação, um estudo sobre o uso do reconhecimento facial pela polícia mostrou que um em cada dois adultos americanos estavam no banco de dados, podendo ser usados sem garantias de acurácia. Joy não podia mais negar a importância do seu achado.
“Uma coisa era eu não conseguir pintar uma parede com o meu sorriso [em outro projeto do qual participou no curso], mas se alguém fosse identificado erroneamente como suspeito de um crime e preso injustamente ou pior, então os riscos eram inconfundivelmente altos.”
Joy ainda queria evitar o caminho da crítica social, preferindo se tornar alguém que faz algo. Ao mesmo tempo, começou a ser incentivada a traçar conexões mais nítidas entre a falta de representação de mulheres e de pessoas de pele escura no mundo da tecnologia e a supremacia branca e o patriarcado.
Capítulo 4: Máscara Pronta
Decidida a mudar o rumo de seu estudo para a questão do olhar codificado, Joy começou a falar sobre o tema nos grupos de estudo dos quais participava. Passou a treinar como falar sobre o assunto sem mostrar raiva ou ressentimento, mas, sim, com um olhar positivo, acreditando que a mudança é possível.
Criou pôsteres e um documentário curto para uma das apresentações, chamado The Coded Gaze: Unmasking Algorithmic Bias (O Olhar Codificado: Desmascarando o Preconceito Algorítmico, em tradução livre). Criou também um nome para seu trabalho: Algorithmic Justice League (Liga da Justiça Algorítmica, em tradução livre). Fez uma apresentação sobre o tema em um dos eventos TED.
Mostrar, e não apenas contar, sobre visão computacional, permitiria representações poderosas da noção de viés algorítmico e do olhar codificado. A autora chama esta abordagem de mostrar falhas técnicas, para permitir que outros testemunhem as formas como a tecnologia pode ser prejudicial.
Parte II – Crítica Curiosa
Capítulo 5: Padrões Não São Neutros
A repercussão na internet da apresentação de Joy no TED teve comentários positivos, mas também negativos, como: “essa mulher não sabe como as câmeras funcionam”, “tons de pele refletem melhor a luz” ou “não há preconceito nos algoritmos matemáticos”.
“À medida que comecei a discutir o preconceito algorítmico com mais pessoas, muitas vezes me deparei com variações desta pergunta silenciosa e às vezes não tão silenciosa: a razão pela qual seu rosto não foi detectado é devido à falta de contraste devido à sua pele ser escura? (Em outras palavras, os algoritmos não são racistas, sua pele é que é muito escura.).”
Os primeiros filmes fotográficos foram calibrados para peles claras, e não para peles escuras. Isso se perpetuou nas câmeras digitais e no campo da visão computacional, que depende de conjuntos de dados que refletem essa exclusão. As configurações padrão não são neutras. Muitas vezes refletem o olhar codificado – as preferências daqueles que têm o poder de escolher em que assuntos focar.
Joy saiu em busca de um aplicativo que mostrasse às pessoas os riscos da IA, quando ela reflete um preconceito algorítmico.
Capítulo 6: Tecnologias de Reconhecimento Facial
A autora começou a receber testemunhos de situações negativas com o uso do reconhecimento facial, como uma mulher confundida com uma prostituta em Las Vegas e uma pessoa presa que se dizia inocente, tendo sido vítima de um erro da tecnologia.
“Eu já sabia como o fracasso do aprendizado de máquina poderia tirar sua liberdade. Mas, para mim, ficou claro que falhas de máquina não significam apenas casos de identidade equivocada, falhas de detecção ou imprecisões do sistema. As decisões da máquina também podem ser aplicadas de uma forma que não atendem às nossas expectativas de justiça.”
Decidiu focar sua atenção em sistemas de IA aplicados a rostos humanos. Queria entender qual era a precisão deles. Testando uma foto sua em sistemas disponíveis online, seu rosto não foi detectado em alguns deles. Em outros, a imagem foi rotulada como masculina e com menos idade do que a dela. “Decidi me aprofundar para ver como esses sistemas analisavam gênero e idade.”
Capítulo 7: Reunião de Guardiões
Com mentores escolhidos na universidade e fora dela e uma colega com interesses parecidos, Joy seguiu com seus estudos sobre visão computacional. “Após alguma hesitação inicial, comecei a coletar os dados necessários para responder à minha pergunta básica da pesquisa: os sistemas de IA que classificam o gênero com base na imagem de um rosto têm desempenho diferente com base no tipo de pele do rosto?”
Ela começou a pensar que sua Liga da Justiça Algorítmica poderia se tornar uma rede de pessoas de diferentes origens trabalhando juntas para criar sistemas melhores, que evitassem danos ao invés de perpetuá-los. Seus resultados poderiam transformar a trajetória da IA.
Capítulo 8: Sombras do Poder
Segundo a autora, pesquisas de empresas como Facebook, Google e Microsoft, junto com laboratórios de visão computacional levaram as pessoas a presumirem que a tecnologia de reconhecimento facial estava madura para ser usada no mundo real. O otimismo foi reforçado por relatórios governamentais.
Ela buscou entender que padrões foram seguidos para que se considerasse o valor para a comunidade. Outro pesquisador, por exemplo, já havia descoberto que um banco de dados chamado LFW continha 77,5% de rostos rotulados como masculinos e 83,5% de rostos rotulados como brancos. Outros bancos mostraram dados parecidos.
As questões que levantou foram: “como seria se separássemos o desempenho dos bancos de dados em vários eixos de análise? O que aprenderíamos sobre as capacidades e limitações de um sistema? Até que ponto aplicaríamos um valor de referência se olhássemos quais foram os grupos incluídos, e igualmente importante, quais foram excluídos?”
Levando em consideração diferentes fatores, ela descobriu que homens de pele clara eram 59,4% do índice e mulheres de pele negra eram apenas 4,4% nos bancos de dados usados como referência de mercado.
As sombras do poder são lançadas quando os preconceitos ou a exclusão sistêmica de uma sociedade são refletidos nos dados. Para superá-las, de acordo com Joy, é preciso ser intencional na abordagem do desenvolvimento de tecnologia que depende de dados.
Parte III – Pesquisadora em Ascensão
Capítulo 9: Rastreando Dados
Joy limitou sua pesquisa a sistemas focados em adivinhar características de um rosto, como gênero, raça e idade. Sendo que aqueles que falavam sobre gênero tinham apenas masculino e feminino. Apesar desta questão não ser binária, essa classificação acabou sendo mais conveniente ao estudo.
Ela percebeu que sua pesquisa não poderia ser apenas sobre questões técnicas. Isso porque tecnologias que envolvem a classificação de pessoas são moldadas por escolhas humanas subjetivas. É isso que significa o termo pesquisa sociotécnica, que enfatiza que não se pode estudar máquinas criadas para analisar humanos sem considerar também as condições sociais e as relações de poder envolvidas.
Em mais um passo em busca de objetividade, parou de olhar para a raça, passando a se concentrar não só em atributos demográficos, como gênero e raça, mas também em atributos fenotípicos, ou seja, a cor da pele de alguém. Ter a capacidade de definir sistemas de classificação é em si um poder. A partir das próprias escolhas, ela poderia questionar as classificações feitas por modelos de aprendizado de máquina.
Agora teria que escolher também seu próprio conjunto de imagens. Entre várias opções, e muitos questionamentos sobre consentimento de uso em bancos de imagens já existentes, optou por coletar fotos públicas de parlamentares de todo o mundo.
Capítulo 10: Árbitro da Verdade
O próximo passo seria ter de rotular rostos humanos, o que levou a autora a fazer questionamentos éticos e filosóficos sobre a coleta de dados e a natureza da verdade. Reconhecer que há subjetividade nas verdades percebidas traz alguma humildade às observações e à noção de verdades parciais.
A autora pontua que os modelos de aprendizagem de máquina são limitados pelos dados disponíveis. A visão computacional, por exemplo, não consegue observar o que uma pessoa pensa sobre seu gênero, uma vez que o sistema tem acesso a apenas uma imagem relacionada à apresentação do gênero, refletida no comprimento do cabelo, nas roupas e acessórios.
Assim como os tipos de rótulos escolhidos refletem as decisões humanas, o tipo dos dados disponibilizados também reflete aqueles que têm o poder de coletar e decidir quais dados serão usados para treinar um sistema. Os dados mais facilmente disponíveis são muitas vezes usados por conveniência.
Capítulo 11: Tons de Gênero
Apesar de não haver um monopólio da verdade, grandes empresas de tecnologia controlam uma grande parte do ecossistema. Com isso, têm grande importância na nossa vida do dia a dia. Joy precisava lidar com elas com cuidado.
Para testar seu projeto, optou por sistemas comerciais com demonstrações públicas na internet que tinham classificação clara de gênero. Foram elas: IBM, Microsoft e a chinesa Face++. Ela analisou os rostos do grupo de 1.270 imagens de parlamentares que havia coletado nos sistemas.
O desempenho geral em relação ao gênero não mostrava motivos de preocupação, com taxas de acerto entre 88% a 94%, mas havia uma diferença de acertos em relação a rostos masculinos e femininos, com diferenças de precisão que iam de 8% a 21%.
Ao incluir a análise fenotípica, os sistemas se saíram melhor em rostos de pele mais clara do que pele mais escura ao tentar adivinhar o gênero do rosto. Era preciso ir mais longe. Joy separou as imagens em quatro grupos: rostos femininos de pele mais escura; rostos masculinos de pele mais escura; rostos femininos de pele mais clara e rostos masculinos de pele mais escura.
As taxas de erro para mulheres com a pele mais escura eram de 46,8%. “Pelo que eu sabia na época, essas foram algumas das maiores disparidades de precisão registradas em relação aos produtos de IA vendidos comercialmente. Meu teste expôs rachaduras significativas no sistema.”
Seu trabalho foi aceito pela banca examinadora da universidade. Ao apresentar os resultados às empresas, a IBM decidiu testá-los internamente e trabalhar na atualização do sistema para melhorá-lo.
Capítulo 12: Sobremesas Abandonadas
Joy passou a fazer mais apresentações sobre seu trabalho. Num deles, participou de um jantar em que algumas pessoas se apresentavam como aqueles que detêm o poder, uma vez que trabalham com tecnologia. Outros pediam que a tecnologia fosse usada para o bem. Isso levou a autora a mais questionamentos.
Na era da IA, quem decidirá quais são as nossas prioridades? Que suposições sobre a utilização da IA para o bem estão sendo feitas por pessoas que estão muito distantes da realidade quotidiana daqueles que pretendem ajudar?
Concluiu que alcançar acadêmicos e especialistas da indústria não era suficiente. Ela precisava ter certeza de que as pessoas comuns em risco de sofrer danos devido à IA fizessem parte da luta pela justiça algorítmica.
Parte IV – Poeta Intrépida
Capítulo 13: IA, Eu Não Sou Uma Mulher?
Além de pessoas comuns, ela queria alcançar pessoas que tomam decisões, como políticos, que podem adotar a IA sem saber de seus vieses. Sabia que não poderia deixar essas informações para serem fornecidas pelas empresas.
A partir de mais estudos, decidiu testar os sistemas com rostos de mulheres negras famosas, como Michelle Obama, Oprah Winfrey e Serena Williams. Assim como aconteceu com ela, a IA errou informações baseadas em seus rostos.
Inspirada por essa experiência, Joy escreveu um poema, chamado “IA, Eu Não Sou Uma Mulher?”. Depois, criou um vídeo em que recita o texto enquanto aparecem imagens das mulheres com os respectivos erros dos sistemas.
“Criei uma peça que complementasse as métricas de desempenho da auditoria algorítmica ‘Gender Shades’ com arte performática para transmitir visceralmente a implicação das descobertas que mostraram, para todos os sistemas, que eles têm o pior desempenho para as mulheres negras.”
Capítulo 14: Portões na Bélgica
A autora foi barrada por um segurança na entrada de um evento ao qual foi convidada na Bélgica. Mesmo com o convite em mãos, só conseguiu entrar após a liberação da organizadora. Ela compara a situação aos sistemas de IA. “Mudaremos o guardião, mas o preconceito permanecerá.”
Diante de reações negativas, explicou que seu objetivo era impedir o uso prejudicial da IA e não reforçá-lo. “Meu trabalho foi um alerta e um chamado necessário para reconfigurar e reconsiderar como estávamos projetando, desenvolvendo e implantando produtos de IA.”
Capítulo 15: Poeta Versus Golias na Natureza
Joy aceitou um convite para participar do Fórum Econômico Mundial em Davos, na Suíça, em 2019, mesmo se questionando sobre seu real papel no evento. Depois disso, o jornal The New York Times publicou uma reportagem sobre o trabalho dela em parceria com outra pesquisadora em que citavam a Amazon. A empresa publicou um texto em que dizia que o estudo chegava a “falsas conclusões”.
“Como nosso artigo se concentrou no recurso de classificação de gênero do Amazon Rekognition, Wood (Dr. Matt Wood, um dos vice-presidentes da companhia) argumentou que os resultados não se aplicavam aos recursos de reconhecimento facial do produto. Achei que tinha sido clara ao afirmar que os resultados da pesquisa levantaram preocupações sobre outras tarefas baseadas no rosto. Eles realmente não viram a conexão?”
Uma carta assinada por 75 pesquisadores deu suporte aos resultados do estudo, mas Joy sentiu falta de mais apoio de colegas do MIT.
Capítulo 16: Inquilinos do Brooklyn
A advogada de moradores de um prédio no Brooklyn, em Nova York, pediu ajuda a ela para explicar os riscos de um sistema de reconhecimento facial, que seria instalado no local. Mais de 90% dos moradores eram negros.
Ela escreveu uma carta para ser usada pela defesa deles. Os materiais de marketing da StoneLock (fornecedora do sistema) não forneciam informações sobre o desempenho em diferentes tipos de rostos. Disse que o uso seria um risco. Este acesso poderia expor uma comunidade já vulnerável a assédio direcionado e coisas piores. Tal acordo tornaria os inquilinos vulneráveis a perfis policiais e a falsas acusações, além de maior exploração de dados e violações de privacidade.
Com isso, a pesquisadora percebeu que seu trabalho poderia ser utilizado diretamente pelas comunidades afetadas por danos algorítmicos.
Capítulo 17: Testemunho
Enquanto terminava novos trabalhos na universidade, Joy foi convidada para testemunhar em uma audiência no Congresso americano sobre como prevenir danos causados pela IA. O resultado poderia ser a aprovação de uma legislação sobre tecnologias de reconhecimento facial.
Ela falou sobre a necessidade de testes de terceiros para a implantação segura dos sistemas. De acordo com os questionamentos que respondeu sobre seus estudos, foi possível chegar a uma verdade simples: Poucos privilegiados (homens brancos) concebiam para muitos, sem se preocuparem com o impacto prejudicial de suas criações.
Sugeriu que o comitê encomendasse uma pesquisa sobre como a tecnologia era usada pelo governo federal, para quais finalidades e quais empresas vendiam seus produtos para as agências governamentais. Pediu ainda uma moratória no uso das tecnologias, para que possíveis erros fossem evitados.
Capítulo 18: Apostando no Preconceito Codificado
Procurada pela diretora de cinema Shalini Kantayya para um projeto sobre o olhar codificado, ela aceitou o desafio. “Eu esperava que o filme, se algum dia fosse concluído, humanizasse poderosamente o impacto do preconceito da IA e transformasse os danos da IA em uma conversa com muitos participantes.”
O filme foi lançado com o título Coded Bias (Preconceito Codificado, em tradução livre) no Festival de Sundance em 2020. Recebeu premiações em festivais e foi indicado ao Emmy. Atualmente, está disponível na Netflix. “Já não tinha dúvidas se poderia usar a narração de histórias no movimento pela justiça algorítmica. Após anos de hesitação, encontrei minha voz como poeta do código.”
Parte V – Apenas Humana
Capítulo 19: Cair Fora
Em 2021, Joy preparava a finalização de sua dissertação de PhD ao mesmo tempo que acompanhava as Olimpíadas. Viu Simone Biles deixar a competição para cuidar da saúde mental. Sentia-se exausta em relação a seu trabalho. Decidiu cancelar sua apresentação marcada para julho e tirou férias.
“O estigma irônico de ser alguém que abandona os estudos pairava em minha mente, mas o mais importante é que os legados de tantas pessoas que tornaram essa escolha possível permearam meus pensamentos. O que devo ao passado? O que devo ao futuro? O que devo a mim mesma?”
Capítulo 20: Redenção Dourada
Joy foi personagem de uma campanha de beleza publicada na Vogue. A capacidade de utilizar uma campanha de beleza para educar mais pessoas sobre as deficiências da tecnologia foi a minha principal motivação para trabalhar com a Procter & Gamble, um dos maiores anunciantes do mundo.
Apesar de ter muitas vitórias, a autora se sentiu apagada pelo programa de TV americano “60 Minutes”. Passou meses se comunicando com produtores sobre tecnologias de reconhecimento facial. Foi convidada para uma entrevista para a qual passou dias se preparando e produzindo material. No entanto, a entrevista foi cancelada. Sua pesquisa também não foi mencionada.
Ela decidiu escrever uma petição para que a emissora CBS fizesse correções. A empresa divulgou um comunicado. Nele dizia que ouviu muitos especialistas, incluindo Joy. “Ser apagada pelas máquinas tornou-se uma história familiar para mim do ponto de vista pessoal, mas esse apagamento da mídia teve uma sombra bem maior.”
Capítulo 21: Custos da Inclusão e da Exclusão
Joy trabalhou com a marca Olay em um projeto para criar conjuntos de dados mais inclusivos. Durante o trabalho, pensava sobre os custos da inclusão e da exclusão a serem considerados na concepção e implantação de sistemas de IA.
No caso do custo da exclusão, uma rejeição total dos sistemas de IA que analisam os seres humanos de alguma forma excluiria inovações benéficas. Por outro lado, havia o custo da inclusão: a tecnologia que consegue determinar com certa precisão atributos demográficos ou fenotípicos pode ser utilizada para traçar o perfil dos indivíduos, deixando certos grupos mais vulneráveis a detenções policiais injustificadas.
Capítulo 22: Espada do Conhecimento
A descoberta sobre o milionário Jeffrey Epstein, ligado ao tráfico sexual, que havia feito contribuições para as universidades de Harvard e do MIT, levou ao fechamento do Center for Civic Media, do Media Lab, do qual Joy fazia parte. A situação obrigou a pesquisadora a continuar seu trabalho temporariamente na Emory University, em Atlanta.
Logo depois veio a pandemia de Covid-19. Mesmo assim, ela se sentiu pronta para a defesa de sua tese de PhD em outubro de 2021. Ela explicou a necessidade de auditorias evocativas e auditorias algorítmicas para enfrentar o viés codificado.
As auditorias evocativas usam a especificidade de uma experiência individual para humanizar os danos algorítmicos que refletem a discriminação sistêmica, segundo a autora. Já as auditorias algorítmicas usam a generalização de muitos exemplos para mostrar a discriminação sistemática.
Concluiu que suas auditorias valeram a pena, apesar dos ataques que sofreu. Grandes empresas interromperam suas vendas dos sistemas para autoridades ou deixaram de disponibilizar produtos que tentam adivinhar atributos como gênero e idade. Sua tese foi aceita pela universidade. Ela se tornou, enfim, uma doutora.
Capítulo 23: Xícaras de Esperança
Joy participou de um evento na Casa Branca para o lançamento da Declaração de Direitos para a IA em 2022. O documento funciona como um modelo com exemplos concretos de implementação, e representa um trampolim em direção a uma legislação extremamente necessária que levaria a uma mudança sistêmica.
Na Europa, a Lei sobre IA estava em deliberação com o intuito de estabelecer como a tecnologia pode ser usada na Comunidade Europeia. Existe um ecossistema crescente de organizações de justiça tecnológica, centros de investigação preocupados com a equidade e iniciativas educativas que estão construindo poder, recolhendo provas e aumentando a consciência sobre os perigos que estão do outro lado das promessas da IA.
Epílogo: Lugar na Mesa
Joy fez parte de um grupo de oito especialistas convidados para uma mesa redonda sobre IA na Casa Branca. O encontro teve a participação do presidente Joe Biden. Ela falou sobre os perigos da tecnologia. Contou o caso de um homem negro preso injustamente por ser confundido com outra pessoa. Falou sobre a necessidade de recuar no uso do reconhecimento facial.
Outros experts falaram sobre usos positivos da IA em áreas como educação e saúde. O presidente Biden considerou todas as perspectivas ao mesmo tempo que nos deu uma visão sobre as realidades políticas para conseguir que o Congresso aprovasse novos gastos ou leis.
Um dos participantes ressaltou a necessidade de ações: a próxima geração será a maior beneficiária do uso da IA ou a maior perdedora se não agirmos.
FICHA TÉCNICA:
Título original: Unmasking AI – My Mission to Protect What is Human in a World of Machines [sem edição em português]
Autora: Joy Buolamwini
Editora: Random House
Resumo: Fernanda Nogueira
Edição: Monica Miglio Pedrosa