Hannah Fry é uma matemática que analisa padrões de comportamento humano, desde relacionamentos afetivos a namoros, aplicando, depois, a matemática a esses temas. Em 2011, pouco depois dos distúrbios vividos em Londres, a britânica colaborava com a polícia da área metropolitana para tentar compreender, com recurso à matemática, como esses acontecimentos tinham ganho uma dinâmica sequencial.

“Fui a Berlim fazer a apresentação do relatório publicado no âmbito do nosso trabalho e as reações foram imediatas. Fizeram-me questões como: ‘Está a criar um algoritmo utilizável no futuro para reprimir manifestações pacíficas? Como justifica eticamente o seu trabalho?’ Tenho alguma vergonha em dizer isto, mas na altura nada disso me tinha passado pela cabeça. Refleti muito sobre estas críticas e reparei que outros colegas não dedicavam aos dados que utilizavam e aos algoritmos que concebiam a necessária reflexão ética. As pessoas que concebem os algoritmos não comunicam com quem os utiliza. E estes, ao decidirem com o apoio das novas ferramentas também não falam com as pessoas cujas vidas são afetadas”, descreve Fry, em entrevista à ‘Nautilus’, aqui citada pela ‘Courrier Internacional’.

A reflexão de Fry deu origem ao livro ‘Olá, Futuro – Como Ser Humano na Era dos Algoritmos’, editado em Portugal pela Grupo Planeta, em 2019. Entre os vários pontos de interrogação que o livro tenta responder, numa era cada vez mais informatizada, a principal questão prende-se com o braço de ferro entre o Homem e a Máquina. Nesse sentido, Fry traça uma comparação com a indústria farmacêutica para sublinhar a necessidade de se criar uma agência de regulação dos algoritmos.

“Houve um tempo em que podíamos colocar um líquido colorido numa garrafa, vendê-lo como medicamento e ganhar milhões, fosse este ou não tóxico. Banimos esse tipo de prática por ser moralmente condenável e por poder prejudicar as pessoas. É isto que se passa com os dados e os algoritmos, nos dias de hoje. Podemos recolher os dados que quisermos sobre qualquer pessoa, podemos extrapolá-los e manipulá-los à vontade, e podemos criar algoritmos que afetem a nossa vida para o bem e para o mal, sem que existam mecanismos de proteção. (…) Se eu engolir um líquido colorido e se, no dia seguinte, cair redondamente no chão é porque ingeri um produto tóxico. Com os produtos farmacêuticos é mais complicado, sendo preciso um olhar especializado para comparar os efeitos benéficos e nefastos, estudar as características químicas e garantir que os efeitos anunciados são aqueles e não outros. Com os algoritmos é a mesma coisa. Não podemos esperar que o comum mortal domine a ‘interferência bayesiana’, que esteja familiarizado com o conceito de ‘floresta aleatória’ e que tenha conhecimentos de informática suficientes para examinar determinado código e confirmar que faz bem o que afirma fazer. Não é realista”, sustenta.

Um exemplo desta ‘distorção da realidade’ assente na utilização dos algoritmos é o “racismo sistémico” que se vive nos Estados Unidos. Um estudo publicado em setembro de 2019 mostra que este mecanismo, utilizado de forma regular naqueles hospitais, é menos susceptível de beneficiar os negros face aos brancos nos programas criados para “melhorar o atendimento de doentes com necessidades médicas complexas”.

Ziad Obermeyer, especialista em aprendizagem automática e gestão de cuidados de saúde da Universidade da Califórnia, em Berkeley, descobriu, após uma longa análise, que eram atribuídos índices de risco de saúde inferiores às pessoas “identificadas como negras” quando comparados com “pacientes brancos”. Embora os negros apresentassem “os mesmos custos que os brancos em termos de saúde”, este algoritmo, que atribui os índices de risco aos pacientes com base no total das suas despesas anuais de saúde, mostrou que apenas 17,7 por cento dos pacientes que recebem cuidados adicionais são negros, quando esse valor, numa estimativa que não refletisse problemas raciais, deveria ser de 46,5 por cento.

"Na engenharia de programação, as soluções são fáceis: basta reiniciar o algoritmo com outra variável. Mas é aí que reside a dificuldade: qual é a outra variável? Como contornar a discriminação e a injustiça inerentes à nossa sociedade?”

“O problema não é apenas um algoritmo ou um negócio. Toda a abordagem do sistema é problemática. Na engenharia de programação, as soluções são fáceis: basta reiniciar o algoritmo com outra variável. Mas é aí que reside a dificuldade: qual é a outra variável? Como contornar a discriminação e a injustiça inerentes à nossa sociedade?”, questiona Obermeyer.

“Não podemos esperar que quem trabalha na conceção destes sistemas seja capaz de prever ou atenuar todos os males causados pela automatização”, sublinha Ruha Benjamim, socióloga da Universidade de Princeton, em Nova Jérsia. Por isso, defendem os investigadores, os programadores devem proceder a vários testes, semelhantes aos levados a cabo por Obermeyer, “antes de colocar em funcionamento algoritmos que possam ter impacto na vida das pessoas”.

É nesse receio de “ter impacto na vida das pessoas” que trabalha o HART, na Polícia de Durham, no noroeste de Inglaterra.

Desenvolvido por programadores das forças policiais em colaboração com investigadores da Universidade de Cambridge, o HART, ferramenta para avaliação de dados de risco, baseia-se em dados recolhidos ao longo de cinco anos, relativos a detenções levadas a cabo na cidade e à taxa de reincidência de detidos nos dois anos seguintes à sua libertação.

Em vigor desde 2016 em Durham, a primeira força policial do país a utilizar o sistema, o HART levou para a esfera pública a rivalidade entre o Homem e a Máquina. Após os primeiros ensaios, surgiram diferenças significativas entre a opinião da polícia e as recomendações do sistema: o grau de risco determinado por ambos foi diferente em 56 por cento dos casos. Michael Barton, chefe da estação, entretanto reformado, defendeu ao ‘Financial Times’ que o algoritmo deve continuar a ser testado, mas que este será descartado se a sua ineficácia for provada.

De resto, de há muitos anos a esta parte que as forças policiais dos Estados Unidos utilizam algoritmos preditivos deste género: o Compas, por exemplo, que visa avaliar o risco de reincidência e não determinar apenas a fiança, mas também influenciar as condenações.

No entanto, de acordo com um estudo da ‘ProPublica’, aqui citado pela ‘Courrier Internacional’, apenas 20 por cento das pessoas que segundo o programa deviam ser reincidentes, na cidade da Flórida, o foram efetivamente. Além disso, a investigação notou ainda que os negros eram erradamente mais identificados como futuros criminosos.

O Compas viria a ser rejeitado pelo Supremo Tribunal de Wisconsin, em 2017, após um recurso apresentado que tinha como base o “facto de o funcionamento interno do algoritmo não poder ser entendido ou estudado pelo tribunal ou pelo acusado”.

“Seja para prender, conceder fiança, acusar ou condenar, cada um dos envolvidos em cada fase vai viver preconceitos inconscientes. E se o algoritmo for mais eficaz do que as pessoas? E se o desvio tendencioso for de um por cento, será este suficiente? Ou cinco por cento será tolerável?”, questiona Sheena Urwin, responsável pela brigada criminal de Durham.

Hannah Fry, que estudou exaustivamente o dilema ético dos algoritmos, acredita que seria um “retrocesso tentar fazer algoritmos mais fiáveis” e sublinha a necessidade de se aceitar que estes “não são perfeitos”, apelando para que se deixe o “hábito muito humano de se confiar inteiramente nas máquinas”.

“Os algoritmos utilizados nos tribunais têm defeitos graves e urge corrigi-los. Mas é exatamente por isso que sou a favor deles. Se o algoritmo que decide quem deve ser posto em liberdade sob caução se enganar, pelo menos temos a possibilidade de melhorá-lo. Não podemos pedir aos juízes que revertam sentenças às quais possam ter chegado com auxílio de algoritmos, pois as pessoas nem sempre são capazes de nos dizer precisamente como chegaram a esta ou àquela decisão”, explica.

É nesta perspetiva entre ‘Homem vs Máquina’ e ‘Homem & Máquina’ que Hannah Fry defende um trabalho ‘conjunto’ entre o algoritmo e o utilizador – ou criador do algoritmo e utilizador – referindo ser necessário um ‘recomeço’.

"É preciso começar do zero e perguntar: ‘Como estão a trabalhar as pessoas? Quais são as nossas falhas enquanto seres humanos? E como criar algo que tenha isto em consideração?”

“É isso que eu quero dizer quando afirmo que temos de integrar o humano em todas as etapas do processo. Não basta dizer: ‘O que gostaria que o algoritmo fizesse?’ ou: ‘Como quer que o algoritmo funcione?’. O algoritmo (…) é concebido para ter em conta a nossa falibilidade enquanto seres humanos. (…) É preciso começar do zero e perguntar: ‘Como estão a trabalhar as pessoas? Quais são as nossas falhas enquanto seres humanos? E como criar algo que tenha isto em consideração?”.

Uma das medidas propostas pela investigadora britânica passa pela criação de um “banqueiro de dados”, algo com um sistema de funcionamento semelhante a um banco que nos permitisse ser proprietários dos nossos próprios dados.

“Quando depositamos dinheiro num banco, este aplica-o criteriosamente e, mais tarde, recebemos juros. O ‘banqueiro de dados’ faria algo parecido, atuando em nome do consumidor. Há gente a fazer fortunas com os nossos dados. Fortunas colossais! Estou a pensar, por exemplo, numa empresa chamada Palantir, fundada por Peter Thiel, em 2003. É um dos grandes sucessos de Silicon Valley e vale mais do que o Twitter. A maioria das pessoas nunca ouviu falar dela porque opera na sombra. Possui bases de dados com tudo o que se possa imaginar sobre nós, quem somos, que interesses temos. Armazena informações sobre a nossa sexualidade, oficial ou escondida, abortos espontâneos ou se fizemos uma interrupção voluntária de gravidez, se somos a favor ou não do porte de arma, se já tomámos drogas… Tudo isto é recolhido, extrapolado e vendido a peso de ouro”, esclarece.

A explicação de Fry coincide em vários pontos com o ‘fenómeno’ da Cambridge Analytica, empresa envolvida no escândalo da análise de dados de milhões de utilizadores do Facebook, sem conhecimento destes, e que terá sido determinante para a eleição de Donald Trump como presidente dos Estados Unidos. Também por isso, a matemática não tem dúvidas em considerar o algoritmo daquela rede social como “o mais perigoso que conhece”.

“Devido à sua magnitude, o feed de notícias do Facebook é muito preocupante. Há 15 anos, todos assistíamos aos mesmos programas de televisão e líamos os mesmos jornais. Informávamo-nos sobre a atualidade e sobre a vida política a partir das mesmas fontes. Quando havia um debate internacional sobre qualquer assunto, todos tinham as mesmas informações de base”, começa por enquadrar.

“A partir do dia em que o Facebook anunciou que ia oferecer notícias, deparámo-nos com feeds ‘ultrapersonalizados’ em que tudo é baseado no que o sistema acha que gostamos, no que os amigos gostam, no que consultámos anteriormente, etc. A informação foi segmentada em pedaços tão pequenos que, quando querem falar sobre algo que afeta o país, as pessoas falam de coisas diferentes. Mesmo antes do caso da Cambridge Analytica, acho que as repercussões já afetavam demais a democracia e a política. Dito isto, é um fenómeno que pode ocorrer mesmo que não haja intenção de manipular”, salienta.

Intencional ou não, o Facebook concordou em pagar meio milhão de libras à agência britânica de proteção de dados – conhecida pela sigla ICO – cerca de 18 meses após ter sido público que a rede social foi incapaz de proteger a informação digital dos utilizadores da má utilização por parte da Cambridge Analytica.

“Foi em março de 2018 que se descobriu que o Facebook tinha escondido a venda de dados pessoais – sobre gostos, idade, geografia, relações, crenças, medos – de cerca 50 milhões de utilizadores à empresa britânica de recolha e análise de dados Cambridge Analytica. (…) Os resultados foram usados para campanhas políticas em todo o mundo, desde o referendo para a saída do Reino Unido da União Europeia à eleição de Donald Trump”, escreve o ‘Público’.

Esta é apenas uma das muitas questões levantadas por Fry, “um grito de alerta” para “todos aqueles que confiam, sem refletir, o seu destino aos algoritmos”. “Porque quem teria imaginado, senhoras e senhores, que um futuro controlado por máquinas viria a ser do nosso interesse?”.

Fica a questão.


Related

Privacy Preference Center