Nathalia Criscito
  • Automação
  • Inteligência Artificial

*Nathália Criscito é analista Sênior de Privacidade e Proteção de Dados na TIVIT

 

Muto vem se falando sobre os algoritmos de inteligência artificial e sua habilidade em tomar decisões pelos humanos de forma ráida e assertiva – pelo menos na maioria das vezes.

Hoje, algoritmos são responsáveis por tomar desde decisões simples até complexas, como fazer recomendações de séries e produtos, e até cálculos de análise de crédito e análise preditiva sobre a vida das pessoas.

Nesse post, vamos explicar o conceito de algoritmo, como ele funciona para automação de processos e os dilemas éticos de sua aplicação.

 

Algoritmo

O que é algoritmo e como funciona?

 

Um algoritmo é um conjunto de regras programadas em um computador para que ele realiza uma determinada tarefa ou conjunto de ações.

Isso nada mais do que um apelido dado a forma digital e automática que o ser humano encontrou de reproduzir suas próprias ações.

Quando buscamos atingir um objetivo precisamos antes traçar uma estratégia para alcançá-lo. Uma vez traçada essa estratégia, cada passo dado depende do anterior e, este, por sua vez, tem tanta importância quanto os que já foram dados.

Exemplo

 

A título de exemplo, vamos considerar o trabalho de um recepcionista de um prédio residencial. O trabalho dele é se certificar de que as pessoas que vão entrar são quem elas declaram ser e estão autorizadas pelos moradores desse prédio a entrarem.

Para cumprir sua função como recepcionista, serão necessárias algumas etapas antes do resultado de autorizar ou não essa entrada, vejamos:

  1. Entender onde a pessoa quer ir.
  2. Identificar quem é a pessoa que precisa entrar no prédio.
  3. Certificar-se de que a identidade informada é válida.
  4. Obter a autorização ou recusa do morador sobre a entrada dessa pessoa.
  5. Permitir ou negar a entrada.

Como é possível perceber, a conclusão final sobre autorizar ou não a entrada de uma nova visita foi obtida após a finalização de etapas pré-definidas; é exatamente assim o funcionamento de um algoritmo.

Quando se pretende programar um novo algoritmo é preciso ter em mente de onde se deve partir e onde se quer chegar.

Além disso, cada etapa deve ser descrita de forma clara, objetiva e considerando as diversas variáveis que podem existir no caminho, pois algoritmos não detém a capacidade humana de entender sobre possíveis ambiguidades.

O algoritmo não “pensa” durante seu funcionamento, ele se limita a seguir fielmente o roteiro que lhe foi imputado.

Assim, de forma simplista, a criação de um algoritmo pode ser entendida como a capacidade de traduzir para a linguagem computacional um roteiro.

Hoje, essa tradução pode ser explorada através das técnicas de Machine Learning que já aprendemos até aqui.

Webinars sobre CX, Atendimento Digital e Automação de Processos

Preencha o seu email e receba os webinars da AI Bots Week gratuitamente!

Algoritmos que deram certo

 

As redes sociais são os exemplos mais palpáveis que temos hoje do uso dos algoritmos para potencializar resultados.

Imagine um banco de dados que sabe: quanto tempo passamos conectados, quais conteúdos acessamos com frequência, quais são nossos hábitos de consumo, quem são as pessoas com as quais mais temos afinidade, quais são as músicas que mais escutamos e assim por diante.

Os dados são o combustível da IA e os algoritmos o roteiro base dessa inteligência, nosso comportamento e ações também podem ser transformados em algoritmos.

Nesse sentido, fica mais fácil entender o porquê as aplicações de redes sociais dominaram tanto a nossa rotina; elas foram desenvolvidas para nos agradar e utilizará os dados que permitimos que ela tenha sobre nós para atingir esse objetivo – quanto mais sabem sobre nós, mais fácil nos agradar.

É por isso que realizar uma busca no Google pode trazer resultados diferentes para logins diferentes, pois uma série de variáveis criadas através do processamento de nossas preferências viabiliza esse processo.

Não é por acaso que a Netflix, uma das maiores aplicações de streaming da atualidade, utiliza capas diferentes do mesmo filme para perfis diferentes. Veja os exemplos abaixo. Qual é a melhor capa? Depende de quem está assistindo.

 

Exemplos de opções de capas da série Peaky Blinders, mostradas pelo algoritmo da Netflix de acordo com o perfil do usuário.

 

Outro caso notório de uma consequência benéfica dessa potência tecnológica foi o caso de um brasileiro que teve sua vida salva por conta do Apple Watch.

O dispositivo alertou que o usuário estaria há mais de 10 minutos com 140 batimentos por minuto (BPM), o que o levou a procurar um atendimento hospitalar de emergência imediatamente.

Como consequência, contribuiu para que eventual problema de saúde fosse resolvido a tempo.

Mais um exemplo de como a IA pode ser uma ferramenta importantíssima no auxílio e garantia do cumprimento de nossos direitos é o robô “Rosie”, criado por brasileiros.

A Robô, inspirada na faxineira-robô do desenho “Os Jetsons”,  foi criada por um grupo de oito jovens para monitorar gastos públicos.

O robô conseguiu identificar em 3 meses de uso mais de 3.500 casos suspeitos envolvendo o uso da cota parlamentar por deputados federais em uma varredura feita em informações de 2011 para cá.

 

Algoritmos que deram errado

 

Como vimos até aqui, existem diversos fatores extremamente positivos que foram trazidos com a onda das inovações tecnológicas da IA.

Entretanto, precisamos nos lembrar de um ponto importantes: a IA não possui ainda a capacidade de pensar como o ser humano, portanto não podem entender contextos de modo a traçar parâmetros éticos ou não-éticos antes de apresentar um resultado.

Essas máquinas ainda não têm consciência de si mesmas. Operacionalmente, também, eles são limitados pelos dados históricos dos quais eles aprendem e restritos a funcionar dentro de parâmetros previamente definidos.

Vamos explorar alguns exemplos de algoritmos que não foram tão bem-sucedidos assim.

 

COMPAS, algoritmo para decisão sobre julgamentos

 

Nos Estados Unidos, existe um aplicativo denominado “COMPAS” (sigla em inglês para Correctional Offender Management Profiling for Alternative Sanctions).

Ele foi desenvolvido com o intuito de facilitar e otimizar o trabalho dos juízes quando da tomada de decisões sobre se os réus que aguardam julgamento são perigosos ou não para serem libertados sob fiança.

A medição feita pela aplicação envolve uma análise matemática de respostas a serem fornecidas pelo próprio réu via questionário que resultará numa pontuação de 1 a 10.

Essa pontuação é o termómetro utilizado para medir o risco que o réu apresenta para a sociedade estadunidense se receber a fiança.

Ocorre que, um estudo feito pela organização americana “ProPublica”, focada no jornalismo investigativo, constatou através de dados estatísticos que os resultados oferecidos pela aplicação possuem vieses discriminatórios.

Veja abaixo, a título de exemplo, um dos casos que ganhou repercussão: Os réus Vernon Prater e Brisha Borden foram submetidos a análise do aplicativo.

O primeiro réu possuía em seu histórico de antecedentes criminais a ocorrência de dois assaltos à mão armada e uma tentativa de assalto à mão armada.

A segunda ré, por sua vez, possuía apenas quatro delitos juvenis e baixo risco em seu histórico de antecedentes criminais.

Assim, racionalmente falando, seria óbvio esperar que Vernon apresentasse uma nota maior do que Brisha na aplicação. Entretanto, Vernon apresentou uma avaliação de risco 3, enquanto Brisha recebeu 8.

 

Crédito: reprodução

Crédito: reprodução

 

Aprofundando os estudos, outro padrão foi encontrado pela Organização: O aplicativo possui a tendência de conferir notas maiores a infratores de minorias étnicas.

Em entrevista para a BBC News, a pesquisadora Julia Angwin afirma: “Quando analisamos um acusado negro e outro branco com a mesma idade, sexo e ficha criminal – e levando em conta que depois de serem avaliados os dois cometeram quatro, dois ou nenhum crime -, o negro tem 45% mais chances do que o branco de receber uma pontuação alta”.

Mas afinal, quais os critérios utilizados pela aplicação para que chegasse nesse resultado?

O estudo feito pela ProPublica percebeu que algumas das perguntas inseridas nos questionários que são analisados pela ferramenta são, entre outras questões:

  • se alguém da família do réu já foi preso;
  • se o réu possui amigos integrantes de organizações criminosas;
  • histórico profissional;
  • histórico escolar;
  • se a pessoa analisada considera aceitável que pessoas em situação de fome roubem para se sustentar

Ainda, apesar de não serem relatadas perguntas diretas sobre a identidade racial dos avaliados, a pesquisa indica que os algoritmos por si só fazem uma análise que pode ser entendida como de situações raciais.

Assim, quando consideramos que os algoritmos são desenvolvidos para entender nossos padrões de pensamentos através dos dados que recebem sobre nossas ações, torna-se evidente que automaticamente reproduzirá os vieses éticos do meio analisado.

 

Caso Brasileiro: reconhecimento facial para segurança pública

 

Outro caso que ganhou relevância em matéria veiculada pelo Fantástico no dia 21.02.2021, programa jornalístico da Rede Globo, é do sobre o uso do reconhecimento facial como único meio de prova nos processos judiciais criminais brasileiros.

Em um dos casos apresentados na reportagem, é contada a história de Thiago.

Ele foi acusado injustamente pelo crime de roubo e, apesar de não ter sido preso, sua imagem permaneceu nos denominados “álbuns de reconhecimento dos autores”, banco de dados da polícia brasileira que contém a foto de pessoas que já sofreram alguma acusação, mas que não necessariamente realmente eram culpadas.

O fato contribuiu para que ele fosse acusado por mais 9 vezes por outros delitos dos quais também era inocente, preso 2 vezes, sendo que em uma dessas vezes ficou preso por 8 meses.

Ele ainda responde a processos decorrentes desse armazenamento imotivado de seus dados e de sua imagem.

 

Caso Chatbot Thay, da Microsoft

 

Em 2016, a Microsoft lançou a “Tay”, IA criada para interagir com adolescentes nas redes sociais, mas a ela foi dada tanta autonomia que em 24h a empresa teve que excluir o perfil da IA do twitter, pois esta começou a reproduzir falas racistas, machistas e até apoiou o genocídio nazista.

A fluidez informacional x Direitos Fundamentais do indivíduo

 

Vimos até agora que a comercialização e lucro que é possível obtermos através do consumo dos dados que geramos diariamente são ótimas ou péssimas na mesma medida.

Percebemos também que o avanço tecnológico trouxe à tona diversas facetas que merecem atenção se quisermos nos manter no controle desse avanço, de modo a evitar que viremos reféns de nossa própria criação.

Se empresas como a Netflix conseguem traçar nosso perfil o suficiente para nos direcionar as identidades visuais que mais nos atrai, a pergunta que precisamos fazer é até que ponto ainda controlamos nossos gostos, preferências e visão de mundo.

Pensando nisso, fez-se necessária a criação de legislações para ordenar o funcionamento dessas ferramentas com um olhar que considere também os direitos fundamentais dos indivíduos.

Não é por acaso que vemos por todo o mundo uma intensa onda regulatória sobre esse novo fluxo informacional, sobretudo para mitigar os potenciais danos aos usuários e à sociedade.

 

Saiba mais sobre inteliênca artificial

 

Quer saber mais sobre soluções de IA e automação de processos? Fizemos quatro rodas de conversas valiosas com especialistas em Customer Experience, Inteligência Artificial e Transformação Digital. Você pode assistir aos webinars gravados e se aprofundar no tema com profissionais de referência.

Receba nossas novidades