Como podemos evitar que erros humanos se tornem erros algorítmicos?

Adaptado de How can we avoid human error becoming algorithmic error?, por Nayeem Syed  para o Answers On

 

O robô de entretenimento da Sony Corp, "Aibo", é retratado em sua demonstração em Tóquio, Japão, em 1º de novembro de 2017.

 

Se não aprendermos a erradicar o erro humano dos algoritmos, o aprendizado de máquina não poderá atingir todo o seu potencial.

Em um post recente, discuti o viés cognitivo nas finanças. Ao passo em que treinamos algoritmos para nos ajudarem a melhorar a qualidade da decisão, devemos diferenciar entre os erros que ocorrem ao não seguir regras de decisão e os erros que estão incorporados nas regras de decisão. O primeiro advém da suscetibilidade humana de se afastar de um conjunto de regras de decisão por causa de crenças convincentes, mas irracionais. O último refere-se ao risco de que os modelos preditivos já contenham os vieses e as falácias lógicas de seus criadores e máquinas humanas estão simplesmente repetindo - e possivelmente ampliando - eles.

À medida que o mercado de serviços de aprendizado de máquina amadurece, os compradores e vendedores precisam cada vez mais se concentrar em lidar efetivamente com esses riscos para garantir que, a medida em que a lógica de negócios é rapidamente aplicada a custos mais baixos, realmente melhora a tomada de decisões. Os vendedores precisarão persuadir os compradores de que os algoritmos serão construídos para minimizar o viés desnecessário. Os compradores precisarão ver isso demonstrado. Todas as partes só incorporarão derivados desses produtos direta ou indiretamente se tiverem confiança de que os projetistas abordaram os riscos do viés algorítmico. Cada participante da cadeia de valor pode se basear em como ele resolve esse problema para demonstrar a superioridade de seus produtos.

 

Algoritmos projetados para aplicar regras de decisão em escala, não desafiar regras de decisão.

Com maiores investimentos em inteligência artificial (IA), existe uma maior pressão para produzir capacidades de aprendizado de máquina em escala e velocidade. Há motivos para recuar, mas o aprendizado de máquina também apresenta uma oportunidade. Se reconhecermos os perigos dos vieses inconscientes, poderemos - ao reduzir um processo de negócios a um algoritmo - trabalhar para identificar e confrontar suposições subjacentes incorretas para evitar a repetição de erros humanos ao abordar as perguntas erradas ou os dados errados.

Descobrir os vieses presentes nos dados de treinamento e sugerir um método para “desenviesar” a incorporação cognitiva será bem recompensado. Se tentarmos entender melhor as armadilhas, podemos tomar as medidas apropriadas para evitar o viés algorítmico.

 

Algoritmos funcionam bem em uma pista e não tão bem fora de estrada. Certifique-se de que estamos requisitando o que é razoável de um algoritmo.

Khalid Al-Kofahi, vice-presidente de Pesquisa e Desenvolvimento da Thomson Reuters e chefe de seu Centro de Computação Cognitiva, explica: “Os seres humanos são excelentes em tomar decisões sobre assuntos em que têm experiência e podem ser criativos (por inferência e por analogia) em situações totalmente novas; enquanto máquinas se destacam em tomar decisões sobre tarefas repetitivas (e escalar muito melhor que humanos nessas tarefas), mas são ineficazes quando aplicadas a novas situações, pelo menos por enquanto (novas técnicas, por exemplo, incorporação de palavras em aprendizagem profunda, prometem permitir que as máquinas ‘pensem’ por analogia)”.

O robô de cuidados de enfermagem e comunicação "Robohon" está sentado em uma mesa ao lado da cama de um residente no lar de idosos de Shin-tomi, em Tóquio, Japão, em 5 de fevereiro de 2018.

 

Os resultados do treinamento são limitados pelas limitações de seus treinadores. Assegure-se de ter os insights necessários sobre o domínio.

Devemos autoavaliar honestamente se temos o conhecimento de domínio específico necessário para criar um modelo preditivo útil. Não fazê-lo pode nos levar a acreditar falsamente que somos capazes de prever eventos que, de fato, não podemos. Sabemos que o modo como uma pergunta é enquadrada determina as respostas recebidas. Isso é verdade tanto para pessoas quanto para máquinas. O aprendizado de máquina é potencialmente mais pernicioso, pois codifica permanentemente os vieses dos seres humanos nos quais eles são modelados e, em seguida, os aplica com rapidez.

 

Quando os grandes insights encontram dados ruins, os resultados não são justos. Certifique-se de que está utilizando dados confiáveis e completos.

Dados de treinamento diferentes produzem conclusões diferentes. Isso é verdade com dados grandes e pequenos. Algoritmos só podem executar suas operações dentro dos limites definidos nos quais eles estão definidos. Por exemplo, ao validar uma estratégia de fundo, podemos deixar de incluir os fundos que falharam e abordar apenas aqueles que sobrevivem até o final de todo o período da amostra. O resultado é que nossas conclusões super-refletem os fundos que sobreviveram e podemos tirar conclusões sobre suas estratégias que são imprecisas. Com o aprendizado de máquina, se os dados do treinamento não refletirem totalmente os dados da população inteira (convenientes, inconvenientes e incompletos), corremos o risco de produzir resultados potencialmente enganosos.

 

Devemos nos proteger contra o excesso de foco em cavalos e subfoco na direção. Certifique-se de que não estamos usando a máquina para validar nosso modelo humano.

As máquinas são melhores que os humanos seguindo as instruções, mas a preocupação com o viés algorítmico é que erros não detectados nas instruções podem ampliar nosso mal-entendido e resultar em nós indo muito rápido na direção errada. Preconizar remediação é o que os cientistas de dados e os tecnólogos devem buscar, pois será cada vez mais importante demonstrar que o modelo subjacente foi criado sem referência a fatores imateriais.

O principal insight em tudo isso é que a expertise dos treinadores humanos e seus processos de negócios humanos superiores permanecem críticos para melhorar os resultados. As máquinas são tão propensas ao preconceito quanto o pensamento humano que tenta replicar, mas se conscientemente escolhermos reconhecer e abordar isso, poderemos realmente melhorar nossa velocidade, custo e precisão.

A chanceler alemã Angela Merkel aperta a mão com um robô humanoide no estande do IBG na Hannover Messe, a feira de negócios em Hanover, na Alemanha, em 23 de abril de 2018.

 

A boa notícia é que temos uma oportunidade ideal para revisar, desafiar e redesenhar os processos de negócios para evitar interpretar mal os problemas e, com isso, desviar o aprendizado da máquina para as perguntas erradas. Armados com essa consciência, podemos realmente melhorar o processo humano e ajudar a evitar o preconceito humano na aprendizagem de máquina, implementando medidas para melhorar as entradas para gerar resultados mais precisos. Precisamos construir um processo de desenvolvimento robusto que busque descobrir e gerenciar o potencial para o preconceito humano incorporado.

 

 

 

> PARA QUEM PRECISA DE INOVAÇÃO NA GESTÃO JURÍDICA > LEGAL ONE 

A Revolução digital no gerenciamento e inteligência estratégica para escritórios de advocacia e departamentos Jurídicos

> PARA QUEM PRECISA DE CONHECIMENTO ESTRATÉGICO > REVISTA DOS TRIBUNAIS 
O Selo Editorial Revista dos Tribunais reúne autores consagrados do meio Jurídico em obras aprofundadas para capacitar os profissionais do Direito, respaldando-os com respostas rápidas, precisas e confiáveis.

> SOBRE A THOMSON REUTERS  | LEGAL
Respaldamos os profissionais do Direito com respostas confiáveis para as suas decisões mais estratégicas, combinando inteligência, tecnologia e os melhores especialistas, oferecendo soluções digitais inovadoras para a gestão eficiente e gerando conteúdo relevante para as mais diversas áreas do mercado Jurídico.

 

Quer saber mais? Preencha o formulário para solicitar um contato

Por favor, preencha todos os campos obrigatórios.

Ao enviar este formulário, você reconhece que leu e concorda com a nossa

Política de privacidade