IA cresce, mas 65% não sabem explicar decisões tomadas pela tecnologia
Apesar do aumento da adoção de ferramentas de inteligência artificial (IA), quase dois terços (65%) das organizações não conseguem explicar como as decisões ou previsões dos modelos que utilizam são feitas. O dado faz parte de um estudo produzido pela FICO, especialista em tecnologias preditivas, e tem como objetivo descobrir como a IA está sendo usada, e se de forma responsável.
O estudo – chamado “O estado da IA responsável: 2021” – foi feito com base em entrevistas com 100 líderes de grandes empresas globais, incluindo companhias brasileiras. E ela indicou que 39% dos membros de conselho (e 33% das equipes executivas) tem entendimento incompleto sobre ética da IA.
A maioria dos entrevistados (73%) afirmam que têm enfrentado dificuldades para obter suporte executivo para priorizar a ética e as práticas responsáveis de IA.
“[As empresas] não elevaram a importância de sua governança e da IA responsável para o nível da diretoria”, diz em comunicado Scott Zoldi, Chief Analytics Officer da FICO. “A liderança deve compreender essa questão e monitorar os modelos utilizados, de forma a garantir que as decisões sejam justas, transparentes e responsáveis”.
Critérios difusos
Cerca de metade (49%) dos executivos entrevistados relatou aumento nos recursos investidos em projetos de IA nos último ano. E apenas 39% afirmam que estão investindo em governança durante o processo de desenvolvimento, enquanto 33% dizem que estão prestando pouca atenção ao monitoramento e manutenção dos modelos em produção.
Não há consenso entre os executivos sobre quais devem ser as responsabilidades de uma empresa quando se trata de IA, de acordo com o estudo. A maioria dos entrevistados (55%) concorda que os sistemas de IA para ingestão de dados devem atender aos padrões éticos básicos e que os sistemas usados para operações de back-office também devem ser explicáveis.
Porém, quase metade dos entrevistados (43%) dizem que não têm responsabilidades além de cumprir a conformidade regulamentar para gerenciar eticamente os sistemas de IA. Apenas um quinto dos entrevistados (20%) monitora ativamente seus modelos de IA em termos de justiça e ética, enquanto somente 22% afirmam que sua organização tem um conselho para avaliar essas questões.
Um em cada três (33%) tem uma equipe de validação para avaliar os modelos recém-desenvolvidos e apenas 38% dizem que têm etapas de mitigação de viés de dados incorporadas aos processos de desenvolvimento.
Falta de processos
Em termos de visão de futuro, a grande maioria (90%) concorda que processos ineficientes para monitoramento de modelos representam uma barreira para a adoção de IA. E quase dois terços (63%) acreditam que a IA ética e a IA responsável se tornarão um elemento central da estratégia de sua organização dentro de dois anos.
“Líderes seniores e os conselhos precisam estar cientes dos riscos associados à tecnologia e das melhores práticas para mitigá-los de forma proativa. A IA tem o poder de transformar o mundo, mas como diz o ditado popular – quanto maior o poder, maior a responsabilidade”, diz Zoldi.
O estudo da FICO foi realizado entre fevereiro e março de 2021, com base em entrevistas com 100 líderes de empresas com receitas anuais acima de US$ 100 milhões. Todos os entrevistados possuíam cargos C-Level, incluindo vice-presidente de dados, vice-presidente de analíticos, vice-presidente de dados e analíticos e vice-presidente de IA.
Fonte: Cio.