Por Scott Zoldi, CAO da FICO
Depois de tantos anos tentando – e falhando – se manter entre os temas mais ‘hypados’, em 2021 a Inteligência Artificial foi subestimada no tribunal da opinião pública. Mas, felizmente, os cientistas de dados estão acordando para a fragilidade do poder de decisão da tecnologia e criaram controles compensatórios, que incluem a IA Auditável e a IA Humilde. Neste ano, veremos ambas se juntando a IA Explicável e a IA Ética, sob o guarda-chuva da IA Responsável – considerada um padrão que deve ser utilizado no desenvolvimento de sistemas de inteligência artificial confiáveis e seguros.
Antes de falarmos sobre os conceitos de IA Auditável e Humilde, faz sentido recapitular pontos sobre o que aconteceu com a IA em 2021, que teve uma curva de crescimento e disparou durante a pandemia.
A inteligência artificial tornou-se um problema real
Uma pesquisa da PwC constatou que 86% das empresas pesquisadas disseram que a IA se tornou uma tendência tecnológica. Algumas falhas da IA ficaram aparentes em 2021 e há intermináveis artigos negativos, podcasts e conversas sobre essa fragilidade. Bernard Marr trouxe à tona uma discussão concisa sobre os impactos negativos da inteligência artificial em que lista ao menos cinco pontos de atenção:
- Viés da inteligência artificial
- Perda de empregos
- Mudança na experiência humana
- Ataques hackers
- Terrorismo via IA
Um caminho a seguir: ética por design
Em 15 de setembro de 2021, com o lançamento da norma IEEE 7000 – que traz a premissa de ser o primeiro padrão a mostrar às empresas de tecnologia uma maneira muito prática de construir tecnologia, valor humano e social, em vez de apenas dinheiro -, o mundo deu um passo gigantesco para alcançar a IA Responsável.
Sara Spiekermann, da Universidade de Economia e Negócios de Viena , que estava envolvida nos esforços do IEEE 7000, diz que o que determina uma boa IA é aquela oferece às empresas o controle sobre:
- A qualidade dos dados utilizados no sistema de IA
- Os processos seletivos que alimentam a IA
- Design de algoritmo
- A evolução da lógica da IA
- As melhores técnicas disponíveis para um nível de transparência que mostre como a IA está aprendendo e chegando às suas conclusões
Acredito que transparência e ética por design são os únicos caminhos a seguir. Escrevi e falei extensivamente sobre essa crença desde 2020, quando previ que seria o ano em que a IA cresceria. Com o IEEE 7000, parece que alcançar esse objetivo está cada vez mais próximo
IA Auditável e IA Humilde
Para construir sistemas de IA que cumpram a implementação de padrões da IA Responsável, como o IEEE 7000, dois novos ramos de IA se tornarão comuns em 2022:
IA Auditável, é a inteligência artificial que produz uma trilha de cada detalhe sobre si mesma e engloba todos os pontos mencionados acima: dados, variáveis, transformações e processos de modelo, incluindo aprendizado de máquina, design de algoritmos e lógica de modelo. A IA Auditável deve ser apoiada por estruturas de governança de desenvolvimento de modelos firmemente estabelecidas e adotadas, como as baseadas em blockchain. A IA Auditável aborda essencialmente o requisito de transparência da norma IEEE 7000.
As aspirações para alcançar a IA Responsável irão além das promessas vazias, para modelar etapas de governança de desenvolvimento que são formais, transcritas programaticamente e imutavelmente apoiadas pela tecnologia blockchain.
É importante ressaltar que a IA Auditável fornece uma prova de trabalho de adesão aos padrões de desenvolvimento do modelo de IA Responsável, e apoia diretamente sua função conectada, a AI Humilde.
Já a IA Humilde, é a inteligência artificial que sabe que não tem certeza sobre a resposta certa. A IA Humilde aborda a incerteza da decisão e usa medidas de incerteza (como um score numérico de incerteza) para quantificar os níveis de confiança do modelo em sua própria decisão, com detalhes da decisão individual e o elemento de dados.
Dito de outra forma, a IA Humilde nos ajuda a ganhar mais confiança em cada pontuação que produz e no consumidor que ela impacta.
Embora eu tenha escrito sobre a IA Humilde no passado, vejo um movimento de abandono dos modelos complexos para modelos mais simples que melhor suportem as evidências.
A capacidade de determinar se um modelo é apropriado vai variar entre os itens pontuados, por exemplo, para alguns clientes o modelo é muito certo e tem grande confiança estatística, e para outros não. Este é um componente crítico da IA Responsável, de tal forma que quando a confiança do modelo é insuficiente, esses clientes podem ser pontuados por um modelo de recuo que tem melhor confiança estatística e, portanto, receber um resultado mais justo. Isso se alinha diretamente com o IEEE 7000, e aproveita a percepção de que a decisão do modelo de IA pode ser mais ou menos certa para diferentes indivíduos. A IA Responsável exige que essa incerteza se reflita na decisão.