5 prioridades para ajudar a mitigar o preconceito em sistemas de Inteligência Artificial

Por Anjelica Dortch, Executiva de Políticas de Tecnologia, IBM Government & Regulatory Affairs e Dra. Stacy Hobson, Diretora de Tecnologias Responsáveis e Inclusivas, IBM Research

Não há dúvidas de que os vieses humanos podem influenciar os algoritmos de inteligência artificial (IA), propiciando respostas tendenciosas. Mas também é difícil determinar o quanto estes preconceitos estão infiltrados nas tecnologias que desenvolvemos e utilizamos em nossas atividades do dia a dia. No entanto, embora a mitigação dos vieses na inteligência artificial ainda seja um desafio para alguns modelos e sistemas de tomada de decisão, é imperativo reduzir a probabilidade de resultados indesejáveis.

Nossa sociedade continua a evoluir com a rápida inovação de tecnologias emergentes, especialmente IA. Indústria, academia, governos e consumidores têm a responsabilidade compartilhada de garantir que os sistemas de IA sejam devidamente testados e avaliados quanto ao potencial de polarização. Além disso, qualquer ação ou prática proibida pela legislação antidiscriminação em vigor também deve ser aplicada. Para apoiar as estratégias de mitigação de preconceito, as organizações devem trabalhar para criar, implementar e colocar em prática os princípios éticos da IA ​​e garantir a governança adequada para revisão e supervisão contínuas.

A IBM acredita que para obtermos o pleno aproveitamento do poder transformador da Inteligência Artificial é preciso desenvolvê-la e avaliá-la continuamente, com o compromisso de evitar resultados discriminatórios e que possam prejudicar negativamente as pessoas e suas famílias. Um aspecto fundamental do desenvolvimento responsável da IA está exatamente em identificar e mitigar os vieses. Um ponto crítico do desenvolvimento de IA responsável é o foco na identificação e mitigação de preconceitos. Nos últimos anos, a IBM compartilhou resultados de pesquisas, disponibilizou ferramentas e forneceu às empresas e aos seus consumidores uma melhor compreensão dos sistemas de IA. Isso inclui o AI Fairness 360 ToolkitAI FactSheets IBM Watson OpenScale, bem como novos recursos do IBM Watson, projetados para ajudar as empresas a construir uma IA confiável.

No ano passado, o IBM Policy Lab pediu uma “regulamentação de precisão” para fortalecer a confiança na IA com uma estrutura baseada em princípios, como responsabilidade, transparência, justiça e segurança, solicitando que ações sejam tomadas ao mesmo tempo. À luz de como o diálogo público sobre preconceitos em IA evoluiu, essa perspectiva é mais importante do que nunca. É por isso que, em resposta à atenção renovada às desigualdades e como a tecnologia – em áreas como justiça criminal, serviços financeiros, saúde e recursos humanos – pode ser mal utilizada para exacerbar as injustiças, a IBM sugere que os legisladores tomem medidas adicionais para moldar um ambiente legislativo apropriado que aborda preocupações legítimas da sociedade.

A IBM está comprometida em defender a diversidade, a igualdade e a inclusão em nossa sociedade, economia e tecnologia que construímos. Como tal, pedimos aos governos que implementem cinco prioridades para fortalecer a adoção de testes, avaliações e estratégias de mitigação de viés em sistemas de IA:

1. Reforçar o conhecimento e a alfabetização em IA para toda a sociedade. Uma maior compreensão sobre o que é IA, seus benefícios potenciais e como interagir com os sistemas pode acelerar seu crescimento e confiança na tecnologia. Além disso, o desenvolvimento e a implementação de uma agenda nacional de IA podem promover um ecossistema mais inclusivo e diverso, bem como apoiar a erradicação de conceitos errados. Neste sentido, o aumento do investimento em educação para incluir IA nos currículos e o aumento do financiamento para pesquisas podem garantir uma gama mais diversificada de partes interessadas para orientar o planejamento, o desenvolvimento e a implementação de sistemas de IA no futuro. Ministérios e agências de ciência e tecnologia também devem priorizar a construção de parcerias que promovam a equidade em IA.

2. Exigir avaliações e testes para sistemas de IA de alto risco, com foco na proteção dos consumidores e, ao mesmo tempo, possibilitando a inovação. Isso significa exigir evidências e mitigação de vieses – conduzida de forma robusta e transparente – para sistemas de IA, como os usados ​​em tribunais. Esses sistemas também precisam ser monitorados e testados continuamente. Além disso, concentre-se nos requisitos de avaliação de pré-implementação para sistemas de IA de alto risco que apresentam um maior potencial de danos; documentar os processos de avaliação, torná-los auditáveis ​​e mantê-los por um período mínimo de tempo; convocar e conduzir fóruns nacionais e internacionais para acelerar o consenso para uma IA confiável; fornecer recursos e experiências para ajudar todas as organizações a garantir uma IA responsável; aumentar o investimento em pesquisa e desenvolvimento para teste e mitigação de vieses; e apoiar o treinamento acelerado de desenvolvedores em reconhecimento de polarização.

3. Exigir transparência na IA por meio da divulgação. Os desenvolvedores e proprietários devem informar os usuários quando estes interagem com tecnologias de IA com pouco ou nenhum envolvimento humano, bem como ao usar um sistema de IA de alto risco. Além disso, no caso de sistemas de tomada de decisão automatizados, no mínimo, o usuário deve ser informado por que e como uma determinada decisão foi tomada usando IA.

4. Solicitar mecanismos para análise e feedback do consumidor. Os operadores de aplicativos de alto risco devem disponibilizar canais de comunicação (por exemplo, e-mail, número de telefone ou endereço postal) para esclarecer dúvidas, preocupações ou reclamações dos usuários. Os proprietários devem agir com responsabilidade, conduzindo análises contínuas das preocupações dos consumidores e, quando necessário, trabalhar em questões sistêmicas.

5. Estabelecer limitações universais ao uso de IA e adotar práticas de licenciamento responsáveis. Para evitar que os sistemas sejam explorados para usos ilegais, irresponsáveis ​​e prejudiciais, a IBM solicita o estabelecimento de limitações universais ao uso de aplicativos de IA de alto risco para proibir seu uso em vigilância em massa, discriminação racial e violação de direitos humanos e liberdades básicas. Além disso, expanda o desenvolvimento, a educação e a adoção de termos de licença responsáveis ​​para software de código aberto e aplicativos baseados em IA.

Novas leis, marcos regulatórios e diretrizes estão chegando para mitigar vieses nos sistemas de IA. Desenvolvidas com base nas prioridades acima, essas medidas podem fornecer à indústria e às organizações requisitos claros de teste, avaliação, mitigação e educação para aumentar a confiança do consumidor e a segurança em inteligência artificial.

* Para acessar este conteúdo na íntegra, clique aqui .

Share This Post
Have your say!
00

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Thanks for submitting your comment!
Share This