A inteligência artificial “pode ser uma força para o bem, ajudando as sociedades a superar alguns dos maiores desafios de nosso tempo”, disse Bachelet ao apresentar nesta cidade suíça o relatório de seu escritório (Acnudh) “O direito à privacidade na era digital” .
Mas ele imediatamente acrescentou que “as tecnologias de IA também podem ter efeitos prejudiciais e até catastróficos, quando usadas sem prestar a devida atenção à sua capacidade de violar os direitos humanos.”
Ele afirmou que “quanto maior o risco para os direitos humanos, mais rígidos os requisitos legais para o uso de tecnologia de IA”, e os programas que violam os padrões internacionais de direitos humanos devem ser eliminados.
“Tendo em vista que a avaliação dos perigos e de como superá-los ainda pode levar algum tempo, os Estados devem agora implementar moratórias sobre o uso de tecnologias que apresentam alto potencial de risco”, exigiu.
“A inteligência artificial pode ser uma força para o bem, ajudando as sociedades a superar alguns dos maiores desafios de nosso tempo. Mas as tecnologias de IA também podem ter efeitos prejudiciais e até catastróficos, quando usadas sem a devida atenção à sua capacidade de violar os direitos humanos ”: Michelle Bachelet.
O relatório Acnudh analisa como a IA – incluindo criação automática de perfis, tomada de decisão e outras tecnologias de aprendizado de máquina – afeta o direito à privacidade e outros direitos.
Entre eles, aqueles relacionados à saúde, educação, liberdade de movimento, liberdade de reunião e associação pacíficas e liberdade de expressão.
O estudo examina a frequência com que estados e empresas têm se apressado para incorporar software de IA, e muitos foram tratados injustamente por causa disso.
Por exemplo, foram negados benefícios da previdência social devido à aplicação de instrumentos de IA inadequados ou foram presos como resultado de erros nos sistemas de reconhecimento facial.
AI “agora atinge quase todos os cantos de nossas vidas e até mesmo atinge nossos estados emocionais. É usado para decidir quem recebe serviços públicos, quem tem chance de conseguir um emprego e afeta as informações que as pessoas veem e podem compartilhar na Internet ”, disse Bachelet.
O relatório descreve em detalhes como os sistemas de IA são baseados em grandes bancos de dados, que contêm informações pessoais compiladas, trocadas, combinadas e analisadas usando vários métodos, às vezes opacos.
Os dados que alimentam e orientam os sistemas de IA podem ser deficientes, discriminatórios, desatualizados ou irrelevantes. O armazenamento de dados de longo prazo também traz riscos específicos, já que, no futuro, essas informações podem ser exploradas de maneiras que são difíceis de prever hoje.
“Dado o crescimento rápido e contínuo da IA, preencher a enorme lacuna de responsabilidade em como os dados são coletados, armazenados, compartilhados e usados é uma tarefa urgente de direitos humanos que enfrentamos”, disse Bachelet, que foi duas vezes presidente do Chile (2006-2010 e 2014-2018).
Os bancos de dados distorcidos nos quais os sistemas de IA muitas vezes se baseiam podem levar à tomada de decisão discriminatória, um risco que é mais pronunciado ao lidar com grupos que já são marginalizados.
O relatório afirma que “as tecnologias biométricas, que estão se tornando um coringa para os Estados, organizações internacionais e empresas de tecnologia, constituem uma área que precisa urgentemente de mais diretrizes de direitos humanos”.
Essas tecnologias, que incluem o reconhecimento facial, são cada vez mais utilizadas para identificar certas pessoas remotamente e em tempo real, o que pode permitir o rastreamento ilimitado de indivíduos.
O relatório reitera a necessidade de uma moratória sobre seu uso em espaços públicos, pelo menos até que as autoridades demonstrem que não há problemas significativos de precisão ou efeitos discriminatórios, e que esses sistemas de IA cumprem com os regulamentos aplicáveis para a proteção de dados e privacidade .
As empresas e os estados também são solicitados a aumentar a transparência em relação ao desenvolvimento e aplicação de sistemas de IA.
A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) abriu uma consulta global sobre a ética da IA e promove seu primeiro rascunho de recomendações ou código de conduta para empresas e governos com responsabilidades por essas tecnologias.