ODS16

Bachelet exige moratória sobre inteligência artificial

O uso de inteligência artificial pode significar benefícios, mas também violações, de modo que o uso de cada um de seus sistemas deve ser proibido até que seja comprovado que cumprem as normas internacionais de direitos humanos 

A Alta Comissária das Nações Unidas para os Direitos Humanos , Michelle Bachelet, levantou nesta quarta-feira, 15, a “necessidade urgente” de estabelecer uma moratória sobre a venda e uso de sistemas de inteligência artificial (IA) que ameaçam gravemente os direitos humanos.

 

A inteligência artificial “pode ​​ser uma força para o bem, ajudando as sociedades a superar alguns dos maiores desafios de nosso tempo”, disse Bachelet ao apresentar nesta cidade suíça o relatório de seu escritório (Acnudh) “O direito à privacidade na era digital” .

Mas ele imediatamente acrescentou que “as tecnologias de IA também podem ter efeitos prejudiciais e até catastróficos, quando usadas sem prestar a devida atenção à sua capacidade de violar os direitos humanos.”

Ele afirmou que “quanto maior o risco para os direitos humanos, mais rígidos os requisitos legais para o uso de tecnologia de IA”, e os programas que violam os padrões internacionais de direitos humanos devem ser eliminados.

“Tendo em vista que a avaliação dos perigos e de como superá-los ainda pode levar algum tempo, os Estados devem agora implementar moratórias sobre o uso de tecnologias que apresentam alto potencial de risco”, exigiu.

“A inteligência artificial pode ser uma força para o bem, ajudando as sociedades a superar alguns dos maiores desafios de nosso tempo. Mas as tecnologias de IA também podem ter efeitos prejudiciais e até catastróficos, quando usadas sem a devida atenção à sua capacidade de violar os direitos humanos ”: Michelle Bachelet.

O relatório Acnudh analisa como a IA – incluindo criação automática de perfis, tomada de decisão e outras tecnologias de aprendizado de máquina – afeta o direito à privacidade e outros direitos.

Entre eles, aqueles relacionados à saúde, educação, liberdade de movimento, liberdade de reunião e associação pacíficas e liberdade de expressão.

O estudo examina a frequência com que estados e empresas têm se apressado para incorporar software de IA, e muitos foram tratados injustamente por causa disso.

Por exemplo, foram negados benefícios da previdência social devido à aplicação de instrumentos de IA inadequados ou foram presos como resultado de erros nos sistemas de reconhecimento facial.

AI “agora atinge quase todos os cantos de nossas vidas e até mesmo atinge nossos estados emocionais. É usado para decidir quem recebe serviços públicos, quem tem chance de conseguir um emprego e afeta as informações que as pessoas veem e podem compartilhar na Internet ”, disse Bachelet.

O relatório descreve em detalhes como os sistemas de IA são baseados em grandes bancos de dados, que contêm informações pessoais compiladas, trocadas, combinadas e analisadas usando vários métodos, às vezes opacos.

Os dados que alimentam e orientam os sistemas de IA podem ser deficientes, discriminatórios, desatualizados ou irrelevantes. O armazenamento de dados de longo prazo também traz riscos específicos, já que, no futuro, essas informações podem ser exploradas de maneiras que são difíceis de prever hoje.

“Dado o crescimento rápido e contínuo da IA, preencher a enorme lacuna de responsabilidade em como os dados são coletados, armazenados, compartilhados e usados ​​é uma tarefa urgente de direitos humanos que enfrentamos”, disse Bachelet, que foi duas vezes presidente do Chile (2006-2010 e 2014-2018).

Os bancos de dados distorcidos nos quais os sistemas de IA muitas vezes se baseiam podem levar à tomada de decisão discriminatória, um risco que é mais pronunciado ao lidar com grupos que já são marginalizados.

O relatório afirma que “as tecnologias biométricas, que estão se tornando um coringa para os Estados, organizações internacionais e empresas de tecnologia, constituem uma área que precisa urgentemente de mais diretrizes de direitos humanos”.

Essas tecnologias, que incluem o reconhecimento facial, são cada vez mais utilizadas para identificar certas pessoas remotamente e em tempo real, o que pode permitir o rastreamento ilimitado de indivíduos.

O relatório reitera a necessidade de uma moratória sobre seu uso em espaços públicos, pelo menos até que as autoridades demonstrem que não há problemas significativos de precisão ou efeitos discriminatórios, e que esses sistemas de IA cumprem com os regulamentos aplicáveis ​​para a proteção de dados e privacidade .

As empresas e os estados também são solicitados a aumentar a transparência em relação ao desenvolvimento e aplicação de sistemas de IA.

A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) abriu uma consulta global sobre a ética da IA ​​e promove seu primeiro rascunho de recomendações ou código de conduta para empresas e governos com responsabilidades por essas tecnologias.