Saltar para: Post [1], Pesquisa e Arquivos [2]

Blogue RBE

Ter | 11.01.22

Estados-membros da UNESCO adotam o Acordo Mundial sobre Ética da Inteligência Artificial (IA)

2022-01-11.png

Este texto histórico estabelece valores e princípios comuns que irão orientar a construção da infraestrutura legal necessária para assegurar o desenvolvimento saudável da IA.

A IA é omnipresente, permitindo muitas das nossas rotinas diárias, desde reservar um voo, à condução de carros sem condutor, à personalização das nossas notícias da manhã, entre muitas outras ações. A IA também apoia a tomada de decisões pelos governos e pelo sector privado.

As tecnologias da IA estão a produzir resultados notáveis em campos altamente especializados, tais como a deteção do cancro e a construção de ambientes inclusivos para pessoas com deficiência. Pode também ajudar a combater problemas globais, como as alterações climáticas e a fome no mundo e a reduzir a pobreza através da otimização da ajuda económica.

Mas a tecnologia está também a trazer desafios sem precedentes. Assistimos diariamente a um aumento de preconceitos de género e étnicos, a ameaças significativas à privacidade, dignidade e capacidade de ação, aos perigos da vigilância em massa, e ao uso crescente de tecnologias de IA não fiáveis na aplicação da lei, só para referir alguns.

Até agora, não tem havido normas universais para resolver estes problemas.

Em 2018, Audrey Azoulay, Diretora-Geral da UNESCO, lançou um projeto ambicioso: providenciar um quadro ético para a utilização da inteligência artificial. Três anos mais tarde, graças à mobilização de centenas de peritos de todo o mundo e a intensas negociações internacionais, os 193 Estados-membros da UNESCO acabam de adotar oficialmente este quadro ético.

O conteúdo da Recomendação

A Recomendação visa a concretização dos benefícios que a IA traz à sociedade e a redução dos riscos que lhe estão associados. Assegura que as transformações digitais promovem os direitos humanos e contribuem para a realização dos Objetivos de Desenvolvimento Sustentável, abordando questões de transparência, responsabilidade e privacidade, com capítulos de políticas orientadas para a ação sobre governação de dados, educação, cultura, trabalho, cuidados de saúde e economia.

1. Proteção de dados

A Recomendação apela a ações para além do que as empresas tecnológicas e os governos fazem para garantir aos indivíduos uma maior proteção, assegurando a transparência, a capacitação e o controlo dos seus dados pessoais. Diz que todos os indivíduos devem poder aceder ou mesmo apagar os seus registos de dados pessoais. Inclui também ações para melhorar a proteção de dados e o conhecimento e o direito do indivíduo a controlar os seus próprios dados. Também aumenta a capacidade dos reguladores em todo o mundo para o fazer cumprir.

2. Proibição de marcadores sociais e vigilância em massa

A Recomendação proíbe explicitamente a utilização de sistemas de IA para a pontuação social e vigilância em massa. Tais tecnologias são altamente invasivas, violam os direitos humanos e as liberdades fundamentais e são amplamente utilizadas. A Recomendação salienta que, ao desenvolverem quadros regulamentares, os Estados-Membros devem ter em mente que a responsabilidade final e a responsabilização devem sempre caber aos seres humanos e que as tecnologias de IA não devem ser dotadas de personalidade jurídica por si próprias.

3. Ajudar a monitorizar e avaliar

A Recomendação lança as bases para ferramentas que ajudarão à sua implementação. A Avaliação de Impacto Ético visa ajudar os países e empresas que desenvolvem e implantam sistemas de IA a avaliar o impacto destes sistemas nas pessoas, na sociedade e no ambiente. A metodologia Readiness Assessment ajuda os Estados-Membros a avaliar o seu grau de preparação em termos de infraestruturas jurídicas e técnicas. Este instrumento ajudará a melhorar a capacidade institucional dos países e a recomendar medidas apropriadas a serem tomadas para assegurar a implementação da ética na prática. Além disso, a Recomendação encoraja os Estados-Membros a considerarem a possibilidade de acrescentar o papel de um responsável de ética independente de IA ou de algum outro mecanismo para supervisionar os esforços de auditoria e monitorização em curso.

4. Proteção do ambiente

A Recomendação salienta que os agentes da IA devem favorecer métodos de IA eficientes em termos de dados, energia e recursos que ajudem a garantir que esta se torne uma ferramenta mais relevante no combate às alterações climáticas e na resolução dos problemas ambientais. A Recomendação apela aos governos para que avaliem o impacto ambiental direto e indireto ao longo de todo o ciclo de vida do sistema de IA. Isto inclui a sua pegada de carbono, o consumo de energia e o impacto ambiental da extração de matérias-primas para apoiar o fabrico de tecnologias de IA. Visa igualmente reduzir o impacto ambiental dos sistemas de IA e das infraestruturas de dados. Encoraja os governos a investir em tecnologia verde, e se houver um impacto negativo desproporcionado dos sistemas de IA no ambiente, a Recomendação instrui que estes não devem ser utilizados.

Conclusão

Tecnologias emergentes como a IA têm demonstrado a sua imensa capacidade de fazer o bem. No entanto, os seus impactos negativos, que estão a agravar um mundo já dividido e desigual, têm que ser geridos. A evolução da AI deve respeitar o Estado de direito, prevenir danos e assegurar que, sempre que estes ocorram , existam mecanismos de responsabilização e reparação aos afetados....

Referências

  1. UNESCO (2021) Recommendation on the ethics of artificial intelligence. https://en.unesco.org/artificial-intelligence/ethics#recommendation
  2. Grupo REDEM: Red Educativa Mundial (2021). Los Estados Miembros de la UNESCO adoptan el primer acuerdo mundial sobre la ética de la inteligencia artificial. https://www.alfabetizaciondigital.redem.org/quienes-somos/
  3. Portugal. Comissão Nacional da UNESCO (2021) Acordo Mundial sobre a Ética da Inteligência Artificial. https://unescoportugal.mne.gov.pt/pt/noticias/acordo-mundial-sobre-a-etica-da-inteligencia-artificial

_____________________________________________________________________________________________________________________