OCDE lança quadro global para monitorizar Código de Conduta para a IA

OCDE lança quadro global para monitorizar a transparência e segurança na inteligência artificial.

Foto de Freepik

A Organização para a Cooperação e Desenvolvimento Económico (OCDE) anunciou o lançamento do primeiro quadro global que permitirá às empresas reportarem os seus esforços para garantir uma Inteligência Artificial (IA) segura, fiável e transparente. Esta iniciativa surge no âmbito do processo de Hiroshima sobre IA, desenvolvido durante a presidência japonesa do G7, e visa monitorizar a adoção do Código de Conduta Internacional por parte das organizações que desenvolvem sistemas de IA avançados.

O novo quadro permitirá que as empresas divulguem práticas comparáveis relacionadas com a gestão de riscos da IA, abrangendo aspetos como a avaliação de riscos associados ao desenvolvimento e utilização da IA. A iniciativa pretende aumentar a confiança do público e das instituições na IA, promovendo a responsabilidade e a transparência por parte das empresas tecnológicas.

Imagem de Wang Xi Na em Freepik

Principais Empresas de IA Apoiam a Iniciativa

Várias empresas líderes no desenvolvimento de sistemas de IA avançados participaram na fase piloto do projeto e comprometeram-se com a implementação do quadro, incluindo:

Amazon, Anthropic, Fujitsu, Google, KDDI CORPORATION, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce e Softbank Corp.

Para Mathias Cormann, Secretário-Geral da OCDE, a iniciativa “irá contribuir para o desenvolvimento, implementação e utilização responsável da IA, permitindo às empresas demonstrar o seu compromisso com a segurança, transparência e responsabilidade”.

Foto de rawpixel.com no Freepik

Governança Global e Interoperabilidade

O novo quadro da OCDE está alinhado com outros mecanismos internacionais de governação da IA, incluindo o Código de Conduta do Processo de Hiroshima. Este alinhamento visa garantir interoperabilidade entre as diferentes abordagens regulatórias, promovendo uma gestão global coesa dos riscos associados à IA.

As organizações que desenvolvem sistemas de IA avançados devem apresentar o seu relatório inaugural até 15 de abril de 2025. Após essa data, os relatórios serão submetidos continuamente, com atualizações anuais para garantir um acompanhamento contínuo das práticas adotadas.

Com esta iniciativa, a OCDE pretende reforçar o seu papel na definição de normas internacionais para a IA, promovendo um modelo de governação responsável e transparente, essencial para o avanço tecnológico sustentável.

DEIXE UMA RESPOSTA

Por favor escreva o seu comentário!
Por favor coloque o seu nome aqui

seven − four =