A legislação recentemente aprovada no Parlamento Europeu é o primeiro quadro jurídico a nível global para regulamentar a tecnologia
A União Europeia (UE) introduziu recentemente um regulamento pioneiro sobre Inteligência Artificial (IA), tornando obrigatório para as empresas reforçarem as normas de IA que utilizam. Sendo o primeiro quadro jurídico a nível global para regulamentar esta tecnologia, a sua correta implementação depende da compreensão do funcionamento dos mecanismos de governação, podendo ser difícil entender a multiplicidade de instrumentos e leis que vão emergindo e estão em constante atualização.
De acordo com o artigo “Putting AI Standards into Action”, desenvolvido pela Boston Consulting Group (BCG) em parceria com o Responsible AI Institute (RAI Institute), as organizações devem começar por definir objetivos concretos para a utilização da IA, identificando lacunas, adotando normas já conhecidas e em uso, e participando nos processos de desenvolvimento de novas regras para a tecnologia, de modo a se adaptarem e reforçarem a confiança ao mesmo tempo que reduzem riscos.
“Os padrões que têm sido estabelecidos sobre IA estão a ser encarados como um mecanismo para os líderes empresariais se posicionarem como pioneiros na sua adoção e demonstrarem conformidade com as normas aos clientes, parceiros, reguladores e outras partes interessadas”, afirma Steve Mills, Managing Director & Partner da BCG em Washington DC e Chefe Global de Ética de IA da consultora. “Ao contribuir para o desenvolvimento de padrões de IA, os executivos podem ajudar a moldar o cenário global de governação da tecnologia, com contributos singulares das suas organizações, tendo uma visão antecipada das melhores práticas e desafios emergentes”.
Após a entrada em vigor do regulamento, as empresas europeias têm um prazo máximo de seis meses para eliminar os casos de uso proibido da IA, de 12 meses para cumprir as regras relativas à utilização desta tecnologia para fins gerais e de dois anos para estarem totalmente em conformidade com o regulamento de Inteligência Artificial.
Neste contexto, a Boston Consulting Group (BCG) e o Responsible AI Institute (RAI Institute) oferecem recomendações cruciais para as empresas se adaptarem à nova legislação, promovendo a IA responsável e a conformidade regulatória.
1. Definir Objetivos Concretos
As empresas devem estabelecer metas claras para a utilização da IA, alinhadas com as melhores práticas globais e os requisitos regulatórios. Estes objetivos ajudam a moldar o cenário global de governação da tecnologia e a garantir a conformidade regulatória.
2. Selecionar Normas de IA Bem Estabelecidas
Concentre-se em normas já reconhecidas e utilizadas, facilitando a sua incorporação por fornecedores, clientes e organizações governamentais. Normas certificáveis e auditáveis são particularmente vantajosas para garantir uma adoção e monitorização eficazes.
3. Criar um Inventário das Normas Utilizadas
Identifique áreas de especialização onde a IA já é aplicada, como a cibersegurança e a proteção de dados, para fundamentar a adoção de novas normas. Este inventário ajuda a mapear lacunas e a priorizar ações para garantir a conformidade.
4. Analisar Lacunas e Traçar um Caminho a Seguir
Mapeie as normas selecionadas para os processos internos existentes, identifique lacunas e priorize ações com base nos objetivos predefinidos. Crie um roteiro claro para alcançar a conformidade, envolvendo líderes seniores e comités dedicados.
5. Envolvimento em Processos de Desenvolvimento de Normas
Conheça as melhores práticas da indústria e participe ativamente no desenvolvimento de normas de IA, contribuindo com conhecimento e experiência para moldar o panorama de governação da tecnologia.
A conformidade com as normas de IA não é apenas uma obrigação regulatória, mas também uma oportunidade para as empresas demonstrarem liderança e responsabilidade na utilização desta tecnologia inovadora.