O primeiro capítulo do AI Act define o seu âmbito de aplicação, objetivos e princípios gerais, incluindo a necessidade de garantir um nível adequado de literacia digital. Este aspeto é essencial para que as organizações compreendam os riscos e limitações das tecnologias de IA, promovendo um uso responsável e transparente.
O segundo capítulo foca-se nas práticas proibidas de IA, ou seja, sistemas cujo impacto é considerado inaceitável para os direitos fundamentais. Isto inclui manipulação cognitiva que prejudique o livre arbítrio, sistemas de classificação social e a utilização de IA para vigilância biométrica em espaços públicos sem justificação legal adequada.
Relativamente aos sistemas proibidos existem alguma excepções tais como ouso para finalidades militares e defesa nacional, cooperação policial e judiciária internacional, Investigação e desenvolvimento científico e actividades puramente pessoais sem cariz profissional.
Com estas regras, as organizações que utilizam IA precisam de garantir que os seus sistemas não violam as práticas proibidas. Além disso, devem investir na formação dos seus colaboradores para assegurar um nível adequado de literacia digital. Empresas que implementam IA sem esta preparação correm o risco de violações regulatórias, penalizações e danos reputacionais.
A literacia digital passa a ser um fator crítico para a conformidade, especialmente para decisores e equipas que lidam com tecnologia, segurança da informação e proteção de dados. A compreensão das capacidades e limites da IA é fundamental para evitar erros que possam levar a práticas proibidas.
Perante a entrada em vigor destes requisitos as chefias enfrentam dois desafios imediatos e um de curto prazo:
Apesar de somente a partir de 2 de Agostos de 2025 as entidades estarem sujeitas à aplicação das coimas, nada impede que não existam já acções de supervisão e onde o incumprimento das disposições dos Capítulos 1 e 2 do AI Act, se identificada pode resultar em sanções significativas para as empresas.
Especificamente, a desconformidade com o AI Act estabelecida no Capítulo 2 pode levar a multas de até 35 milhões de euros ou 7% do volume de negócios anual global da empresa, prevalecendo o valor mais elevado.
A partir de 2 de agosto de 2025, as autoridades competentes dos Estados-Membros terão poderes regulatórios para aplicar estas sanções e garantir o cumprimento do AI Act.
O cumprimento do regulamento do IA não é um assunto para mais tarde, é sim um tema de discussão para o imediato e as empresas não devem simplesmente “empurrar com a barriga” o assunto para a frente, correndo estas riscos que vão muito para além da simples sanção monetária. Os riscos reputacionais, divulgação de dados corporativos sem controlo nestas ferramentas, a proliferação de dados pessoais nas mesmas bem como eventuais perdas financeiras e de negócio são já desafios bem reais do dia-a-dia e do imediato que as empresas devem mitigar já.
A unidade de RGPD e Consultoria AI Act da Crowe apoia as empresas na adaptação à nova legislação, oferecendo:
O Hub4DPO, software desenvolvido pela Crowe para a área da conformidade RGPD, ajuda a simplificar a gestão da conformidade com o AI Act, permitindo monitorizar riscos, documentar processos, evidenciar a sensibilização dos colaboradores e garantir a transparência na utilização da IA.
Com estas soluções, as empresas podem encarar as novas regras como uma oportunidade para fortalecer a segurança e a responsabilidade na adoção de inteligência artificial.
Se ainda não sabe como reagir a estas novas obrigações regulamentares, contacte um dos nossos profissionais e marque uma reunião de esclarecimento.
Artigos sugeridos
Contactos