h

IA: como mitigar riscos e fortalecer a confiança diante de um vácuo regulatório?

Por Pedro Soares Galvão

Coautora: Ana Silvia Martins*

 

A Inteligência Artificial não é uma novidade. Foi Alan Turing, na década de 1950, que estabeleceu o enquadramento teórico da IA e criou os primeiros programas de computador inteligentes. Entretanto, nos 70 anos de desenvolvimento, a inteligência artificial passou por três estágios: programação baseada em regras, programação baseada em conhecimento e, por fim, aprendizado a partir de dados liderada pelo trinômio: ‘big data + poder computacional maciço + algoritmos poderosos’.

Nas últimas duas décadas, a IA – especificamente de aprendizagem automática – impulsionou um vasto número de tecnologias, algoritmos de recomendação, drones, carros autônomos e sistemas de reconhecimento facial. No entanto, novas discussões surgiram com o recente aumento da popularidade e acessibilidade de novos chatbots, geradores de imagens e outros modelos de grande linguagem – também conhecidos como “IA generativa”.

Referidos modelos já são uma realidade e os potenciais benefícios da IA são inegáveis, da mesma forma que seus riscos. No centro destes debates está um dilema fundamental: como aproveitar o enorme potencial da IA minimizando os seus riscos?

Embora inúmeros países – incluindo Brasil, EUA e outros do bloco econômico da EU – estejam discutindo propostas de leis para regulamentação do uso da inteligência artificial para mitigação de riscos e sua utilização responsável, é fato que a IA já é uma realidade.

Um recente estudo publicado pela Salesforce destacou que mais da metade dos colaboradores utilizam ferramentas de IA generativa sem orientação ou aprovação da empresa. É inegável que IA generativa pode auxiliar no ganho de produtividade, análise massiva de dados, identificação de padrões, aprimoramento de processos de geração de ideias e conteúdo estratégico, dentre outros.

Assim, é imperativo que as empresas respondam com diretrizes claras para garantir que a tecnologia seja utilizada de forma responsável. Entretanto, como estabelecer regras claras sendo que até o momento, no Brasil, não temos uma legislação em vigor? Como conciliar o atual cenário atual em que a IA é uma realidade, porém, temos ainda projetos de lei sendo discutidos?

É certo que toda estratégia depende do contexto em que a empresa está inserida, se é meramente usuária de tecnologias de IA ou fornecedora de sistemas de Inteligência Artificial. No entanto, é essencial que em ambos os casos a organização estabeleça, desde já, medidas para mitigar os riscos éticos, reputacionais e comprometer-se com a utilização responsável da IA.

Mesmo diante de um vácuo regulatório, estabelecer uma governança permite que as empresas definam balizas de acordos com os princípios éticos para o uso e desenvolvimento de tecnologias de IA, já estabelecidos na LGPD, Código Civil e Código de Defesa do Consumidor.

Como toda governança, o “tone at the top” é fundamental. Desta feita, o C-level deve de forma estruturada e contínua estabelecer uma cultura organizacional que apoie esforços de IA entre gestores, funcionários, fornecedores e outros parceiros comerciais, incluindo a prestação de contas para identificar e corrigir potenciais falhas em seus programas.

Para as organizações construírem referida cultura organizacional e para que esta esteja alinhada às estratégias, é imprescindível ter um panorama geral sobre usos e desenvolvimento de tecnologias de IA. Desta forma, é necessário efetuar o mapeamento de todos os sistemas da organização que utilizam IA e na sequência identificar e avaliar os riscos associados ao uso da IA, tais como: impactos na privacidade e proteção de dados, vieses, aspectos de segurança, dentre outros.

No tocante aos riscos, como qualquer atividade estes são inerentes. Assim, o objetivo não é evitar todas as ameaças relacionados com a IA, mas desenvolver processos e ferramentas capazes de darem conforto às empresas de que estes riscos podem ser efetivamente identificados e geridos dentro dos limites estabelecidos pela cultura e apetite de risco da empresa.

Nesse sentido, estabelecer e organizar um planejamento para um programa de Inteligência Artificial nas empresas torna-se essencial em meio as regulações e discussões globais sobre o tema. O programa deve seguir fases para uma efetiva governança. Assim, inicia-se através da avaliação do contexto da organização com a delimitação de objetivos e princípios claros, seguidos do mapeamento e elaboração de plano para mitigação de riscos realizados por uma equipe multidisciplinar.

Além disso, uma boa governança também define políticas e diretrizes, delimita processos da tomada de decisão, mecanismos de auditoria e monitoramento, garantindo confiabilidade e segurança jurídica para os stakeholders. Dessa forma, mesmo num vácuo regulatório, as empresas já podem traçar planos de mitigação de riscos para com a Inteligência Artificial.

Importante destacar que mais do que estar compliant com leis e regulamentos ainda vindouros, ter uma governança estabelecida pode fortalecer a confiança e, consequentemente, a reputação da empresa – auxiliando a diferenciá-la no mercado.

Além disso, quando pensamos em governança, é essencial termos em foco as pessoas. Assim, construir uma cultura sólida entre os colaboradores é crucial para promover uma governança eficaz e a mitigação de riscos relacionados à IA nas organizações através de treinamento e comunicação aberta. Os colaboradores devem ser educados e capacitados sobre os princípios da IA ética, os riscos associados ao seu uso e as melhores práticas para sua implementação e uso responsável para que assim, promovam uma mentalidade de colaboração e vigilância coletiva na identificação e resolução de potenciais problemas éticos ou de segurança.

Uma governança de IA sólida é um pilar fundamental para o desenvolvimento e aplicação ética da IA. Ao estabelecer processos orientados por objetivos claros, a governança cria uma rede de proteção através de cultura organizacional forte, processos claros, políticas e treinamentos, que impulsiona o crescimento das organizações e cria confiança da sociedade na adoção responsável da tecnologia.

Fontes:

Huang Tiejun, presidente do Instituto de Pesquisa em Inteligência Artificial de Pequim.

Como criar uma governança de inteligência artificial na minha empresa. Disponível em <https://baptistaluz.com.br/como-criar-uma-governanca-de-inteligencia-artificial-na-minha-empresa/> acesso em 13 mar. 2024.

Mais da metade dos usuários de IA generativa usam ferramentas não aprovadas no trabalho. Disponível em <https://www.salesforce.com/news/stories/ai-at-work-research/> acesso em 13 mar. 2024.

*Coautora: Ana Silvia Martins:

Ana Silvia Martins é gerente de consultoria privacidade e proteção de dados na Deloitte, possui larga experiência em contratos, propriedade industrial e intelectual, com enfoque no Direito Digital. Também possui certificações CDPO/BR e CIPM pela IAPP (International Association of Privacy Professionals).

Compartilhe:

Mais Posts

Envie-nos uma mensagem