close

Inteligência artificial: história, transformações e regulamentação no Brasil

Análise macroeconômica do Banco Safra trata dos impactos da inteligência artificial e explica a regulamentação prevista no Projeto de Lei 2338

Inteligência Artificial

Inteligência artificial cresce de forma exponencial em inúmeras áreas da economia e desafia legisladores sobre regras para regulamentar o mercado | Foto: Getty Images

O termo Inteligência Artificial surgiu em 1956 para descrever programas que aplicassem a lógica a problemas gerais, em contraste com programas voltados a solucionar problemas específicos. Logo a definição evoluiu para abranger a inteligência vista como resultado de um processo de analogias. O fundamento da inteligência é o processamento de sinais por uma rede pela qual esses vão passando e sendo transformados conforme o resultado da soma dos sinais recebidos das etapas anteriores, adquirindo valor unitário se essa soma for maior que certo valor, e zero ao contrário. A dependência dos resultados das conexões anteriores é que dá o caráter “neural” à rede. Para essa rede dar resultados interessantes, ela tem que ter várias camadas (layers), dando-lhe profundidade, o que só foi bem entendido depois de muitos anos, originando o conceito de aprendizado profundo (“deep” learning).

A Inteligência Artificial (IA) tem os atributos de um exercício estatístico, em que se procura reconhecer o padrão de comportamento de um conjunto de parâmetros e resultados, minimizando a soma dos erros (e.g., quadráticos) da previsão desses resultados a partir da aplicação desses parâmetros a uma fórmula. Em uma regressão, pode-se ter, por exemplo, uma equação linear e se estima o valor dos coeficientes dessa fórmula que minimizam a distância entre observações e predições segundo alguma métrica. A “fórmula” presente na IA vai surgindo através de tentativa e erro, no processo conhecido como treinamento da rede, em que o processo decisório inicial vai sendo ajustado reiteradamente para diminuir a soma desses erros.

Saiba mais

Como a fórmula não é inicialmente estruturado, a quantidade de tentativas, ou a extensão do treinamento tem que ser muito grande para ela convergir para algo estável. Por isso, a IA só se tornou operacional recentemente, quando foi possível alimentar as redes com grande quantidade de dados. De fato, quando o número de pares chega a valores de milhões, a precisão da inferência começa a dar saltos, tornando o mecanismo útil na vida diária.

Uma das primeiras evidências de sucesso do “treinamento” de redes se deu nos anos 90, quando computadores começaram a reconhecer algarismos manuscritos em cheques ou em envelopes de carta. O sinal definitivo de que essa abordagem de redes profundas tinha grande potencial veio em 2012 quando a aplicação dessas técnicas teve extraordinário sucesso em um concurso de reconhecimento de imagens, deixando técnicas alternativas para trás.

No caso de aplicações de IA para decisões, os resultados dependem não só da precisão da inferência (estatística), mas também de algoritmos que pesem os custos de decisões “erradas”, levando as fórmulas (que nem sempre são recuperáveis ou evidentes) a minimizar o arrependimento ao se fazer a decisão. As fontes das informações para “treinar” as redes e a ponderação dos erros para chegar à convergência da inferência tem grande impacto sobre o resultado das aplicações da IA e podem ser causa de viés em decisões baseadas nesses resultados.

Nos anos recentes o crescimento da IA tem sido mais do que exponencial, alcançando inúmeras áreas da sociedade, como da saúde, com sistemas capazes de identificar doenças de forma rápida e precisa, e a de
telecomunicação, com ferramentas capazes de criar imagens e textos com apenas poucos cliques.

A revolução da inteligência artificial e a chegada do Chat-GPT

Um novo salto na tecnologia de inteligência artificial foi alcançado quando o conceito de “transformador” se tornou conhecido, alterando a forma com que as relações entre, por exemplo, palavras em uma frase são inferidas. Esse poderoso conceito aumentou drasticamente a eficiência da escolha das relações relevantes (focando a “atenção” do sistema) e está na base dos programas de linguagem capazes de criar frases a partir de uma pergunta, conhecidos genericamente como conversas geradas a partir de transformadores pré-treinados (chat generative pre-training transformers), Chat-GPT.

Lançado em 2022, o Chat-GPT “traduz a pergunta” e estima a melhor resposta baseado em milhões (ou bilhões) de frases armazenadas na sua memória. Essa estimativa pode ser rápida porque parte da avaliação das frases mais relevantes foi feita previamente, como refletido na denominação de “pré-treinado” – ou seja, ainda que originalmente consultando “toda” a internet, o Chat-GPT já guarda informações de maneira filtrada, e responde às perguntas consultando uma biblioteca otimizada, escolhendo quando acionado as respostas que parecem mais relevantes para a questão proposta. Assim, versões do Chat-GPT com sua própria biblioteca otimizada podem até ser baixadas e usadas de maneira privativa, sem necessidade de depender da “nuvem”.

A versatilidade e poder das ferramentas de IA e notadamente dos GPTs abre um novo horizonte para sua aplicação, com grande impacto potencial na economia e nas relações humanas. Depois de treinada com base em certo conjunto de dados, uma aplicação de IA tem grande autonomia de fazer escolhas e determinar resultados na interpretação de sintomas ou comportamentos, características de candidatos a uma vaga de emprego etc. poder de criar imagens ou sons muito próximos a originais verdadeiros, mas sutilmente modificados para se adequar à demanda feita ao algoritmo, torna cada vez mais difícil distinguir o verdadeiro do falso, criando as situações de “deep fake”, ou seja, a burla obtida a partir de uma rede neural profunda.

A possibilidade de se delegar decisões com grande impacto na vida humana a esses sistemas ou de se produzir material de grande poder sugestivo e de difícil verificação de veracidade criam riscos ao bem estar individual, às relações de trabalho e à sociedade. Parte daí o desejo de se regular o desenvolvimento e a implementação desse tipo de sistema e suas aplicações, sem impedir seu desenvolvimento e contribuição ao aumento da produtividade da economia doméstica e global. Isso começa a ser feito em várias jurisdições e motivou um Projeto de Lei proposto recentemente pelo Presidente do Senado brasileiro, Senador Rodrigo Pacheco.

O Projeto de Lei 2338 de 2023 e a inovação tecnológica da IA

No Brasil, o tratamento dos riscos da IA complementa outras ações de proteção dos direitos individuais e da privacidade, notadamente a Lei Geral de Proteção de Dados (LGPD), e leva em consideração que muitas
das ações ou os resultados da IA são imprevisíveis. Por isso, o Projeto de Lei nº 2338 de 2023 (PL 2338/2023) busca equilibrar a proteção dos direitos e liberdades fundamentais das pessoas, a valorização do trabalho e da dignidade humana com a inovação tecnológica representada pela IA.

Partindo da visão de que não há necessariamente um conflito intrínseco entre a proteção dos direitos e a inovação econômica, o projeto busca harmonizar esses interesses de acordo com a Constituição Federal, procurando regular as aplicações da IA sem impedir a inovação em geral.

Como explicitado na justificação do PL, o projeto procura atingir seus objetivos por dois caminhos. Primeiro, estabelecer direitos para proteger as partes afetadas pela inteligência artificial. Segundo, criar uma estrutura de governança e supervisão para fornecedores e operadores de IA que garanta segurança jurídica para a inovação e desenvolvimento tecnológico.

No que tange aos direitos, o PL estabelece um instrumental jurídico visando garantir a:

  • isonomia e transparência dos algoritmos utilizados;
  • possibilidade de contestação de decisões, com solicitação de interferência humana; e
  • correção de vieses discriminatórios e alteração de dados sensíveis em conformidade com a LGPD.

De fato, o PL deixa claro já no seu Art. 2º que o desenvolvimento, a implementação e o uso de sistemas de IA no Brasil têm como fundamentos a centralidade da pessoa humana; o respeito aos direitos humanos e aos valores democráticos; o livre desenvolvimento da personalidade, com atenção para os jovens; a igualdade, a não discriminação, a pluralidade e o respeito aos direitos trabalhistas. Além disso, o crescimento da IA se fundamenta na inovação, livre iniciativa, livre concorrência e a defesa do consumidor, com proteção da privacidade, dos dados e da autodeterminação informativa.

O Artigo 3º do PL complementa os fundamentos ao elencar os princípios a serem seguidos pela aplicação da IA, como a participação humana no ciclo da inteligência artificial e supervisão humana efetiva; justiça, equidade e inclusão; e transparência, explicabilidade, inteligibilidade e auditabilidade, além da rastreabilidade das decisões durante o ciclo de vida dos sistemas como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou jurídica. Esse último princípio é fundamental para garantir a governança dos sistemas. O PL 2338/2023 de fato lista em seu Capítulo II os tipos de direitos detidos pelas pessoas afetadas pela IA e estabelece regras claras para os agentes de inteligência artificial em suas atividades.

Entre os direitos encontrados no Capítulo II do PL e suas seções estão aqueles associados à informação e compreensão das decisões tomadas por sistemas de IA; direito de contestar decisões e de solicitar intervenção humana e, por fim, direito à não-discriminação e à correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos. Especificamente, o Art. 8º estabelece que a pessoa afetada pela IA poderá solicitar explicação sobre a decisão, previsão ou recomendação feita pelo sistema, com informações a respeito dos critérios e dos procedimentos utilizados, assim como sobre os principais fatores que afetam tal previsão ou decisão específica. Ou seja, como o sistema foi “treinado”.

Para garantir o cumprimento daqueles direitos, o PL estabelece regras a serem seguidas pelos agentes responsáveis pelo fornecimento e operação de sistema de IA. Essas regras abrangem questões de comunicação com os usuários e questões técnicas de seus modelos. Pelo PL, são de responsabilidade dos agentes:

  • Informar previamente as partes afetadas quanto às suas interações com sistemas de IA, corrigindo
    dados incompletos ou desatualizados de clientes;
  • Garantir a privacidade dos dados utilizados e a correção de vieses discriminatórios em seus modelos;
  • Oferecer tratamento adequado a grupos vulneráveis, disponibilizando métricas de assertividade; e
  • Oferecer alternativas eficazes aos modelos ou opções de revisão humana.

O PL modula os cuidados em função das finalidades de inteligência artificial e os riscos que elas trazem. No seu Capítulo III, o PL destaca categorias que trazem “Risco Excessivo” ou “Alto Risco”, dependendo do impacto que atividade tenha sobre a vida de seus usuários. Para estes casos, os agentes responsáveis pela IA (fornecedores ou operadores) responderão objetivamente pelos danos causados, na medida de sua participação no dano, cabendo à autoridade competente a aplicação de multas proporcionais e categorização correta dos riscos. O Artigo 14º estabelece como “Risco Excessivo” ações em que a IA pode induzir comportamentos
prejudiciais às pessoas ou que se aproveite de vulnerabilidades de grupos específicos.

O artigo proíbe práticas maliciosas que prejudiquem as pessoas, enquanto o Art. 15º estabelece que o uso de IA como ferramenta de segurança pública exige autorização legal.

O Artigo 17º do PL indica que importantes aplicações da IA são de “Alto Risco”. É o caso da gestão de pessoal e da saúde, finanças, segurança pública, entre outras. A aplicação da IA nestes casos exige medidas específicas de governança, tais como gestão de dados adequada, supervisão humana e testes estatísticos de robustez que garantam maior segurança e confiabilidade nos resultados obtidos (Art. 20º).

‘Cercadinho’ regulatório

O PL na sua forma atual é bastante rigoroso na responsabilização civil dos desenvolvedores e operadores de sistemas de IA (Capítulo V), estabelecendo, inter alia que o fornecedor ou operador de sistema de IA que cause dano patrimonial, moral, individual ou coletivo é obrigado a repará-lo integralmente, independentemente do grau de autonomia do sistema (Art. 27º). Ele também prevê no Art. 31º (Capítulo VII) que haja comunicação às autoridades de incidentes graves decorrentes da aplicação de IA. Em contrapartida, o PL prevê uma abordagem que tem tido grande aceitação como forma de promover de maneira segura o desenvolvimento e avaliação de novas tecnologias, o chamado “sandbox” (ou “cercadinho”) regulatório.

O “sandbox” cria um ambiente isolado e seguro para testes de novas aplicações (seção III do Capítulo VIII do PL), permitindo que empresas e desenvolvedores testem novas tecnologias de IA em um ambiente controlado que salvaguarde os direitos das pessoas. A autorização de participação nestes ambientes experimentais pela autoridade competente se dará, conforme o Art. 39º, por critérios de inovação no emprego da tecnologia, ganho de eficiência, diminuição de riscos, e benefícios à sociedade, entre outros.

O PL também prevê nos Artigos 26º e 43º que a regulação deverá respeitar o direito de propriedade, estabelecendo ainda no Art. 42º as circunstâncias de uso dos dados sem infringência aos direitos autorais.

Esse respeito é fundamental na medida em que a IA moldar as relações socioeconômicas, exigindo uma regulamentação dinâmica e que não tolha ou invada os direitos comerciais, industriais e de propriedade intelectual dos desenvolvedores das expressões dessa tecnologia, mas proteja as pessoas dos efeitos das ações baseadas na IA.

Finalmente, o Capítulo VIII prevê toda uma estrutura de supervisão e fiscalização, que remete a exigências relativas ao desenvolvimento, treinamento e comportamento dos sistemas. Ainda que detalhada, essa estrutura deixa decisões como a natureza das “autoridades competentes” para a regulamentação por decreto, ou novas leis no caso delas vierem a exigir a criação de órgãos específicos. Como não adianta fiscalização sem sanções, há ainda uma seção sobre essas, com bastante detalhes.

No conjunto o PL proporciona um arcabouço para a regulação desse novo setor. Ele procura ser abrangente e manter uma coerência interna, com clareza de propósitos, que são a proteção das pessoas e a criação de
mecanismos que promovam a inovação de maneira segura. Como enfatizado pelo seu propositor, o PL provavelmente não encontrou ainda a sua forma definitiva, sendo um de seus grandes méritos proporcionar uma estrutura concreta para que se discutam os cuidados necessários para a regulamentação do tema equilibrando direitos e dando espaço à inovação responsável.

Pode-se questionar, por exemplo, a viabilidade da avaliação minuciosa do “impacto algorítmico” por parte de desenvolvedores e operadores, dadas as complexidades e eventual imprevisibilidade dos resultados da IA. A essa “viabilidade” contrapõe se, evidentemente, a responsabilidade pela aplicação de ferramentas que afetem de maneira imprevisível as relações humanas.

Será, portanto, a participação da sociedade e as contribuições trazidas por ela, inclusive através de especialistas em tecnologia e ética, que levarão o País a um arcabouço final que atenda às suas necessidades, considerando com destaque a diversidade de nosso povo e o lugar fundamental dos direitos humanos e da democracia na nossa organização social.

Íntegra do relatório macroeconômico semanal do Banco Safra.

Abra sua conta no Banco Safra.

Assine o Safra Report, nossa newsletter mensal

Receba gratuitamente em seu email as informações mais relevantes para ajudar a construir seu patrimônio

Invista com os especialistas do Safra