Inteligência Artificial – Uma abordagem legal e tecnológica

A Inteligência Artificial tornou-se omnipresente, nos últimos tempos.
22 de Janeiro, 2024

Com o advento de ferramentas como o ChatGPT e o Bard, a tecnologia que tem vindo a ser desenvolvida longe dos holofotes e em alguns meios mais ou menos circunspectos tornou-se mainstream. E com a expansão e abertura começam a tornar-se mais evidentes os desafios de ordem legal.

  1. Enquadramento do impacto da Inteligência Artificial 

Podemos dizer de forma mais ou menos unânime que o desenvolvimento e expansão da Inteligência Artificial levará a Humanidade a uma Revolução Industrial dos tempos modernos. 

E tal como na Revolução Industrial, as visões a respeito do impacto de uma maior automação em detrimento do trabalho manual, ou mais analógico no nosso caso, conduzem sempre à discussão se a tecnologia causa desemprego e como consequência diminuição de qualidade de vida, ou se pelo contrário, ainda que causando algum desemprego imediato, conduz a melhores condições de vida, resultado da requalificação de trabalhadores. 

No caso da Revolução Industrial, foi demonstrado já que a automação resultou num aumento de produtividade e eficiência, e como consequência melhoraram as condições de vida em termos gerais, e subiram os salários médios. A acrescer, por força de um período de readaptação de competências foram também desenvolvidos os primeiros enquadramentos regulatórios laborais. 

É crer da autora que não será diferente no tocante à Inteligência Artificial, opinião de resto partilhada pela International Labour Organization

Considerações à parte podemos descrever em termos macro o impacto da Inteligência Artificial como Impacto em 3 Vs; Volume, Variedade, Velocidade.

Volume, quando falamos de mais dados a ser analisados de forma mais completa, poderosa e granular. 

Um exemplo claro deste impacto é a aplicação de Inteligência Artificial num contact center

Uma ferramenta de IA consegue analisar 100% das chamadas realizadas em near real time. No mesmo contact center, antes da implementação de IA eram analisadas apenas 5% das chamadas, e ou com recurso a um auditor de qualidade a fazer shadowing do operador, o que implicava uma duplicação de recursos para garantir a qualidade das chamadas. Em alternativa as chamadas eram auditadas posteriormente, não havendo, portanto, intervenção do auditor caso a qualidade da chamada estivesse em causa. 

Variedade, na medida em que a Inteligência Artificial adiciona camadas de previsão e correlações impossíveis de conseguir de outro modo. 

Demostrado por exemplo num use case de aplicação de analítica preditiva para a gestão de uma unidade de cuidados intensivos neo-natal, ou ainda no caso de a aplicação de Machine Learning à investigação genómica.

Velocidade, uma vez que o tempo de processamento de uma máquina de IA é incomparavelmente menor que o equivalente em termos de processamento humano. 

Particularmente interessante é a demonstração de utilização de Inteligência Artificial em situações em que a velocidade de reacção é critica, como no caso da prevenção ou gestão de um cenário de incêndio activo, em que cada segundo conta e uma má decisão pode implicar perdas humanas. 

Podemos, portanto, traduzir esta lógica dos 3Vs de Impacto como um aumento de eficiência e rigor resultado da aplicação de ferramentas de Inteligência Artificial. Fazendo-se as devidas ressalvas de variação de resultados conforme a maturidade e qualidade das soluções implementadas, existência de datasets de qualidade, sector de aplicação, que afectarão sempre as taxas de sucesso obtidas. 

Apesar da enorme promessa, enquanto profissionais de Inteligência Artificial, defendemos a utilização e desenvolvimento da tecnologia, mas nem por isso deixamos de considerar a visão mais conservadora e de prevenção de potenciais riscos da utilização de IA. 

É neste sentido que um olhar crítico e responsável sobre a tecnologia e os seus desafios se torna essencial. 

  1. O âmbito regulatório – e a falta de uma abordagem prática

Apesar da imensa promessa da Inteligência Artificial, tem vindo a existir pressão para o desenvolvimento de legislação no sentido de regular o seu desenvolvimento e aplicação. 

Mesmo dentro da indústria, existe quem defenda que os riscos de utilização da tecnologia determinam a necessidade de um posicionamento forte regulatório, ainda que não exista grande definição do que isto quer dizer. 

De um ponto de vista prático, uma vez que estamos perante uma nova tecnologia, terão de ser criadas normas, entidades regulatórias e desenvolvido conhecimento a respeito da tecnologia e das suas aplicações, que francamente nos parece complicado concretizar, nem que seja pelo enorme fosso de conhecimento entre quem desenvolve a tecnologia, e aqueles que em tese teriam a função de a regular e supervisionar. 

Ainda assim têm vindo a ser desenvolvidas estruturas regulatórias que avançam um conjunto de princípios genéricos a que teoricamente o desenvolvimento da tecnologia deve obedecer. 

Facto é que não existe grande evidência dos supostos malefícios de utilização da tecnologia, mas antes muitas visões divergentes do impacto que poderá ter.

Há quem defenda que a existência de uma Artificial General Intelligence (AGI) se aproximaria mais da ideia cyber punk de robots que tomam conta do mundo e substituem os seres humanos.

 E de outro lado, há quem defenda que a  AGI nos conduziria a uma realidade utópica, em que a Inteligência Artificial não afectada por defeitos de carácter humanos nos conduziria a uma espécie de Éden Tecnológico.

Facto é que nos últimos anos têm vindo a ser apresentados por vários países ensaios legislativos com a pretensão de criar um sistema em que a Inteligência Artificial é desenvolvida de modo seguro.

O primeiro país a apresentar uma framework legislativa aplicável à Inteligência Artificial foi Singapura, o Singapore – Model Artificial Intelligence Governance Framework (Model Framework), em 2019. De todos os textos regulatórios, este apresenta a abordagem mais pragmática e na nossa opinião eficaz. 

Para além de avançar um conjunto de princípios, apresenta boas práticas e sugestões detalhadas e facilmente implementáveis por empresas e particulares, baseadas em casos concretos de aplicação, podem e devem ser utilizados como guiões para a aplicação e desenvolvimento de IA. 

Em 2020 foi apresentada a segunda versão da Model Framework, onde inclusivamente se descrevem use cases e se explica o racional que atende a que um determinado caso seja considerado uma boa prática. 

Muito diferentes, e muito menos concretos, têm sido os esforços regulatórios da Europa, Estados Unidos e Canadá.

Em Abril de 2021 a Europa apresentou o Artificial Intelligence Act (AIA) a primeira proposta de regulação de IA, maioritariamente focada no tipo de utilização onde a tecnologia é aplicada, e no risco potencial que a utilização represente. Dividida em 4 níveis e respeitando princípios de transparência, segurança, auditabilidade, não discriminação, devendo os sistemas ser supervisionados por humanos, em vez de completamente automáticos, para prevenir outputs nocivos. 

Começamos desde logo por ser confrontados com um conjunto amplo de princípios que fazendo todo o sentido, levantam as maiores dúvidas quanto ao seu pragmatismo. O que significa exactamente a auditabilidade? Em que se consubstancia?

Por outro lado, é-nos indicado que os sistemas devem ser supervisionados por humanos, mas não nos é dito em que extensão, de que forma e com que frequência. A definição no texto da Directiva de como se materializa em concreto a supervisão de processos conduz-nos a dúvidas quanto à admissibilidade da utilização de processos em que a supervisão dos algoritmos ainda que existente não seja constante ao longo do seu treino e operação. 

Sem avançarmos muito pelo texto regulatório, concluímos que enquanto primeiro esforço legislativo, levanta questões que tornarão a vida das empresas que se dedicam ao desenvolvimento de IA, bem como a das que a utilizam, bastante difícil. Ficando em causa investimento, desenvolvimento tecnológico e aumentando a carga burocrática e de custos, numa altura em que acima de tudo é necessária uma abordagem prática que possibilite o desenvolvimento da tecnologia de forma responsável. 

Nos Estados Unidos, em 2022 foi apresentado no Congresso o Algorithmic Accountability Act  (AAA), que determina que empresas que desenvolvam ou utilizem sistemas de Inteligência Artificial para desenvolvimento de decisões devam estar sujeitas a estudar e a reportar o impacto desses sistemas nos consumidores. Ficando por definir o alcance do que será uma decisão crítica apesar do esforço de circunscrição do texto. 

Neste instrumento é atribuída à Federal Trade Comission (FTC) em conjunto com outros stakeholders relevantes (também não identificados) a responsabilidade de desenvolver mais legislação no sentido de regular a aplicação concreta da norma às empresas. Determina-se ainda que o Bureau of Technology deve aconselhar a FTC quanto aos aspectos técnicos relevantes. 

À semelhança do que acontece com o AIA não nos parece que a normativa seja executável, e pelas mesmas razões, excessiva abstração e falta de orientações de como concretizar os seus princípios.  

Ainda em 2022, foi a vez do Canadá apresentar a sua proposta de regulação, sob a forma da Bill C-27: Digital Charter Implementation Act. Este instrumento compreende 3 actos que se focam na protecção de dados, privacidade do consumidor e sistemas de Inteligência Artificial. São o Consumer Privacy Protection Act (CPPA), o Personal Information and Data Protection Tribunal Act (PIDPTA), e o The Artificial Intelligence and Data Act (AIDA).

O AIDA assume uma abordagem semelhante ao AIA, focando-se no risco de utilização e avançando a definição de responsabilidade sobre sistemas de AI. Determinando medidas relacionadas com risco e sua mitigação, monitorização, e regras de reporting especialmente naqueles que são considerados sistemas de alto-risco, e cuja aplicabilidade prática é difícil, senão impossível, sem que exista legislação posterior para clarificação. 

Resulta da comparação destes esforços regulatórios, que as tentativas de regulação são manifestamente vagas, à excepção da de Singapura, e que poderão criar mais do que resolver problemas.  Nomeadamente porque os problemas de aplicação de Inteligência Artificial são concretos (e não em medida maior que em qualquer nova área tecnológica), e são esses que devem ser acautelados, e não outros mais vagos e amplos que traduzem um receio generalizado da tecnologia. 

  1. Problemas legais específicos

Ainda que nos faça sentido a existência de normas gerais para regulação do desenvolvimento de Inteligência Artificial, o tempo da tecnologia não é o tempo das normas, e com a criação de soluções cada vez mais avançadas, passam a fazer parte do dia-a-dia problemas muito concretos da utilização da tecnologia que parece não existir enquadramento legal para resolver. 

Imaginemos o caso das Empresas A – operador logístico e da empresa B – Empresa de Software de Inteligência Artificial. 

A Empresa A contratou à Empresa B o licenciamento de um software nativo em IA para aumentar a eficiência do seu processo logístico. 

Tendo as duas empresas celebrado um contrato de licenciamento de software vulgar. 

Não havendo regras legais específicas para sistemas de IA, colocam-se diversas questões quer em relação a performance, responsabilidade, distribuição de risco, uso e protecção de dados, direitos indemnizatórios, propriedade intelectual, alcance da protecção, entre outros. 

Por exemplo, se a performance do software fornecido pela empresa B à empresa A for inferior ao esperado, pode a empresa A desvincular-se do contrato com a empresa B e deixar de pagar? 

Sendo a empresa B responsável pelo desenvolvimento e fornecimento do software, mas não pelos dados, e sabendo que a qualidade dos dados é essencial para os resultados obtidos pelo software, existe aqui a possibilidade de exclusão de responsabilidade? 

Sendo os dados da empresa A pode a empresa B utilizá-los para treinar os seus modelos? E usando, pode a empresa A reclamar direitos de autor ainda que parciais sobre a tecnologia da empresa B?

Pode a empresa B usar os dados da empresa A para treinar modelos genéricos usados também em empresas suas concorrentes?

E se as previsões do software forem incorrectas e levarem a empresa A a tomar decisões que de outra forma não tomaria, pode esta reclamar compensação à empresa B?

O que é facto, é que num exemplo tão simples como aquele que descrevemos acima, e possivelmente frequente num futuro próximo, se levantam problemas em vários campos de regulação para os quais não existem ainda soluções e que levarão a problemas maiores que aqueles que antevemos surgir como resultado de uma Artificial General Intelligence, que parece, pelo menos por agora, uma realidade mais distante. 

Considerando importante a existência de princípios balizadores da utilização e desenvolvimento de IA, acontece que por referência àqueles que são considerados os princípios orientadores de desenvolvimento e aplicação de tecnologia, especialmente após os últimos anos com o desenvolvimento de regras de protecção de dados e dos consumidores, não nos parece ser tão urgente a criação e um novo corpo de princípios, mas antes um conjunto de guidelines concretas de utilização, como aconteceu em Singapura,  uma revisão global das normas existentes, e sua respectiva adaptação ou extensão para proteger quem desenvolve e quem usa ferramentas de Inteligência Artificial no caso concreto.

  1. A respeito da Propriedade Intelectual

De entre todos os problemas legais de que falámos aquele que nos parece ser menos reflectido pela indústria é a questão da propriedade intelectual. Isto porque o tema não é auto-evidente e implica algum conhecimento dos dois lados da moeda. 

Com o aumento de utilização das ferramentas de Generative-AI e da utilização de Large Language Models (LLM) que são capazes de processar quantidades massivas de dados (em grande medida) scrapped da internet, e, portanto, não gerados pelo detentor dos LLM, levanta-se a questão da propriedade dos dados versus a capacidade de estes serem usados para treinar modelos pertencentes a terceiros. 

E poder-se-ia defender que até não é uma questão, mas não é isso que tem vindo a ser apresentado nos últimos tempos. 

Ainda recentemente, o New York Times proibiu a utilização dos seus conteúdos para o treino de modelos, a Zoom viu-se a braços com um nó legal por usar dados de consumidores para o mesmo efeito e a Authors Guild assumiu a recomendação de uso de uma clausula a proceder à proibição do uso de conteúdos para treino de modelos. Outros casos continuam a emergir diariamente.

Isto porque, os dados usados para treino de modelos não pertencem às empresas que os estão a usar. 

Esta questão aparentemente simples levanta questões quanto a direitos de propriedade intelectual sobre os dados, direito de proibição de utilização de dados que estando disponíveis na internet, e por isso podendo ser considerados públicos a verdade é que são proprietários, e como tal geram direitos de exploração comercial únicos para os seus donos. 

Não existe uma proibição geral de utilização de determinados dados não identitários de terceiros, mas existe uma proibição de utilização de dados de terceiros para fins comerciais sem que os terceiros possam reclamar direitos. 

Em linguagem corrente, se eu sou dona de um determinado conjunto de dados e alguém os usa, eu posso, pelo menos em tese, reclamar direitos (pagamento) pela utilização desses dados. 

Pelo menos, era assim até agora. 

Uma vez que não existe ainda uma solução legal, ficamos sem saber se o New York Times, ou outra entidade qualquer pode exigir o pagamento de direitos pela utilização de conteúdos seus a qualquer empresa que os use para treino de modelos, ou sequer proibir a utilização dos seus conteúdos, uma vez que estão livremente disponíveis para o público na internet.

Podemos controverter a questão da seguinte forma, se eu ler artigos do New York Times e com isso desenvolver um tipo de conhecimento muito específico a respeito de uma determinada matéria, rentabilizando esse conhecimento para meu proveito, poderia o New York Times proibir-me de consumir e usar esse conteúdo? A resposta seria sem grande dúvida que não. 

Mas no tocante à utilização dos mesmos conteúdos para treino de modelos a resposta não é tão simples. Como costumamos dizer em linguagem jurídica, depende!

Da reflexão que temos vindo a fazer parece-nos que o momento é de enorme oportunidade. 

Ao dia de hoje, o conjunto de empresas e unidades de investigação que se dedica ao desenvolvimento de ferramentas de Inteligência Artificial cresce a olhos vistos. 

Aquela que para a maioria das pessoas era uma tecnologia distante e mais próxima de filmes de ficção científica, propaga-se um pouco por todo o lado e promete alterar a vida como a conhecemos. Não é difícil hoje, ouvir por acaso referências à utilização do Bard para resolver dúvidas ou tomar decisões, à utilização do ChatGPT para construir código ou de se gerarem imagens no DALL E. 

É por isso necessário que a Inteligência Artificial seja regulada, mas que se resolvam os problemas concretos que levanta e que nesse esforço garanta alguma segurança quer para quem desenvolve tecnologia como para quem a utiliza. 

Torna-se urgente a adopção de frameworks de Responsible AI, mas também que a realidade jurídica acelere o passo em relação à velocidade da tecnologia. 

Para nós, profissionais do sector, que começámos a nossa jornada antes da Inteligência Artificial andar pelas bocas do mundo, este é um momento francamente feliz. 


Catarina Santos Nunes é Head of Operations & Compliance da Starkdata

Opinião