O dilema brasileiro e indiano: como regulamentar a IA e as grandes empresas de tecnologia?

Imagem de cortesia de Giovana Fleck/Global Voices.

Ao passar a presidência do G20 da Índia para o Brasil em dezembro de 2023, a digitalização se tornou um ponto central para ambos os países, com as grandes tecnologias e a inteligência artificial (IA) no centro das conversas e decisões, tanto pelos seus benefícios como pelas suas regulamentações. Mas será que este entusiasmo em aproveitar os benefícios da IA ​​para as suas economias e garantir o controle sobre os usos emergentes da IA ​​oculta algo mais?

O Brasil e a Índia são duas economias destacadas entre os países em desenvolvimento e membros fortes dos Brics, e também realizarão eleições em 2024. A Índia está concluindo o seu processo eleitoral nacional e o Brasil votará em seus representantes municipais em outubro. Ambas as nações demonstram grande interesse em ser pioneiras de marcos regulatórios as para novas tecnologias, especialmente a IA, o que pode refletir no desejo de inspirar a maioria dos outros países.

Embora o entusiasmo para regulamentar as novas tecnologias seja compreensível, às vezes pode haver consequências imprevistas e adversas. As medidas pouco discutidas podem violar os direitos civis ou não resolver os problemas que originalmente pretendiam resolver. Os processos eleitorais no Brasil e na Índia em 2024 exemplificam esta tensão, já que os dois países aprovaram normas aplicáveis, embora não leis formais, destinadas a regulamentar o uso de inteligência artificial nas eleições.

Brasil: preocupação com a liberdade de expressão

O Tribunal Superior Eleitoral do Brasil emitiu 12 resoluções no início de março, que implantaram novas normas eleitorais já aplicáveis para as próximas eleições de 2024. As eleições serão realizadas em outubro, apenas em âmbito municipal, para eleger prefeitos e vereadores em mais de 5.570 cidades do país.

O Tribunal Superior Eleitoral apresentou diversos dispositivos relativos à IA e ao regime de responsabilidade das plataformas do país em casos de propaganda eleitoral. Segundo o site oficial do tribunal, entre as medidas destinadas aos partidos políticos e às empresas de redes sociais, destacam-se a proibição de deepfake, a obrigação de denunciar o uso de IA na propaganda eleitoral e restrições ao uso de bots para atrair eleitores. Há também uma norma que responsabiliza as grandes empresas de tecnologia por não removerem rapidamente, durante o período eleitoral, conteúdos que representam riscos eleitorais, como desinformação (incluindo deepfake), discurso de ódio e conteúdo antidemocrático.

Ainda que as regras específicas relativas ao uso de IA durante as eleições tenham algumas ramificações positivas, a resolução provocou preocupações com a liberdade de expressão na sociedade civil brasileira. Desafia diretamente o regime de responsabilidade das plataformas estabelecido na legislação brasileira, regido prioritariamente pelo Marco Civil da Internet, promulgado como Lei nº 12.965/2014. No momento da sua aprovação, a lei era altamente valorizada por importantes atores dos direitos civis digitais em todo o mundo. Neste cenário, como regra geral, as plataformas têm responsabilidade intermediária, o que as protege da responsabilidade por conteúdos gerados pelos usuários, a menos que não cumpram uma ordem judicial que ordene a remoção de material ilegal específico, conforme indicado no artigo 19.

No entanto, as novas disposições do Tribunal Superior Eleitoral poderiam impor às plataformas o compromisso de monitorar e filtrar o conteúdo gerado pelos usuários, o que modificaria diretamente o regime de responsabilidade do país. O não cumprimento poderia resultar em consequências legais, incentivando as plataformas a agir com extrema prudência e remover, com zelo excessivo, o conteúdo potencialmente legítimo para evitar responsabilidades.

Não se sabe como o Tribunal Superior Eleitoral definiu essas normas. Organizações que defendem os direitos dos internautas no Brasil, como a Coalização de Direitos na Rede, sugerem que o Tribunal Superior Eleitoral debata as graves consequências desta disposição e converse com a sociedade civil e especialistas para encontrar formas de reparar os efeitos indesejáveis ​​que a nova resolução teria sobre a população, como a remoção maciça de conteúdos legítimos.

Contudo, este não é o único acontecimento recente que lança dúvidas sobre a estabilidade do regime de responsabilidade do Brasil. As contestações à constitucionalidade do artigo 19 são cada vez mais numerosas e o Supremo Tribunal Federal está prestes a abordar a questão nos próximos meses. Além disso, o Congresso deliberou durante quatro anos o projeto de lei 2.630/2020, conhecido coloquialmente como “DSA brasileiro” (em referência à Lei Europeia de Serviços Digitais), que pretendia renovar a regulamentação das plataformas e aumentar as responsabilidades dos principais operadores tecnológicos. Ainda que o projeto de lei possa parecer morto após os acontecimentos de abril de 2024, outro projeto será apresentado em breve, e o cenário sugere que a mudança está a caminho.

Índia: abordar o viés político na regulamentação da IA

Na Índia, o que começou como um frenesi por causa do vídeo falso feito por IA de uma atriz indiana, postado em novembro de 2023, logo se tornou um tema caloroso devido às preocupações sobre o uso de IA e deepfake para espalhar desinformação durante as eleições indianas. Além disso, o primeiro-ministro Narendra Modi, do Partido Bhartiya Janta (BJP), lamentou, em um discurso público, os deepfakes como uma ameaça emergente que necessita ser contida por meio de uma regulamentação global urgente da IA. No entanto, a pesquisa em andamento do Observatório de Governança de Dados descobriu que a narrativa em torno do uso de IA e deepfakes por atores antinacionais e partidos de oposição foi usada para reforçar a urgência na regulamentação do uso de IA e deepfakes, e descrever os danos derivados por estes conteúdos.

Durante as eleições legislativas estaduais em Rajasthan, Madhya Pradesh e Tamil Nadu, circulou um vídeo falso de um líder político do BJP que era então ministro-chefe de Madhya Pradesh. No vídeo, o líder do BJP foi visto elogiando o Congresso Nacional Indiano (INC), principal opositor do BJP. A reportagem de um canal de notícias, em horário nobre, sobre o “armamentismo de IA e deepfakes durante as eleições” apresentou o vídeo do líder do BJP para sublinhar que são necessárias regulamentações rigorosas para regular o uso de deepfakes de IA. Os debates noticiosos usaram o vídeo falso do líder do BJP para ilustrar o uso malicioso de deepfake por partidos de oposição como o INC. Por um lado, os partidos da oposição são indiretamente responsabilizados pelo uso indevido de notícias falsas. No entanto, a cobertura noticiosa mostrou a abordagem positiva do primeiro-ministro em relação à IA. O debate, embora não afirme diretamente que a IA e os deepfakes são usados ​​pelos partidos da oposição, ao expor o vídeo falso do líder do BJP e a abordagem positiva do primeiro-ministro em relação à IA, apresenta a narrativa de que os deepfakes são usados ​​pelos partidos da oposição e não pelo BJP.

Embora os partidos da oposição tenham se tornado um símbolo para descrever o uso mal-intencionado da IA, agências e empresas envolvidas na criação de vídeos falsos e plataformas que hospedam esses conteúdos foram vistas como a causa do problema. As agências que fazem deepfakes de IA para uso malicioso e as plataformas que não removem a desinformação da IA ​​têm responsabilidade, mas são elas a única fonte e causa da ameaça de desinformação da IA? Os partidos políticos que empregam estas agências e os líderes políticos que espalham desinformação em épocas eleitorais também devem partilhar a responsabilidade.

Para tratar a questão da desinformação sobre IA, o governo indiano emitiu um comunicado sobre deepfakes e IA. A advertência obriga as plataformas a informarem claramente aos usuários que a publicação de deepfakes pode levar a ações penais. O governo advertiu ainda que em breve vai elaborar regras mais rigorosas. Depois deste aviso, o governo também publicou duas versões de um comunicado de IA. No primeiro rascunho, o aviso exigia que todos os desenvolvedores e plataformas de IA buscassem permissão do governo antes de introduzir um novo modelo de IA na Índia. Mais tarde, a obrigação de obter autorização do governo foi modificada e eliminada. Em seu lugar, foi apresentada uma abordagem de autorregulação, na qual as plataformas devem auto-rotular o conteúdo gerado pela IA. O governo também pretende apresentar regulamentos adequados sobre IA, entre junho e julho, que visam aproveitar o potencial econômico da IA ​​e, ao mesmo tempo, reduzir possíveis riscos e danos.

A análise do Observatório de Governança de Dados mostra que a sociedade civil e as alianças empresariais qualificaram a abordagem do governo como reativa. Afirmam que acabar com deepfakes e aplicar restrições é uma medida provisória que não leva em conta o seu impacto na inovação e tampouco reconhece o papel dos partidos políticos. Durante as eleições, os partidos políticos são mais responsáveis, ​​e órgãos como a Comissão Eleitoral da Índia poderiam pressioná-los para garantir mais transparência em torno dos deepfakes. Os atores da sociedade civil afirmam que, embora os deepfakes e a IA sejam apenas mais uma ferramenta para espalhar desinformação, o maior problema é enfrentar um sistema mediático frágil e um ambiente polarizado que paira sobre a Índia. Por isso, inclusive quando o governo emite avisos às plataformas tecnológicas para que retirem do ar os conteúdos deepfakes, a falta de consultas claras sobre as suas capacidades para abordar o problema, assim como o papel de organismos como a Comissão Eleitoral da Índia, faz com que estas advertências sejam uma solução provisória.

Enquanto dentro do país a regulamentação da IA e dos deepfakes continua sendo confusa e sem uma consulta adequada, em fóruns internacionais como o G20, o governo apresentou-se como protetor de seus cidadãos e um pioneiro entre a maioria global dos países para uma digitalização inclusiva e transparente, com um enfoque na regulamentação. Ainda que isso faça com que a Índia receba elogios nos fóruns internacionais, o certo é que a abordagem atual carece de uma consulta política eficaz e transparente que possa tratar o viés político e esclarecer o papel dos partidos na hora de abordar o uso da IA durante as eleições. 

Quais são os seguintes passos?

Embora a comunidade internacional esteja focada no Brasil e na Índia como centros de inovação tecnológica, as regulamentações tímidas sobre IA e  responsabilidade provocam questões acerca da liberdade de expressão, reforçam os preconceitos políticos pré-existentes e carecem de consultas adequadas. Na Índia, o ecossistema mediático está cada vez mais polarizado e, com o atual governo, a dissidência e o debate em torno das regulamentações diminuíram, o que está acontecendo agora com as regulamentações sobre IA. A menos que se faça uma consulta apropriada com as partes interessadas e a inclusão dos seus pontos de vista, é possível que as regulamentações sobre IA não sejam eficientes. Por outro lado, o Brasil, embora sob um governo de esquerda, também enfrenta uma grande polarização política, e a agenda digital, especialmente sobre a regulamentação das plataformas e IA, é um dos pontos críticos do debate. Portanto, as questões sobre a regulamentação da IA ​​são especificamente problemáticas para ambos os países, uma vez que a Índia está em fase eleitoral e o Brasil realizará em breve as eleições, um ambiente politicamente carregado só aumentará a gravidade destas preocupações.

Em meio à falta de consulta, as narrativas sobre as regulamentações eleitorais na  esfera digital dão somente uma imagem parcial das preocupações levantadas pela IA e pelas grandes tecnologias. No entanto, têm o poder de influenciar o público em geral e a percepção da comunidade internacional, que veem a Índia e o Brasil como favoritos na corrida por uma nova regulamentação tecnológica.

Os esforços das nações globais para criarem suas próprias soluções adequadas às suas realidades, sem se inspirarem apenas nas abordagens europeias e americanas, são positivos e merecem elogios. No entanto, isto não pode ser feito em detrimento dos direitos fundamentais da população destes países. Embora estas normas sejam urgentes e necessárias, é igualmente importante que abordem corretamente os problemas que pretendem resolver. Regras elaboradas às pressas podem criar novos problemas e complicar o já complexo cenário politicamente dividido destes países.

Inicie uma conversa

Colaboradores, favor realizar Entrar »

Por uma boa conversa...

  • Por favor, trate as outras pessoas com respeito. Trate como deseja ser tratado. Comentários que contenham mensagens de ódio, linguagem inadequada ou ataques pessoais não serão aprovados. Seja razoável.