EXCLUSIVO; Diretor nacional da ABRADI alerta: “Deepfakes ameaçam eleições brasileiras, e ação unificada é a última linha de defesa contra a desinformação!”
A utilização de Inteligência Artificial (IA) nas eleições brasileiras enfrenta desafios críticos, com deepfakes e conteúdos falsos propagando desinformação e minando a confiança dos eleitores. Em uma entrevista exclusiva à nossa equipe, Alek Maracajá, Diretor nacional, da Associação Brasileira dos Agentes Digitais (ABRADI), discutiu sobre as preocupações, desafios e principais inovações que as IAs podem trazer para o processo eleitoral. Alek é professor, pesquisador e um dos maiores especialistas do país nas áreas de: marketin político e tecnologias como Big Data, Inteligência Artificial e análise de dados.
A ABRADi é uma entidade de classe, sem fins lucrativos, que defende os interesses das empresas desenvolvedoras de serviços digitais no Brasil. A entidade está presente nos estados do CE, DF, GO, MG, MA, MS, PE, PB, PR, RJ, RN, RS, SC, SP e na Região Norte.
Na entrevista, Alek falou sobre os desafios impostos pelos deepfakes e conteúdos falsos, ele enfatizou a necessidade de uma abordagem multidisciplinar, envolvendo detecção, prevenção e educação digital. A colaboração entre especialistas em segurança cibernética, pesquisadores e empresas de tecnologia é fundamental para a melhoria contínua dos métodos de detecção. Além disso, ele destaca o papel crucial das plataformas de mídia social na contenção desse problema, promovendo políticas rigorosas de verificação de conteúdo e transparência nos algoritmos de recomendação.
No que diz respeito à aplicação ética de IAs na identificação de padrões de votação e previsão de resultados eleitorais, Maracajá lembrou da importância de normas claras, regulamentações éticas e transparência nos algoritmos. Ele destaca ainda a necessidade de auditorias independentes para verificar a precisão e imparcialidade das previsões, enquanto ressalta a importância da participação ativa da sociedade civil e de especialistas em ética em inteligência artificial.
Leia a entrevista na íntegra
1- Algumas eleições foram afetadas por deepfakes e conteúdos falsos criados por IA, o que causou desinformação e confusão entre os eleitores. Quais são os desafios em lidar com esse tipo de manipulação e como a tecnologia pode ser usada para mitigar esses problemas?
A disseminação de deepfakes e conteúdos falsos gerados por inteligência artificial representa um desafio significativo para a integridade de eleições e o processo democrático. Essa forma de manipulação pode induzir desinformação, minando a confiança dos eleitores e distorcendo a percepção pública. Alguns dos desafios em lidar com esse fenômeno incluem a velocidade com que esses conteúdos podem ser criados e disseminados, a dificuldade em rastrear sua origem e a ampla escala de sua distribuição.
Uma abordagem para mitigar esses problemas envolve a aplicação de tecnologia tanto na detecção quanto na prevenção. Algoritmos avançados de detecção de deepfakes podem ser desenvolvidos para identificar anomalias em vídeos e imagens, procurando por padrões específicos associados à manipulação por IA. A colaboração entre especialistas em segurança cibernética, pesquisadores e empresas de tecnologia é essencial para aprimorar constantemente esses métodos de detecção.
Além disso, é crucial investir em educação digital para capacitar os eleitores a reconhecerem conteúdos falsos e compreenderem os riscos associados. Promover a alfabetização digital pode ajudar a fortalecer a resiliência da sociedade contra a disseminação de informações enganosas.
As plataformas de mídia social e os canais de comunicação também têm um papel fundamental na contenção desse problema. Estabelecer políticas rigorosas de verificação de conteúdo, promover a transparência em algoritmos de recomendação e restringir a disseminação de informações não verificadas são medidas importantes.
Em última análise, a resposta eficaz a esse desafio requer uma abordagem multidisciplinar que una esforços governamentais, setor privado, sociedade civil e acadêmicos. A colaboração internacional também é fundamental, visto que as ameaças podem ultrapassar fronteiras. Ao enfrentar esse problema com uma combinação de tecnologia, regulamentação e conscientização, é possível reduzir os impactos prejudiciais dos deepfakes nas eleições e na democracia como um todo.
2- Em alguns casos, sistemas de IA foram utilizados para identificar padrões de votação e até mesmo prever resultados eleitorais com base em análises de dados. Isso levanta questões de privacidade e confiabilidade dos resultados. Como a IA pode ser empregada de forma ética nesse contexto?
A aplicação de sistemas de inteligência artificial na identificação de padrões de votação e previsão de resultados eleitorais levanta preocupações importantes relacionadas à privacidade e à confiabilidade dos processos democráticos. Para garantir o uso ético da IA nesse contexto, é crucial adotar medidas que protejam a integridade do processo eleitoral e respeitem os direitos individuais.
Em primeiro lugar, é necessário estabelecer normas claras e regulamentações éticas que orientem o desenvolvimento e a implementação de sistemas de IA no contexto eleitoral. Essas diretrizes devem abordar questões específicas relacionadas à privacidade dos eleitores, assegurando que a coleta e o processamento de dados sejam transparentes, consentidos e estritamente limitados ao necessário para a análise eleitoral.
Além disso, a transparência no funcionamento dos algoritmos utilizados para análise de dados eleitorais é fundamental. Os desenvolvedores de IA devem fornecer informações claras sobre como os algoritmos tomam decisões e como são treinados, permitindo que autoridades eleitorais e o público compreendam e avaliem a confiabilidade dos resultados gerados.
A auditoria independente dos sistemas de IA é uma prática essencial para verificar a precisão e a imparcialidade das previsões eleitorais. Instituir processos robustos de revisão por pares e envolver especialistas independentes pode contribuir significativamente para garantir a integridade dos resultados.
Além disso, é importante envolver ativamente a sociedade civil, grupos de defesa da privacidade e especialistas em ética em inteligência artificial no processo de desenvolvimento e implementação desses sistemas. A participação de diversas vozes pode ajudar a identificar potenciais tendências e garantir que as preocupações éticas sejam adequadamente consideradas.
Por isso, a ética na aplicação de IA em contextos eleitorais envolve a criação e o cumprimento de regulamentações claras, a transparência no funcionamento dos algoritmos, auditorias independentes e a participação ativa de diversas partes interessadas. Ao adotar essas medidas, é possível utilizar a inteligência artificial de maneira ética, contribuindo para aprimorar a eficácia dos processos eleitorais sem comprometer a privacidade e a confiança dos eleitores.
3- É tecnicamente possível saber se uma imagem, áudio ou vídeo foi manipulado com uso de IA?
A detecção de manipulação em imagens, áudio ou vídeos que utilizaram inteligência artificial pode ser um desafio, mas há avanços significativos na pesquisa e desenvolvimento de técnicas para identificar sinais de manipulação. Em relação a imagens, por exemplo, especialistas em segurança cibernética têm trabalhado no aprimoramento de algoritmos de análise forense que podem identificar alterações suspeitas nos padrões de pixels.
No caso de áudio, a autenticação de voz e a análise espectral podem ser empregadas para detectar alterações ou manipulações. Já técnicas baseadas em inteligência artificial, como o reconhecimento de padrões, podem ser utilizadas para identificar discrepâncias nos dados de áudio que sugerem adulteração.
Quanto a vídeos, a detecção de deepfakes (vídeos manipulados com IA para parecerem autênticos) tem sido uma área de foco. Algoritmos de detecção de deepfakes procuram por anomalias, como imperfeições na sincronização labial, artefatos visuais ou padrões irregulares que possam indicar manipulação.
É importante ressaltar ainda que a evolução constante das tecnologias de manipulação e criação de conteúdo por meio de inteligência artificial também requer o desenvolvimento contínuo de técnicas de detecção. Os criadores de deepfakes, por exemplo, podem aprimorar suas abordagens para evitar detecção, e assim por diante. É uma verdadeira corrida tecnológica.
4 Existem softwares, ou aplicativos, ou algum dispositivo auditável e seguro para que agências de verificação, ou tribunais possam se utilizar para a fiscalização, de uso criminoso de IAs nas eleições?
Atualmente, o desenvolvimento de softwares, aplicativos e dispositivos auditáveis e seguros para fiscalização do uso criminoso de inteligência artificial (IA) nas eleições é uma área ativa de pesquisa e implementação. Diversas iniciativas pelo mundo buscam fornecer ferramentas robustas para agências de verificação e tribunais monitorarem e mitigarem o impacto negativo da IA nas eleições.
Alguns dos enfoques possíveis incluem o desenvolvimento de ferramentas de Detecção de Deepfakes, tais como Softwares especializados e a análise forense de dados. O desenvolvimento de plataformas de verificação de conteúdo e de sistemas de monitoramento de redes sociais também são uma alternativa.
É importante destacar que a abordagem eficaz para lidar com o uso criminoso de IA nas eleições requer uma combinação de ferramentas tecnológicas, regulamentações adequadas e colaboração entre entidades governamentais, especialistas em segurança cibernética e a sociedade civil.
A adaptação constante dessas ferramentas às evoluções tecnológicas é essencial para enfrentar os desafios em curso relacionados à integridade do processo eleitoral. Por isso é tão importante avançarmos com o PL das Fake News, por exemplo, e manter o foco de que esta merece e deve ser uma discussão constante dentro e fora dos períodos eleitorais.
5 -O nosso Sistema eleitoral estaria preparado (sob o ponto de vista tecnológico) para fiscalizar, identificar, regular e punir crimes com uso indevido?
Olha, embora haja avanços tecnológicos e esforços para fortalecer a resiliência do sistema eleitoral, a adaptação constante é necessária devido à evolução das ameaças digitais. Uma abordagem abrangente, envolvendo tecnologia, regulamentação, cooperação internacional e conscientização, é essencial para garantir a integridade dos processos eleitorais diante dos desafios tecnológicos emergentes.
A preparação do sistema eleitoral para fiscalizar, identificar, regular e punir crimes com o uso indevido de tecnologia é uma questão complexa que envolve diversos aspectos. Do ponto de vista tecnológico, existem avanços significativos, mas também desafios a serem considerados. Selecionei quatro desses desafios aqui para vocês entenderem melhor o que eu estou querendo dizer:
- Fiscalização e Identificação:
O sistema eleitoral pode se beneficiar de soluções de monitoramento tecnológico, como ferramentas de detecção de deepfakes, análise forense de dados e sistemas de rastreamento de atividades online. A implementação dessas tecnologias pode auxiliar na identificação de tentativas de manipulação.
Outra possibilidade concomitante é reforçar as medidas de cibersegurança, essenciais para proteger os sistemas eleitorais contra ataques e garantir a integridade dos dados. A detecção precoce de atividades suspeitas pode ser alcançada por meio de sistemas avançados de proteção.
- Regulação:
Manter uma legislação atualizada é crucial para abordar questões específicas relacionadas ao uso indevido de tecnologia. A criação e atualização de leis podem ser necessárias para cobrir lacunas e incorporar medidas que regulem efetivamente o uso de IA nas eleições.
Além disso, incentivar a colaboração internacional é outro ponto interessante, uma vez que, dada a natureza transnacional das ameaças cibernéticas. Desta forma, acordos e protocolos entre países podem facilitar o compartilhamento de informações e a cooperação para combater crimes eleitorais digitais.
- Punição:
Implementar sistemas eficazes de rastreamento para identificar os responsáveis por crimes eleitorais digitais é crucial. As punições devem ser proporcionais e dissuasivas para desencorajar futuras violações.
Além disso, o envolvimento de especialistas em segurança cibernética e tecnologia na investigação de casos pode fortalecer os processos de responsabilização.
- Educação e Conscientização:
Educar eleitores, funcionários eleitorais e candidatos sobre as ameaças digitais e as boas práticas online é uma medida preventiva importante. E neste sentido, acredito que a conscientização pode ajudar a reduzir a vulnerabilidade do sistema eleitoral.
6 -As Inteligências Artificiais podem ser essa aliada para esse desafio? Se sim poderia citar alguns exemplos?
Com certeza. As Inteligências Artificiais podem ser aliadas valiosas no enfrentamento dos desafios relacionados à integridade do sistema eleitoral. Inclusive já mencionamos algumas delas como detecção de deepfakes, análise de padrões de comportamento online, análise de sentimento e verificação de informações, monitoramento de atividades suspeitas em sistemas eleitorais e prevenção de ataques cibernéticos.
No entanto, é fundamental reconhecer que as IAs não são soluções isoladas e devem ser integradas a uma abordagem mais ampla que inclua regulamentações, auditorias e conscientização pública. Só com a combinação de esforços humanos e tecnológicos é que será possível enfrentar os desafios complexos associados ao uso indevido de tecnologia nas eleições.
7 Agora quero que vc analise na sua visão pessoal, existem formas realmente confiáveis desse controle, regulamentação e/ou fiscalização e punição de crimes envolvendo IAs? Com tantos problemas de fake news e agora deep fake, manipulação de voz e vídeo. E análise de discurso personalizado usando IAs. Quais são os verdadeiros desafios que profissionais de TI e políticos terão? e mais, quais os benefícios reais e (dentro da legalidade) que as IAs trarão ao sistema eleitoras e as eleições?
Na minha visão pessoal, a regulamentação e fiscalização de crimes envolvendo Inteligências Artificiais (IAs) apresentam desafios complexos, especialmente diante das ameaças crescentes como fake news, deepfakes, manipulação de voz e vídeo, além da análise de discurso personalizado utilizando IAs.
Os desafios para profissionais de TI e políticos são multifacetados. Primeiramente, a natureza rápida e evolutiva da tecnologia impõe dificuldades na criação de regulamentações que se mantenham relevantes ao longo do tempo. A fronteira entre inovação e regulamentação precisa ser cuidadosamente equilibrada para não inibir o desenvolvimento tecnológico legítimo.
A transnacionalidade dos crimes eleitorais digitais complica ainda mais os esforços de regulamentação, exigindo uma colaboração internacional eficaz. A preservação da privacidade dos cidadãos também é crucial, pois medidas excessivamente intrusivas podem gerar preocupações éticas.
No entanto, apesar desses desafios, as IAs podem oferecer benefícios reais ao sistema eleitoral. A detecção automatizada de manipulações, a análise avançada de padrões de comportamento online e a otimização de processos eleitorais são potenciais contribuições positivas. A personalização da experiência do eleitor e a melhoria na eficiência eleitoral são aspectos que, quando implementados de maneira ética, podem fortalecer a participação democrática.
Os benefícios estendem-se à segurança cibernética, onde as IAs podem fortalecer as defesas contra ataques, protegendo os sistemas eleitorais. Contudo, é fundamental um equilíbrio entre a segurança e a preservação das liberdades individuais.
Por isso, gostaria de destacar ainda que acredito numa abordagem holística para regulamentar e fiscalizar o uso de IAs em eleições. Algo que envolva a colaboração internacional, atualizações ágeis da legislação e o desenvolvimento ético de tecnologias.
Desta forma, os profissionais de TI e políticos precisam trabalhar em conjunto para enfrentar os desafios, garantindo que os benefícios potenciais das IAs sejam aproveitados dentro de limites éticos e legais.