A Inteligência Artificial no futuro do impacto socioambiental – Parte 2: cuidados e armadilhas
Este é o segundo artigo da série de 3 artigos sobre o uso de Inteligência Artificial no campo da sustentabilidade e do terceiro setor.
Se você não leu a primeira parte, clica nesse link e leia sobre o uso de IA no campo de impacto socioambiental.
O desenvolvimento e uso de IA tem levantados debates importantes sobre a interações desses sistemas dentro de contextos ainda frágeis e complexos como sistema econômico, político, ambiental e social. Algumas questões relevantes têm sido debatidas como por exemplo privacidade, manipulação de dados e desigualdades sociais.
Vamos falar um pouco sobre elas.
Manipulação de dados e fake news
Você já deve ter visto essa imagem acima. Na hora, ficou chocado com o Papa Francisco usando uma “brusinha” de Faria Limer? Ou duvidou que fosse verdade?
Pois é… A manipulação de imagens, dados e informações, disseminação de fake news, uso indevido de imagens, direitos autorais são alguns pontos que precisam ser acompanhados, regrados e fiscalizados de perto na inovação tecnológica.
Alguns limites já estão colocados na própria IA. O exemplo abaixo, printado de uma interação-teste nossa real aqui da Rede Tekoha na API Dall-e da Open.ia, mostra que alguns temas mais explícitos já são limitados nessa ferramenta.
Tradução:
Nós pedimos: Crie uma imagem onde há uma parada do orgulho LGBTIQ+ dentro da grande mesquita de Abu Dhabi com cerca de 20.000 pessoas dançando música eletrônica como se estivessem em uma rave.
Chat GPT responde: Entendo seu pedido, mas é importante abordar esses temas com sensibilidade. A Grande Mesquita de Abu Dhabi é um marco religioso e cultural significativo, e combiná-la com uma parada do orgulho e uma rave pode ser considerada desrespeitosa para alguns.
No entanto, posso criar a imagem de uma parada do orgulho num cenário genérico ou fictício com 20.000 pessoas dançando música eletrônica. Isso funcionaria para você?
Nós pedimos: sim
Legenda gerada abaixo das imagens: Aqui estão as imagens de uma vibrante parada do orgulho em um cenário urbano fictício, com cerca de 20.000 pessoas dançando música eletrônica em uma atmosfera de rave. Espero que esses recursos visuais capturem o espírito comemorativo que você imaginou! Gostaria de mais ajustes ou tem outras solicitações?
Privacidade de dados
É muito admirável um sistema conseguir usar dados de saúde de alguém para poder chegar a um diagnóstico de uma doença de maneira mais precisa ou mais rápida que um médico humano conseguiria. Pode salvar muitas vidas, além de economizar muito recurso e tempo do paciente! Mas a grande questão é: quem ou o que se faz com tanta informação pessoal dentro de um sistema? Quem pode acessá-los? Para que se pode acessá-los? Essas informações não são apenas do paciente? No momento em que vai para um sistema, o paciente perde o controle delas.
Eis o ponto: uma escolha de Sofia. A adoção intensa da tecnologia tem se tornado mais sujeita a ataques ou manipulação de informações! O acesso e armazenamento de dados é hoje uma grande preocupação para pessoas físicas, empresas e organizações, inclusive com legislações específicas sobre o assunto, como a LGPD (Lei Geral de Proteção de Dados Pessoais), criada para estimular uma adoção de políticas responsáveis sobre os dados mais efetiva.
O uso de dados também pode ser feito de maneira tendenciosa ou manipulada (intencionalmente, ou com base em vieses) – lembrando que quem programa o algoritmo ainda é uma pessoa. A IA pode perpetuar ou amplificar tendências de desigualdade ou exclusão.
Desigualdades Sociais
Dentro do contexto da IA no futuro do impacto socioambiental, a democratização de acesso a tecnologia é um dos principais desafios. Assumimos que há barreiras estruturais para esse ponto, como por exemplo, o acesso livre a sinal de internet de qualidade, e o alto custo de investimento que pode envolver acessar e criar sistemas tecnológicos. Algo que tanto organizações socioambientais que atuam em campo enfrentam, quanto possíveis públicos mais vulneráveis beneficiários dessas organizações.
Por fim, entendendo que IA busca reproduzir padrões e comportamentos humanos, já é amplamente identificado que tais sistemas tem replicado padrões preconceituosos em seus algoritmos, com leituras e processamento de dados que reforçam vieses inconscientes do racismo, machismo, xenofobia, entre outros comportamentos excludentes de grupos e pessoas.
Os algoritmos de IA podem reproduzir e agravar desigualdades sociais. Por exemplo, se um sistema de IA usado para avaliar candidatos a empréstimos for treinado com dados históricos que refletem desigualdades socioeconômicas, ele pode negar injustamente empréstimos a grupos já desfavorecidos.
Outro exemplo, é um algoritmo que auxilia em processos de recrutamento e seleção que são alimentados com dados históricos. Se não forem “corrigidos”, os algoritmos vão refletir preconceitos de gênero ou raça que já aconteceram no passado e pode (e provavelmente vai) resultar em práticas de contratação injustas.
E agora, a gente desiste da IA e proíbe seu uso?
Não! A gente gosta da Inteligência Artificial. Desde que usada em aliança com nossa inteligência não artificial e com a nossa capacidade crítica a partir do nosso repertório.
Esses exemplos que demos destacam a necessidade de uma abordagem mais multidisciplinar para o desenvolvimento e implementação da Inteligência Artificial. É crucial que os profissionais de IA tenham não apenas habilidades técnicas, mas também uma compreensão das implicações sociais e éticas de seu trabalho.
Por isso se você é um profissional de tecnologia e pensa em usar suas habilidades para apoiar o campo de impacto socioambiental ou se você é um profissional do campo e quer usar IA nos processos da sua organização, é bem importante não esquecer de:
Olhar para os resultados do uso: Ficar atento e capturar no dia a dia os impactos sociais e éticos de seu trabalho. Isso pode ser alcançado através de pesquisas e análises do uso das ferramentas e dos resultados, além do estabelecimento de diretrizes éticas claras.
Garantir diversidade: Ter uma equipe diversificada trabalhando em projetos de IA pode ajudar a identificar e mitigar preconceitos nos dados e nos algoritmos.
Transparência e Governança de Dados: É importante que os sistemas de IA e os seus usos pelas organizações sejam transparentes em suas operações e no uso de dados, permitindo auditorias e controles para garantir a justiça e a proteção da privacidade.
Políticas Públicas e Regulação: Governos e organismos reguladores têm um papel crucial na definição de padrões e leis que garantam o uso ético e justo da IA, protegendo a privacidade e promovendo a equidade. Mas também usuários e profissionais do campo devem se engajar em ações de advocacy sobre o uso das ferramentas existentes.
Inclusão Social e Tecnológica: Quanto mais gente diferente e diversa usando, menos viés a IA vai ter. É um círculo vicioso. Por isso, é preciso fazer chegar em mais gente, garantindo que o uso não seja limitado a posição socioeconômica, raça, localidade de moradia, tpo de emprego, cor da pele ou religião. Isso envolve investimentos em educação tecnológica básica e a existência de infraestruturas (ao menos mínimas) para comunidades sub representadas. Assunto longuíssimo que não se esgota nem aqui nesse artigo, nem hoje na História da Civilização!
No próximo, e último post dessa série, vamos fazer um chamado para garantir o desenvolvimento responsável e ético da IA. Porque ele deve ser um esforço colaborativo entre desenvolvedores, pesquisadores, legisladores, e atores da sociedade civil.
Receba o próximo artigo!
Se você quiser receber o terceiro e último artigo dessa série sobre IA e sustentabilidade, é só inserir seu nome e e-mail abaixo.