RIW 2024: um olhar para IA com mais responsabilidade e inclusão
Explorando os desafios éticos e a necessidade de diversidade nos algoritmos
Logo no primeiro dia de Rio Innovation Week (RIW), realizado recentemente, entre 12 e 15 de agosto, fiquei muito impressionada com o tamanho do evento, a diversidade de temas e a quantidade de marcas importantes discutindo uma variedade imensa de assuntos ligados à inovação. As novidades circulam do galpão reservado ao Agrotech ao espaço de Open Innovation, com muita moda, varejo, educação, mobilidade urbana, tecnologia e, claro, IA.
Eu escolhi destacar aqui o mesmo tópico que trago na minha palestra da feira: a forma como a inteligência artificial (IA) está revolucionando o planeta, prometendo transformar setores inteiros e aprimorar a qualidade de vida de todos. No entanto, o avanço rápido dessa ferramenta traz à tona uma série de questões éticas que precisam ser enfrentadas. São problemas que vão além de falhas técnicas, mas que são reflexos de preconceitos e desigualdades estruturais nesses sistemas. Diante disso, é relevante que haja uma reflexão em locais de grande escala como esse. Afinal, é um desafio como podemos construir um melhor ambiente para o desenvolvimento de IA — e essa é a minha temática.
As organizações têm garantir que os algoritmos de IA sejam transparentes e que as suas decisões consigam ser explicadas.
Devemos lembrar que empresas ao redor do mundo estão cada vez mais preocupadas com isso, adotando compromissos morais e de segurança para alinhar as suas práticas aos padrões internacionais. No Brasil, inúmeras são as companhias e as entidades setoriais que têm destacado tais necessidades para que o país, junto com outras nações, esteja liderando essa nova realidade. Para alcançar uma IA que opere sem tendências, é fundamental adotar soluções para todos os estágios do processo, que vão desde a sua concepção até a sua implementação e o seu monitoramento contínuo.
A IA pode e deve ser uma aliada na promoção de pautas de minorias, lutando contra o preconceito. Porém, alguns códigos, especialmente aqueles que fazem imagens ou realizam reconhecimento facial, muitas vezes apresentam uma visão a favor de pessoas brancas e heteronormativas, ignorando a multiplicidade racial, de gênero e outras formas de identidade. Isso acontece, porque os conjuntos de dados utilizados para treinamentos frequentemente não são representativos da diversidade humana. Por fim, isso em larga escala pode perpetuar e até exacerbar desigualdades sociais.
Promover a educação sobre ética em IA para programadores e o público em geral colabora com uma cultura de mais cuidado e compromisso.
Para mitigar isso, corporações e desenvolvedores de inteligência artificial devem garantir que os dados de treinamento sejam mais representativos. É essencial ainda que quem compõe as equipes seja origens variadas, trazendo diferentes perspectivas e experiências que possam identificar e corrigir o que um “time de iguais” nem sempre percebe. Essa abordagem deve não apenas auxiliar a criar uma IA mais justa, como precisa reforçar a confiança do público na tecnologia.
As organizações têm garantir que os algoritmos de IA sejam transparentes e que as suas decisões consigam ser explicadas. A franqueza é um passo crucial para assegurar a credibilidade e o cumprimento de padrões éticos. A realização de auditorias regulares nas estruturas de IA ajuda a identificar e corrigir vieses. Ademais, a realização de certificações para esses códigos pode garantir que eles atendam a certos princípios e sejam confiáveis antes de serem lançados no mercado.
A colaboração entre negócios, governos, ONGs e instituições de pesquisa tem ainda o potencial de acelerar a produção de diretrizes e práticas mais conscientes para uma IA cada vez mais correta possível, promovendo uma abordagem mais holística para os desafios da ferramenta e fomentando a troca de conhecimento e recursos.
Promover a educação sobre ética em IA para programadores e o público em geral colabora com uma cultura de mais cuidado e compromisso. As companhias deveriam investir em treinamentos e sensibilização para garantir que os membros que fazem os seus sistemas e mecanismos compreendam os impactos morais de suas ações.
E, por fim há um assunto que cada vez mais ganha destaque e debates: a regulamentação para a IA no Brasil.
Assim, acredito firmemente que leis e normas adequadas são importantes para fornecer orientações sobre o que é aceitável em termos de desenvolvimento e execução, proteção de dados, privacidade e direitos humanos, além de estabelecer mecanismos de supervisão e responsabilidade. Regras claras e uma boa governança incentivam a inovação. Elas auxiliam a desenvolver e aplicar tecnologias de forma eficaz, criando um ambiente ideal para a implementação de IA, o que traz benefícios tanto para as empresas quanto para os consumidores.
A construção de uma IA é uma tarefa complexa que requer a colaboração de vários atores e a adoção de múltiplas abordagens. As corporações devem garantir transparência, promover a inclusão e combater o preconceito nos seus modelos. Ao vencer essas dificuldades, poderemos fazer uma IA que não apenas seja tecnicamente avançada, mas também moral e segura, refletindo os valores e as necessidades de uma sociedade diversa.
Tenho certeza que todas as trocas durante o dias no RIW irão nos ajudar a garantir que a tecnologia avance de modo que respeite e promova uma sociedade mais ética, inclusiva e humana.
Comentários
Sua voz importa aqui no B9! Convidamos você a compartilhar suas opiniões e experiências na seção de comentários abaixo. Antes de mergulhar na conversa, por favor, dê uma olhada nas nossas Regras de Conduta para garantir que nosso espaço continue sendo acolhedor e respeitoso para todos.