No painel “AI and Power Concentration: Building Tech to Empower Us All” no SXSW 2025, especialistas discutiram como a IA está concentrando poder em poucas empresas, quais são os riscos disso para a sociedade e quais alternativas podem garantir que essa tecnologia beneficie a todos – e não apenas os mais poderosos.
A conversa reuniu Emilia Javorsky, diretora do Futures Program do Future of Life Institute; Daniel Kokotajlo, ex-funcionário da OpenAI que se tornou whistleblower; Lawrence Lessig, professor de direito em Harvard e especialista em regulação tecnológica; e Kylie Robison, jornalista do The Verge e mediadora do painel.
Se a IA continuar avançando no ritmo atual, quem estará no controle? Daniel Kokotajlo trabalhou dentro de uma das empresas que lideram essa corrida e trouxe um alerta: “As empresas de IA não estão apenas tentando criar sistemas mais inteligentes. Elas querem desenvolver superinteligências – máquinas que superam humanos em todas as áreas do conhecimento.” Segundo ele, muitos dos engenheiros envolvidos nesses projetos acreditam que isso pode acontecer em poucos anos. “O problema é que estamos longe de estar prontos para lidar com isso”, disse.
Além disso, há o desafio da regulação. Lawrence Lessig apontou o absurdo de empresas bilionárias argumentarem que não precisam de nenhuma regulamentação, enquanto setores como alimentação e transporte seguem regras rígidas. “Hoje, abrir um food truck exige mais regulamentação do que lançar uma IA que pode impactar milhões de vidas”, ironizou. Ele lembrou que, na história, a regulação foi essencial para equilibrar inovação e segurança: a indústria farmacêutica prosperou com regulação, enquanto a nuclear não conseguiu se expandir justamente pela ausência de regras bem estruturadas.
O cenário político também é um obstáculo. Não há consenso global sobre governança da IA, e os poucos esforços para regular a tecnologia são fragmentados e reativos. “Estamos assistindo a um jogo de forças entre empresas de tecnologia e governos desorganizados para tentar regular um setor que se move mais rápido do que qualquer outra inovação na história”, destacou Lessig.
Outro grande problema é a ausência de leis para proteger aqueles que trabalham no desenvolvimento da IA e percebem riscos sérios no caminho. Daniel Kokotajlo revelou que, depois de sair da OpenAI, foi procurado por muitos ex-colegas que queriam expor falhas de segurança nos modelos desenvolvidos, mas estavam impedidos por acordos de confidencialidade. “Hoje, as leis de proteção a whistleblowers só garantem segurança jurídica para quem denuncia crimes já estabelecidos. Mas a IA está operando em uma zona cinzenta, onde não há leis definindo o que é ilegal”, explicou. Isso faz com que muitas pessoas dentro das empresas tenham medo de alertar a sociedade sobre os riscos da tecnologia.
Lessig defendeu a criação de um marco legal para proteger whistleblowers, permitindo que especialistas alertem sobre riscos antes que se tornem crises. Além disso, ele sugeriu um mecanismo inovador: exigir que empresas que desenvolvem IA contratem seguros. “Se todas as empresas fossem obrigadas a ter um seguro de responsabilidade, as seguradoras teriam incentivos para impor padrões de segurança. Isso criaria uma autorregulação de mercado, garantindo que a IA fosse desenvolvida de forma mais responsável”, argumentou.
1️⃣ Ter uma visão clara do futuro que queremos – Emilia Javorsky destacou que a sociedade precisa definir o que espera da IA para criar momentum e orientar decisões políticas e de mercado. “Se não tivermos um ideal claro, ficaremos sempre reagindo às decisões das grandes empresas, em vez de moldar o futuro de forma proativa.”
2️⃣ Investir em modelos abertos e acessíveis – Uma das possíveis soluções para descentralizar a IA seria investir em modelos abertos e acessíveis, que permitam que mais pessoas e empresas utilizem a tecnologia de forma independente. Mas essa alternativa também enfrenta barreiras. “Os avanços de código aberto são rapidamente absorvidos pelas grandes empresas, que os refinam e os utilizam em maior escala”, explicou Kokotajlo. Ou seja, mesmo iniciativas colaborativas acabam sendo apropriadas pelos gigantes do setor.
3️⃣ Exigir mais transparência – Daniel Kokotajlo reforçou que uma das maiores ameaças da IA hoje é a falta de transparência. “Não sabemos o que essas empresas estão desenvolvendo, quais testes estão sendo feitos ou quais medidas de segurança estão sendo implementadas. Precisamos exigir que elas sejam obrigadas a divulgar informações sobre seus modelos e processos.”
4️⃣ Proteger whistleblowers e mudar os incentivos de mercado – Como Lessig propôs, garantir proteção legal para denunciantes e exigir seguros para empresas pode ser um caminho para mudar a direção dos avanços da IA.
O painel terminou com um alerta de Kylie Robison: “Não podemos aceitar que a IA seja uma ferramenta apenas para quem já tem poder. A tecnologia pode ser um grande motor de inovação e inclusão – mas só se formos capazes de criar um ecossistema onde ela realmente beneficie a sociedade como um todo.”
A pergunta que fica: estamos construindo a IA para servir a todos ou para concentrar ainda mais poder nas mãos de poucos?
A gente vem ao SXSW para ver o progresso — das tecnologias, das sociedades, do humano. E, na maior parte…
A ideia de se apaixonar por uma inteligência artificial ainda soa absurda para muita gente. Mas se rir dessa possibilidade…
Mais do que provar que marcas podem construir significado e diferenciação, Liquid Death e Duolingo se tornaram benchmarks de verdadeiras…
Ouvir Rohit Bhargava é sempre uma oportunidade de aprender e pensar o mundo por outros ângulos. Fundador da Non-Obvious Company,…
Os grandes modelos de linguagem (LLMs) como ChatGPT e Claude estão por toda parte - nos telefones, computadores e dispositivos…
Lá estava eu, mergulhada nos holofotes do SXSW, quando algo me atingiu como um raio: todas essas figuras incríveis compartilham…