New York Times proíbe uso de seu conteúdo para treinamento de IA
Decisão pode abrir um novo capítulo na ética do uso de dados por modelos de IA generativa
O New York Times atualizou seus termos de serviço para proibir explicitamente a captura de seu conteúdo para treinamento de inteligência artificial, uma ação com potencial de remodelar a maneira como os modelos de IA generativa são desenvolvidos.
Porque isso é importante: A decisão do NYT, uma das principais organizações de notícias globais, de restringir o uso de seu conteúdo para treinamento de IA destaca uma crescente preocupação com a ética e legalidade da captura de dados. Essa medida pode incentivar outros proprietários de conteúdo a fazer o mesmo, levando potencialmente a desafios legais e mudanças na forma como os modelos de IA são treinados.
Detalhes:
• Novos Termos: Os termos de serviço atualizados afirmam explicitamente que o conteúdo do NYT não pode ser usado para treinar modelos de IA sem permissão por escrito.
• Consequências: Os termos delineiam possíveis penalidades civis, criminais e administrativas para violações.
• Modelos de IA Atuais: Grandes modelos de linguagem, como o GPT-4 da OpenAI, foram treinados em grandes conjuntos de dados capturados da Internet, incluindo conteúdo do NYT.
• Desafios Legais: A prática de usar dados capturados levou a comediante e atriz Sarah Silverman a abrir um processo acusando a OpenAI de plágio e pedidos de estruturas legais para proteger o conteúdo.
• Resposta da OpenAI: A OpenAI detalhou um método para sites bloquearem seu rastreador de treinamento de IA, indicando uma consciência dos possíveis desafios legais.
Comentários
Sua voz importa aqui no B9! Convidamos você a compartilhar suas opiniões e experiências na seção de comentários abaixo. Antes de mergulhar na conversa, por favor, dê uma olhada nas nossas Regras de Conduta para garantir que nosso espaço continue sendo acolhedor e respeitoso para todos.