Durante anos, a Meta treinou seus programas de IA usando bilhões de imagens públicas enviadas pelos usuários nos servidores do Facebook e Instagram. Agora, também espera acessar os bilhões de imagens que os usuários não carregado para esses servidores. Meta diz A beira que não é atualmente Treinar seus modelos de IA nessas fotos, mas não responderia às nossas perguntas sobre se isso pode fazê -lo no futuro ou quais direitos ele manterá as imagens da sua câmera.
Tecnologia
O Facebook está começando a alimentar sua IA com fotos privadas e não publicadas
Na sexta -feira, TechCrunch relatado Os usuários do Facebook que tentam postar algo no recurso da história encontraram mensagens pop-up perguntando se gostariam de optar por “processamento em nuvem”, o que permitiria ao Facebook “selecionar mídia da sua câmera rolar e fazer upload para nossa nuvem regularmente”, para gerar “idéias como colagens, recapitros, restaurantes de IA ou temas como dias de nascimento ou graduações” “.
Ao permitir esse recurso, a mensagem continua, os usuários estão concordando com os termos da Meta AI, o que permite que sua IA analise “recursos faciais e recursos faciais” dessas fotos não publicadas, bem como a data, as fotos foram tiradas e a presença de outras pessoas ou objetos nelas. Você ainda concede à Meta o direito de “reter e usar” essas informações pessoais.
A Meta reconheceu recentemente que eliminou os dados de todo o conteúdo publicado no Facebook e Instagram desde 2007 para treinar seus modelos generativos de IA. Embora a empresa tenha afirmado que apenas usou postagens públicas enviadas de usuários adultos com mais de 18 anos, há muito tempo é vago exatamente o que “público” implica, bem como o que contava como um “usuário adulto” em 2007.
Meta diz A beira Isso, por enquanto, não está treinando suas fotos não publicadas com esse novo recurso. ““[The Verge’s headline] Implica que atualmente estamos treinando nossos modelos de IA com essas fotos, o que não somos. Este teste não usa fotos das pessoas para melhorar ou treinar nossos modelos de IA ”, disse Ryan Daniels, gerente de assuntos públicos da Meta, Daniels A beira.
A postura pública de Meta é que o recurso é “muito cedo”, inócuo e totalmente optado: “Estamos explorando maneiras de facilitar o compartilhamento de conteúdo para as pessoas no Facebook, testando sugestões de conteúdo pronto para compartilhar e com curadoria de uma pessoa que é que a câmera é que a câmera não é que a câmera é que a câmera é que a câmera é que a câmera é que a câmera pode ser usada apenas para que a câmera possa ser usada para que a câmera possa ser usada, a menos que seja que seja que a câmera é que a câmera é usada. Teste ”, lê uma declaração da gerente da Meta Comms, Maria Cubeta.
De cara, isso pode parecer não totalmente diferente das fotos do Google, que da mesma forma podem sugerir ajustes de IA nas suas imagens depois que você optar pelo Google Gemini. Mas, diferentemente do Google, que afirma explicitamente que sim não Os modelos de IA generativos de treinar com dados pessoais obtidos no Google Fotos, os termos atuais de uso da AI da Meta, que estão em vigor desde 23 de junho de 2024, não fornecem clareza sobre se as fotos não publicadas acessadas através do “processamento em nuvem” estão isentas de serem usadas como dados de treinamento – e a meta não iria esclarecer isso para avançar.
E enquanto Daniels e Cubeta dizem A beira Isso optar apenas fornece permissão de meta para recuperar 30 dias no seu rolo de câmera não publicado por vez, parece que a Meta está mantendo alguns dados mais longos que isso. “As sugestões de rolagem da câmera com base em temas, como animais de estimação, casamentos e graduações, podem incluir mídia com mais de 30 dias”, escreve Meta.
Felizmente, os usuários do Facebook têm a opção de desativar o processamento da nuvem de rolo de câmera em suas configurações, que, uma vez ativadas, também começarão a remover fotos não publicadas da nuvem após 30 dias.
O recurso sugere uma nova incursão em nossos dados anteriormente privados, que ignora o ponto de atrito conhecido como Conscientemente decidindo postar uma foto para consumo público. E de acordo com as postagens do Reddit encontradas por TechCrunchA Meta já está oferecendo sugestões de Restyling de AI sobre fotos compradas anteriormente, mesmo que os usuários não estivessem cientes do recurso: um usuário relatado Que o Facebook teve o estúdio de suas fotos de casamento sem o conhecimento dela.
Correção, 27 de junho: Uma versão anterior dessa história implicava que a Meta já estava treinando IA nessas fotos, mas a Meta agora afirma que o teste atual ainda não o faz. Também adicionou declaração e detalhes adicionais da meta.