Segurança
Reality Defender anuncia detecção de deepfake de vídeo em tempo real para plataformas de conferência na Web

A Reality Defender , a plataforma de detecção de deepfake e mídia gerada por IA vencedora do RSA Innovation Sandbox, anunciou hoje a adição de detecção de deepfake de vídeo em tempo real às suas ofertas de produtos. Empresas e equipes que combatem
fraudes agora podem verificar indivíduos em plataformas de webconferência em tempo real, evitando ataques de engenharia social prevalentes e sofisticados que são cada vez mais usados por criminosos cibernéticos.
Os clientes do Reality Defender agora podem usar perfeitamente os modelos de detecção de deepfake da plataforma para verificar automaticamente se os participantes de uma chamada são participantes humanos reais e não estão usando ferramentas geradas por IA para se passar por outra pessoa. Toda a detecção é concluída sem sair do aplicativo de conferência, com modelos de detecção escaneando até que um resultado seja determinado.

“A detecção de deepfake de vídeo em tempo real não poderia ter chegado em um momento mais crucial”, disse Ben Colman , CEO e cofundador da Reality Defender . “À medida que mais incidentes de fraude de alto perfil envolvendo videoconferência ocorrem ao redor do mundo, as equipes precisam saber que estão realmente falando com pessoas reais. Nossa tecnologia realmente permite que isso aconteça sem esforço e instantaneamente.”
A importância da detecção de deepfake em vídeo em tempo real foi claramente ilustrada em uma ligação recente entre um senador e um mau ator que se passava por um oficial ucraniano . No início deste ano, uma empresa financeira multinacional supostamente perdeu US$ 25 milhões em uma chamada do Zoom com participantes de deepfake . Os chamadores falsos, se passando por pessoas reais, agora podem se passar por indivíduos legítimos em tempo real, destacando a necessidade de soluções eficazes de detecção e verificação como a tecnologia da Reality Defender.
A disseminação de deepfakes está causando danos significativos tanto online quanto offline, tornando a tecnologia da Reality Defender mais crucial do que nunca na luta contra fraudes e desinformação. De acordo com pesquisadores de Cyber Intelligence (ACI) da Accenture, os agentes de ameaças estão dispostos a gastar mais por deepfakes de maior qualidade, com preços chegando a US$ 20.000 por minuto para vídeos de alta qualidade. Além disso, os pesquisadores observaram um aumento de 223% do primeiro trimestre de 2023 em comparação ao primeiro trimestre de 2024 na compra e venda de ferramentas relacionadas a deepfakes nos principais fóruns da dark web, mostrando a necessidade imediata dos recursos de detecção em tempo real baseados em IA da Reality Defender para manter a confiança e a integridade de sistemas críticos.
Real-time Video Deepfake Detection agora está disponível em beta privado para clientes selecionados do Reality Defender. Equipes e organizações interessadas podem se inscrever na lista de espera do beta público em realitydefender.com/rtv .

Criatividade
Google, Microsoft e Perplexity promovem racismo científico em resultados de pesquisa de IA

A Inteligência Artificial (IA) transformou a maneira como buscamos informações, mas nem sempre os resultados são isentos de preconceitos ou distorções. Recentemente, uma investigação liderada pelo pesquisador Patrik Hermansson, da organização Hope Not Hate, revelou como motores de busca baseados em IA — incluindo os da Google, Microsoft e Perplexity — têm exibido estudos com viés racial que afirmam falsamente a existência de superioridade genética entre diferentes grupos étnicos. Esta situação destaca como os algoritmos e a seleção de dados em plataformas de IA podem promover e normalizar desinformação com potencial para radicalizar usuários e aprofundar preconceitos.
Como os Motores de Busca com IA Estão Amplificando Ideias Racistas
A investigação mostrou que diversas ferramentas de IA têm promovido conteúdos ligados a Richard Lynn, uma figura polêmica no movimento conhecido como “ciência racial”, cujos estudos defendem diferenças de QI entre raças. Embora amplamente desacreditados, esses estudos estão disponíveis online e acabam sendo usados por sistemas de IA para responder a perguntas sobre inteligência humana e diferenças raciais. Isso ocorre porque algoritmos são treinados para buscar dados “disponíveis” na web, o que inclui, muitas vezes, fontes de baixa qualidade ou com viés claro.
A promoção desses dados levanta sérias preocupações sobre o papel das IAs na disseminação de ideias que já foram amplamente refutadas por especialistas, mas que continuam a circular. Quando plataformas como Google Overviews e Perplexity utilizam estudos controversos e até fóruns como o Reddit como fontes de resposta para consultas complexas, sem citar explicitamente a origem da informação ou o contexto em que foi produzida, elas ajudam a normalizar conceitos racistas sob a falsa aparência de objetividade científica.
Acadêmicos e a Responsabilidade sobre a Qualidade dos Dados
Diversos especialistas criticaram a metodologia utilizada por Lynn, destacando que seus estudos sobre QI se baseiam em amostras limitadas e tendenciosas, frequentemente coletadas em comunidades marginalizadas. Apesar disso, o uso de seus dados em contextos acadêmicos e jornalísticos pode ter contribuído para sua longevidade. Essa circulação ajuda a consolidar uma presença digital desses dados que, quando processados por algoritmos, acabam sendo percebidos como informações “legítimas” e dignas de resposta.
A Google reconheceu recentemente as dificuldades em garantir a qualidade das fontes na web, especialmente em consultas mais complexas. No entanto, a empresa — e outras que trabalham com IA de busca — tem a responsabilidade de refinar seus algoritmos para evitar a promoção de dados sem fundamentação científica. Assim, os acadêmicos que já citaram esses estudos em pesquisas anteriores também enfrentam um dilema ético sobre o impacto de suas citações e como elas são recuperadas pela IA no ambiente digital.
O Perigo da Desinformação e o Papel das Plataformas de IA
Quando informações tendenciosas e desatualizadas são oferecidas como “verdades” para o usuário comum, existe um grande risco de amplificação de ideias preconceituosas. Esse problema não é apenas uma questão de viés nos algoritmos; é uma questão de segurança. A normalização da falsa ideia de que hierarquias raciais são “naturais” pode levar à radicalização de indivíduos, que acreditam em dados enviesados como se fossem uma verdade científica.
No cenário atual, a disseminação de desinformação é uma realidade alarmante, e plataformas de IA têm um papel central nesse desafio. Acadêmicos, desenvolvedores de IA e plataformas digitais precisam trabalhar juntos para criar mecanismos de verificação de dados mais robustos e filtros que priorizem fontes de alta qualidade.
A investigação de Hermansson traz à tona uma questão crucial: a tecnologia e seus algoritmos de busca têm o poder de moldar a visão de mundo das pessoas, para o bem ou para o mal. No caso da inteligência artificial, que depende de dados e algoritmos, é fundamental implementar verificações rigorosas para evitar a propagação de informações distorcidas e perigosas. A transparência sobre as fontes de dados, a precisão das informações e a ética na escolha das respostas são passos essenciais para construir uma IA que realmente promova conhecimento e inclusão, e não desinformação e preconceito.
Artigo baseado na matéria da Wired
Criatividade
Projeto Criptográfico World de Sam Altman mostra nova “Orb” de escaneamento de íris para provar sua humanidade

Worldcoin, o projeto criptográfico de “prova de personalidade” cofundado por Sam Altman que escaneia os globos oculares das pessoas, anunciou na quinta-feira que retirou a “moeda” de seu nome e agora é apenas “World”. A startup por trás do projeto World, Tools for Humanity, também revelou sua próxima geração de “Orbs” de escaneamento de íris e outras ferramentas em um evento ao vivo em São Francisco.

O cofundador e CEO da Tools for Humanity, Alex Blania, disse que o antigo nome do projeto “simplesmente não funciona mais”, potencialmente sinalizando que a startup está buscando expandir sua identidade além de sua missão original de criptomoeda. (O escaneamento ocular foi visto inicialmente como uma forma de obter acesso às Worldcoins, embora os fundadores digam que isso nunca aconteceu.)
O CEO da OpenAI, Sam Altman, passa boa parte do seu tempo trabalhando no World, Blania disse ao TechCrunch durante uma coletiva de imprensa, mas disse que as missões das duas startups são independentes uma da outra. No entanto, Blania não descartou que a criptomoeda do World possa ser incorporada ao ChatGPT um dia.
“Bem, ele é um cofundador e tem sido assim desde o começo. Então, conversamos algumas vezes por semana. Ele está envolvido em todas as decisões”, Blania disse ao TechCrunch.
“Claro, ele está focado no OpenAI”, Blania continuou. “Quão ligado está o sucesso do World ao OpenAI? Acho que, na verdade, nem um pouco. Acho que essas são duas missões muito separadas, e acho que a IA está indo para onde está indo, e achamos que o que construímos aqui é uma infraestrutura muito importante para o mundo, e isso não vai mudar.”
O projeto World é baseado na ideia de que sistemas avançados de IA — como o que a OpenAI de Altman está tentando construir — um dia tornarão impossível dizer se você está falando com um humano online. Sua solução são “serviços de verificação humana” baseados em blockchain. A startup também promete tornar os benefícios da IA acessíveis a todos, potencialmente redistribuindo a riqueza gerada pela IA para as pessoas por meio de suas Worldcoins.
Se tudo isso parece um pouco duvidoso, você não é o único que pensa assim. Governos ao redor do mundo — incluindo o Quênia e países da UE — investigaram e suspenderam a Worldcoin ao longo dos anos por questões de privacidade, segurança e financeiras. A investigação do Quênia foi concluída, permitindo que a World continuasse operando, mas algumas dessas investigações da UE estão em andamento, e o destino da World lá permanece incerto.
Altman e Blania detalharam o roteiro de quatro etapas da World no palco na quinta-feira. A primeira e a segunda etapas — desenvolver o Orb e construir uma rede de propriedade distribuída com blockchain — já foram feitas, disse Blania. A última etapa é redistribuir os benefícios da IA, mas antes de chegarmos lá, temos que concluir a terceira etapa: escala. A World teve vários anúncios na quinta-feira, incluindo o lançamento de uma nova blockchain e um novo aplicativo, mas todos giraram em torno de escalar os 7 milhões de humanos verificados da empresa para algo muito maior.
Para fazer isso, a equipe do World precisa escanear mais globos oculares ao redor do globo. E para esse fim, a Tools for Humanity revelou seu Orb de próxima geração na quinta-feira. A startup prometeu que todos (incluindo o TechCrunch) que participassem do evento ao vivo receberiam um Orb para levar para casa, embora não esteja imediatamente claro como os indivíduos o usariam.
O novo Orb é mais fácil de produzir em massa, tem menos peças e opera três vezes mais rápido. A Tools for Humanity diz que as pessoas em breve poderão se verificar em cafeterias e anunciou uma parceria com o serviço de entrega nº 1 da América Latina, Rappi, para que as pessoas possam agendar uma verificação do Orb em casa.
Também na quinta-feira, a Tools for Humanity revelou o Deep Face, uma tentativa de combater deepfakes e personificações online usando os serviços de verificação humana da empresa. A startup disse que o Deep Face poderia ser usado para aumentar aplicativos como FaceTime, Zoom e X, mas não forneceu detalhes sobre como isso aconteceria.
A startup anunciou uma versão beta de sua credencial World ID, uma alternativa às identidades governamentais para uso online. Elas não pretendem substituir identidades nacionais, esclareceu um executivo durante uma coletiva de imprensa, mas podem permitir que as pessoas verifiquem suas identidades online sem fornecer muitas informações estranhas, como fariam ao enviar uma carteira de motorista ou passaporte.
A adoção pode ser um obstáculo para o projeto World seguir em frente. No evento, a Tools for Humanity pediu aos convidados que verificassem sua própria identidade apresentando seu documento de identidade emitido pelo governo. Confiar sua identidade a uma empresa de criptomoeda é um grande pedido para a maioria das pessoas, mas especialmente para uma liderada por Sam Altman, que foi acusado de mentir para o conselho da OpenAI.
-
Negócios7 meses
Runway Lança Controles Avançados de Câmera para Geração de Vídeo com IA
-
Criatividade7 meses
Google, Microsoft e Perplexity promovem racismo científico em resultados de pesquisa de IA
-
Apple7 meses
Apple Intelligence: Tudo o que Você Precisa Saber Sobre o Lançamento!
-
Criatividade7 meses
Arcade AI: A Revolução na Criação de Joias Personalizadas com IA
-
Audio7 meses
Meta Lança NotebookLlama: A Nova Alternativa do Podcasting com IA
-
Apps7 meses
O e-mail da Notion está próximo do lançamento
-
Criatividade8 meses
Investimentos em startups de IA generativa ultrapassaram US$ 3,9 bilhões no terceiro trimestre de 2024
-
Audio8 meses
Adobe vai usar IA para gerar efeitos sonoros nos seus vídeos