Entre em contato

Criatividade

Projeto Criptográfico World de Sam Altman mostra nova “Orb” de escaneamento de íris para provar sua humanidade

Publicado há

em

Worldcoin, o projeto criptográfico de “prova de personalidade” cofundado por Sam Altman que escaneia os globos oculares das pessoas, anunciou na quinta-feira que retirou a “moeda” de seu nome e agora é apenas “World”. A startup por trás do projeto World, Tools for Humanity, também revelou sua próxima geração de “Orbs” de escaneamento de íris e outras ferramentas em um evento ao vivo em São Francisco.

O cofundador e CEO da Tools for Humanity, Alex Blania, disse que o antigo nome do projeto “simplesmente não funciona mais”, potencialmente sinalizando que a startup está buscando expandir sua identidade além de sua missão original de criptomoeda. (O escaneamento ocular foi visto inicialmente como uma forma de obter acesso às Worldcoins, embora os fundadores digam que isso nunca aconteceu.)

O CEO da OpenAI, Sam Altman, passa boa parte do seu tempo trabalhando no World, Blania disse ao TechCrunch durante uma coletiva de imprensa, mas disse que as missões das duas startups são independentes uma da outra. No entanto, Blania não descartou que a criptomoeda do World possa ser incorporada ao ChatGPT um dia.

“Bem, ele é um cofundador e tem sido assim desde o começo. Então, conversamos algumas vezes por semana. Ele está envolvido em todas as decisões”, Blania disse ao TechCrunch.

“Claro, ele está focado no OpenAI”, Blania continuou. “Quão ligado está o sucesso do World ao OpenAI? Acho que, na verdade, nem um pouco. Acho que essas são duas missões muito separadas, e acho que a IA está indo para onde está indo, e achamos que o que construímos aqui é uma infraestrutura muito importante para o mundo, e isso não vai mudar.”

O projeto World é baseado na ideia de que sistemas avançados de IA — como o que a OpenAI de Altman está tentando construir — um dia tornarão impossível dizer se você está falando com um humano online. Sua solução são “serviços de verificação humana” baseados em blockchain. A startup também promete tornar os benefícios da IA ​​acessíveis a todos, potencialmente redistribuindo a riqueza gerada pela IA para as pessoas por meio de suas Worldcoins.

Se tudo isso parece um pouco duvidoso, você não é o único que pensa assim. Governos ao redor do mundo — incluindo o Quênia e países da UE — investigaram e suspenderam a Worldcoin ao longo dos anos por questões de privacidade, segurança e financeiras. A investigação do Quênia foi concluída, permitindo que a World continuasse operando, mas algumas dessas investigações da UE estão em andamento, e o destino da World lá permanece incerto.

Altman e Blania detalharam o roteiro de quatro etapas da World no palco na quinta-feira. A primeira e a segunda etapas — desenvolver o Orb e construir uma rede de propriedade distribuída com blockchain — já foram feitas, disse Blania. A última etapa é redistribuir os benefícios da IA, mas antes de chegarmos lá, temos que concluir a terceira etapa: escala. A World teve vários anúncios na quinta-feira, incluindo o lançamento de uma nova blockchain e um novo aplicativo, mas todos giraram em torno de escalar os 7 milhões de humanos verificados da empresa para algo muito maior.

Para fazer isso, a equipe do World precisa escanear mais globos oculares ao redor do globo. E para esse fim, a Tools for Humanity revelou seu Orb de próxima geração na quinta-feira. A startup prometeu que todos (incluindo o TechCrunch) que participassem do evento ao vivo receberiam um Orb para levar para casa, embora não esteja imediatamente claro como os indivíduos o usariam.

O novo Orb é mais fácil de produzir em massa, tem menos peças e opera três vezes mais rápido. A Tools for Humanity diz que as pessoas em breve poderão se verificar em cafeterias e anunciou uma parceria com o serviço de entrega nº 1 da América Latina, Rappi, para que as pessoas possam agendar uma verificação do Orb em casa.

Também na quinta-feira, a Tools for Humanity revelou o Deep Face, uma tentativa de combater deepfakes e personificações online usando os serviços de verificação humana da empresa. A startup disse que o Deep Face poderia ser usado para aumentar aplicativos como FaceTime, Zoom e X, mas não forneceu detalhes sobre como isso aconteceria.

A startup anunciou uma versão beta de sua credencial World ID, uma alternativa às identidades governamentais para uso online. Elas não pretendem substituir identidades nacionais, esclareceu um executivo durante uma coletiva de imprensa, mas podem permitir que as pessoas verifiquem suas identidades online sem fornecer muitas informações estranhas, como fariam ao enviar uma carteira de motorista ou passaporte.

A adoção pode ser um obstáculo para o projeto World seguir em frente. No evento, a Tools for Humanity pediu aos convidados que verificassem sua própria identidade apresentando seu documento de identidade emitido pelo governo. Confiar sua identidade a uma empresa de criptomoeda é um grande pedido para a maioria das pessoas, mas especialmente para uma liderada por Sam Altman, que foi acusado de mentir para o conselho da OpenAI.

Criatividade

Arcade AI: A Revolução na Criação de Joias Personalizadas com IA

Publicado há

em

No mundo em constante evolução da tecnologia e do design, uma nova plataforma está mudando a forma como as pessoas criam e compram joias personalizadas. Fundada por Mariam Naficy, uma empreendedora com um histórico impressionante no apoio a artistas independentes, a Arcade AI é uma inovadora marketplace que coloca o controle criativo diretamente nas mãos dos usuários, conhecidos como “Dreamers”.

O Que é a Arcade AI?

Lançada em beta em setembro, a Arcade AI é uma plataforma de design gerado por inteligência artificial que permite que os usuários insiram suas ideias e imagens em um gerador que produz uma variedade de opções de design de joias. Desde colares delicados até brincos chamativos, a Arcade oferece uma experiência única de personalização, onde cada peça é feita sob medida por artesãos talentosos.

A Experiência do Usuário

Imagine ter a capacidade de transformar suas ideias em joias tangíveis. Ao testar o gerador da Arcade, por exemplo, um usuário pode expressar seu amor por opalas e, em questão de minutos, ver um colar floral em ouro ganhar vida. Após a seleção do design, um dos artesãos da plataforma é designado para criar a peça, que é então enviada para aprovação do cliente. O processo, que leva cerca de duas semanas, combina tecnologia de ponta com o toque humano de artesãos qualificados.

No entanto, nem tudo é perfeito. O gerador de IA pode enfrentar desafios, como a dificuldade em adicionar múltiplos elementos a um design ou criar objetos complexos. Para contornar isso, a Arcade oferece uma ferramenta de edição que permite aos usuários ajustar seus designs, garantindo que a visão original seja realizada da melhor forma possível.

Preços e Acessibilidade

Os preços para criar joias personalizadas na Arcade podem variar bastante, com peças simples custando a partir de 100edesignsmaiscomplexosultrapassando100edesignsmaiscomplexosultrapassando1.000. O custo final depende de fatores como material, tamanho e especificações adicionais. Mesmo que alguns usuários não possam comprar suas criações, a plataforma incentiva a exploração criativa, permitindo que todos compartilhem suas ideias em “Dream Boards”.

Oportunidades para Designers

Um dos aspectos mais intrigantes da Arcade AI é a possibilidade de os “Dreamers” lucrarem com suas criações. Os usuários podem se tornar vendedores e ganhar uma comissão de 2,5% sobre as vendas, desde que cumpram certos critérios, como ter 100 seguidores e vender um número mínimo de itens. Essa abordagem não apenas democratiza o design de joias, mas também oferece uma nova fonte de renda para criadores.

Desafios e Controvérsias

Apesar de sua proposta inovadora, a Arcade AI enfrenta críticas e preocupações, especialmente entre designers de joias. A possibilidade de que suas criações únicas possam ser replicadas sem permissão levanta questões sobre direitos de propriedade intelectual. No entanto, Naficy assegura que os artesãos envolvidos na plataforma veem a Arcade como uma oportunidade de expandir seus negócios e se conectar diretamente com os consumidores.

O Futuro da Arcade AI

Com planos de expansão para outras categorias de produtos, como acessórios e vestuário, a Arcade AI está se posicionando para competir com outras plataformas de criação de produtos. Além disso, a fundadora deseja adicionar mais recursos sociais, como competições de design e interações entre usuários, criando uma comunidade vibrante em torno da criatividade.

Com um financiamento total de $17 milhões de investidores notáveis, incluindo Ashton Kutcher e Reid Hoffman, a Arcade AI está pronta para transformar o cenário do design de joias e muito mais.

Conclusão

A Arcade AI não é apenas uma plataforma de design; é uma nova forma de expressão criativa que combina tecnologia, arte e comunidade. Se você sempre sonhou em criar sua própria joia, agora é a sua chance de se tornar um “Dreamer” e dar vida às suas ideias. A magia da criação está a apenas um clique de distância!

Continue Lendo

Criatividade

A Ferramenta Revolucionária da Google DeepMind e Hugging Face para Detectar Conteúdos Gerados por IA

Publicado há

em

A tecnologia de inteligência artificial (IA) e os Modelos de Linguagem de Grande Escala (LLMs) têm transformado a maneira como produzimos e consumimos conteúdo. No entanto, a rápida proliferação de textos gerados por IA apresenta desafios para identificar a origem desses conteúdos, especialmente em ambientes onde a transparência é crítica. Para resolver esse problema, Google DeepMind e Hugging Face se uniram para lançar o SynthID Text, uma ferramenta inovadora que marca e detecta textos gerados por IA, estabelecendo um novo padrão de segurança e rastreabilidade na era digital.

Como Funciona o SynthID Text: A “Marca d’Água Invisível” para Textos Gerados por IA

O SynthID Text funciona inserindo uma marca d’água digital invisível no texto gerado por LLMs. Esse recurso é baseado em uma técnica chamada “amostragem por torneio”, que insere pequenas e imperceptíveis alterações linguísticas que não comprometem a qualidade do conteúdo nem o funcionamento dos modelos. Essa marca é detectável por um classificador treinado especialmente para identificar textos gerados por IA, ajudando a garantir a autenticidade do conteúdo em uma era de fluxos de informações e desinformações acelerados.

O SynthID Text está disponível para desenvolvedores na popular biblioteca Transformers do Hugging Face, o que torna a adoção desta ferramenta prática e acessível para empresas que utilizam LLMs em suas aplicações. A ferramenta permite flexibilidade na intensidade da marcação, possibilitando que empresas ajustem o nível de marca d’água conforme o tipo de conteúdo e o modelo de IA que utilizam. Além disso, as configurações de marcação são protegidas contra cópia, assegurando que o controle da ferramenta permaneça nas mãos de quem a implementa.

Por Que o SynthID Text É Importante para o Futuro dos Conteúdos Digitais

No cenário atual, onde é essencial diferenciar o conteúdo criado por IA do conteúdo humano, a tecnologia de marcação de textos do SynthID Text representa uma mudança significativa. As empresas agora podem marcar suas respostas geradas por IA para promover a transparência com os usuários finais, e isso é um passo crítico para prevenir o uso indevido de conteúdo, que pode ser facilmente distribuído sem a devida atribuição.

Testado em larga escala em mais de 20 milhões de respostas de modelos Gemini, o SynthID Text mostrou-se altamente eficaz em detectar a origem dos textos em ambientes de produção de alto volume. Essa ampla base de testes demonstra a viabilidade de implementar a ferramenta em empresas que lidam com grandes quantidades de conteúdo gerado por IA, com benefícios que vão desde a proteção da marca até a responsabilidade digital.

Limitações e Desafios: O SynthID Text Resolve Todos os Problemas?

Embora a tecnologia seja promissora, o SynthID Text apresenta algumas limitações. A marcação é altamente eficaz em textos que passam por pequenas edições, mas sua eficácia diminui significativamente em conteúdos que foram reescritos ou reestruturados em grande escala. O mesmo ocorre para textos factuais, que podem não reter as marcas de identificação com tanta precisão.

Outro ponto a considerar é a capacidade limitada de impedir abusos intencionais. Embora o SynthID Text seja um passo importante para dificultar a apropriação indevida de conteúdos gerados por IA, ele não bloqueia totalmente práticas abusivas. Por isso, a tecnologia serve como uma camada adicional de segurança e não como uma solução definitiva.

SynthID Text: O Que Vem a Seguir? A marca d’água digital no texto abre portas para um futuro onde a identificação de conteúdo gerado por IA seja prática e acessível para empresas de todos os tamanhos. Com o tempo, espera-se que a ferramenta inspire desenvolvimentos adicionais para tornar o rastreamento e a autenticação de conteúdo ainda mais robustos. E à medida que a IA continua a moldar o futuro da comunicação digital, ferramentas como o SynthID Text serão essenciais para promover a confiança, a transparência e a segurança dos dados.

Seja você um desenvolvedor, um empresário ou um entusiasta da tecnologia, o SynthID Text sinaliza um avanço importante para todos que buscam soluções práticas e escaláveis no combate à desinformação e no reforço da autenticidade no ambiente digital.

Artigo baseado na matéria da Venturebeat.com

Continue Lendo

Criatividade

Google, Microsoft e Perplexity promovem racismo científico em resultados de pesquisa de IA

Publicado há

em

A Inteligência Artificial (IA) transformou a maneira como buscamos informações, mas nem sempre os resultados são isentos de preconceitos ou distorções. Recentemente, uma investigação liderada pelo pesquisador Patrik Hermansson, da organização Hope Not Hate, revelou como motores de busca baseados em IA — incluindo os da Google, Microsoft e Perplexity — têm exibido estudos com viés racial que afirmam falsamente a existência de superioridade genética entre diferentes grupos étnicos. Esta situação destaca como os algoritmos e a seleção de dados em plataformas de IA podem promover e normalizar desinformação com potencial para radicalizar usuários e aprofundar preconceitos.

Como os Motores de Busca com IA Estão Amplificando Ideias Racistas

A investigação mostrou que diversas ferramentas de IA têm promovido conteúdos ligados a Richard Lynn, uma figura polêmica no movimento conhecido como “ciência racial”, cujos estudos defendem diferenças de QI entre raças. Embora amplamente desacreditados, esses estudos estão disponíveis online e acabam sendo usados por sistemas de IA para responder a perguntas sobre inteligência humana e diferenças raciais. Isso ocorre porque algoritmos são treinados para buscar dados “disponíveis” na web, o que inclui, muitas vezes, fontes de baixa qualidade ou com viés claro.

A promoção desses dados levanta sérias preocupações sobre o papel das IAs na disseminação de ideias que já foram amplamente refutadas por especialistas, mas que continuam a circular. Quando plataformas como Google Overviews e Perplexity utilizam estudos controversos e até fóruns como o Reddit como fontes de resposta para consultas complexas, sem citar explicitamente a origem da informação ou o contexto em que foi produzida, elas ajudam a normalizar conceitos racistas sob a falsa aparência de objetividade científica.

Acadêmicos e a Responsabilidade sobre a Qualidade dos Dados

Diversos especialistas criticaram a metodologia utilizada por Lynn, destacando que seus estudos sobre QI se baseiam em amostras limitadas e tendenciosas, frequentemente coletadas em comunidades marginalizadas. Apesar disso, o uso de seus dados em contextos acadêmicos e jornalísticos pode ter contribuído para sua longevidade. Essa circulação ajuda a consolidar uma presença digital desses dados que, quando processados por algoritmos, acabam sendo percebidos como informações “legítimas” e dignas de resposta.

A Google reconheceu recentemente as dificuldades em garantir a qualidade das fontes na web, especialmente em consultas mais complexas. No entanto, a empresa — e outras que trabalham com IA de busca — tem a responsabilidade de refinar seus algoritmos para evitar a promoção de dados sem fundamentação científica. Assim, os acadêmicos que já citaram esses estudos em pesquisas anteriores também enfrentam um dilema ético sobre o impacto de suas citações e como elas são recuperadas pela IA no ambiente digital.

O Perigo da Desinformação e o Papel das Plataformas de IA

Quando informações tendenciosas e desatualizadas são oferecidas como “verdades” para o usuário comum, existe um grande risco de amplificação de ideias preconceituosas. Esse problema não é apenas uma questão de viés nos algoritmos; é uma questão de segurança. A normalização da falsa ideia de que hierarquias raciais são “naturais” pode levar à radicalização de indivíduos, que acreditam em dados enviesados como se fossem uma verdade científica.

No cenário atual, a disseminação de desinformação é uma realidade alarmante, e plataformas de IA têm um papel central nesse desafio. Acadêmicos, desenvolvedores de IA e plataformas digitais precisam trabalhar juntos para criar mecanismos de verificação de dados mais robustos e filtros que priorizem fontes de alta qualidade.

A investigação de Hermansson traz à tona uma questão crucial: a tecnologia e seus algoritmos de busca têm o poder de moldar a visão de mundo das pessoas, para o bem ou para o mal. No caso da inteligência artificial, que depende de dados e algoritmos, é fundamental implementar verificações rigorosas para evitar a propagação de informações distorcidas e perigosas. A transparência sobre as fontes de dados, a precisão das informações e a ética na escolha das respostas são passos essenciais para construir uma IA que realmente promova conhecimento e inclusão, e não desinformação e preconceito.

Artigo baseado na matéria da Wired

Continue Lendo

Trending