Criatividade
Investimentos em startups de IA generativa ultrapassaram US$ 3,9 bilhões no terceiro trimestre de 2024

Nem todo mundo está convencido do retorno sobre o investimento da IA generativa. Mas muitos investidores estão, a julgar pelos últimos números do rastreador de financiamento PitchBook.
No terceiro trimestre de 2024, os VCs investiram US$ 3,9 bilhões em startups de IA generativa em 206 negócios, segundo a PitchBook. (Isso sem contar a rodada de US$ 6,6 bilhões da OpenAI .) E US$ 2,9 bilhões desse financiamento foram para empresas sediadas nos EUA em 127 negócios.
Alguns dos maiores vencedores no Q3 foram o assistente de codificação Magic (US$ 320 milhões em agosto), o provedor de pesquisa empresarial Glean (US$ 260 milhões em setembro) e a empresa de análise de negócios Hebbia (US$ 130 milhões em julho). A Moonshot AI da China levantou US$ 300 milhões em agosto, e a Sakana AI , uma startup japonesa focada em descobertas científicas, fechou uma parcela de US$ 214 milhões no mês passado.
A IA generativa, uma ampla amostra de tecnologias que inclui geradores de texto e imagem, assistentes de codificação, ferramentas de automação de segurança cibernética e muito mais, tem seus detratores. Especialistas questionam a confiabilidade da tecnologia e — no caso de modelos de IA generativa treinados em dados protegidos por direitos autorais sem permissão — sua legalidade .
Mas os VCs estão efetivamente apostando que a IA generativa ganhará espaço em setores grandes e lucrativos e que seu crescimento de longo prazo não será afetado pelos desafios que ela enfrenta hoje.
Talvez eles estejam certos. Um relatório da Forrester prevê que 60% dos céticos da IA generativa adotarão a tecnologia — conscientemente ou não — para tarefas de sumarização a resolução criativa de problemas. Isso é bem mais otimista do que a previsão da Gartner no início do ano de que 30% dos projetos de IA generativa serão abandonados após a prova de conceito até 2026.
“Grandes clientes estão lançando sistemas de produção que aproveitam as ferramentas de startup e modelos de código aberto”, disse Brendan Burke, analista sênior de tecnologia emergente na PitchBook, ao TechCrunch em uma entrevista. “A última onda de modelos mostra que novas gerações de modelos são possíveis e podem se destacar em campos científicos, recuperação de dados e execução de código.”
Um obstáculo formidável para a adoção generalizada da IA generativa são os enormes requisitos computacionais da tecnologia. Analistas da Bain projetam em um estudo recente que a IA generativa levará as empresas a construir data centers em escala de gigawatts — data centers que consomem de 5 a 20 vezes a quantidade de energia que o data center médio consome hoje — estressando uma cadeia de fornecimento de mão de obra e eletricidade já sobrecarregada.
Já a demanda por energia de data center impulsionada por IA generativa está prolongando a vida útil de usinas a carvão. O Morgan Stanley estima que, se essa tendência se mantiver, as emissões globais de gases de efeito estufa entre agora e 2030 podem ser três vezes maiores do que se a IA generativa não tivesse sido desenvolvida.
Várias das maiores operadoras de data center do mundo, incluindo Microsoft , Amazon , Google e Oracle, anunciaram investimentos em energia nuclear para compensar seus crescentes consumos de energia não renovável. (Em setembro, a Microsoft disse que extrairia energia da infame usina nuclear de Three Mile Island.) Mas pode levar anos até que esses investimentos dêem frutos.
Os investimentos em startups de IA generativa não mostram sinais de desaceleração — externalidades negativas que se danem. A ElevenLabs , a ferramenta de clonagem de voz viral, está supostamente buscando levantar fundos em uma avaliação de US$ 3 bilhões, enquanto a Black Forest Labs , a empresa por trás do notório gerador de imagens da X, está supostamente em negociações para uma rodada de financiamento de US$ 100 milhões.
Criatividade
Arcade AI: A Revolução na Criação de Joias Personalizadas com IA

No mundo em constante evolução da tecnologia e do design, uma nova plataforma está mudando a forma como as pessoas criam e compram joias personalizadas. Fundada por Mariam Naficy, uma empreendedora com um histórico impressionante no apoio a artistas independentes, a Arcade AI é uma inovadora marketplace que coloca o controle criativo diretamente nas mãos dos usuários, conhecidos como “Dreamers”.

O Que é a Arcade AI?
Lançada em beta em setembro, a Arcade AI é uma plataforma de design gerado por inteligência artificial que permite que os usuários insiram suas ideias e imagens em um gerador que produz uma variedade de opções de design de joias. Desde colares delicados até brincos chamativos, a Arcade oferece uma experiência única de personalização, onde cada peça é feita sob medida por artesãos talentosos.

A Experiência do Usuário
Imagine ter a capacidade de transformar suas ideias em joias tangíveis. Ao testar o gerador da Arcade, por exemplo, um usuário pode expressar seu amor por opalas e, em questão de minutos, ver um colar floral em ouro ganhar vida. Após a seleção do design, um dos artesãos da plataforma é designado para criar a peça, que é então enviada para aprovação do cliente. O processo, que leva cerca de duas semanas, combina tecnologia de ponta com o toque humano de artesãos qualificados.
No entanto, nem tudo é perfeito. O gerador de IA pode enfrentar desafios, como a dificuldade em adicionar múltiplos elementos a um design ou criar objetos complexos. Para contornar isso, a Arcade oferece uma ferramenta de edição que permite aos usuários ajustar seus designs, garantindo que a visão original seja realizada da melhor forma possível.

Preços e Acessibilidade
Os preços para criar joias personalizadas na Arcade podem variar bastante, com peças simples custando a partir de 100edesignsmaiscomplexosultrapassando100edesignsmaiscomplexosultrapassando1.000. O custo final depende de fatores como material, tamanho e especificações adicionais. Mesmo que alguns usuários não possam comprar suas criações, a plataforma incentiva a exploração criativa, permitindo que todos compartilhem suas ideias em “Dream Boards”.
Oportunidades para Designers

Um dos aspectos mais intrigantes da Arcade AI é a possibilidade de os “Dreamers” lucrarem com suas criações. Os usuários podem se tornar vendedores e ganhar uma comissão de 2,5% sobre as vendas, desde que cumpram certos critérios, como ter 100 seguidores e vender um número mínimo de itens. Essa abordagem não apenas democratiza o design de joias, mas também oferece uma nova fonte de renda para criadores.
Desafios e Controvérsias
Apesar de sua proposta inovadora, a Arcade AI enfrenta críticas e preocupações, especialmente entre designers de joias. A possibilidade de que suas criações únicas possam ser replicadas sem permissão levanta questões sobre direitos de propriedade intelectual. No entanto, Naficy assegura que os artesãos envolvidos na plataforma veem a Arcade como uma oportunidade de expandir seus negócios e se conectar diretamente com os consumidores.

O Futuro da Arcade AI
Com planos de expansão para outras categorias de produtos, como acessórios e vestuário, a Arcade AI está se posicionando para competir com outras plataformas de criação de produtos. Além disso, a fundadora deseja adicionar mais recursos sociais, como competições de design e interações entre usuários, criando uma comunidade vibrante em torno da criatividade.
Com um financiamento total de $17 milhões de investidores notáveis, incluindo Ashton Kutcher e Reid Hoffman, a Arcade AI está pronta para transformar o cenário do design de joias e muito mais.
Conclusão
A Arcade AI não é apenas uma plataforma de design; é uma nova forma de expressão criativa que combina tecnologia, arte e comunidade. Se você sempre sonhou em criar sua própria joia, agora é a sua chance de se tornar um “Dreamer” e dar vida às suas ideias. A magia da criação está a apenas um clique de distância!
Criatividade
A Ferramenta Revolucionária da Google DeepMind e Hugging Face para Detectar Conteúdos Gerados por IA

A tecnologia de inteligência artificial (IA) e os Modelos de Linguagem de Grande Escala (LLMs) têm transformado a maneira como produzimos e consumimos conteúdo. No entanto, a rápida proliferação de textos gerados por IA apresenta desafios para identificar a origem desses conteúdos, especialmente em ambientes onde a transparência é crítica. Para resolver esse problema, Google DeepMind e Hugging Face se uniram para lançar o SynthID Text, uma ferramenta inovadora que marca e detecta textos gerados por IA, estabelecendo um novo padrão de segurança e rastreabilidade na era digital.
Como Funciona o SynthID Text: A “Marca d’Água Invisível” para Textos Gerados por IA
O SynthID Text funciona inserindo uma marca d’água digital invisível no texto gerado por LLMs. Esse recurso é baseado em uma técnica chamada “amostragem por torneio”, que insere pequenas e imperceptíveis alterações linguísticas que não comprometem a qualidade do conteúdo nem o funcionamento dos modelos. Essa marca é detectável por um classificador treinado especialmente para identificar textos gerados por IA, ajudando a garantir a autenticidade do conteúdo em uma era de fluxos de informações e desinformações acelerados.
O SynthID Text está disponível para desenvolvedores na popular biblioteca Transformers do Hugging Face, o que torna a adoção desta ferramenta prática e acessível para empresas que utilizam LLMs em suas aplicações. A ferramenta permite flexibilidade na intensidade da marcação, possibilitando que empresas ajustem o nível de marca d’água conforme o tipo de conteúdo e o modelo de IA que utilizam. Além disso, as configurações de marcação são protegidas contra cópia, assegurando que o controle da ferramenta permaneça nas mãos de quem a implementa.
Por Que o SynthID Text É Importante para o Futuro dos Conteúdos Digitais
No cenário atual, onde é essencial diferenciar o conteúdo criado por IA do conteúdo humano, a tecnologia de marcação de textos do SynthID Text representa uma mudança significativa. As empresas agora podem marcar suas respostas geradas por IA para promover a transparência com os usuários finais, e isso é um passo crítico para prevenir o uso indevido de conteúdo, que pode ser facilmente distribuído sem a devida atribuição.
Testado em larga escala em mais de 20 milhões de respostas de modelos Gemini, o SynthID Text mostrou-se altamente eficaz em detectar a origem dos textos em ambientes de produção de alto volume. Essa ampla base de testes demonstra a viabilidade de implementar a ferramenta em empresas que lidam com grandes quantidades de conteúdo gerado por IA, com benefícios que vão desde a proteção da marca até a responsabilidade digital.
Limitações e Desafios: O SynthID Text Resolve Todos os Problemas?
Embora a tecnologia seja promissora, o SynthID Text apresenta algumas limitações. A marcação é altamente eficaz em textos que passam por pequenas edições, mas sua eficácia diminui significativamente em conteúdos que foram reescritos ou reestruturados em grande escala. O mesmo ocorre para textos factuais, que podem não reter as marcas de identificação com tanta precisão.
Outro ponto a considerar é a capacidade limitada de impedir abusos intencionais. Embora o SynthID Text seja um passo importante para dificultar a apropriação indevida de conteúdos gerados por IA, ele não bloqueia totalmente práticas abusivas. Por isso, a tecnologia serve como uma camada adicional de segurança e não como uma solução definitiva.
SynthID Text: O Que Vem a Seguir? A marca d’água digital no texto abre portas para um futuro onde a identificação de conteúdo gerado por IA seja prática e acessível para empresas de todos os tamanhos. Com o tempo, espera-se que a ferramenta inspire desenvolvimentos adicionais para tornar o rastreamento e a autenticação de conteúdo ainda mais robustos. E à medida que a IA continua a moldar o futuro da comunicação digital, ferramentas como o SynthID Text serão essenciais para promover a confiança, a transparência e a segurança dos dados.
Seja você um desenvolvedor, um empresário ou um entusiasta da tecnologia, o SynthID Text sinaliza um avanço importante para todos que buscam soluções práticas e escaláveis no combate à desinformação e no reforço da autenticidade no ambiente digital.
Artigo baseado na matéria da Venturebeat.com
Criatividade
Google, Microsoft e Perplexity promovem racismo científico em resultados de pesquisa de IA

A Inteligência Artificial (IA) transformou a maneira como buscamos informações, mas nem sempre os resultados são isentos de preconceitos ou distorções. Recentemente, uma investigação liderada pelo pesquisador Patrik Hermansson, da organização Hope Not Hate, revelou como motores de busca baseados em IA — incluindo os da Google, Microsoft e Perplexity — têm exibido estudos com viés racial que afirmam falsamente a existência de superioridade genética entre diferentes grupos étnicos. Esta situação destaca como os algoritmos e a seleção de dados em plataformas de IA podem promover e normalizar desinformação com potencial para radicalizar usuários e aprofundar preconceitos.
Como os Motores de Busca com IA Estão Amplificando Ideias Racistas
A investigação mostrou que diversas ferramentas de IA têm promovido conteúdos ligados a Richard Lynn, uma figura polêmica no movimento conhecido como “ciência racial”, cujos estudos defendem diferenças de QI entre raças. Embora amplamente desacreditados, esses estudos estão disponíveis online e acabam sendo usados por sistemas de IA para responder a perguntas sobre inteligência humana e diferenças raciais. Isso ocorre porque algoritmos são treinados para buscar dados “disponíveis” na web, o que inclui, muitas vezes, fontes de baixa qualidade ou com viés claro.
A promoção desses dados levanta sérias preocupações sobre o papel das IAs na disseminação de ideias que já foram amplamente refutadas por especialistas, mas que continuam a circular. Quando plataformas como Google Overviews e Perplexity utilizam estudos controversos e até fóruns como o Reddit como fontes de resposta para consultas complexas, sem citar explicitamente a origem da informação ou o contexto em que foi produzida, elas ajudam a normalizar conceitos racistas sob a falsa aparência de objetividade científica.
Acadêmicos e a Responsabilidade sobre a Qualidade dos Dados
Diversos especialistas criticaram a metodologia utilizada por Lynn, destacando que seus estudos sobre QI se baseiam em amostras limitadas e tendenciosas, frequentemente coletadas em comunidades marginalizadas. Apesar disso, o uso de seus dados em contextos acadêmicos e jornalísticos pode ter contribuído para sua longevidade. Essa circulação ajuda a consolidar uma presença digital desses dados que, quando processados por algoritmos, acabam sendo percebidos como informações “legítimas” e dignas de resposta.
A Google reconheceu recentemente as dificuldades em garantir a qualidade das fontes na web, especialmente em consultas mais complexas. No entanto, a empresa — e outras que trabalham com IA de busca — tem a responsabilidade de refinar seus algoritmos para evitar a promoção de dados sem fundamentação científica. Assim, os acadêmicos que já citaram esses estudos em pesquisas anteriores também enfrentam um dilema ético sobre o impacto de suas citações e como elas são recuperadas pela IA no ambiente digital.
O Perigo da Desinformação e o Papel das Plataformas de IA
Quando informações tendenciosas e desatualizadas são oferecidas como “verdades” para o usuário comum, existe um grande risco de amplificação de ideias preconceituosas. Esse problema não é apenas uma questão de viés nos algoritmos; é uma questão de segurança. A normalização da falsa ideia de que hierarquias raciais são “naturais” pode levar à radicalização de indivíduos, que acreditam em dados enviesados como se fossem uma verdade científica.
No cenário atual, a disseminação de desinformação é uma realidade alarmante, e plataformas de IA têm um papel central nesse desafio. Acadêmicos, desenvolvedores de IA e plataformas digitais precisam trabalhar juntos para criar mecanismos de verificação de dados mais robustos e filtros que priorizem fontes de alta qualidade.
A investigação de Hermansson traz à tona uma questão crucial: a tecnologia e seus algoritmos de busca têm o poder de moldar a visão de mundo das pessoas, para o bem ou para o mal. No caso da inteligência artificial, que depende de dados e algoritmos, é fundamental implementar verificações rigorosas para evitar a propagação de informações distorcidas e perigosas. A transparência sobre as fontes de dados, a precisão das informações e a ética na escolha das respostas são passos essenciais para construir uma IA que realmente promova conhecimento e inclusão, e não desinformação e preconceito.
Artigo baseado na matéria da Wired
-
Negócios7 meses
Runway Lança Controles Avançados de Câmera para Geração de Vídeo com IA
-
Criatividade7 meses
Google, Microsoft e Perplexity promovem racismo científico em resultados de pesquisa de IA
-
Apple7 meses
Apple Intelligence: Tudo o que Você Precisa Saber Sobre o Lançamento!
-
Criatividade7 meses
Arcade AI: A Revolução na Criação de Joias Personalizadas com IA
-
Audio7 meses
Meta Lança NotebookLlama: A Nova Alternativa do Podcasting com IA
-
Apps7 meses
O e-mail da Notion está próximo do lançamento
-
Audio8 meses
Adobe vai usar IA para gerar efeitos sonoros nos seus vídeos
-
Segurança8 meses
Reality Defender anuncia detecção de deepfake de vídeo em tempo real para plataformas de conferência na Web