Entre em contato

Tecnologia

Redes sociais não serão responsabilizadas por todos os posts criminosos, mesmo após decisão do STF

Publicado há

em


Advogados destacam que punição dependerá da constatação de falhas sistêmicas na moderação. STF amplia a responsabilidade das plataformas digitais pelo que publicam
Redes sociais não serão responsabilizadas por todos os posts criminosos, mesmo depois de o Supremo Tribunal Federal (STF) determinar situações em que esses conteúdos devem ser derrubados sem ordem judicial, dizem especialistas ouvidos pelo g1.
Até então, o Marco Civil, que rege a internet no Brasil, só previa isso em casos de posts com cenas de nudez ou de atos sexuais de caráter privado, sem a autorização dos participantes.
Mas a mudança determinada pelo STF só valerá quando a Justiça entender que existiu falha sistêmica das plataformas, segundo advogados.
“O caso individual, a princípio, serve para lançar luz sobre o tema, mas a responsabilização só ocorre se for identificado um problema maior, recorrente”, disse Álvaro Palma, advogado constitucionalista e professor da FGV Direito Rio.

O julgamento no STF sobre as redes foi encerrado nesta quinta (26), mas os ministros já tinham formado maioria no último dia 11.
Além da conclusão dos votos, faltava que acertassem os detalhes sobre em quais casos se daria essa responsabilização das redes, o que também foi feito nesta quinta.
O Supremo definiu três formas de atuação das redes sociais contra posts ilegais, conforme o tipo de crime encontrado:
remoção proativa, sem necessidade de notificação/ordem judicial – para casos considerados graves, como discurso de ódio, racismo, pedofilia, pornografia infantil, incitação à violência, crimes contra a mulher, tráfico de pessoas e defesa de golpe de Estado;
remoção após ordem judicial – para crimes contra a honra (como calúnia, injúria e difamação)
remoção após notificação extrajudicial (pelo usuário ou advogados) – para “danos decorrentes de conteúdos gerados por terceiros em casos de crime ou atos ilícitos”, ou seja, para os demais crimes. É o chamado “notice and action”, que é aplicado na União Europeia.

Quem decide se existe falha recorrente?
Segundo o STF, conteúdos como discurso de ódio, racismo, pedofilia, incitação à violência e defesa de golpe de Estado devem ser removidos pelas plataformas de forma proativa e imediata — mesmo sem notificação prévia ou decisão judicial.
A responsabilidade civil, no entanto, só se aplica quando houver uma falha sistêmica, segundo Carlos Affonso Souza, advogado e diretor do Instituto de Tecnologia e Sociedade do Rio (ITS).
Ele explica que não existe uma definição jurídica precisa do que é uma falha sistêmica, mas que, de forma geral, se refere a situações em que falhas recorrentes das plataformas permitem a disseminação massiva de conteúdos ilícitos, gerando impactos graves e coletivos à sociedade.
Para Affonso, essa decisão do Supremo faz sentido, até porque as plataformas não teriam capacidade de monitorar tudo que circula nelas, mesmo com a ajuda de programas específicos.
“Não existe no mundo um software capaz de identificar com 100% de precisão, por exemplo, um ato antidemocrático.”
Ele alerta ainda que, até agora, não está definido quem decidirá se houve falha recorrente nas plataformas.
“O Supremo incorporou a ideia de risco sistêmico, que veio do PL das Fake News, mas não explicou quem decide se o risco é sistêmico: se será um juiz, o Ministério Público ou algum novo órgão”, afirmou.

O ‘meio termo’ que preocupa
Já o cenário em que as plataformas poderão ser responsabilizadas se não removerem o conteúdo ilegal após uma notificação extrajudicial pode levar a novos problemas, na visão de Affonso.
Isso porque, diferentemente dos casos graves, em que a remoção deve ser feita sem notificação, o STF não determinou quais crimes se enquadram nessa situação.
“Minha crítica é que, agora, praticamente todo o conteúdo ilícito foi jogado nessa prateleira. Isso pode levar à remoção excessiva de conteúdos lícitos, pois as plataformas vão preferir não correr riscos.”
Para Álvaro Palma, da FGV Direito Rio, a ideia de que possa haver remoções desnecessárias não se sustenta.
“Já existe controle. Hoje, ele é feito com base nos termos e condições de uso das plataformas. O que o Estado está dizendo agora é que esses mecanismos são insuficientes”, avalia.

Crimes contra a honra
Para crimes contra a honra (como calúnia, injúria e difamação), o STF manteve a necessidade de ordem judicial prévia para a remoção do conteúdo.
“Você se sentiu injuriado? Só depois que sair a decisão judicial — e se ela for descumprida — é que a plataforma poderá ser responsabilizada. Isso não mudou”, explica Palma.
Affonso concorda com a decisão do Supremo. “Se (esses crimes) entrassem na lógica da notificação extrajudicial, isso poderia reduzir a visibilidade de denúncias, o que seria negativo”, afirma.

Clique para ler matéria original

Continue Lendo

Negócios

‘Estou sendo paga para corrigir problemas causados ​​por IA’

Publicado há

em

 

Sarah Skidd Sarah Skidd, em uma jaqueta azul, sorri com uma árvore ao fundo.Sarah Skidd
Sarah Skidd ganha um bom dinheiro, melhorando a cópia escrita por IA

A IA está me fazendo dinheiro extra, diz Sarah Skidd, gerente de marketing de produtos que escreve para empresas de tecnologia e startups.

Em maio, a Sra. Skidd foi abordada por uma agência de conteúdo para reformular urgentemente a cópia do site que havia sido produzida via IA generativa para um cliente de hospitalidade.

O que deveria economizar dinheiro, em vez disso, causou uma série de problemas.

“Era o tipo de cópia que você normalmente vê na cópia da IA ​​- apenas muito básica; não era interessante”, diz Skidd.

“Era para vender e intrigar, mas em vez disso, era muito baunilha”.

Skidd passou cerca de 20 horas reescrevendo a cópia, cobrando US $ 100 (£ 74) por hora. Em vez de fazer pequenas mudanças, ela “teve que refazer a coisa toda”.

Skidd, que vive no Arizona, não está preocupado que as empresas estejam mudando para a IA, como o ChatGPT, em vez de usar redatores como ela.

“Talvez eu esteja sendo ingênuo, mas acho que se você for muito bom, não terá problemas.”

Por enquanto, ela está ouvindo escritores cujo papel principal agora é corrigir a cópia agitada pela IA.

“Alguém se conectou comigo e disse que isso era 90% de seu trabalho agora. Então, não é apenas eu ganhar dinheiro com tais erros, há outros escritores por aí”.

Skidd certamente não é anti-AI e acredita que pode ser um excelente recurso.

“Meu marido e filho são disléxicos e escrever para eles é muito difícil – qualquer coisa para ajudar alguém a escrever; pode ser uma mudança de vida”.

Nos últimos anos, a IA generativa decolou e as empresas estão recorrendo a sistemas como o ChatGPT desenvolvido pelo OpenAI e o Google Gemini para transformar práticas de negócios e reduzir o tempo e o dinheiro.

Mais de um terço (35%) das pequenas empresas planejam expandir o uso de IA dentro de dois anos, subindo para 60% entre os que visam um rápido crescimento de vendas, De acordo com a pesquisa da Federação de Pequenas Empresas.

Sophie Warner Sophie Warner com longos cabelos loirosSophie Warner
Sophie Warner está gastando mais tempo educando seus clientes sobre o uso da IA

No entanto, algumas empresas estão se apressando e, como mostra Skidd, muitas vezes pode criar mais trabalho e custos do que o originalmente pretendia.

Certamente, essa é a experiência da Sophie Warner, co-proprietária da Create Designs, uma agência de marketing digital em Hampshire no Reino Unido.

Nos últimos seis a oito meses, ela viu um aumento nos pedidos de ajuda de clientes que se voltaram para a IA para uma solução rápida, mas tiveram problemas.

“Antes que os clientes nos enviassem uma mensagem se estivessem tendo problemas com seu site ou quisessem introduzir novas funcionalidades”, diz Warner. “Agora eles vão conversar primeiro.”

Warner diz que isso levou os clientes a adicionar código ao site que foi sugerido pelo ChatGPT. Isso, ela diz, resultou em sites travando e clientes se tornando vulneráveis ​​a hackers.

Ela aponta para um cliente que, em vez de atualizar manualmente a página de eventos, que ela diz que levaria 15 minutos, virou -se para o Chatgpt para obter instruções mais fáceis.

O erro finalmente “custou a eles cerca de £ 360 e seus negócios caíram por três dias”.

Warner diz que também acontece com clientes maiores.

“Estamos gastando mais tempo educando os clientes sobre as consequências [of using AI].

“Muitas vezes, temos que cobrar uma taxa de investigação para descobrir o que deu errado, pois eles não querem admitir, e o processo de corrigir esses erros leva muito mais tempo do que se os profissionais tivessem sido consultados desde o início”.

O professor Feng Li, reitor associado de pesquisa e inovação na Bayes Business School, diz que algumas empresas estão otimistas demais sobre o que as ferramentas atuais da IA ​​podem fazer.

Ele ressalta que a IA é conhecida por alucinar – para gerar conteúdo irrelevante, inventado ou inconsistente.

“A supervisão humana é essencial”, diz ele.

“Vimos empresas gerar conteúdo do site de baixa qualidade ou implementar código defeituoso que quebra sistemas críticos.

“A falta de implementação pode levar a danos à reputação e custos inesperados – e até passivos significativos, geralmente exigindo retrabalho por profissionais”.

Barot Kashish Barot Barot em uma jaqueta cor de camurçaKashish Barot
Kashish Barot edita o conteúdo da IA ​​para fazer parecer mais humano

Em Gujarat, no noroeste da Índia, o redator Kashish Barot diz que está editando conteúdo escrito pela IA para clientes baseados nos EUA para que pareçam mais humanos e remover padrões de frases que fazem com que pareça a IA.

Apesar da qualidade do conteúdo, ela diz que os clientes estão se acostumando à velocidade da IA ​​e que está criando expectativas irreais.

“A IA realmente faz com que todos pensem que são alguns minutos funcionando”, diz Barot, que diz que os clientes estão usando o ChatGPT da IA ​​aberta.

“No entanto, a boa cópia, como escrever, leva tempo porque você precisa pensar e não se curar como a IA, o que também não entende bem as nuances porque está curadoria dos dados”.

O hype em torno da IA ​​levou muitas empresas a experimentar sem metas claras, infraestrutura adequada ou uma compreensão realista do que a tecnologia pode atingir, diz o Prof Li.

“Por exemplo, as empresas devem avaliar se possuem a infraestrutura de dados corretas, processos de governança e recursos internos para apoiar o uso da IA. Confiar em ferramentas prontas para uso sem entender suas limitações pode levar a maus resultados”, diz ele.

O OpenAI diz que o ChatGPT pode ajudar com uma ampla gama de tarefas “, mas os resultados variam dependendo do modelo usado, a experiência do usuário trabalhando com a IA e como o prompt é escrito”.

Também ressalta que existem várias versões do ChatGPT.

“Cada um de nossos modelos possui recursos diferentes para concluir diferentes tarefas”.

Warner está preocupado com o impacto da IA, se – como esperado – melhorar rapidamente?

“Sim e não”, diz ela. “Embora pareça uma opção rápida e barata, a IA raramente leva em consideração a identidade única da marca, a demografia do destino ou o design focado na conversão. Como resultado, grande parte da saída parece genérica e pode realmente danificar a reputação ou eficácia da marca”.

Ela acrescenta: “Embora a IA possa ser uma ferramenta útil, ela simplesmente não pode substituir o valor da experiência e o contexto humano em nossa indústria”.

 

Clique para ler matéria original

Continue Lendo

Microsoft

Microsoft vai cortar até 9.000 empregos, pois investe em IA

Publicado há

em

 

A Microsoft confirmou que demitirá até 9.000 trabalhadores, na mais recente onda de cortes de empregos da gigante da gigante este ano.

A empresa disse que várias divisões seriam afetadas sem especificar quais, mas os relatórios sugerem que sua unidade de videogame Xbox será atingida.

A Microsoft estabeleceu planos de investir fortemente em inteligência artificial (IA) e está gastando US $ 80 bilhões (£ 68,6 bilhões) em enormes data centers para treinar modelos de IA.

Um porta -voz da empresa disse à BBC: “Continuamos implementando mudanças organizacionais necessárias para melhor posicionar a empresa para o sucesso em um mercado dinâmico”.

Os cortes equivaliam a 4% da força de trabalho global de 228.000 fortes da Microsoft.

Alguns projetos de videogame teriam sido afetados por eles.

De acordo com um e -mail interno Visto pela Verge E a publicação de jogos IGN, a Microsoft disse à equipe de jogos que a reinicialização planejada da série de tiro em primeira pessoa Perfect Dark Dark, junto com outro título, Everwild, será cancelada.

A Iniciativa, um estúdio de propriedade da Microsoft por trás da reinicialização perfeita, também será fechada, afirmou o memorando.

Os cortes de empregos também afetaram os funcionários em estúdios mais amplos de propriedade da Microsoft, incluindo a fabricante de automobilismo da Forza, a Turn 10 e o Elder Scrolls, desenvolvedor on -line Zenimax Online Studios, de acordo com as postagens de funcionários nas mídias sociais vistas pela BBC.

Matt Firor, diretor de estúdio da Zenimax Online Studios, anunciou na quarta -feira que deixaria sua posição em julho, depois de mais de 18 anos no estúdio.

“Enquanto não vou mais trabalhar no jogo, estarei torcendo e adicionando milhares de horas que já passei no jogo”, disse Um post atribuído ao Sr. Firor por Zenimax em X.

A Romero Games Ltd, um estúdio independente com sede em Galway, Irlanda – co -fundido pelo desenvolvedor da Doom, John Romero – também cortou a equipe após o financiamento para o jogo foi preso por seu editor.

“Essas pessoas são as melhores pessoas com quem já trabalhei, e lamento dizer que nosso jogo e nosso estúdio também foram afetados”, disse Sr. Romero em um post em x.

A Microsoft iniciou três outras rodadas de redundâncias até agora em 2025, inclusive em maio, quando disse que cortaria 6.000 funções.

Um oficial banco de dados Mantido pelo estado de Washington mostra que mais de 800 das posições eliminadas serão concentradas na cidade de Redmond e em Bellevue, outro centro da Microsoft em seu estado natal.

Nos últimos anos, como muitas outras grandes empresas de tecnologia, a Microsoft refocou seus negócios para o desenvolvimento da IA, incluindo investir em data centers e chips.

No ano passado, a empresa contratou a pioneira da IA ​​Britânica Mustafa Suleyman para liderar sua nova divisão da Microsoft AI.

Um dos principais executivos da Microsoft disse recentemente à BBC que o próximo meio século “será fundamentalmente definido pela inteligência artificial”, mudando a maneira como trabalhamos e interagimos entre si.

A Microsoft também é um dos principais investidores e acionistas da Openai, a empresa por trás do popular Chatbot ChatGPT, embora o relacionamento tenha ficado tenso nos últimos meses.

A Bloomberg relatou que a Microsoft lutou para vender seu assistente de IA, conhecido como Copilot, para clientes de negócios porque muitos trabalhadores do escritório preferem o ChatGPT.

As demissões entre os trabalhadores da Microsoft são como grandes empresas de tecnologia dos EUA, o principal talento da IA.

A Meta, dona do Facebook e Instagram, está caçando talentos de rivais para formar um laboratório de ‘superinteligência’.

O executivo -chefe Mark Zuckerberg esteve pessoalmente envolvido no recrutamento.

O chefe do Openai, Sam Altman, disse recentemente que os membros de sua equipe estavam recebendo ofertas de mais de US $ 100 milhões (£ 74,3 milhões) como “bônus de assinatura” da Meta.

No mês passado, o chefe da Amazon, Andy Jassy, ​​disse que espera que a IA substituisse alguns dos trabalhadores de sua empresa.

Relatórios adicionais de Liv McMahon

Clique para ler matéria original

Continue Lendo

Negócios

OpenAI ganha contrato de R$ 1 trilhão e fornecerá sistemas de inteligência artificial para a Defesa dos EUA

Publicado há

em


Dona do ChatGPT vai fornecer ferramentas de IA para ‘enfrentar desafios críticos de segurança nacional tanto em domínios de combate quanto empresariais’, afirmou nesta segunda-feira (16) o Departamento de Defesa dos EUA. 

A OpenAI, criadora do ChatGPT, venceu um contrato de US$ 200 milhões para fornecer ferramentas de inteligência artificial ao Departamento de Defesa dos Estados Unidos, conforme informado pelo Pentágono em um comunicado nesta segunda-feira (16).
“Sob este prêmio, o executor desenvolverá protótipos de capacidades de inteligência artificial de fronteira para enfrentar desafios críticos de segurança nacional tanto em domínios de combate quanto empresariais”, disse o Pentágono.


O trabalho será realizado principalmente em Washington e nas imediações, com conclusão prevista para julho de 2026, segundo o Pentágono.
A OpenAI disse na semana passada que subiu sua projeção de receita anual US$ 10 bilhões (cerca de R$ 55 bilhões), colocando a empresa em posição favorável para atingir sua meta anual, em meio à crescente adoção da IA.
Em março, a OpenAI disse que levantaria até US$ 40 bilhões (R$ 220 bilhões) em uma nova rodada de financiamento liderada pelo SoftBank Group, a uma avaliação de US$ 300 bilhões (R$ 1,6 trilhão). A OpenAI tinha 500 milhões de usuários ativos semanais no final de março.

Clique para ler matéria original

Continue Lendo

Trending