OpenAI endurece regras do ChatGPT e garante ambiente seguro para quem faz renda com IA
São Francisco, EUA — Quem usa o ChatGPT para gerar renda de forma legítima acaba de ganhar um reforço de segurança. A OpenAI anunciou nesta terça-feira (data conforme Reuters) o banimento de várias contas que teriam ligação com entidades governamentais chinesas e outros grupos suspeitos de empregar a ferramenta em operações de monitoramento de redes sociais, phishing e desenvolvimento de malware.
No mais recente relatório público de ameaças, a empresa detalhou que alguns usuários solicitaram à IA propostas de “escuta” em plataformas sociais — prática que fere a política de segurança nacional da companhia. Segundo a OpenAI, as contas removidas buscavam automatizar processos maliciosos, inclusive por meio do modelo DeepSeek, também desenvolvido na China.
A ação não se limitou a perfis de língua chinesa. Contas associadas a grupos criminosos de idioma russo, que tentavam criar malwares com a ajuda do chatbot, igualmente foram bloqueadas. A OpenAI afirmou ter desarticulado e reportado mais de 40 redes desde fevereiro de 2023, ressaltando que seu modelo recusa solicitações “abertamente maliciosas”.
Para quem depende do ChatGPT em trabalhos de copywriting, atendimento ao cliente ou criação de produtos digitais, o reforço na moderação indica um ambiente mais protegido contra fraudes que poderiam prejudicar a reputação — e, por consequência, a renda — de empreendedores legítimos.
Imagem: Internet
A startup apoiada pela Microsoft soma hoje mais de 800 milhões de usuários semanais e, após uma venda secundária de ações concluída na semana passada, atingiu avaliação estimada em US$ 500 bilhões, tornando-se a empresa privada mais valiosa do mundo.
Com informações de InfoMoney
Compartilhe este conteúdo:



