BlockBeats informou em 27 de fevereiro que a OpenAI, desenvolvedora do ChatGPT, recentemente afirmou que baniu e removeu contas de usuários da Coreia do Norte, suspeitos de usar sua tecnologia para atividades maliciosas, incluindo vigilância e manipulação da opinião pública. Em um relatório, a OpenAI apontou que essas atividades são formas pelas quais regimes autoritários podem usar a tecnologia de IA para controlar os Estados Unidos e seu próprio povo. A empresa também acrescentou que usa ferramentas de IA para detectar essas operações maliciosas. A OpenAI não revelou o número exato de contas banidas nem o período em que as ações ocorreram. Em um caso, suspeitos de comportamento malicioso relacionados à Coreia do Norte usaram IA para gerar currículos e perfis online falsos de candidatos a emprego, com o objetivo fraudulento de se candidatar a vagas em empresas ocidentais. Além disso, há também uma série de contas do ChatGPT, aparentemente relacionadas a fraudes financeiras no Camboja, que usam a tecnologia da OpenAI para traduzir e gerar comentários em plataformas de mídia social e comunicação (incluindo X e Facebook).
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
OpenAI baniu a organização de Hackers norte-coreanos suspeita de atividades maliciosas conta
BlockBeats informou em 27 de fevereiro que a OpenAI, desenvolvedora do ChatGPT, recentemente afirmou que baniu e removeu contas de usuários da Coreia do Norte, suspeitos de usar sua tecnologia para atividades maliciosas, incluindo vigilância e manipulação da opinião pública. Em um relatório, a OpenAI apontou que essas atividades são formas pelas quais regimes autoritários podem usar a tecnologia de IA para controlar os Estados Unidos e seu próprio povo. A empresa também acrescentou que usa ferramentas de IA para detectar essas operações maliciosas. A OpenAI não revelou o número exato de contas banidas nem o período em que as ações ocorreram. Em um caso, suspeitos de comportamento malicioso relacionados à Coreia do Norte usaram IA para gerar currículos e perfis online falsos de candidatos a emprego, com o objetivo fraudulento de se candidatar a vagas em empresas ocidentais. Além disso, há também uma série de contas do ChatGPT, aparentemente relacionadas a fraudes financeiras no Camboja, que usam a tecnologia da OpenAI para traduzir e gerar comentários em plataformas de mídia social e comunicação (incluindo X e Facebook).