BlockBeats informó el 27 de febrero que OpenAI, el desarrollador de ChatGPT, ha confirmado recientemente que ha prohibido y eliminado las cuentas de usuarios de Corea del Norte, sospechosos de utilizar su tecnología para actividades maliciosas, incluyendo vigilancia y manipulación de la opinión pública. En un informe, OpenAI señaló que estas actividades podrían ser una forma en que regímenes autoritarios utilicen la tecnología de IA para controlar a los estadounidenses y a su propia población. La compañía también mencionó que utilizan herramientas de IA para detectar estas operaciones maliciosas. OpenAI no reveló la cantidad exacta de cuentas prohibidas ni el período de tiempo en el que se llevaron a cabo las acciones. En un caso, los actores malintencionados posiblemente relacionados con Corea del Norte utilizaron la IA para crear currículums y perfiles personales falsos de solicitantes de empleo con el objetivo de solicitar fraudulentamente puestos de trabajo en empresas occidentales. Además, también se identificaron cuentas de ChatGPT sospechosas de estar relacionadas con fraudes financieros en Camboya, que utilizaban la tecnología de OpenAI para traducir y generar comentarios en plataformas de redes sociales y comunicación (incluidos X y Facebook).
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
OpenAI ha prohibido la cuenta del grupo de hackers norcoreanos sospechosos de actividades maliciosas
BlockBeats informó el 27 de febrero que OpenAI, el desarrollador de ChatGPT, ha confirmado recientemente que ha prohibido y eliminado las cuentas de usuarios de Corea del Norte, sospechosos de utilizar su tecnología para actividades maliciosas, incluyendo vigilancia y manipulación de la opinión pública. En un informe, OpenAI señaló que estas actividades podrían ser una forma en que regímenes autoritarios utilicen la tecnología de IA para controlar a los estadounidenses y a su propia población. La compañía también mencionó que utilizan herramientas de IA para detectar estas operaciones maliciosas. OpenAI no reveló la cantidad exacta de cuentas prohibidas ni el período de tiempo en el que se llevaron a cabo las acciones. En un caso, los actores malintencionados posiblemente relacionados con Corea del Norte utilizaron la IA para crear currículums y perfiles personales falsos de solicitantes de empleo con el objetivo de solicitar fraudulentamente puestos de trabajo en empresas occidentales. Además, también se identificaron cuentas de ChatGPT sospechosas de estar relacionadas con fraudes financieros en Camboya, que utilizaban la tecnología de OpenAI para traducir y generar comentarios en plataformas de redes sociales y comunicación (incluidos X y Facebook).