El colapso de la privacidad de la IA "Diálogo de ChatGPT" se presenta desnudo ante la ley; Altman: tengo miedo de ingresar datos personales, es difícil saber quién obtendrá la información.
Sam Altman, CEO de OpenAI, advierte que las conversaciones con ChatGPT no están protegidas por el privilegio legal y pueden convertirse en evidencia en litigios, lo que genera preocupaciones sobre las brechas de privacidad de la IA y la expansión de la vigilancia. (Sinopsis: Sam Altman analiza el futuro de la IA de la mano de papás novatos: se acercan robots humanoides, ¿estás preparado?) (Suplemento de antecedentes: ¿Puede la IA revertir el caso? Ninguna abogada confía en ChatGPT para desenterrar 5 millones de estafas de herencias y persuadir al tribunal para que reinicie la investigación La IA se ha integrado a la perfección en la vida cotidiana, pero las preocupaciones ocultas que conlleva la comodidad están saliendo a la luz: cualquiera que escriba una palabra en ChatGPT hoy puede comparecer ante el tribunal mañana. El CEO de OpenAI, Sam Altman, advirtió recientemente en una conversación con el presentador de podcast Theo Von: "Cuando compartes el contenido más sensible con ChatGPT, es posible que se nos pida que lo proporcionemos en caso de una demanda. Actualmente, existe una protección de privilegio legal cuando se habla con un terapeuta, abogado o médico, pero no hemos establecido tal mecanismo para las conversaciones con ChatGPT". Una frase revela una brecha que se ha pasado por alto durante mucho tiempo. Los historiales médicos, las charlas de abogados y las confesiones religiosas están protegidos por leyes o códigos éticos, y el acceso judicial debe cruzar umbrales elevados; Los chatbots no tienen este cortafuegos, y el texto de la interacción del usuario con el modelo no está legalmente exento, y el proveedor de servicios tiene que entregar el archivo siempre que se entregue la citación judicial. Conflicto entre la política y el litigio Aunque la política de privacidad en el sitio web oficial de OpenAI establece que los datos se cifran en tránsito, no proporciona cifrado de extremo a extremo. El documento también establece que el Contenido del Usuario "puede ser compartido con terceros". Este tipo de flexibilidad, que es común en las operaciones comerciales, ha sido empujada recientemente a la cúspide de la contradicción. En la demanda por derechos de autor del New York Times, la orden del tribunal que obligaba a OpenAI a conservar todos los datos relevantes de los usuarios chocó directamente con la declaración anunciada de la empresa de "eliminar o minimizar la recopilación", lo que demuestra plenamente la falta de clasificación granular de los servicios de IA en el marco legal actual. Cuando el entrenamiento de modelos de IA requiere un gran corpus, las empresas tienden a guardar texto durante mucho tiempo para optimizar los algoritmos; Una vez que un documento oficial cae en la jurisdicción, el usuario pierde el derecho de supresión. El ritmo de la ley y la tecnología no está sincronizado, lo que hace que el conflicto sea inevitable. Altman dijo: "Esta es probablemente una de las razones por las que a veces tengo miedo de usar ciertas tecnologías de IA, porque no sé cuánta información personal quiero ingresar porque no sé quién tendrá esa información. No es un temor abstracto que las empresas puedan tener problemas de monitoreo después de tener información personal. Una vez que los chats se pueden buscar a gran escala, los gobiernos y las empresas tienen un incentivo para convertir las conversaciones en tiempo real en evaluaciones de riesgos o predicciones de comportamiento. Para abogados, médicos, psicólogos y otros profesionales, el uso de ChatGPT para responder a las preguntas de los clientes o pacientes, aparentemente ahorrando tiempo, puede violar la ética profesional. Debido a que el proveedor de servicios tiene derecho a analizar el texto cargado, es equivalente a exponer los secretos del cliente a terceros. Altman señaló además: "Me preocupa que cuanta más IA haya en el mundo, más generalizada será la vigilancia. La historia ha demostrado una y otra vez que los gobiernos tienden a ir demasiado lejos en este sentido, y eso realmente me perturba". La prerrogativa tradicional de la relación abogado-cliente exige que la información circule únicamente entre las partes; La introducción de la IA es equivalente a un par adicional de ojos invisibles, y no existe una disposición preparada para brindar el mismo nivel de protección. Es probable que los profesionales que no actualicen sus contratos y flujos de trabajo infrinjan la ley sin saberlo. Un ecosistema de IA más seguro debe avanzar hacia tres ejes al mismo tiempo. En primer lugar, el legislador debería formular normas claras de "privilegio legal digital" que encripten chats específicos e incluyan en el alto umbral de la justicia forense. Además, las empresas deben integrar el cifrado de extremo a extremo, el almacenamiento mínimo y la autonomía del cliente en el diseño del producto, en lugar de llenar los vacíos a posteriori. Lo más importante y lo que podemos hacer es que los usuarios tomen la iniciativa de separar la información altamente sensible de las consultas generales y cambiar a los canales seguros tradicionales cuando sea necesario. La eficiencia de la IA no debe ir en detrimento de la privacidad. A medida que los cuadros de diálogo reemplazan a los teclados y los teléfonos, lo que se necesita no es silencio, sino salvaguardas legales verificables y barreras técnicas. El recordatorio de Altman puede no ser agradable, pero ofrece un espejo: un reflejo de la creciente brecha entre la velocidad de la innovación y la reparación institucional. Llenar los vacíos es la única manera de hacer que la IA beneficie realmente a la sociedad. Informes relacionados Imagine RobotFi: Los robots también están en la cadena, ¿qué nueva jugabilidad traerán? El "maullido" del bot de Vitalik causó una acalorada discusión, comunidad de Ethereum: todo mi dinero se presiona en personas que aprenden a ladrar gatos ¡El poder de cómputo es el rey! Huang Jenxun sobre cómo la IA reconstruirá las cadenas de valor globales, cuando los robots se generalicen y la IA acelere el regreso de la fabricación a los Estados Unidos. "La privacidad de la IA colapsa la "conversación de ChatGPT" desnuda frente a la ley; Altman: Tengo miedo de ingresar información personal, es difícil saber quién obtendrá la información" Este artículo se publicó por primera vez en "Dynamic Trend - The Most Influential Blockchain News Media" de BlockTempo.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El colapso de la privacidad de la IA "Diálogo de ChatGPT" se presenta desnudo ante la ley; Altman: tengo miedo de ingresar datos personales, es difícil saber quién obtendrá la información.
Sam Altman, CEO de OpenAI, advierte que las conversaciones con ChatGPT no están protegidas por el privilegio legal y pueden convertirse en evidencia en litigios, lo que genera preocupaciones sobre las brechas de privacidad de la IA y la expansión de la vigilancia. (Sinopsis: Sam Altman analiza el futuro de la IA de la mano de papás novatos: se acercan robots humanoides, ¿estás preparado?) (Suplemento de antecedentes: ¿Puede la IA revertir el caso? Ninguna abogada confía en ChatGPT para desenterrar 5 millones de estafas de herencias y persuadir al tribunal para que reinicie la investigación La IA se ha integrado a la perfección en la vida cotidiana, pero las preocupaciones ocultas que conlleva la comodidad están saliendo a la luz: cualquiera que escriba una palabra en ChatGPT hoy puede comparecer ante el tribunal mañana. El CEO de OpenAI, Sam Altman, advirtió recientemente en una conversación con el presentador de podcast Theo Von: "Cuando compartes el contenido más sensible con ChatGPT, es posible que se nos pida que lo proporcionemos en caso de una demanda. Actualmente, existe una protección de privilegio legal cuando se habla con un terapeuta, abogado o médico, pero no hemos establecido tal mecanismo para las conversaciones con ChatGPT". Una frase revela una brecha que se ha pasado por alto durante mucho tiempo. Los historiales médicos, las charlas de abogados y las confesiones religiosas están protegidos por leyes o códigos éticos, y el acceso judicial debe cruzar umbrales elevados; Los chatbots no tienen este cortafuegos, y el texto de la interacción del usuario con el modelo no está legalmente exento, y el proveedor de servicios tiene que entregar el archivo siempre que se entregue la citación judicial. Conflicto entre la política y el litigio Aunque la política de privacidad en el sitio web oficial de OpenAI establece que los datos se cifran en tránsito, no proporciona cifrado de extremo a extremo. El documento también establece que el Contenido del Usuario "puede ser compartido con terceros". Este tipo de flexibilidad, que es común en las operaciones comerciales, ha sido empujada recientemente a la cúspide de la contradicción. En la demanda por derechos de autor del New York Times, la orden del tribunal que obligaba a OpenAI a conservar todos los datos relevantes de los usuarios chocó directamente con la declaración anunciada de la empresa de "eliminar o minimizar la recopilación", lo que demuestra plenamente la falta de clasificación granular de los servicios de IA en el marco legal actual. Cuando el entrenamiento de modelos de IA requiere un gran corpus, las empresas tienden a guardar texto durante mucho tiempo para optimizar los algoritmos; Una vez que un documento oficial cae en la jurisdicción, el usuario pierde el derecho de supresión. El ritmo de la ley y la tecnología no está sincronizado, lo que hace que el conflicto sea inevitable. Altman dijo: "Esta es probablemente una de las razones por las que a veces tengo miedo de usar ciertas tecnologías de IA, porque no sé cuánta información personal quiero ingresar porque no sé quién tendrá esa información. No es un temor abstracto que las empresas puedan tener problemas de monitoreo después de tener información personal. Una vez que los chats se pueden buscar a gran escala, los gobiernos y las empresas tienen un incentivo para convertir las conversaciones en tiempo real en evaluaciones de riesgos o predicciones de comportamiento. Para abogados, médicos, psicólogos y otros profesionales, el uso de ChatGPT para responder a las preguntas de los clientes o pacientes, aparentemente ahorrando tiempo, puede violar la ética profesional. Debido a que el proveedor de servicios tiene derecho a analizar el texto cargado, es equivalente a exponer los secretos del cliente a terceros. Altman señaló además: "Me preocupa que cuanta más IA haya en el mundo, más generalizada será la vigilancia. La historia ha demostrado una y otra vez que los gobiernos tienden a ir demasiado lejos en este sentido, y eso realmente me perturba". La prerrogativa tradicional de la relación abogado-cliente exige que la información circule únicamente entre las partes; La introducción de la IA es equivalente a un par adicional de ojos invisibles, y no existe una disposición preparada para brindar el mismo nivel de protección. Es probable que los profesionales que no actualicen sus contratos y flujos de trabajo infrinjan la ley sin saberlo. Un ecosistema de IA más seguro debe avanzar hacia tres ejes al mismo tiempo. En primer lugar, el legislador debería formular normas claras de "privilegio legal digital" que encripten chats específicos e incluyan en el alto umbral de la justicia forense. Además, las empresas deben integrar el cifrado de extremo a extremo, el almacenamiento mínimo y la autonomía del cliente en el diseño del producto, en lugar de llenar los vacíos a posteriori. Lo más importante y lo que podemos hacer es que los usuarios tomen la iniciativa de separar la información altamente sensible de las consultas generales y cambiar a los canales seguros tradicionales cuando sea necesario. La eficiencia de la IA no debe ir en detrimento de la privacidad. A medida que los cuadros de diálogo reemplazan a los teclados y los teléfonos, lo que se necesita no es silencio, sino salvaguardas legales verificables y barreras técnicas. El recordatorio de Altman puede no ser agradable, pero ofrece un espejo: un reflejo de la creciente brecha entre la velocidad de la innovación y la reparación institucional. Llenar los vacíos es la única manera de hacer que la IA beneficie realmente a la sociedad. Informes relacionados Imagine RobotFi: Los robots también están en la cadena, ¿qué nueva jugabilidad traerán? El "maullido" del bot de Vitalik causó una acalorada discusión, comunidad de Ethereum: todo mi dinero se presiona en personas que aprenden a ladrar gatos ¡El poder de cómputo es el rey! Huang Jenxun sobre cómo la IA reconstruirá las cadenas de valor globales, cuando los robots se generalicen y la IA acelere el regreso de la fabricación a los Estados Unidos. "La privacidad de la IA colapsa la "conversación de ChatGPT" desnuda frente a la ley; Altman: Tengo miedo de ingresar información personal, es difícil saber quién obtendrá la información" Este artículo se publicó por primera vez en "Dynamic Trend - The Most Influential Blockchain News Media" de BlockTempo.