AI-приватность рушится: "Диалоги ChatGPT" на голом основании перед законом; Альтман: я боюсь вводить личные данные, трудно знать, кто получит эти данные.
Сэм Альтман, генеральный директор OpenAI, предупреждает, что разговоры с ChatGPT не защищены юридической привилегией и могут стать доказательством в судебном разбирательстве, что вызывает обеспокоенность по поводу пробелов в конфиденциальности ИИ и расширения слежки. (Синопсис: Сэм Олтман смотрит на будущее ИИ с точки зрения начинающих отцов: гуманоидные роботы идут, вы готовы?) (Справочное дополнение: может ли ИИ отменить дело? Ни одна женщина-юрист не полагается на ChatGPT, чтобы раскопать 5 миллионов мошенничеств с наследством и убедить суд возобновить расследование ИИ стал органично интегрированным в повседневную жизнь, но скрытые опасения, которые приходят с удобством, оказываются в центре внимания: любой, кто наберет слово в ChatGPT сегодня, завтра может предстать перед судом. Генеральный директор OpenAI Сэм Альтман недавно предупредил в разговоре с ведущим подкаста Тео фоном: «Когда вы делитесь самым конфиденциальным контентом с ChatGPT, нас могут попросить предоставить его в случае судебного иска. В настоящее время существует правовая защита привилегий при общении с терапевтом, юристом или врачом, но мы не установили такой механизм для разговоров с ChatGPT». В одном предложении обнаруживается пробел, который долгое время упускался из виду. Медицинские карты, беседы с адвокатами и религиозные конфессии – все это защищено законами или этическими кодексами, а доступ к судебным делам должен превышать высокие пороги; У чат-ботов нет этого брандмауэра, а текст взаимодействия пользователя с моделью не является законодательным исключением, и поставщик услуг должен передать файл до тех пор, пока не будет вручена повестка в суд. Конфликт между политикой и судебным разбирательством Хотя в политике конфиденциальности на официальном сайте OpenAI указано, что данные шифруются при передаче, она не обеспечивает сквозного шифрования. В документе также говорится, что пользовательский контент «может быть передан третьим лицам». Такого рода гибкость, которая распространена в бизнес-операциях, в последнее время достигла апогея противоречий. В иске New York Times об авторском праве постановление суда, требующее от OpenAI хранить все соответствующие пользовательские данные, прямо противоречило рекламируемому заявлению компании «удалить или свести к минимуму сбор», полностью демонстрируя отсутствие детальной классификации услуг ИИ в действующей правовой базе. Когда для обучения модели ИИ требуется большой корпус, предприятия, как правило, сохраняют текст в течение длительного времени для оптимизации алгоритмов; Как только официальный документ попадает под юрисдикцию, пользователь теряет право на удаление. Ритм закона и технологий не синхронизирован, что делает конфликты неизбежными. Альтман сказал: «Вероятно, это одна из причин, почему я иногда боюсь использовать определенные технологии искусственного интеллекта, потому что я не знаю, сколько личной информации я хочу вводить, потому что я не знаю, у кого будет эта информация. Возможности мониторинга предприятия Это не абстрактный страх, что у компаний могут возникнуть проблемы с мониторингом после того, как у них появится личная информация. Как только чаты становятся доступными для поиска в больших масштабах, у правительств и бизнеса появляется стимул превращать разговоры в режиме реального времени в оценку рисков или поведенческие прогнозы. Для юристов, врачей, психологов и других специалистов использование ChatGPT для ответов на вопросы клиентов или пациентов, казалось бы, экономящее время, может нарушить профессиональную этику. Поскольку поставщик услуг имеет право анализировать загруженный текст, это равносильно раскрытию секретов клиента третьим лицам. Альтман также отметил: «Я беспокоюсь, что чем больше ИИ будет в мире, тем более всепроникающей будет слежка. История снова и снова доказывает, что правительства склонны заходить слишком далеко в этом отношении, и это меня действительно беспокоит». Традиционная адвокатская тайна требует, чтобы информация распространялась только между сторонами; Внедрение ИИ эквивалентно дополнительной паре невидимых глаз, и нет готового положения, чтобы дать такой же уровень защиты. Специалисты, которые не обновляют свои контракты и рабочие процессы, скорее всего, неосознанно нарушат закон. Более безопасная экосистема ИИ должна двигаться по трем осям одновременно. Во-первых, законодатель должен сформулировать четкие правила «цифровых юридических привилегий», которые шифруют определенные чаты и включают их в высокий порог судебной экспертизы. Кроме того, компании должны интегрировать сквозное шифрование, минимальное хранение и автономию клиентов в разработку продукта, а не заполнять дыры постфактум. Самое главное и то, что мы можем сделать, это то, что пользователи должны проявить инициативу по отделению высокочувствительной информации от общих запросов и при необходимости переключиться на традиционные защищенные каналы. Эффективность ИИ не должна достигаться за счет конфиденциальности. Поскольку диалоговые окна заменяют клавиатуры и телефоны, нужна не тишина, а поддающиеся проверке правовые гарантии и технические ограждения. Напоминание Альтмана может быть не из приятных, но оно предлагает собой зеркало: отражение увеличивающегося разрыва между скоростью инноваций и институциональным восстановлением. Заполнение пробелов — единственный способ сделать так, чтобы ИИ действительно приносил пользу обществу. Похожие отчеты Представьте себе RobotFi: роботы тоже в цепочке, какой новый геймплей они привнесут? Бот Виталика "мяу" вызвал бурную дискуссию, сообщество Ethereum: все мои деньги на людей, которые учатся кошачьему лаю Вычислительная мощность - это король! Хуан Жэньсюнь о том, как ИИ перестроит глобальные цепочки добавленной стоимости, когда роботы получат широкое распространение, а ИИ ускорит возвращение производства в США? «Конфиденциальность AI сворачивает «разговор ChatGPT» голым перед законом; Альтман: Я боюсь вводить личную информацию, трудно понять, кто получит эту информацию» Эта статья была впервые опубликована в журнале BlockTempo «Dynamic Trend - The Most Influence Blockchain News Media».
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
AI-приватность рушится: "Диалоги ChatGPT" на голом основании перед законом; Альтман: я боюсь вводить личные данные, трудно знать, кто получит эти данные.
Сэм Альтман, генеральный директор OpenAI, предупреждает, что разговоры с ChatGPT не защищены юридической привилегией и могут стать доказательством в судебном разбирательстве, что вызывает обеспокоенность по поводу пробелов в конфиденциальности ИИ и расширения слежки. (Синопсис: Сэм Олтман смотрит на будущее ИИ с точки зрения начинающих отцов: гуманоидные роботы идут, вы готовы?) (Справочное дополнение: может ли ИИ отменить дело? Ни одна женщина-юрист не полагается на ChatGPT, чтобы раскопать 5 миллионов мошенничеств с наследством и убедить суд возобновить расследование ИИ стал органично интегрированным в повседневную жизнь, но скрытые опасения, которые приходят с удобством, оказываются в центре внимания: любой, кто наберет слово в ChatGPT сегодня, завтра может предстать перед судом. Генеральный директор OpenAI Сэм Альтман недавно предупредил в разговоре с ведущим подкаста Тео фоном: «Когда вы делитесь самым конфиденциальным контентом с ChatGPT, нас могут попросить предоставить его в случае судебного иска. В настоящее время существует правовая защита привилегий при общении с терапевтом, юристом или врачом, но мы не установили такой механизм для разговоров с ChatGPT». В одном предложении обнаруживается пробел, который долгое время упускался из виду. Медицинские карты, беседы с адвокатами и религиозные конфессии – все это защищено законами или этическими кодексами, а доступ к судебным делам должен превышать высокие пороги; У чат-ботов нет этого брандмауэра, а текст взаимодействия пользователя с моделью не является законодательным исключением, и поставщик услуг должен передать файл до тех пор, пока не будет вручена повестка в суд. Конфликт между политикой и судебным разбирательством Хотя в политике конфиденциальности на официальном сайте OpenAI указано, что данные шифруются при передаче, она не обеспечивает сквозного шифрования. В документе также говорится, что пользовательский контент «может быть передан третьим лицам». Такого рода гибкость, которая распространена в бизнес-операциях, в последнее время достигла апогея противоречий. В иске New York Times об авторском праве постановление суда, требующее от OpenAI хранить все соответствующие пользовательские данные, прямо противоречило рекламируемому заявлению компании «удалить или свести к минимуму сбор», полностью демонстрируя отсутствие детальной классификации услуг ИИ в действующей правовой базе. Когда для обучения модели ИИ требуется большой корпус, предприятия, как правило, сохраняют текст в течение длительного времени для оптимизации алгоритмов; Как только официальный документ попадает под юрисдикцию, пользователь теряет право на удаление. Ритм закона и технологий не синхронизирован, что делает конфликты неизбежными. Альтман сказал: «Вероятно, это одна из причин, почему я иногда боюсь использовать определенные технологии искусственного интеллекта, потому что я не знаю, сколько личной информации я хочу вводить, потому что я не знаю, у кого будет эта информация. Возможности мониторинга предприятия Это не абстрактный страх, что у компаний могут возникнуть проблемы с мониторингом после того, как у них появится личная информация. Как только чаты становятся доступными для поиска в больших масштабах, у правительств и бизнеса появляется стимул превращать разговоры в режиме реального времени в оценку рисков или поведенческие прогнозы. Для юристов, врачей, психологов и других специалистов использование ChatGPT для ответов на вопросы клиентов или пациентов, казалось бы, экономящее время, может нарушить профессиональную этику. Поскольку поставщик услуг имеет право анализировать загруженный текст, это равносильно раскрытию секретов клиента третьим лицам. Альтман также отметил: «Я беспокоюсь, что чем больше ИИ будет в мире, тем более всепроникающей будет слежка. История снова и снова доказывает, что правительства склонны заходить слишком далеко в этом отношении, и это меня действительно беспокоит». Традиционная адвокатская тайна требует, чтобы информация распространялась только между сторонами; Внедрение ИИ эквивалентно дополнительной паре невидимых глаз, и нет готового положения, чтобы дать такой же уровень защиты. Специалисты, которые не обновляют свои контракты и рабочие процессы, скорее всего, неосознанно нарушат закон. Более безопасная экосистема ИИ должна двигаться по трем осям одновременно. Во-первых, законодатель должен сформулировать четкие правила «цифровых юридических привилегий», которые шифруют определенные чаты и включают их в высокий порог судебной экспертизы. Кроме того, компании должны интегрировать сквозное шифрование, минимальное хранение и автономию клиентов в разработку продукта, а не заполнять дыры постфактум. Самое главное и то, что мы можем сделать, это то, что пользователи должны проявить инициативу по отделению высокочувствительной информации от общих запросов и при необходимости переключиться на традиционные защищенные каналы. Эффективность ИИ не должна достигаться за счет конфиденциальности. Поскольку диалоговые окна заменяют клавиатуры и телефоны, нужна не тишина, а поддающиеся проверке правовые гарантии и технические ограждения. Напоминание Альтмана может быть не из приятных, но оно предлагает собой зеркало: отражение увеличивающегося разрыва между скоростью инноваций и институциональным восстановлением. Заполнение пробелов — единственный способ сделать так, чтобы ИИ действительно приносил пользу обществу. Похожие отчеты Представьте себе RobotFi: роботы тоже в цепочке, какой новый геймплей они привнесут? Бот Виталика "мяу" вызвал бурную дискуссию, сообщество Ethereum: все мои деньги на людей, которые учатся кошачьему лаю Вычислительная мощность - это король! Хуан Жэньсюнь о том, как ИИ перестроит глобальные цепочки добавленной стоимости, когда роботы получат широкое распространение, а ИИ ускорит возвращение производства в США? «Конфиденциальность AI сворачивает «разговор ChatGPT» голым перед законом; Альтман: Я боюсь вводить личную информацию, трудно понять, кто получит эту информацию» Эта статья была впервые опубликована в журнале BlockTempo «Dynamic Trend - The Most Influence Blockchain News Media».