03.02.2023 | Сотрудников Microsoft призвали не делиться конфиденциальной информацией с ChatGPT |
Cтарший инженер из офиса Microsoft попросил своих сотрудников не делиться с ChatGPT конфиденциальной информацией во время его использования в рабочих задачах. Об этом сообщило издание Insider. На многочисленные вопросы сотрудников о возможности использования чат-бота в своей работе менеджеры рекомендовали им не передавать конфиденциальную информацию, в том числе код, а также напомнили им об ответственности за передачу таких данных. Аналогичное предупреждение получили работники Amazon. Стоит отметить, что Microsoft подтвердил своё решение инвестировать $10 млрд. в компанию OpenAI , разработчика ChatGPT, а также планирует в ближайшие недели интегрировать ИИ-технологии OpenAI в свою поисковую систему Bing и продукты Office . Профессор и директор лаборатории искусственного интеллекта в Университете Карнеги-Меллон Винсент Конитцер сказал, что сотрудничество Microsoft и OpenAI , возможно, вызовет конфликт интересов, поскольку Microsoft может извлечь выгоду из того, что OpenAI получит больше данных для обучения. Также он отметил, что в случае утечки конфиденциальной информации будет очень сложно определить виноватого - ответственность будут нести сотрудники Microsoft за разглашение или OpenAI за неосторожное использование информации, или даже виноватыми могут оказаться все. Условия обслуживания OpenAI разрешают Microsoft использовать все данные, созданные пользователями и чат-ботом ChatGPT. Компании договорились, что вся личная информация (PII) при этом удаляется. Однако, учитывая возросший интерес к ChatGPT, личную информацию сейчас невозможно идентифицировать и удалить. А корпоративная интеллектуальная собственность, скорее всего, не попадает под определение PII. |
Проверить безопасность сайта