ЧатГПТ-4.0 обладает впечатляющими возможностями, но может стать кошмаром для конфиденциальности

OpenAI запустила ChatGPT-4o, которое обладает впечатляющими возможностями. ChatGPT-4o более похож на человека, чем предыдущие версии: способен решать уравнения, рассказывать сказки на ночь и определять эмоции по визуальным выражениям.
Однако, как журналист, занимающийся вопросами конфиденциальности, я считаю ChatGPT-4o обеспокоительным. ИИ требует огромного объема данных для работы, и уже использование чат-ботов требует ввода множества информации о себе. Это означает, что вы полагаетесь на OpenAI, владельца ChatGPT, для сохранения безопасности ваших данных и защиты вашей личной информации.
Однако ChatGPT уже вызвал шум в Европе из-за того, что его политики противоречили Общему регламенту по защите данных (GDPR) ЕС. Очень даже. Итальянские регулирующие органы даже временно запретили услугу в прошлом году.
В этой неделе была продемонстрирована еще одна будущая возможность ChatGPT-4o, при помощи нового приложения для macOS, которое способно получать доступ к экрану человека. Как вы можете себе представить, это вызывает больше сигналов тревоги в сообществе конфиденциальности, особенно учитывая потенциальное, хотя и не подтвержденное, партнерство Apple с Chat-GPT для усовершенствования функций в iOS 18 в этом году.
Я обсудил с экспертами риски, создаваемые сервисами, такими как ChatGPT, и его новейшей версией GPT-4o. Кроме того, я включил несколько советов, которые следует учитывать при использовании этой технологии для защиты вашей конфиденциальности.
По словам Оливера Уиллиса, партнера BDB Pitmans, конфиденциальные аспекты ChatGPT двойной направленности. “С точки зрения пользователя, как ChatGPT собирает и использует данные о вас во время использования? С точки зрения всех остальных, был ли ChatGPT обучен на информации о вас и что он сообщит пользователям о вас?”
В своей политике конфиденциальности OpenAI признает, что для обучения ChatGPT используется личная информация, говорит Уиллис. “Они подчеркивают, что информация для обучения не используется для создания профилей людей или для изучения их, но некоторые могут рассматривать использование этих данных как по своей сути навязчивое.”
OpenAI также признает, что использование личных данных для обучения ChatGPT означает, что ответы иногда содержат информацию об индивидах. “OpenAI предлагает механизм ограничения использования их данных для обучения ChatGPT, но менее ясно, что OpenAI будет делать для тех, кто возражает против разглашения их личных данных в ответе в чате,” говорит Уиллис.
ChatGPT собирает все данные, вводимые пользователем, и будет хранить эту информацию неограниченное время для обучения своих моделей, пока вы не откажетесь от этого, что делается не так уж и просто, говорит Мэттью Холман, партнер в Cripps LLP.
“На практике людям очень трудно осуществить свои права GDPR против больших языковых моделей (LLMs), таких как ChatGPT,” говорит Холман. Например, он говорит, что это может “создавать неточную информацию или галлюцинации; быть способным изменять информацию без объяснения и восстановление данных может быть почти невозможно после того, как они попадут в LLM.”
Опасения возрастают после демонстрации нового приложения для macOS, которое скоро появится в iOS, и может видеть все, что происходит на вашем экране. “При запуске, Mac-приложение ChatGPT поддерживает ручной захват снимка экрана или загрузку файла, а затем запрос к ChatGPT по этому поводу,” пишет сайт, посвященный Apple, 9to5Mac. “Но в будущем вы сможете нажать на кнопку, которая даст приложению доступ ко всему и вся на вашем дисплее.”
Это не новая возможность – как отмечает 9to5Mac, Apple предоставляет API для разработчиков, чтобы получить доступ к содержимому экрана устройства с вашего согласия, поэтому это не является злонамеренной функцией.
И, как сообщил мне представитель OpenAI, десктопное приложение ChatGPT по умолчанию не видит ваш экран. Фактически, когда пользователь запрашивает ChatGPT с помощью Vision, фирма использует разрешение на запись экрана только для создания снимков, когда пользователь явно совершает это действие.
Подробнее, на демонстрации в прямом эфире Spring Update команда скопировала и вставила код в ChatGPT, а затем использовала режим Vision, чтобы увидеть график на экране. Фирма также рассматривает аспекты конфиденциальности в своей работе по безопасности, которая расширяет ее предыдущую работу над GPT-4 с Vision, согласно представителю OpenAI.
Однако эксперты обеспокоены количеством данных, которые люди могут предоставить ChatGPT. “Его способность предоставлять ответы на основе аудиоввода и содержимого экрана – это значительное изменение по сравнению с текущим процессом ручного ввода снимков экрана в ChatGPT для обработки,” говорит Удо Шнайдер, лидер по управлению, рискам и соответствию, Европа, Trend Micro.
Существуют “огромные конфиденциальные последствия”, связанные с любым продуктом или услугой, имеющим доступ к вашему экрану и содержимому, говорит Саймон Бэйн, эксперт по ИИ и генеральный директор OmniIndex. Особенно это верно на работе, говорит он. “Есть потенциал для того, чтобы на экране содержалась регулируемая информация – от персонально идентифицируемой информации (PII) до информации о платежных картах и других финансовых данных.”
iOS 18 от Apple поставляется с возможностями ИИ, часть из которых обрабатывается на устройстве, а часть – на серверах Apple, что делает его предложение, ориентированное на конфиденциальность, Будущим. Но потенциальное партнерство с OpenAI вызывает вопросы о том, кто будет отвечать за уход за информацией пользователей iPhone.
Скорее всего, они будут совместными контролерами данных, что означает, что они совместно отвечают за ее обработку, говорит Холман. “Это потребует множества правового, технического и контрольного сопровождения за кулисами, чтобы убедиться, что оба бизнеса соблюдают закон.”
Партнерство с Apple сопряжено с некоторыми конфиденциальными вопросами, поскольку обе компании базируются в США, говорит Джефф Уоткинс, главный продуктовый и технологический директор xDesign. “У США больше секторальных законов о данных, чем на федеральном уровне. Обычно это менее строго, чем GDPR, и это может создать некоторые проблемы в использовании мультимодальных элементов GPT-4o, особенно если учесть, что он может использовать камеру на вашем устройстве, а также видеть ваш экран.”
Если Apple действительно станет партнером OpenAI, главное, что должно сделать Apple правильно, это обеспечить прозрачность в отношении того, что делается с данными, говорит Уоткинс. Это должно сопровождаться “осторожным использованием разрешений приложения и расширенными инструментами конфиденциальности, встроенными в iOS.”
Я обратился в Apple с запросом на комментарий и обновлю эту статью, если представитель iPhone ответит.
Неоспоримо, что ChatGPT-4o обладает рядом очень крутых функций, но важно осознавать, как вы его используете и делитесь своими данными.
Когда люди используют ChatGPT, им необходимо помнить, что OpenAI может использовать любую информацию, переданную им, чтобы улучшить модель, говорит Уиллис. “Это включает возможность просмотра чатов сотрудникам OpenAI и поставщиками услуг.”
Имеет смысл для всех пользователей рассмотреть возможность отказа от использования данных для обучения моделей ChatGPT, говорит Холман. “Это даст некоторое успокоение в том, что данные не используются в неожиданных целях.”
Том Петон, основатель greensmartphones.com, рекомендует научиться удалять информацию, которую вы предпочли бы не делиться. Он отмечает, что удаление чата не стирает информацию из памяти ChatGPT. “Вместо этого вам нужно зайти в настройки и управлять информацией оттуда.”
Если вам важна ваша конфиденциальность, такие инструменты на основе ИИ, как ChatGPT, могут вызывать страх. Но ИИ становится частью многих сервисов – возьмем, к примеру, iOS 18 – поэтому часто у нас нет выбора, используем мы их или нет. Исходя из этого, вам следует ограничить данные, собираемые сервисами, ограничить разрешения приложений и обязательно прочитать политику конфиденциальности.