31.07.2024

GPT: любить или не любить

В новостях так часто мелькают заголовки с упоминанием ChatGPT, что уже кажется никто не обходится без этой технологии. Можно сделать скромный вывод: нейросети захватывают мир. Предлагаем не противиться данному захвату, а адаптироваться к текущим тенденциям и с максимальной выгодой внедрить искусственный интеллект в свою жизнь. Сначала разберемся, что такое GPT и из чего он состоит. 

GPT (Generative pre-trained transformer) – вид нейросетевых языковых моделей, способных самостоятельно создавать текст на основе входящего запроса. Преимущество технологии заключается в том, что она предоставляет релевантные ответы, приближенные к человеческому и естественному языку. Это возможно, потому что модель основана на архитектурной связи, позволяющей не только анализировать слова и фразы, но и сам контекст. GPT входит в класс LLM-модели (Large Language Models), отвечающих за обработку естественного языка. Основная идея LLM заключается в обучении на большом количестве текстов, что позволяет ей понимать контекст, связь между словами и грамматические структуры. 

Впервые технологию представила компания OpenAI в своей статье «Improving Language Understanding by Generative Pre-Training». GPT-1, представленная в 2018 году, была первой моделью, демонстрирующей эффективность трансформеров для генерации текста. Она показала, что предварительное обучение на больших данных может значительно повысить качество текстовой генерации и понимания. На данный момент насчитываются четыре версии GPT: GPT-1, GPT-2, GPT-3 и GPT-4. 

GPT-2, выпущенная в 2019 году, стала известной своей способностью генерировать текст, похожий на человеческий. Модель имела 1,5 миллиарда параметров и была способна выполнять множество языковых задач без специального дообучения. GPT-, c увеличенным количество параметров до 175 миллиардов, имеет ещё более высокой степени естественности и вариативности в генерации текста. Она стала мощным инструментом для разработки приложений, требующих обработки естественного языка. В 2023 была представлена GPT-4 принесла улучшения в точности и способности к контекстуальной генерации текста. Она способна справляться с более сложными запросами и поддерживать более длинные беседы.

Также компания OpenAI презентовала свой чат-бот ChatGPT, который в диалоговом формате обрабатывает запросы на естественном языке.

Обучение GPT моделей

Архитектура GPT основана на трансформерах – особом типе нейронной сети, разработанной для обработки последовательных данных. Трансформеры используют механизм самосвязываемости, который позволяет им обрабатывать длинные последовательности данных без потери информации. Последовательность данных разделяется на несколько частей, каждая из которых затем обрабатывается отдельно. Далее полученные результаты объединяют в единый ответ. Так трансформеры обрабатывать большие объемы данных без потери производительности.

GPT использует эту архитектуру для обучения на больших наборах текстовых данных. Модель учится предсказывать следующее слово в тексте, основываясь на предыдущих фразах. Это позволяет ей генерировать текст, который выглядит естественно и соответствует контексту.

Кроме того, модели GPT обучаются на тестовом наборе данных перед тем, как выполнить конкретную задачу. Рекомендуется обучать GPT на большом объеме данных, чтобы её точность была выше. В качестве примеров обычно берут тексты из книг, статей, блогов и других источников. Затем собранные данные нужно привести в порядок: избавиться от нежелательных символов и оформить по формату, который умеет считывать модель. Например, текст может быть разбит на отдельные слова. 

Обучение моделей GPT обычно состоит из двух основных этапов: предварительное обучение и дообучение. После того, как тестовый набор готов, начинается продолжительный прогон текстов через нейронную сеть. Модель учится определять закономерности в текстах и предсказывать следующее слово в предложении.  

Следующим шагом начинается адаптация предварительно обученной модели к конкретной задаче. Для этого на обработку поступают релевантные данные, например реальные диалоги с клиентами. Далее весы модели обновляются, позволяя ей лучше соответствовать пользовательским ожиданиям. 

Любой текстовый запрос разбивается нейросетью на токены: слова, части слов, знаки препинания и другие элементы. Это базовые единицы текста для анализа. У каждого токена в модель есть определенный вес, который определяет его важность. Именно эти веса и определяются в ходе обучения, позволяя модели лучше предсказывать следующий токен в анализируемой информации, понимать структуру и контекст текста запроса. 

Каждый тестовый набор данных вносит свой вклад в количественной оценке весов. Для каждого токена рассчитывается вероятность последующих слов или фраз. Наиболее вероятные варианты и попадают в ответ нейросети на запрос. Такой механизм помогает модели выдавать приближенные к ожиданиям ответы пользователям. Важно помнить, что нейросеть выдает информацию на основе вероятностной оценки, поэтому какие-то детали могут быть пропущены. 

Также при разработке модели можно настроить фильтрацию, чтобы исключить вредную или неприемлемую информацию из предоставляемых ответов. Это помогает избежать неловких ситуаций, нарушения законодательства или дезинформации. 

После завершения обучения модель оценивается на специальных данных, чтобы проверить ее производительность и определить, насколько хорошо модель работает и какие улучшения могут быть сделаны. Если нейросеть не достигает желаемого уровня производительности, её снова обучают на дополнительном наборе данных или корректируют ранние правила и параметры обучения. 

Существуют несколько рекомендацию, позволяющие улучшить производительность обучаемой модели GPT: 

  • Использовать разнообразные данные на предварительном этапе работы, чтобы модель лучше понимала контекст 

  • Очищать данные, используемые для обучения, удалять шум и ненужную информацию, 

  • Для более сложных задач выбирать современные и мощные архитектуры транформеров, 

  • Искать оптимальное значение гиперпараметров: количество слоев, скорость обучения, размер батча, 

  • Использовать облачные платформы для обработки больших объемов данных, 

  • Оценивать производительность модели с помощью таких метрик, как точность, полнота и F1-меру для задач классификации, а также BLEU или ROUGE для задач генерации текста.

  • Проводите регулярный мониторинг метрик, отвечающих за производительность модели, 

  • Не забывайте про этап фильтрации и следите за соблюдением этических норм и законодательных требований при использовании модели GPT. 


Обучение моделей GPT – достаточно сложный и объемный процесс, включающий предварительное тестирование на больших объемах данных и дообучение для решения конкретных задач. Правильный выбор данных, архитектуры и гиперпараметров, а также эффективное использование вычислительных ресурсов и мониторинг процесса обучения прямо влияют на высокие показатели модели. Следование рекомендациям по обучению поможет оптимизировать процесс и повысить эффективность модели GPT.  

Архитектура трансформеров

Впервые трансформеры были упомянуты в статье "Attention is All You Need", где предлагалось рекуррентных и сверточных сетей механизмом внимания. Это позволяет модели лучше понимать контекст запроса. Входной текст разбивается на специальные фрагменты — токены, которые затем преобразуется в векторы. Механизм “внимания” предполагает, что нужно выявлять тесные связи или их отсутствие между векторами. Математически это находится с помощью скалярного произведения рассматриваемых. Это позволяет адаптировать значения векторов с учетом содержания текста.  

Архитектура трансформера состоит из:

1. Энкодера — модуля, который преобразует входную последовательность в контекстные представления.

2. Декодера — модуля, использующий эти представления для генерации выходной последовательности.

Оба модуля включают:

- Многоголовое внимание (Multi-Head Attention), что позволяет модели сосредотачиваться на разных частях входной последовательности одновременно.

- Фидфорвардные нейронные сети (Feed-Forward Neural Networks), обрабатывающие выходы механизма внимания.

- Нормализация и пропускные соединения (Layer Normalization and Residual Connections) для стабилизации и ускорения обучения.

Следующим за механизмом влияния элементом трансформера является Многослойный перцептрон (MLP). Это тип нейронной связи, который используется для обработки и преобразования данных, полученных от механизма внимания. Входной слой перцептрона получает выходные данные от слоя внимания. Затем эти данные преобразуются в скрытых слоях. Выходной слой создает окончательные представления, которые используются для предсказания следующего слова. Каждый нейрон в MLP связан с нейронами предыдущего слоя, и веса этих связей (параметры модели) настраиваются в процессе обучения.

Итоговый вектор преобразуется в вероятностное распределение с помощью умножения на матрицу весов. В результате операции для каждого токена рассчитываются логиты или логарифмические вероятности. Эти логиты содержат специальный коэффициент — “температуру”, определяющий уровень случайности при выборе следующего слова при ответе. Чем выше значение параметра, тем более непредсказуемые и оригинальные ответы модель способна генерить. Далее с помощью функции softmax рассчитываются вероятности для каждого слова в словаре. Слово с наибольшей вероятностью выбирается как предсказанное следующее слово.

Первая модель GPT использовала архитектуру, основанную на декодере трансформера . Главная идея состояла в предварительном обучении модели на большом корпусе текста для создания универсальных языковых представлений. Затем модель обрабатывала специфический набор данных, чтобы адаптироваться под конкретную задачу.

GPT-2 использовала ту же базовую архитектуру, что и GPT-1, но с существенными изменениями. Во-первых, количество параметров, определяющие как модель преобразует входные данные в выходные, увеличилось до 1.5 миллиардов, что значительно улучшило производительность. Увеличение количества параметров позволяет модели лучше улавливать и обрабатывать сложные зависимости в данных. Во-вторых, модель обучалась на более крупном и разнообразном корпусе данных.

В-третьих, GPT-2 показала способность решать задачи без дополнительного обучения на специфических данных, используя только контекст задачи. Такой метод называется Zero-shot learning.

Третья версия GPT продолжила тенденцию масштабирования, увеличив количество параметров до 175 млрд и став одной из крупнейших моделей на 2020 г. Такое гигантское число параметров позволило достичь новых высот в качестве генерации и понимания текста. Также GPT-3 демонстрировала отличные результаты в широком спектре задач NLP, включая перевод, ответ на вопросы, создание контента и многое другое. Помимо Zero-shot learning модель GPT-3 освоила Few-shot learning – технологию, требующую минимальное количество примеров для выполнения задач.

Архитектуры трансформеров, лежащие в основе моделей GPT, показали значительные улучшения в качестве и универсальности обработки естественного языка. Многослойный перцептрон вместе с механизмом внимания позволяет модели учитывать контекст на более глубоком уровне, что улучшает точность предсказаний. Модель может адаптироваться к различным стилям и темам текста, так как способна учитывать общепринятые языковые закономерности. Использование многослойного перцептрона и внимания обеспечивает высокую производительность при обработке больших объемов текстовых данных. 

=Начиная с базовой архитектуры трансформера, предложенной в 2017 году, и до современных крупных моделей, таких как GPT-3, эти технологии продолжают формировать будущее машинного обучения и искусственного интеллекта.  

Особенность обучения GPT при отсутствии реальных примеров

Чтобы подготовить модель, необходимо собрать большой массив данных для её обучения. Для предварительного этапа походит информация из открытых источников, ведь сначала GPT должна изучить языковые закономерности. Далее же для корректировки весов модели нужны специфические и целевые данные. Но как быть в ситуации, когда такой конкретный набор текстов отсутствует? Или если количество примеров ограничено?

Современные методы и особенности архитектуры GPT позволяют находить эффективные решения. Рассмотрим подходы и стратегии, которые можно использовать в такой ситуации: 

1. Использование возможностей zero-shot и few-shot learning

Модели GPT-3 и более поздние версии демонстрируют отличные результаты в режиме zero-shot и few-shot learning, что позволяет использовать их для выполнения задач без специального дополнительного обучения. Zero-shot learning подразумевает выполнение задачи без какой-либо дополнительной настройки. Достаточно предоставить модели описание задачи в текстовой форме. Во время Few-shot learning модель обучается на небольшом количестве примеров, представленных в контексте запроса.

2. Использование предварительно обученных моделей

Модели GPT обучены на огромных корпусах данных, что делает их универсальными для различных задач. Эти предварительно обученные модели могут быть использованы для генерации текстов, перевода, суммаризации и многих других задач без необходимости их дообучения на специфических данных.

Если вам нужно обучить модель на задаче, для которой у вас нет данных, можно сгенерировать примеры с использованием самой модели. Например, для задачи классификации можно сгенерировать тексты с метками, используя знания модели о языке.

3. Использование Transfer Learning

В случаях, когда отсутствуют данные для конкретной задачи, можно использовать transfer learning, чтобы адаптировать предварительно обученную модель к новой задаче.

4. Публичные и открытые данные

Иногда можно найти данные, которые частично соответствуют вашей задаче, в публичных медиа. Эти данные могут быть использованы для предварительного обучения модели, что улучшит ее способность к генерации или обработке текстов в требуемой области.

5. Метод Data Augmentation

Методы увеличения данных могут помочь создать дополнительные примеры для обучения модели. Это включает в себя генерацию новых данных на основе существующих примеров путем изменения или комбинирования текстов. Например, модель можно попросить перефразировать существующие тексты, чтобы создать новые примеры для обучения, или внесение небольших изменений в текст. 

Применение GPT в бизнесе 

Модели GPT активно применяются в бизнесе для решения операционных задач, для улучшения клиентского опыта и для автоматизации процессов. Компании, которые внедряют эти передовые технологии, получают конкурентные преимущества и способны быстрее адаптироваться к изменениям рынка. К основным выгодам от использования GPT относят: 

1. Снижение затрат. Автоматизация рутинных задач и обслуживания клиентов позволяет значительно снизить операционные расходы.

2. Увеличение эффективности. Быстрое создание контента и отчетов, а также поддержка сотрудников способствует улучшению производительности.

3. Повышение удовлетворенности клиентов. Персонализированный и быстрый отклик на запросы клиентов улучшает их опыт и лояльность.

4. Углубленный анализ данных. Автоматизированный анализ больших объемов данных позволяет выявлять ценные инсайты и принимать обоснованные решения. 

Следующие задачи можно доверить GPT, повысив эффективность: 

1. Автоматизация обслуживания клиентов. 

Одной из наиболее очевидных и полезных областей применения GPT является автоматизация обслуживания клиентов. Чат-боты на базе GPT могут обрабатывать запросы клиентов круглосуточно, предоставляя быстрые и точные ответы на часто задаваемые вопросы.

2. Создание контента 

GPT может значительно упростить и ускорить процесс создания контента для маркетинга и коммуникаций. Модели способны генерировать тексты для блогов, социальных сетей, рекламных кампаний и новостных рассылок, что позволяет маркетологам сосредоточиться на стратегии и креативе.

3. Анализ данных и отчетность

GPT используется для автоматизации анализа данных и генерации отчетов, что позволяет компаниям быстро получать инсайты и принимать обоснованные решения.

4. Обучение и развитие сотрудников

GPT может быть использован для создания персонализированных программ обучения и поддержки сотрудников, улучшая процессы адаптации и повышения квалификации.

5. Персонализация клиентского опыта. 

GPT позволяет создавать персонализированные взаимодействия с клиентами, анализируя их поведение и предпочтения, что повышает уровень удовлетворенности и лояльности.

Как GPT улучшают чат-ботов

Использование моделей GPT (Generative Pre-trained Transformer) в чат-ботах предоставило новые возможности для клиентского обслуживания и автоматизации общения. GPT способны генерировать связные и осмысленные тексты, что делает их идеальными для создания интеллектуальных чат-ботов. 

Современные чат-боты играют важную роль в различных сферах, таких как обслуживание клиентов, поддержка пользователей, маркетинг и продажи. Традиционные чат-боты, основанные на заранее заданных сценариях и правилах, имеют ограниченные возможности и часто не могут справиться с неожиданными вопросами или сложными диалогами. Их функционал ограничен, поэтому часто чат-бот создается под конкретную задачу. Появляется большое число текстовых роботов, разрозненных и не связанных друг с другом, а за каждым компания должна следить и контролировать. Модели GPT, обладая способностью понимать и генерировать естественный язык, решают эту проблему, предоставляя более гибкие и интеллектуальные решения.  

В чем же заключены преимущество чат-ботов с GPT?

1. Естественное общение. Модели GPT позволяют чат-ботам вести диалог на естественном языке, что делает общение с ботом более приятным и понятным для пользователей. Боты могут распознавать и отвечать на широкий спектр запросов, обеспечивая более человеческое взаимодействие.

2. Улучшенное понимание контекста. GPT-модели способны запоминать контекст разговора, что позволяет им давать более точные и релевантные ответы. Это особенно полезно в сложных сценариях, где требуется многозадачность и поддержка контекста на протяжении всего диалога.

3. Гибкость и адаптивность. В отличие от традиционных чат-ботов, которые ограничены предопределенными сценариями, GPT-боты могут адаптироваться к новым ситуациям и обучаться на ходу. Это снижает необходимость в постоянном обновлении и программировании новых правил.

4. Многоязычность. Модели GPT обучены на огромных объемах текстов на различных языках, что позволяет создавать чат-ботов, способных поддерживать диалог на нескольких языках. Это значительно расширяет аудиторию и повышает удобство использования.

Применение моделей GPT в чат-ботах представляет значительные преимущества как для пользователей, так и для компаний. Интеллектуальные чат-боты, способные вести естественный и осмысленный диалог, улучшают качество обслуживания, повышают удовлетворенность клиентов и снижают операционные затраты. Также компании могут запускать более сложные сценарии, ведь бот с GPT лучше понимают контекст и смогут самостоятельно продолжать диалоги с клиентами в случае неожиданных запросов. Какой же полный список возможностей, которые открывают чат-боты с GPT для компаний? 

1. Снижение затрат. Автоматизация с помощью GPT-чат-ботов позволяет значительно снизить затраты на обслуживание клиентов, так как боты могут обрабатывать большое количество запросов одновременно, уменьшая нагрузку на операторов.

2. Повышение эффективности. GPT-чат-боты могут работать круглосуточно и без выходных, обеспечивая постоянную поддержку пользователей и быстрый ответ на их запросы. Это улучшает общую производительность компании и удовлетворенность клиентов.

3. Сбор и анализ данных. Чат-боты на базе GPT могут собирать данные о взаимодействии с пользователями, что позволяет компаниям лучше понимать потребности и предпочтения клиентов. Эти данные могут использоваться для улучшения продуктов и услуг, а также для персонализации маркетинговых кампаний.

4. Улучшение качества обслуживания. Интеллектуальные чат-боты могут решать более сложные запросы и предоставлять точную информацию, что повышает качество обслуживания и удовлетворенность клиентов. Быстрое и точное решение проблем пользователей способствует лояльности и удержанию клиентов.

5. Брендинг и имидж. Использование передовых технологий, таких как GPT, улучшает имидж компании как инновационного и технологически продвинутого предприятия. Это может привлечь больше клиентов и партнеров, заинтересованных в сотрудничестве с прогрессивной компанией.

Мы в Telegram!
«Откройте, ИИ!» — всё об искусственном интеллекте и речевых технологиях: новости, обзоры, экспертные оценки, тренды, прогнозы, анонсы мероприятий и многое другое.

Оставить заявку

Мы всегда рады ответить на любые Ваши вопросы

* Обязательные поля для заполнения

Отправить резюме

* Обязательные поля для заполнения

Спасибо!

Благодарим за обращение. Ваша заявка принята

Наш специалист свяжется с Вами в течение рабочего дня
У Вас есть вопросы?

Политика конфиденциальности и согласие на обработку персональных данных

Настоящая Политика конфиденциальности описывает основы того, как мы будем обрабатывать персональную информацию, которую мы собираем в отношении вас или которую вы предоставляете нам в связи с использованием сайта BSSYS.COM. Данный сайт принадлежит Обществу с ограниченной ответственностью «Бэнкс Софт Системс» (Далее Компания BSS), адрес места нахождения: 117105, г. Москва, Нагорный проезд, д. 5. Используя сайт BSSYS.COM, вы соглашаетесь с условиями настоящей Политики.


Персональная информация

Компания BSS с уважением относится к конфиденциальности вашей персональной информации и прилагает всяческие усилия для её защиты. Для нас имеет первостепенное значение поддержание конфиденциальности любых личных данных, которые вы нам предоставляете.


Под персональной информацией в настоящей Политике понимается:

Информация, которую вы самостоятельно предоставляете при регистрации, подписке, оформлении заявки или авторизации, а также в процессе дальнейшего использования сайта BSSYS.COM, включая персональные данные.

Обязательная для предоставления услуг информация явно обозначена. К такой информации отнесены: имя, адрес электронной почты, контактный телефон.

Иная информация предоставляется пользователем на его усмотрение или может быть обязательна для предоставления, если это связано со спецификой отдельного сервиса Компании BSS, о чём явно указывается.

Данные, которые передаются в автоматическом режиме в зависимости от настроек используемого вами программного обеспечения, включая IP-адрес, cookie, данные об используемом оборудовании, параметрах и настройках браузера, операционной системе, URL-адресе, с которого был осуществлён переход, просмотры страниц, время доступа и ваше местонахождение. Эта информация привязана к устройству, которым вы пользуетесь для доступа к услугам BSSYS.COM.

Компания BSS не осуществляет проверку достоверности предоставляемой вами персональной информации, полагая, что вы действуете добросовестно, осмотрительно и прилагаете все необходимые усилия к поддержанию такой информации в актуальном состоянии. Вы можете в любой момент изменить (обновить, дополнить) предоставленную вами персональную информацию или её часть.


Цели обработки

Мы будем использовать хранящуюся у нас информацию относительно вас для следующих целей:

— Предоставление персонализированного сервиса;
— Получение вами доступа к услугам, которыми вы выразите желание воспользоваться;
— Связь с вами, в том числе для направления вам уведомлений, запросов и информации, касающихся использования сайта, обработки ваших запросов и заявок, для отправки вам по электронной почте маркетинговых сообщений Компании BSS, относящихся к нашим услугам или услугам наших партнёров;
— Улучшение качества сайта, клиентского сервиса и повышение удобства его использования.


Принципы работы с персональной информацией

Мы ни в коем случае не будем передавать вашу персональную информацию третьим лицам. В некоторых случаях Компания BSS может предоставить её третьим лицам в соответствии с настоящей Политикой либо компетентным органам по их запросу.

Мы можем передавать вашу персональную информацию некоторым третьим лицам для её обработки от нашего имени или когда это необходимо для оказания вам услуг с учётом описанных выше целей. Мы требуем от таких третьих лиц строгого соблюдения конфиденциальности передаваемой информации и запрещаем использование вашей персональной информации в собственных коммерческих целях этих компаний. Использование вами сайта BSSYS.COM означает ваше согласие с данными условиями.

Мы будем хранить вашу персональную информацию в нашей системе всё время, пока вы пользуетесь сайтом, и удалим её, как только предоставление услуги закончится либо когда вы выразите желание отказаться от услуг. По соображениям безопасности и в целях соблюдения законодательства Компания BSS хранит в течение определённого времени данные о ваших сообщениях и запросах (в том числе содержимое сообщений, время и даты написания сообщений), оставленных на сайте, а также лог-файлы о действиях, совершённых вами в рамках использования сайта.


Обеспечение безопасности персональной информации

Мы делаем всё возможное для того, чтобы обезопасить сайт BSSYS.COM и вашу персональную информацию от несанкционированных попыток доступа, изменения, раскрытия или уничтожения.

Для этого мы:

— Храним вашу персональную информацию на защищённых серверах и предотвращаем неавторизированный доступ к системам, в которых хранится персональная информация;
— Постоянно совершенствуем способы сбора, хранения и обработки данных, включая физические меры безопасности для противодействия несанкционированному доступу к нашим системам;
— Ограничиваем нашим сотрудникам, подрядчикам и агентам доступ к персональным данным, когда такой доступ не требуется для целей, указанных в настоящей Политике, а также накладываем на них строгие договорные обязательства, за нарушение которых предусмотрены серьёзная ответственность и штрафные санкции.


Использование cookie

Во время просмотра любой страницы сайта BSSYS.COM на ваш компьютер загружается сама страница, а также небольшой текстовый файл под названием cookie. Информация, которую мы получаем посредством cookie-файлов, помогает нам предоставлять услуги в наиболее удобном для вас виде. Файл cookie представляет собой небольшое количество данных, среди которых часто содержится уникальный анонимный идентификатор, посылаемый вашему браузеру компьютером сайта и сохраняемый на жёстком диске вашего компьютера. Использование сайта с помощью веб-браузера, который принимает данные из cookies, означает ваше согласие с тем, что Компания BSS может собирать и обрабатывать данные из cookies в целях, предусмотренных настоящей Политикой, а также на передачу данных из cookies третьим лицам в случаях, перечисленных в настоящей Политике. Отключение или блокировка вами опции веб-браузера по приёму данных из cookies означает запрет на сбор и обработку Компанией BSS данных из cookies в соответствии с условиями настоящей Политики конфиденциальности.


Персональные данные

Компания BSS обрабатывает ваши персональные данные с соблюдением действующего законодательства, в том числе Федерального закона от 27.07.2006 N 152-ФЗ «О персональных данных».


Вы имеете право на получение в любое время информации, касающейся обработки ваших персональных данных в Компании BSS, для чего вправе направить письменный запрос на адрес: 117105, г. Москва, Нагорный проезд, д. 5, Обществу с ограниченной ответственностью «Бэнкс Софт Системс», с пометкой «запрос информации о порядке обработки персональных данных». Для исполнения данного положения Компания BSS может потребовать от вас подтверждения личности в любой непротиворечащей закону форме.


Прекращение обработки персональных данных

Вы вправе в любой момент отозвать своё согласие на обработку Компанией BSS ваших персональных данных путём направления письменного уведомления на адрес: 117105, г. Москва, Нагорный проезд, д. 5, Обществу с ограниченной ответственностью «Бэнкс Софт Системс», с пометкой «отзыв согласия на обработку персональных данных». Отзыв вами согласия на обработку персональных данных влечёт за собой уничтожение записей, содержащих ваши персональные данные, в системах обработки персональных данных Компании BSS, что может сделать невозможным пользование сервисами и услугами Компании BSS. Для исполнения данного положения Компания BSS может потребовать от вас подтверждения личности в любой непротиворечащей закону форме.


Отписка от рассылки

В любое время вы можете отказаться от получения рекламных и маркетинговых сообщений Компании BSS по электронной почте, нажав ссылку отказа от подписки в нижней части таких сообщений.