Статьи по "программы"
Показаны сообщения с ярлыком программы. Показать все сообщения

Что такое robots.txt

Файл robots.txt или индексный файл — обычный текстовый документ в кодировке UTF-8, действует для протоколов http, https, а также FTP. Файл дает поисковым роботам рекомендации: какие страницы/файлы стоит сканировать. Если файл будет содержать символы не в UTF-8, а в другой кодировке, поисковые роботы могут неправильно их обработать. Правила, перечисленные в файле robots.txt, действительны только в отношении того хоста, протокола и номера порта, где размещен файл.
Файл должен располагаться в корневом каталоге в виде обычного текстового документа и быть доступен по адресу: https://site.com.ua/robots.txt.
В других файлах принято ставить отметку ВОМ (Byte Order Mark). Это Юникод-символ, который используется для определения последовательности в байтах при считывании информации. Его кодовый символ — U+FEFF. В начале файла robots.txt отметка последовательности байтов игнорируется.
Google установил ограничение по размеру файла robots.txt — он не должен весить больше 500 Кб.
Ладно, если вам интересны сугубо технические подробности, файл robots.txt представляет собой описание в форме Бэкуса-Наура (BNF). При этом используются правила RFC 822.
При обработке правил в файле robots.txt поисковые роботы получают одну из трех инструкций:
  • частичный доступ: доступно сканирование отдельных элементов сайта;
  • полный доступ: сканировать можно все;
  • полный запрет: робот ничего не может сканировать.
При сканировании файла robots.txt роботы получают такие ответы:
  • 2xx — сканирование прошло удачно;
  • 3xx — поисковый робот следует по переадресации до тех пор, пока не получит другой ответ. Чаще всего есть пять попыток, чтобы робот получил ответ, отличный от ответа 3xx, затем регистрируется ошибка 404;
  • 4xx — поисковый робот считает, что можно сканировать все содержимое сайта;
  • 5xx — оцениваются как временные ошибки сервера, сканирование полностью запрещается. Робот будет обращаться к файлу до тех пор, пока не получит другой ответ.Поисковый робот Google может определить, корректно или некорректно настроена отдача ответов отсутствующих страниц сайта, то есть, если вместо 404 ошибки страница отдает ответ 5xx, в этом случае страница будет обрабатываться с кодом ответа 404.
Пока что неизвестно, как обрабатывается файл robots.txt, который недоступен из-за проблем сервера с выходом в интернет.

Зачем нужен файл robots.txt

Например, иногда роботам не стоит посещать:
  • страницы с личной информацией пользователей на сайте;
  • страницы с разнообразными формами отправки информации;
  • сайты-зеркала;
  • страницы с результатами поиска.
Важно: даже если страница находится в файле robots.txt, существует вероятность, что она появится в выдаче, если на неё была найдена ссылка внутри сайта или где-то на внешнем ресурсе.
Так роботы поисковых систем видят сайт с файлом robots.txt и без него:




Без robots.txt та информация, которая должна быть скрыта от посторонних глаз, может попасть в выдачу, а из-за этого пострадаете и вы, и сайт.
Так робот поисковых систем видит файл robots.txt:




Google обнаружил файл robots.txt на сайте и нашел правила, по которым следует сканировать страницы сайта

Символы в robots.txt

Основные символы файла — «/, *, $, #».
С помощью слэша «/» мы показываем, что хотим закрыть от обнаружения роботами. Например, если стоит один слеш в правиле Disallow, мы запрещаем сканировать весь сайт. С помощью двух знаков слэш можно запретить сканирование какой-либо отдельной директории, например: /catalog/.
Такая запись говорит, что мы запрещаем сканировать все содержимое папки catalog, но если мы напишем /catalog, запретим все ссылки на сайте, которые будут начинаться на /catalog.
Звездочка «*» означает любую последовательность символов в файле. Она ставится после каждого правила.




Эта запись говорит, что все роботы не должны индексировать любые файлы с расширением .gif в папке /catalog/
Знак доллара«$» ограничивает действия знака звездочки. Если необходимо запретить все содержимое папки catalog, но при этом нельзя запретить урлы, которые содержат /catalog, запись в индексном файле будет такой:




Решетка «#» используется для комментариев, которые вебмастер оставляет для себя или других вебмастеров. Робот не будет их учитывать при сканировании сайта.
Например:




Как создать файл robots.txt

С помощью блокнота, Notepad, Sublime, либо любого другого текстового редактора.
В содержании файла должны быть прописаны инструкция User-agent и правило Disallow, к тому же есть еще несколько второстепенных правил.

User-agent — визитка для роботов


User-agent— правило о том, каким роботам необходимо просмотреть инструкции, описанные в файле robots.txt. На данный момент известно 302 поисковых робота. Чтобы не прописывать всех по отдельности, стоит использовать запись:



Она говорит о том, что мы указываем правила в robots.txt для всех поисковых роботов.
Для Google главным роботом является Googlebot. Если мы хотим учесть только его, запись в файле будет такой:



В этом случае все остальные роботы будут сканировать контент на основании своих директив по обработке пустого файла robots.txt.
Для Yandex главным роботом является... Yandex:



Другие специальные роботы:
  • Googlebot-News — для поиска новостей;
  • Mediapartners-Google — для сервиса AdSense;
  • AdsBot-Google — для проверки качества целевой страницы;
  • YandexImages — индексатор Яндекс.Картинок;
  • Googlebot-Image — для картинок;
  • YandexMetrika — робот Яндекс.Метрики;
  • YandexMedia — робот, индексирующий мультимедийные данные;
  • YaDirectFetcher — робот Яндекс.Директа;
  • Googlebot-Video — для видео;
  • Googlebot-Mobile — для мобильной версии;
  • YandexDirectDyn — робот генерации динамических баннеров;
  • YandexBlogs — робот поиск по блогам, индексирующий посты и комментарии;
  • YandexMarket— робот Яндекс.Маркета;
  • YandexNews — робот Яндекс.Новостей;
  • YandexDirect — скачивает информацию о контенте сайтов-партнеров Рекламной сети, чтобы уточнить их тематику для подбора релевантной рекламы;
  • YandexPagechecker — валидатор микроразметки;
  • YandexCalendar — робот Яндекс.Календаря.

Disallow — расставляем «кирпичи»


Disallow дает рекомендацию, какую именно информацию не стоит сканировать.
Такая запись открывает для сканирования весь сайт:



А эта запись говорит о том, что абсолютно весь контент на сайте запрещен для сканирования:



Ее стоит использовать, если сайт находится в процессе доработок, и вы не хотите, чтобы он в нынешнем состоянии засветился в выдаче.
Важно снять это правило, как только сайт будет готов к тому, чтобы его увидели пользователи. К сожалению, об этом забывают многие вебмастера.
Пример. Как прописать правило Disallow, чтобы дать рекомендации роботам не просматривать содержимое папки /papka/:



Чтобы роботы не сканировали конкретный URL:



Чтобы роботы не сканировали конкретный файл:



Чтобы роботы не сканировали все файлы определенного разрешения на сайте:



Вторая строка запрещает индексировать все файлы с расширением .gif

Allow — направляем роботов


Allow разрешает сканировать какой-либо файл/директиву/страницу. Допустим, необходимо, чтобы роботы могли посмотреть только страницы, которые начинались бы с /catalog, а весь остальной контент закрыть. В этом случае прописывается следующая комбинация:



Правила Allow и Disallow сортируются по длине префикса URL (от меньшего к большему) и применяются последовательно. Если для страницы подходит несколько правил, робот выбирает последнее правило в отсортированном списке.

Host — выбираем зеркало сайта


Host — одно из обязательных для robots.txt правил, оно сообщает роботу Яндекса, какое из зеркал сайта стоит учитывать для индексации.
Зеркало сайта — точная или почти точная копия сайта, доступная по разным адресам.
Робот не будет путаться при нахождении зеркал сайта и поймет, что главное зеркало указано в файле robots.txt. Адрес сайта указывается без приставки «http://», но если сайт работает на HTTPS, приставку «https://» указать нужно.
Как необходимо прописать это правило:



Пример файла robots.txt, если сайт работает на протоколе HTTPS:



Sitemap — медицинская карта сайта


Sitemap сообщает роботам, что все URL сайта, обязательные для индексации, находятся по адресу http://site.ua/sitemap.xml. При каждом обходе робот будет смотреть, какие изменения вносились в этот файл, и быстро освежать информацию о сайте в базах данных поисковой системы.
Инструкция должна быть грамотно вписана в файл:



Crawl-delay — секундомер для слабых серверов


Crawl-delay — параметр, с помощью которого можно задать период, через который будут загружаться страницы сайта. Данное правило актуально, если у вас слабый сервер. В таком случае возможны большие задержки при обращении поисковых роботов к страницам сайта. Данный параметр измеряется в секундах.



Clean-param — охотник за дублирующимся контентом


Clean-param помогает бороться с get-параметрами для избежания дублирования контента, который может быть доступен по разным динамическим адресам (со знаками вопроса). Такие адреса появляются, если на сайте есть различные сортировки, id сессии и так далее.
Допустим, страница доступна по адресам:
www.site.com/catalog/get_phone.ua?ref=page_1&phone_id=1
www.site.com/catalog/get_phone.ua?ref=page_2&phone_id=1
www.site.com/catalog/get_phone.ua?ref=page_3&phone_id=1
В таком случае файл robots.txt будет выглядеть так:



Здесь ref указывает, откуда идет ссылка, поэтому она записывается в самом начале, а уже потом указывается остальная часть адреса.
Но прежде чем перейти к эталонному файлу, необходимо еще узнать о некоторых знаках, которые применяются при написании файла robots.txt.

Как выглядит идеальный robots.txt

Такой файл robots.txt можно разместить почти на любом сайте:



Файл открывает содержимое сайта для индексирования, прописан хост и указана карта сайта, которая позволит поисковым системам всегда видеть адреса, которые должны быть проиндексированы. Отдельно прописаны правила для Яндекса, так как не все роботы понимают инструкцию Host.
Но не спешите копировать содержимое файл к себе — для каждого сайта должны быть прописаны уникальные правила, которые зависит от типа сайта и CMS. поэтому тут стоит вспомнить все правила при заполнении файла robots.txt.

Источник.


С мая 2018 года действуют общие правила по защите персональных данных The EU General Data Protection Regulation (GDPR). Напомню, цель GDPR — обеспечить безопасность персональных данных граждан ЕС, вне зависимости от их физического месторасположения. 
Практически каждый сайт так или иначе передает информацию о пользователях сторонним сервисам. Например, в Google Analytics и Яндекс.Метрику, используются теги ремаркетинга Ads, Facebook Pixel. Так что, хоть и косвенно, мы (владельцы сайтов) собираем информацию о пользователях и обязаны рассказать, каким образом обрабатываются их данные.
Проще всего предупредить людей о том, что вы собираете их персональные данные, с помощью баннера об использовании cookie. В этом посте я расскажу, как добавить такой баннер на свой сайт с помощью сервиса OneTrust и Google Tag Manager.

Как создать баннер об использовании cookie?

Сервисы по созданию баннеров об использовании cookie по большей части платные. А если у вас многостраничный сайт (больше 500 страниц), то придется купить подписку. Это будет стоить от $10 до $1500, в зависимости от сайта.
Среди популярных сервисов:
Я расскажу о том, как сделать и внедрить баннеры об использовании cookie с помощью OneTrust. Его просто настраивать и он бесплатный.

Регистрируем и сканируем сайт

Для начала создаем аккаунт: выбираем необходимый пакет и регистрируем профиль.

После выбора пакета следует пройти стандартную процедуру регистрации.
Оговорюсь, обязательно указывайте корпоративную, а не личную почту, иначе почти наверняка откажут в доступе.
обязательно указывайте корпоративную, а не личную почту
Важно: внесенные данные модераторы проверяют вручную, поэтому ждать подтверждение регистрации придется от двух до 48 часов, так что запасайтесь терпением.
Подтверждение регистрации придется от двух до 48 часов, так что запасайтесь терпением
После регистрации необходимо выбрать пункт «Cookie Consent & Website Scanning».
Cookie Consent & Website Scanning
Затем нажимаем на «Scan Website».
Затем, при переходе к другой странице нажимаем на «Scan Website»
Указывая имя сайта, пишем основной домен без каких либо приставок: не www.netpeak.net, а netpeak.net.
Указывая имя сайта, пишем основной домен без каких либо приставок
В настройках следует задать ограничение на количество сканируемых страниц. По умолчанию здесь указано 1000 страниц. Если на вашем сайте их гораздо меньше, ставьте реальное количество. Если выберете установки по умолчанию, сканирование сайта может занять около четырех часов.
В идеальном мире после сканирования мы получаем отчет с номерами файлов cookie.
В идеальном мире после сканирования мы получаем отчет с некоторыми номерами файлов cookie
В реальном мире сканирование может выдать ошибку. Это означает, что защита вашего сайта слишком строга к ботам (или существует переадресация). Чтобы избежать ошибки сканирования, следует временно отключить брандмауэр.
В конце концов мы получаем результат:
В реальном мире сканирование может выдать ошибку

Как сделать баннер?

Переходим непосредственно к созданию баннера.
Переходим непосредственно к созданию баннера cookie
На вкладке «Cookie Banner» задаем такие параметры:
  • макет (Layout) и цвета (Colors). Выберите те, что подружатся с цветовой гаммой и стилем вашего сайта. Для GDPR это не принципиально;
  • в блоке «Содержимое» (Content) включаем кнопки, с помощью которых пользователь может принять соглашение на использование файлов или узнать детали о файлах cookie;
  • в блоке «Поведение» (Behavior) указываем, в каких ситуациях пользователь соглашается с вашей информационной политикой. О чем речь? Например, вы можете указать, что закрытие предупреждающего сообщения или прокрутка 25-50% страницы означает согласие пользователя с информационной политикой на сайте.
После этого сохраняем настройки:
После этого сохраняем настройки

Как настроить правила показа баннера?

Теперь необходимо указать, какие именно файлы мы будем собирать. Всего можно выделить пять категорий таких файлов:
  • строго необходимые куки-файлы;
  • производительные куки-файлы: используются интернет-маркетологами — необходимы для передачи данных на сторонние сервисы аналитики;
  • функциональные куки-файлы: используются для различных технических решений — А/В тест страницы, поддержка работы чатов и так далее;
  • куки-файлы для таргетинга: направлены на использование функции ремаркетинга;
  • куки-файлы для социальных сетей. Например те, которые связаны с использование Facebook Pixel.
Определение каждого типа куки-файлов:
  1. Куки-файлы для таргетинга (Targeting Cookies). Эти файлы cookie устанавливаются рекламными партнерами. Они могут использоваться для создания профиля ваших интересов и отображения релевантных объявлений на других сайтах (то есть теги ремаркетинга). Идентифицируют ваш браузер и устройства.
  2. Производительные куки-файлы (Performance Cookies). Эти файлы позволяют рассчитывать посещения и источники трафика, измерять и улучшать производительность нашего сайта. Они помогают нам узнать, какие страницы наиболее и наименее популярны и посмотреть, как посетители перемещаются по сайту.  По сути, это данные для Google Analytics.
  3. Строго необходимые куки-файлы (Strictly Necessary Cookies). Используются для функционирования веб-сайта, их нельзя отключать. Обычно они устанавливаются только в ответ на совершенные действия пользователя, например, вход в систему или заполнение форм. Это данные о пользователях, которые не передаются в сторонние системы аналитики.
  4. Функциональные куки-файлы (Functional Cookies). Позволяют повысить функциональность и персонализацию сайта за счет видео и живых чатов.
  5. Куки-файлы для социальных сетей (Social Media Cookies) устанавливают социальные медиа-сервисы, чтобы вы могли поделиться своим контентом с друзьями. Они могут отслеживать ваш браузер на других сайтах и формировать профиль ваших интересов.
В самом сервисе мы выбираем два значения для файлов: «всегда активны» (Always Active) или «неактивны» (Inactive LandingPage). Обязательно нужно выбрать один из этих статусов. Статус «неактивны» означает, что данные пользователя будут отслеживаться, только если он даст на это свое согласие.
Статус «активны» следует применять для cookie, которые не передают используемые в рекламе данные о пользователе. Чтобы их получить, нам не нужны никакие дополнительные подтверждения — мы не нарушим GDPR.
Как пользователь дает согласие? Выполняет условия, которые указаны на баннере. Эти условия мы настраиваем вручную: клик по баннеру, проскроливание определенного процента страниц и так далее.
Итак, в настройках задаем значения:
  1. Строго необходимые куки-файлы — «всегда активны».
  2. Производительные куки-файлы — «неактивны».
  3. Функциональные куки-файлы — «неактивны».
  4. Куки-файлы для таргетинга — «неактивны».
  5. Куки-файлы для социальных сетей — «неактивны».
Заканчиваем и публикуем все изменения.

Политика конфиденциальности

Важно указать дополнительный блок, в котором мы раскрываем, зачем нам нужна информация о пользователях.
Пример
раскрываем причину, зачем нам нужна информация о пользователях
Задаем настройки:
Необходимо задать следующие настройки
После этого переходим к завершающей стадии работы с сервисом — получаем скрипт OneTrust, который интегрируем на сайт с помощью соответствующих настроек Google Tag Manger.
получаем скрипт OneTrust, который затем интегрируем на сайт с помощью соответствующих настроек Google Tag Manger

Как установить баннер cookie с помощью Google Tag Manager?

Мало просто интегрировать код OneTrust на сайт напрямую или через Google Tag Manager, необходимо, чтобы он синхронно срабатывал с другими тегами. Для этого придется внести некоторые коррективы.
Чтобы упростить и ускорить процесс, скачайте специальный файл, кликните по нему правой кнопкой мышки, и выберите «Сохранить ссылку как».
В файле следует исправить два поля: «accountId» и «containerId». Они должны быть настроены в соответствии с данными из вашего аккаунта.
Получить данные для этих полей можно в ссылке на ваш контейнер:
Контейнер GTM
Внутри самого файла находятся следующие кастомные теги, триггеры и переменные, которые помогут в соблюдении политики cookie:

Теги:

  1. cHTML — Cookie Consent. Это тег, в котором вы должны вставить свой скрипт подтверждения OneTrust. Без него уведомление о подтверждении не будет работать.
  2. cHTML — Push To Data Layer — Consent Updated. Выдает событие на уровень данных, когда обновляются настройки окна подтверждения (дается новое согласие или обновляется текущее).
  3. cHTML — Set Cookie — Actual Cookie Consent Active Groups. Сохраняет настройки окна подтверждения в файле cookie, срок действия которого истекает через 12 месяцев.
  4. cHTML — Push To Data Layer — Consent Data For The Record. Выдает полную информацию (включая пользовательский агент) на уровень данных. Эти данные позже будут использованы для хранения информации о согласии пользователя (в качестве доказательства) в Google Analytics.
  5. cHTML — Push To Data Layer — Consent Data For The Record. Если пользователь дает согласие на использование по крайней мере одной группы куки-файлов (за исключением необходимых), этот тег отправит данные о согласии пользователя в Google Analytics.

Четыре триггера блокировки:

  • blocking — Analytics Tracking is Not Allowed;
  • blocking — Functional Cookies are Not Allowed;
  • blocking — Marketing Cookies are Not Allowed;
  • blocking — Total Opt-Out (если посетитель отказывается от всех файлов cookie за исключением необходимых).
Теги, связанные с просмотром страниц (срабатывают, если посетитель согласился на использование куки-файлов):
  • pageview — All Pages — Analytics Tracking Allowed;
  • pageview — All Pages — Functional Cookies Allowed;
  • pageview — All Pages — Marketing Cookies Allowed;
  • pageview — DOM Ready — Analytics Tracking Allowed;
  • pageview — DOM Ready — Functional Cookies Allowed;
  • pageview — DOM Ready — Marketing Cookies Allowed;
  • pageview — Window Loaded — Analytics Tracking Allowed;
  • pageview — Window Loaded — Functional Cookies Allowed;
  • pageview — Window Loaded — Marketing Cookies Allowed.
Теги, связанные с просмотром страниц, которые срабатывают, если посетитель согласился на группу файлов отслеживания

Переменные

dlv — consentData for the record. Переменная, благодаря которой информация о согласии пользователя сохранится в Google Analytics.
Cookie — Actual Cookie Consent и dlv — Active Consent Groups — активные группы. Две переменные, которые хранят информацию о подтверждении (список групп, на которые согласился посетитель). Обе содержат одну и ту же информацию, но в разных местах. Одна группа основана на Data-Layer, а другая — на файлах cookie.
Чтобы вам было удобнее, держите три переменные, которые возвращают true, если посетитель разрешит определенную группу файлов cookie:
  1. Custom JS — Functional Cookies Allowed.
  2. Custom JS — Marketing Cookies Allowed.
  3. Custom JS — Performance and Analytics Tracking Allowed.
После того как кастомизируете настройки «accountId» и «containerId», необходимо импортировать данные в свой контейнер:
После того, как кастомизируете настройки accountId и containerId, необходимо импортировать данные в свой контейнер
Затем очень важно отметить пункт «Перезапись», чтобы не удалить теги в вашем контейнере и выбрать «Существующую область».
После этого появится такое окно:
После этого появится такое окно
Затем проделываем такие действия:
  1. Переходим в тег cHTML — Cookie Consent и заменяем его код на скрипт, который предоставляет OneTrust:
Переходим в тег cHTML — Cookie Consent и заменяем его код на скрипт, который предоставляет OneTrust
  1. Обновляем все теги отслеживания (которые касаются личных данных) в Диспетчере тегов Google. Добавляем к ним один из трех триггеров блокировки в качестве исключения. Это необходимо сделать с помощью каждого тега отслеживания (который касается личной информации), включая просмотр страницы Google Analytics, теги конверсии Google Ads.
Что необходимо сделать с помощью каждого тега отслеживания (который касается личной информации), включая просмотр страницы Google Analytics, теги конверсии Google Ads
  1. Обновляем все теги, которые запускаются при просмотре страниц, DOM Ready или Window Loaded Events. Важная часть процесса — сохранение меток отслеживания до тех пор, пока посетитель не даст согласие на отслеживание. Следовательно, Google Analytics, Facebook Pixel и другие теги на основе просмотров также должны быть «на удержании». То есть стандартный триггер «Все страницы» здесь не имеет значения.
Нужно удалить все триггеры просмотра страниц, DOM Ready и Window Loaded из ваших текущих тегов, которые не согласуются с политикой сбора данных о пользователях.
Далее следует сгенерировать теги на основе просмотров на странице, которые активируются сразу после получения согласия.
Вот почему для каждого из них присваивается триггер Custom — Optanon Consent Update.
Ожидаемый результат: просмотр страницы, основной код Facebook Pixel и другие теги, которые срабатывают при загрузке страницы, не должны срабатывать, пока пользователь не даст согласие (нажав кнопку «Принять», закрыв баннер или листая страницу дальше).
Но что происходит с тегами просмотров страниц, если посетитель уже дал согласие, а затем обновляет страницу? И здесь мы переходим к четвертому шагу.
  1. Добавляем триггеры на основании просмотров, которые учитывают настройки согласия с политикой использования cookie. В зависимости от того, какие типы файлов cookie мы собираем, и какие настройки используем в теге (All Pages, DOM Ready или Windows Loaded), выбираем триггер:
  • pageview — All Pages — Analytics Tracking Allowed;
  • pageview — All Pages — Functional Cookies Allowed;
  • pageview — All Pages — Marketing Cookies Allowed;
  • pageview — DOM Ready — Analytics Tracking Allowed;
  • pageview — DOM Ready — Functional Cookies Allowed;
  • pageview — DOM Ready — Marketing Cookies Allowed;
  • pageview — Window Loaded — Analytics Tracking Allowed;
  • pageview — Window Loaded — Functional Cookies Allowed;
  • pageview — Window Loaded — Marketing Cookies Allowed.
Выберите один для каждого тега. Например, Google Analytics Pageview Tag должен получить триггер просмотра Pageview — All Pages — Analytics Tracking Allowed. Тег Facebook Pixel должен получить триггер Pageview — All Pages — Marketing Cookies Allowed.

Как настроить передачу событий в Google Analytics?

Чтобы получить согласие, существует тег GA Event — Cookie Consent Data For The Record, который отправит данные о согласии в Google Analytics (как событие). Его данные включают:
  1. Группы согласия.
  2. Отметку.
  3. Идентификатор клиента Google Analytics.
  4. User Agent (информация о браузере: версия и другое).
Если посетитель не выбирает все группы файлов cookie, ни одно событие не будет отправлено в Google Analytics.
Чтобы активировать тег, нужно указать идентификатор счетчика из Google Analytics:
нужно указать идентификатор счетчика из Google Analytics

В итоге:
  • все теги, основанные на событиях, получат новый триггер блокировки;
  • все теги, основанные на просмотрах, получат новый триггер блокировки, два новых триггера и удалятся триггеры старой страницы (или DOM Ready или Window Loaded).
С англоязычной версией статьи можно ознакомиться здесь.

Выводы

  1. Если вы работаете с рынком ЕС, придется следовать требованиям GDPR. Для этого следует уведомить пользователей, что вы собираете о них информацию. Проще всего это сделать с помощью баннера об использовании куки-файлов.
  2. Используйте Cookiebot, CookiePro или OneTrust для создания баннера. Вы можете указывать шаблон, цвет, текст баннера, а также условия его появления на сайте.
  3. Для интеграции баннера следует использовать соответствующие теги, триггеры и переменные в Google Tag Manager. Взять их можно в специальном файле.

Отдельное спасибо автору статьи.