Пресс портрет
Информация отсутствует
Robots-checker

Robots-checker

  • Категория сервиса
  • Веб сайт
  • Тип решения
    Saas
  • Наличие бесплатного тарифа
    Есть
  • Описание

    Файлы Robots.txt созданы веб-мастерами, чтобы отмечать файлы и справочники веб-сайта, к которым не должны получать доступ пауки поисковых систем (и другие типы роботов).

    Robots.txt Checker – это "контрольное устройство", которое анализирует синтаксис robots.txt файла и находит скрытые ошибки, если они есть.

    1. Просто вставьте полный URL robots.txt файла, который Вы хотите проанализировать
    2. Контролер находит синтаксические и логические ошибки – полезные подсказки оптимизации

О компании

Подписаться на каталог сервисов для e-commerce

20 октября / Комментарии

DPD в России признана лидером логистического рынка для электронной коммерции

19 октября 2017 г. в Москве в рамках ежегодной конференции «Электронная торговля–2017» состоялась церемония награждения премии «Большой Оборот». По итогам конкурса DPD в России стала победителем в специальной номинации «Логистика».

далее →

20 октября / Комментарии

Яндекс.Директ добавил в конструктор идеи для креативов

Команда Яндекс.Директа сообщила о появлении в Конструкторе возможности генерировать идеи графических объявлений по URL.

далее →

20 октября / Комментарии

WebMoney запустила кэшбэк-сервис для интернет-магазинов

Владельцы интернет-магазинов теперь могут создавать кэшбэк-кампании с помощью WebMoney Bonus. Сервис нацелен на помощь магазинам в привлечении покупателей среди участников системы WebMoney, число которых уже превысило 35 млн.

далее →