
Сайт готовий до роботи, запущений, але трафік «0». Його немає в результатах пошуку Google. Швидше за все, ця проблема легко вирішується. Розглянемо 4 причини, чого сайту немає у видачі та поради про те, як прискорити його реєстрацію.
Сайт не проиндексований
Пошукові роботи виявляють новий веб-ресурс, переходячи по посиланнях і реєструють його в базі даних. Дізнайтеся, чи пройшов ваш сайт індексацію, набравши в пошуку «site:назва сайту» без пробілу після двокрапки.
Наприклад: site:star-marketing.com.ua. У результатах видачі з’являться всі проіндексовані сторінки з такою адресою.

Сайт потрапить в базу даних швидше через сервіс «Google Search Console». Увійдіть, надішліть запит на індексацію. В панелі веб-майстра відстежуйте повідомлення про помилки, рекомендації, стан індексації, статистику переходів.
Для відправки сторінки на індексацію вручну, введіть адресу сторінки в полі «Перевірка URL».

Через певний час відправлена сторінка повинна з’явитися у видачі Google.
Алгоритми швидше просканують веб-строінки по карті сайту для пошукових роботів. Побудуйте внутрішні посилання на кожну сторінку, яку потрібно проіндексувати. Не використовуйте лінки, що з’являються після дій користувачів (результати пошуку по сайту, фільтрів і т.д.). Пошукові роботи не повинні їх індексувати. Карта сайту знаходиться за адресою sitemap.xml. Наприклад: https://star-marketing.com.ua/sitemap.xml. Надішліть її в Google Search Console:

Заборона на індексацію в файлі robots.txt
У кореневій каталог розробники додають файл robots.txt. Він регулює відвідування веб-сторінок роботами. Вони закриті для індексації, якщо в ньому є рядки:

Коли робота над сайтом завершена, веб-майстер може забути прибрати заборону, і система його не побачить. Перевірте, чи активна заборона відстеження: надішліть файл сайту в консоль пошуку Google. Якщо алгоритми просканували його і знайшли блокування, в звіті «Перевірка URL – Покриття» шукайте помилку: «Submitted URL blocked by robots.txt».
Виявили її на своїй платформі? Рекомендуємо звернутися до професіоналів. Вони коректно відключать заборону відстеження. Після усунення robots.txt подайте запит на реєстрацію в Google.
Коли сайт проіндексовані, в звіті «Перевірка URL – Покриття» з’явиться відповідна відмітка і буде вказано, що сканування дозволено:

Блокування індексації на WordPress
Така заборона робить сторінки невидимими для алгоритмів, що потрібно в процесі верстки або тестування. Вони не з’являться у видачі, навіть якщо відправити карту сайту в Google.
Код виглядає так:

WordPress автоматично додає в HTML-тег «noindex», що забороняє індексацію, якщо в розділі «Search Engine Visibility» активована ця опція:

Галочку в цьому блоці встановлюють під час розробки сайту, щоб користувачі не заходили на нього. Коли роботи завершені, цю опцію часто забувають відключити. Дізнайтеся, чи є повідомлення про заборону сканування на сторінці зі звітом в консолі пошуку в Google:

Санкції від Google
Це найменш ймовірна причина того, чому сайту немає у видачі. Якщо він відповідає вимогам системи і на ньому враховуються зміни алгоритмів, фільтри не накладаються. Детальніше про санкції пошукових систем можна дізнатися з нашої статті. Довіряйте виправлення таких проблем досвідченим веб-майстрам!
Поліпшення сайту для індексації
Розробляючи веб-ресурс, дотримуйтеся вимог Google і особливостей роботи алгоритмів. SEO оптимізація сайту допомагає привести сайт відповідно їм. Потрібно всебічна настройка параметрів, що впливають на реєстрацію в пошуковій системі і ранжування.
Розглянемо кілька чинників, що прискорюють реєстрацію сайту:
- Мова веб-сторінок. HTML індексується краще, ніж Java або AJAX.
- Зовнішні посилання. Якщо на ваш сайт посилається авторитетне джерело, Google знайде його швидше. Шлях URL або назви сторінок алгоритмам знайти легше, ніж параметри URL:

- SEO-оптимізація – комплекс робіт над сайтом для просування в ТОП. Веб-сторінки, що відповідають пошуковим запитам, добре ранжуються. Ключові фрази в контенті, описі, URL показують, що на веб-ресурсі є інформація, яка цікавить користувачів. Якщо вони не використовуються, сайт не з’явиться у видачі за цими фразами.
- Сторінки, ідентичні за змістом. Є різні способи виявити дублі сторінок. Один з них – Онлайн-сервіс Ashrefs Site Audit. На виявлених дублях потрібно вказати канонічну сторінку (основну) за допомогою атрибута rel = “canonical”, або налаштувати переадресацію на потрібну сторінку (redirect 301).
- Неунікальний контент. Google не підтримує плагіат. Публікуйте на сайті тексти з унікальністю не нижче 95%. Додавайте авторські зображення.
- Низька швидкість завантаження сайту. Це відбувається, якщо використовуються «важкі» зображення і відео, складна анімація, у веб-платформи і хостингу невеликий ресурс. Стисніть зображення, змініть параметри кешування і відключіть зайві плагіни. Це прискорить роботу сайту. Якщо потрібна більш глибока оптимізація швидкості завантаження, звертайтеся до професіоналів.
Найчастіше індексації немає, якщо в Google не відправлена карта сайту або в коді сторінки є блокування в robots.txt. Ці неполадки легко усунути. Якщо накладено фільтри пошукової системи, звертайтеся за усуненням проблеми до фахівців, щоб не погіршити ситуацію помилковими діями. Робота над якістю сайту прискорює індексацію і сприяє швидкому просуванню в ТОП.