Plik robots.txt to kluczowy element optymalizacji SEO, pozwalający zarządzać tym, w jaki sposób roboty wyszukiwarek indeksują zawartość strony. Jego odpowiednia konfiguracja może wpłynąć na widoczność witryny w Google oraz jej wydajność. W tym artykule wyjaśniamy, czym jest plik robots.txt, jakie ma zastosowania i jak go poprawnie skonfigurować.

Do czego służy plik robots.txt?
Plik robots.txt to specjalny dokument tekstowy znajdujący się w katalogu głównym witryny, który informuje roboty wyszukiwarek, które strony mogą indeksować, a do których nie powinny mieć dostępu. Jest on szczególnie przydatny w przypadku:
- Wykluczania stron przed indeksacją – np. stron zaplecza, paneli administracyjnych czy podstron z duplikowaną treścią.
- Ograniczania ruchu botów – nadmierna liczba zapytań może spowalniać działanie serwera.
- Zarządzania crawl budgetem – określanie, które strony powinny być priorytetowe dla wyszukiwarek.
Struktura pliku robots.txt
Plik robots.txt składa się z prostych dyrektyw, które informują roboty, jakie obszary strony mogą przeszukiwać. Oto podstawowa składnia:
User-agent: *
Disallow: /admin/
Disallow: /private/
User-agent: Określa, do jakiego robota odnosi się dana reguła (np. Googlebot, Bingbot). Gwiazdka (*) oznacza wszystkie roboty.
Disallow: Blokuje dostęp do wskazanych katalogów lub plików.
Jeśli chcesz umożliwić indeksowanie wszystkich stron, możesz użyć:
User-agent: *
Disallow:
To oznacza, że boty mogą indeksować całą witrynę.
Jakie błędy w pliku robots.txt mogą zaszkodzić SEO?
Nieprawidłowa konfiguracja pliku robots.txt może powodować problemy z indeksacją strony. Oto najczęstsze błędy:
- Blokowanie całej witryny – przypadkowe dodanie
Disallow: /
uniemożliwi indeksację całej strony. - Blokowanie zasobów CSS i JS – może to wpłynąć na interpretację strony przez Google.
- Niepoprawna lokalizacja pliku – plik musi znajdować się w katalogu głównym domeny (np.
domena.pl/robots.txt
). - Brak zgodności z sitemap.xml – w robots.txt warto dodać odwołanie do mapy strony:
Sitemap: https://domena.pl/sitemap.xml
Jak sprawdzić poprawność pliku robots.txt?
Aby upewnić się, że plik robots.txt działa poprawnie, możesz skorzystać z narzędzi takich jak:
- Google Search Console – narzędzie do testowania robots.txt.
- Screaming Frog SEO Spider – analizuje zasoby strony.
- https://domena.pl/robots.txt – możesz wpisać URL swojego pliku bezpośrednio w przeglądarce.
Robots.txt a meta tagi noindex
Plik robots.txt nie powinien być jedynym narzędziem do zarządzania indeksacją. Jeśli chcesz zablokować indeksowanie konkretnej strony, lepszym rozwiązaniem jest użycie meta tagu:
<meta name="robots" content="noindex, follow">
W przeciwieństwie do robots.txt, ten tag pozwala botom podążać za linkami, ale nie indeksuje danej strony.
Plik robots.txt to potężne narzędzie, które może poprawić SEO i wydajność strony. Ważne jest jednak jego prawidłowe skonfigurowanie, aby uniknąć błędów wpływających na widoczność w Google.