V SEO je tendence využívat různé nástroje. Ty nejužitečnější však poskytují samotné vyhledávače. Vyhledávače vyžadují, aby správci webových stránek vytvářeli weby a obsah přístupný a přehledných jejich robotům i uživatelům. Proto poskytují různé nástroje s pokyny a analýzou. Tyto nástroje přístupné zdarma poskytují cenná data a umožňují získávat informace od samotných vyhledávačů.
Níže si vysvětlíme základní prvky, které každý z hlavních vyhledávačů podporuje a určuje, proč jsou užitečné.
Základní vyhledávací protokoly
Sitemaps
Představte si Sitemap jako soubor, který poskytuje vyhledávačům rady, jak mohou procházet vaše webové stránky. Sitemap pomáhá vyhledávačům najít a klasifikovat obsah na vašem webu, který by se jim nepodařilo vůbec nalézt. Soubory Sitemap mohou být také v různých formátech a mohou vyzdvihnout různé typy obsahu včetně obrázků, videa, zpráv a mobilního obsahu.
Úplné podrobnosti o protokolech si můžete přečíst na stránkách Sitemaps.org. Kromě toho, můžete na webu XML-Sitemaps.com vytvářet vlastní soubory Sitemap.
Sitemaps mohou být ve třech formátech:
XML
Rozšířitelný značkovací jazyk (doporučený formát).
- Nejčastěji akceptovaný formát souborů Sitemap. Pro vyhledávače je velmi snadný k analyzování a mýt vytvořen množstvím různých generátorů. Navíc umožňuje nejpokročilejší ovládání parametrů stránky.
- Jelikož XML potřebuje otevírací a uzavírací tag kolem každého prvku, mohou být výsledné soubory velmi objemné.
RSS
ReallySimpleSyndication nebo RichSiteSummary
- RSS sitemaps mohou být snadno nakódovány, aby se automaticky aktualizovaly při přidávání nového obsahu.
- Ačkoli RSS je dialekt XML, kvůli jeho aktualizačním vlastnostem je mnohem těžší ho spravovat.
Txt
Textový soubor
- Extrémně snadný. Formát souboru Sitemap je jedna adresa URL na řádku a může obsahovat až 50 000 řádků.
- Neposkytuje možnost přidávat metadata jednotlivým stránkám.
Robots.txt
Robots.txt je soubor uložený v kořenovém adresáři webových stránek. Tento soubor poskytuje pokyny pro automatizované webové crawlery, které navštěvují vaše stránky, včetně vyhledávacích crawlerů.
Používáním robots.txt, mohou webmasteři zakázat a povolit přístup k jednotlivým částem webu, označit umístění souboru Sitemap.
K dispozici jsou následující příkazy:
- Disallow
Zabraňuje robotům přístup ke konkrétním stránkám nebo složkám. - Sitemap
Označuje umístění souboru Sitemap. - CrawlDelay
Označuje rychlost (v sekundách), při které může robot procházet server.
Příklad souboru Robots.txt
#Robots.txt www.example.com/robots.txt
User-agent: *
Disallow:
# Don’t allow spambot to crawl any pages
User-agent: spambot
disallow: /
sitemap:www.example.com/sitemap.xml