Nová tištěná kniha o SEO
SEO Akademie Collabim
S láskou a vidinou klientů píše Collabim Nejpoužívanější český SEO nástroj

Uživatelský agent Google Read Aloud

Google-Read-Aloud je uživatelský agent pro službu Google Read Aloud. Tato služba umožňuje čtení webových stránek pomocí převodu textu na řeč (TTS). Tato služba se aktivuje, když má koncový uživatel povolenou TTS a navštíví stránku. Službu Read Aloud využívají služby Google Go, Google Read it, Read Aloud v aplikaci Google a další služby Google pro převod… Detail článku »

Googlebot

Googlebot je obecný název pro dva typy webových crawlerů společnosti Google: Googlebot Desktop: desktopový crawler, který simuluje uživatele na počítači. Googlebot Smartphone: mobilní crawler, který simuluje uživatele na mobilním zařízení. Podtyp Googlebot lze určit podle řetězce user agent v požadavku. Oba typy crawlerů se však řídí stejným tokenem produktu (tokenem uživatelského agenta) v souboru robots.txt,… Detail článku »

Přehled crawlerů a fetcherů (uživatelských agentů) Google

Společnost Google používá crawlery a fetchery k provádění akcí pro své produkty, a to buď automaticky, nebo na základě požadavku uživatele. Crawler (někdy také nazývaný „robot“ nebo „pavouk“) je obecný termín pro jakýkoli program, který se používá k automatickému vyhledávání a skenování webových stránek sledováním odkazů z jedné webové stránky na druhou. Hlavní crawler společnosti… Detail článku »

Nejčastější dotazy k Robots.txt

Obecné otázky k robotům Potřebuje můj web soubor robots.txt? Ne. Když robot Google navštíví webovou stránku, nejprve požádá o povolení k procházení tím, že se pokusí načíst soubor robots.txt. Webové stránky bez souboru robots.txt, metaznačky robots nebo hlavičky X-Robots-Tag HTTP budou obvykle normálně procházeny a indexovány. Jakou metodu mám použít k zablokování procházení? Záleží na… Detail článku »

Jak Google interpretuje specifikaci robots.txt

Automatické vyhledávače společnosti Google podporují protokol REP (Robots Exclusion Protocol). To znamená, že před procházením webu si roboty Google stáhnou a rozeberou soubor robots.txt webu a získají informace o tom, které části webu mohou být procházeny. Protokol REP se nevztahuje na prohledávače společnosti Google, které jsou řízeny uživateli (například odběry kanálů), ani na prohledávače, které… Detail článku »

Aktualizujte soubor robots.txt

★ Pokud používáte CMS, například Wix nebo Blogger, nemusíte (nebo nemůžete) soubor robots.txt upravovat přímo. Místo toho může váš CMS zobrazit stránku s nastavením vyhledávání nebo nějaký jiný mechanismus, který vyhledávačům sdělí, zda mají vaši stránku procházet, nebo ne. Pokud chcete skrýt nebo zrušit skrytí některé ze svých stránek před vyhledávači, vyhledejte ve svém CMS… Detail článku »

Jak napsat a odeslat soubor robots.txt

★ Pokud používáte CMS, například Wix nebo Blogger, nemusíte (nebo nemůžete) soubor robots.txt upravovat přímo. Místo toho může váš CMS zobrazit stránku s nastavením vyhledávání nebo nějaký jiný mechanismus, který vyhledávačům sdělí, zda mají vaši stránku procházet, nebo ne. Pokud chcete skrýt nebo zrušit skrytí některé ze svých stránek před vyhledávači, vyhledejte ve svém CMS… Detail článku »

Seznámení s robots.txt

Soubor robots.txt určuje vyhledávačům, na které adresy URL na vašem webu mohou přistupovat. Používá se hlavně k tomu, aby se zabránilo přetížení webu požadavky; není to mechanismus, který by zabránil tomu, aby se webová stránka dostala do Googlu. Chcete-li webovou stránku udržet mimo Google, zablokujte indexování pomocí noindex nebo stránku zaheslujte. ★ Pokud používáte CMS,… Detail článku »

Jak stavové kódy HTTP a chyby sítě a DNS ovlivňují vyhledávání Google

Tato stránka popisuje, jak různé stavové kódy HTTP, chyby sítě a DNS ovlivňují vyhledávání Google. Zabýváme se 20 nejčastějšími stavovými kódy, se kterými se robot Googlebot na webu setkal, a nejvýznamnějšími chybami sítě a DNS. Exotičtější stavové kódy, jako je například 418 (I´m a teapot-Jsem konvice), nejsou zahrnuty. Všechny problémy uvedené na této stránce generují… Detail článku »

Průvodce majitele velkého webu pro správu rozpočtu na procházení (crawling)

Tato příručka popisuje, jak optimalizovat procházení velmi rozsáhlých webů, které jsou často aktualizované. Pokud váš web nemá velký počet stránek, které se rychle mění, nebo pokud se zdá, že vaše stránky jsou procházeny ještě v dne zveřejnění, nemusíte tuto příručku číst; postačí, když budete aktualizovat mapu stránek a pravidelně kontrolovat pokrytí indexu. Pokud máte obsah,… Detail článku »

Jak se hýbe český internet? Sledujte denní statistiky!

Zobrazit