Jak přimět Google, aby procházel nový obsah na vašem webu pomocí Fetch and Render [6 min] 2018

Při nasazování úhlové aplikace pouze s vykreslováním na straně klienta musíme provést další kroky, aby Google aplikaci indexoval, nebo je to automatické.

Šel jsem do vyhledávací konzoly a zaregistroval jsem web, ale jsem zvědavý, jestli potřebuji vytvořit soubor mapy webu XML atd., Nebo Google automaticky objeví trasy?

  • 1 Poskytuje váš web odkazy na všechny adresy URL?
  • @StephenOstermiller dobrý bod. Můžu to změnit tak, že ano. Myslím, že to způsobí, že je Google indexuje správně? Předpokládám, že je mohu jen dát dovnitř index.html a skrýt je pomocí CSS?
  • 1 Aktualizoval jsem vaši terminologii. „Trasa“ je mapování více na jednu mezi adresami URL a kódem obslužné rutiny. Google nemusí o vašem směrování vědět ani se o něj starat, pouze o adresách URL vytvořených na vašem webu. Obvyklým termínem je „odesílání adres URL“ místo „registrace tras“ prostřednictvím Google Search Console.

Googlebot nyní spouští JavaScript a může automaticky procházet a vykreslovat stránky na vykreslených webech na straně klienta. Vypadá to, že to už děláte, ale aby mohl prohledávač vykonávat svou práci, musíte:

  • Vytvořte samostatnou adresu URL pro každou část obsahu na vašem webu. Google musí mít možnost posílat návštěvníky přímo na obsah, který prohledávali, a to tak, že je nasměruje na konkrétní adresu URL daného obsahu. Můžete směrovat všechny adresy URL na stejný kód obslužné rutiny v Angular a nechat svůj kód rozhodnout, který obsah je vhodný na základě adresy URL.
  • Poskytnout odkazy na stránky odkazující na jiné stránky. Můžete zachytit kliknutí uživatelů na tyto odkazy a aktualizovat pouze obsah na stránce, který potřebuje změnit a aktualizovat adresu URL pomocí pushState. Při navigaci není nutné nutit uživatele, aby znovu načetli celou stránku znovu. Google však nebude moci najít všechny adresy URL na webu, pokud ve svých navigačních prvcích nepoužíváte běžné kotevní odkazy.

Stále může být dobrý nápad vytvořit soubor XML Sitemap. Google při procházení a vykreslování webů generovaných na straně klienta pracuje velmi pomalu. Soubor Sitemap XML by mohl urychlit proces, díky kterému bude Google objevovat a procházet celý váš web. Bez souboru Sitemap to může trvat měsíce, ale se souborem Sitemap to může trvat jen několik týdnů.

Jen proto, že máte soubor XML Sitemap, musíte stále propojit své adresy URL s kotevními odkazy. Soubory Sitemap pomáhají s objevováním adres URL, ale nepomáhají s reputací URL ani s hodnocením. Pro dobré SEO nestačí soubor Sitemap. Googlebotovi musíte umožnit vidět vztahy mezi vašimi stránkami, aby mohl vypočítat Pagerank. Viz paradox Sitemap.

Pracoval pro vás: Charles Robertson | Chcete nás kontaktovat?