Indexare un site în Yandex și Google cum să testeze și să accelereze

Indexare un site în Yandex și Google cum să testeze și să accelereze

Deoarece căutarea găsește pagina

proces de indexare are loc în 5 etape:

  1. creare site.
  2. Robotul învață despre existența site-ului.
  3. Planificarea.
  4. Solicitare de conținut, adăugarea unei baze.
  5. Adăugarea de informații în căutare.

Și acum, în explicația ordinea fiecare pas.

De conducere: Site-ul procesului de indexare pas cu pas

Ai creat un site web, ei îl postează pe un server, umplut cu un conținut și să-l accesibil vizitatorilor și indexarea robotului (etapa 1). Mai mult, pentru a fi indexat de site-ul a început, robotul trebuie să știe despre existența sa (etapa 2). După ce a fost raportat ca site-ul de Internet plasat robotul este de planificare pentru a vizita site-ul dvs. (pasul 3). Pe lângă acesta trimite anumite cereri serverul dvs. pentru a obține conținut din acesta (etapa 4). Și conținutul rezultat adăugat în viitor, într-o bază de date (etapa 5).

În cazul în care robotul de indexare Yandex sau Google știe despre paginile (explicații la pașii 1, 2 și 3):

  • link-uri către alte pagini de pe Internet;
  • Ya.Vebmaster sau Google pentru webmasteri;
  • link-uri interne;
  • sitemap XML;
  • alte surse, cum ar fi Yandex Metrics.

Din ceea ce depinde de viteza de indexare:

  • încărcați serverul pe care se află pe site-ul;
  • pagina rată de reîmprospătare;
  • interesul vizitatorilor site-ului.

toate doar aici. Dacă serverul nu poate face față cerințelor robotului, el începe să viziteze site-ul mai rar, prin urmare, paginile vor veni în codul mai lent. Și, în același timp, în cazul în care robotul vede de pe site-ul dvs. de multe ori adaugă orice conținut nou, atunci când începe să viziteze aceste pagini de multe ori, pentru că el crede că vine la site-ul după un anumit timp, conținutul va fi actualizat din nou.

De asemenea, robotul se uita la interesul vizitatorilor la materialul pe care îl plasați pe el. Cu alte cuvinte, în cazul în știri, articole de știri sau alt conținut de interes pentru vizitatori, robotul atrage de asemenea atenția asupra sa și poate revizui politica sa de planificare care este utilizat atunci când vizitează pagina ta.

Solicitarea și primirea conținutului (nota la Pasul 4):

  1. Cerere fișierul robots.txt (1-2 ori pe zi).
  2. Cerere pentru o anumită pagină.

Înainte de fiecare indexare solicită fișierul robots.txt. Acest lucru se întâmplă de obicei, de 1-2 ori pe zi. Robotul este de a face acest lucru destul de rar pentru motivul că acest fișier este actualizat rar. După aceea există deja o solicitare a unei anumite pagini. Robotul trimite astfel la server anumite antetele:

Accept-Language: ru, uk: q = 0,8, fie: q = 0,8, en: q = 0,7, *: q = 0,01

User-Agent: Mozilla / 5.0 (compatibil: YandexBot / 3.0 + yandex.com / boti)

Accept-Language - indică ce limbi sunt susținute de robotul de indexare. Accept-Encoding - indică formatele de compresie acceptate. User-Agent - Acest titlu, care arată ce fel de robot de indexare a venit la tine.

După ce robotul a trimis o cerere la server, serverul returnează un răspuns. Iată un exemplu:

Content-Type: text / html; charset = UTF-8

Cache-Control: no-cache, nu-magazin, max-age = 0, trebuie să-revalidate

X-XSS-Protection: 1; mode = bloc

HTTP / 1.1 - raspuns obligatoriu server care arată starea în care se solicită pagina. Content-Type - De asemenea, va răspunde, care arată ce tip de document este transmis la robot și codificarea acesteia. Contet-Encoding - indică tipul de compresie, care este folosit pe server.

HTTP răspuns server de cod / 1.1 Frecvente:

Adăugarea de conținut în baza de date de căutare (explicația la pasul 5).

În plus față de răspunsul HTTP returnat de serverul trebuie să fie transmis și conținutul paginii în sine. Deci, robotul a primit:

  • Codul de răspuns HTTP;
  • conținutul text, meta tag-uri;
  • Linkuri de ieșire către pagini interne și externe.

Tipuri de indexare robot de

Odată ce conținutul este primit este necesar să se includă în rezultatele căutării. În funcție de modul în care robotul de indexare accesează site-ul, paginile dvs. pot apărea în rezultatele căutării la momente diferite. Depinde de tipul de robot care este rapid sau mai mare.

vizite de robot rapide, de regulă, resurse de știri pagini și site-uri la care informația își pierde rapid relevanța. Adică, pagina pe care doriți să indice este acum și să le includă în rezultatele căutării. Principalele vizite de indexare roboți toate paginile care sunt cunoscute de el, care solicită tot conținutul și include documente în SERPs. Singurul lucru care se întâmplă încet la momentul actualizării bazei de căutare (1-2 săptămâni).

Verificați indexarea

Verificați indexarea fiecărei pagini - aceasta este o etapa extrem de important, care ar trebui, în mod ideal, să fie făcută automat. În cazul în care chiar și un proiect mic, puteți verifica manual proiectele deja mari vor fi forței de muncă intensivă. Desigur, în acest caz, avem nevoie de software specializat sau de dezvoltare in-house.

Este important să se înțeleagă că, atunci când scăderea indicelui de diferite pagini nedorite, de exemplu, o varietate de camere duble, pagini fără conținut sau cu erori, atunci aceasta duce la răspândirea greutății statice, la fel de util, deoarece atât gunoiul pe pagină. De asemenea, conduce la pierderea sau ratari importante pentru a promova paginile din index, care afectează în cele din urmă traficul.

Cum știi că pagina în căutare Yandex:

  • instrument Yandex.Webmaster - „Verificați adresa URL»;
  • Rezultatele căutării cu URL-ul operatorului. de exemplu, adresa URL: www.seowind.ru/baza-znanij-seo/indeksaciya-sajta/
  • Căutați toate paginile site-ului, care sunt în căutarea - site-ul operatorului. de exemplu, site-ul: www.seowind.ru

Cum de a gestiona robot de indexare

Acum trebuie să înțelegem modul în care acestea pot influența crawler pe care le-a indexat doar ceea ce avem nevoie. Gestionați indexarea poate fi prin:

Este important să ne amintim. Pentru ca site-urile robotice au oglinzi pe ele ar trebui să fie același conținut.

Mai ales pentru AJAX și versiunile localizate ale siturilor

Rămâne să-i spun despre indexarea anumitor tipuri de site-uri.

Mai întâi de toate conținut dinamic sau site-uri care rulează pe AJAX. Aici putem distinge două cazuri particulare, dar acestea sunt reduse la unul și același lucru. Webmasteri au nevoie pentru a crea HTML pentru copii indexare robot care este, copii statice, în cazul în care, conținutul este deja acolo, și să raporteze existența lor.

În acest caz, crawler va vizita aceste copii HTML pe care le-ați creat pentru el și în rezultatele căutării vor include pagini dinamice sunt proiectate pentru vizitatori.

  • site.ru/#blog -> site.ru/#blog
  • site.ru/#!blog -> site.ru/?_escaped_fragment_=blog
  • site.ru/blog ->
  • site.ru/blog -> site.ru/blog?_escaped_fragment_=

În cazul 2, vom plasa meta tag-ul în codul sursă al paginii și să adăugați o copie a HTML pentru pagina a site-ului.

Unele caracteristici există în versiunile localizate ale site-urilor de indexare în alte limbi. De exemplu, dacă aveți un forum mare sau magazin online, cu diferite versiuni lingvistice. Pentru aceste versiuni lingvistice și au fost indexate în rezultatele de căutare ar trebui:

  • deschide o versiune localizată pentru crawler;
  • utilizați atributul hreflang, care este plasat în codul sursă al tuturor paginilor care au fost traduse în alte limbi versiuni.

În acest caz, robotul decide că, în rezultatele de căutare, de exemplu, în Statele Unite ale Americii pentru a include versiunea în limba relevantă (în limba engleză) a site-ului.

Cum să accelereze indexarea

Accelerarea indexării paginilor - aceasta este o problemă serioasă pentru SEO specialist care are nevoie de rezolvare. Pentru a îmbunătăți indexarea site-ului trebuie să fie făcut un anumit interval de activități:

articole similare