Lipsa transparenței te va declasa în ierarhia Google

Numeroși utilizatori primesc în aceste zile o avertizare din partea Google cu probleme ce privesc prima pagină și modul în care motorul de căutare (nu) reușește să interpreteze și să indexeze conținutul site-ului. Pe scurt, Googlebot (instrumentul folosit de Google pentru a parcurge paginile site-ului) nu poate accesa fișierele JavaScript și/sau CSS din cauza restricțiile existente în robots.txt, asta fiind interpretat ca o lipsă de transparență și atrage declasarea în clasamentul Google.

 

Dorința Google a vedea site-urile în întregime fără a fi obstrucționat în vreun fel nu reprezintă o noutate, dar este pentru prima dată se acționează de pe poziții de forță. În plus, de două ori în același mesaj se subliniază importanța adaptării site-ului pentru mobil.

Fără a fi legate (accesul la fișierele .css și .js, respectiv existența unei versiuni pentru mobil sau design responsive), cerințele Google reprezintă mai mult decât „simple recomandări”. Ele sunt criterii după care ne menținem, creștem ori scădem în clasamentul Google.

Ai primit un astfel de mesaj de la Google?

Googlebot cannot access CSS and JS files on…

July 28, 2015

To: Webmaster of …,

Google systems have recently detected an issue with your homepage that affects how well our algorithms render and index your content. Specifically, Googlebot cannot access your JavaScript and/or CSS files because of restrictions in your robots.txt file. These files help Google understand that your website works properly so blocking access to these assets can result in suboptimal rankings.

mesaj-google-css-js

Care sunt pașii pentru remedierea problemei?

  1. Identificăm fișierele .css și .js inaccesibile pentru Googlebot;
  2. Actualizăm fișierul robots.txt;
  3. Testăm modificările făcute și ne asigurăm că totul este în ordine („Fetch as Google”).

 

 1. Cum identificăm resursele la care Googlebot nu are acces?

Folosind Search Console (până nu demult s-a numit Google Webmaster Tools), mergem la „Crawl” și „Fetch as Google”, pentru a avea o imagine fidelă asupra modului cum în care este văzut site-ul nostru. Iar pentru început alegem să verificăm versiunea pentru desktop.

fetch-as-googlebot-probleme

Dacă între cum „vede” Googlebot pagina și cum apare ea pentru un utilizator obișnuit sunt discrepanțe, înseamnă că avem probleme. Iar în continuare vom găsi lista completă a fișierelor .css și .js inaccesibile, precum și motivul: blocarea Googlebot. Un simplu click și pentru fiecare resursă în parte ne este indicată linia „vinovată” din robots.txt

resurse-css-js-blocate

 

2. Actualizarea robots.txt

Fișierul robots.txt îl găsim în directorul rădăcină al site-ului, modificarea lui făcându-se cu orice editor standard.

Pe o pagină de resurse, Google ne prezintă de altfel toate ustensilele folosite pentru a naviga prin site-uri (Googlebot, Googlebot News, Googlebot Images. Google Mobile, etc.) și ne învață cum să le configurăm accesul, însă cine nu este nefamiliarizat cu editarea robots.txt poate găsi un plus de confort apelând la o firmă specializată. Emiral Media e întotdeauna o soluție, nu? 😉

robots.txt

Odată ce am făcut modificările, mergem iarăși în Search Console, Crawl -> robots.txt Tester – > Submit -> Submit (Ask Google to update). După reîncărcarea paginii primim confirmarea că ne acum înainte Google citește versiunea actualizată robots.txt. Să vedem dacă este suficient…

 

3. Testăm modificările făcute și ne asigurăm că totul este în ordine

Procedura este similară cu cea de la primul pas, dar rezultatele trebuie să fie altele. În primul rând, la statusul randării va scrie „Complet” (nu „Parțial”) și, extrem de important, imaginea paginii randate de Googlebot este identică cu cea văzută de un utilizator obișnuit. Câtă vreme apar discrepanțe între cele două imagini, înseamnă că una sau mai multe resurse (.css și .js) sunt în continuare blocate de robots.txt și se reia pasul al doilea.

Utilizatorii WordPress, așa cum notează yoast.com, se vor bucura să afle că avertizarea Google este generată cel mai probabil de blocarea accesului la directorul wp-admin și tot ei pot edita rapid fișierul robots.txt folosind Yoast SEO. Nu întâmplător peste 3.000.000 de site-uri se bazează pe acest CMS, printre ele și www.emiral.ro Ce e bun și lui Google îi place.

 

Vă dăm o mână de ajutor? Că doar nu vreți să pierdeți poziții în Google.

 

Sursă foto (1): http://indigestmag.com/blog/?p=9826#.Vboo1rW22UJ