Zona tehnica AJAX si raspunsuri concrete la intrebarile utilizatorilor

In primul rand mentionam ca pentru costuri seo foarte mici cel mai bun loc este DanBradu.ro.

Mai jos va prezentam intrebari si raspunsuri despre Ajax.

Poate aceasta abordare sa conduca la o proliferare a URL-urilor brut _escaped_fragment_?

Sintaxa _escaped_fragment_ pentru adresele URL este o adresa URL temporara care nu ar trebui sa fie vazuta niciodata de utilizatorul final. Indiferent de context, utilizatorul trebuie sa vada adresa URL a vitrinei care contine #! si non_escaped_fragment_: in interactiunile normale ale aplicatiilor, in Sitemap-uri, in hyperlink-uri, in referinte si in orice alta situatie in care utilizatorul poate vedea adresa URL. Din acelasi motiv, rezultatele cautarii sunt adrese URL mai degraba decat adrese URL inestetice.

Poate acest proces sa promoveze tehnicile de cloaking?

Cloaking isi propune difuzarea catre utilizatorii de Internet a unui continut diferit de cel afisat in motoarele de cautare. Aceasta tehnica vizeaza, in general, optimizarea clasamentului unui site in rezultatele cautarii. Cloaking a fost intotdeauna (si va fi intotdeauna) o mare problema pentru motoarele de cautare.

Fiti constienti, totusi, ca a face aplicatii AJAX accesibile cu crawlere nu este in nici un caz un stimulent pentru seo. Acesta este motivul pentru care snapshot-urile HTML trebuie sa aiba acelasi continut ca cel prezentat utilizatorului in browser. Daca nu, practica poate fi considerata cloaking. Consultati acest raspuns pentru a afla mai multe.

Pot folosi acest proces pentru a va ajuta sa explorati continutul meu Flash sau alte fisiere rich media?

Indicati multe tipuri de fisiere media imbogatite si continuati sa va straduiti sa imbunatatiti sistemul de accesare cu crawlere si de indexare. Cu toate acestea, este posibil ca Googlebot sa nu poata vedea tot continutul unui material Flash sau al altor aplicatii rich media (la fel cum nu poate accesa cu crawlere intregul continut dinamic de pe site-ul dvs.).

Prin urmare, poate fi interesant sa folositi acest proces pentru a oferi continut suplimentar pentru Googlebot. Din nou, snapshot-urile HTML trebuie sa aiba acelasi continut ca cel prezentat utilizatorului in browser. Ne rezervam dreptul de a exclude site-urile din indexul nostru daca utilizeaza tehnici de ascundere.

Ce se intampla daca site-ul meu afiseaza adrese URL de fragment de hash care nu ar trebui sa fie accesate cu crawlere?

Daca site-ul dvs. adera la procesul de descoperire AJAX, crawlerul nostru cauta fiecare adresa URL de fragment de hash pe care o gaseste in calea sa. Daca site-ul dvs. are URL-uri de fragment de hash pe care nu doriti sa le explorati, va recomandam sa adaugati o declaratie de expresie regulata in fisierul dvs. robots.txt.

De exemplu, puteti utiliza o conventie in fragmente de hash pe care nu doriti sa le accesati cu crawlere si apoi sa excludeti toate adresele URL potrivite din fisierul robots.txt. Sa presupunem ca toate starile non-indexabile sunt in format #DONOTCRAWLmyfragment. Pentru a impiedica Googlebot sa acceseze cu crawlere aceste pagini, adaugati urmatorul articol in fisierul robots.txt:

Dezactivati: / * _ escaped_fragment_ = DONOTCRAWL

Ce se intampla cu utilizarile existente ale #! In fragmente de hash?

#! nu este un jeton frecvent utilizat in fragmente de hash. Cu toate acestea, nu este interzisa de specificatia adresei URL. Ce trebuie sa fac daca aplicatia mea utilizeaza #! si nu vreau sa ma alatur noului proces de explorare AJAX? Puteti adauga o instructiune in fisierul dvs. robots.txt pentru a informa crawlerul.