eGospodarka.pl
eGospodarka.pl poleca

eGospodarka.plGrupypl.comp.www › Wykluczenie adresów przez robots.txt
Ilość wypowiedzi w tym wątku: 2

  • 1. Data: 2012-10-05 11:42:54
    Temat: Wykluczenie adresów przez robots.txt
    Od: "Koń Rafał" <k...@r...pl>

    Witam,

    Na mojej stronie pojawilo sie pare duplikatow strony w ktorych pojawily sie
    puste zmienne. Chcialbym wywalic wszystkie adresy ktore zawieraja ten ciag
    znakow(wspolny dla wszystkich blednych adresow)

    &subkategoria1=&subkategoria2=&page=

    Po page jest nr. strony, więc sprawa w robots.txt niby prosta

    Disallow: /*&subkategoria1=&subkategoria2=&page=

    Teoretycznie powinno działać, ale w narzedziach dla webmasterow pisze mi ze
    adres jest dozwolony. Probowalem podwojny ampersand * na koncu, ale nie
    chodzi. Dodam, ze wykluczenie adresow z PHPSESSID dziala bezblednie i
    teoretycznie niczym sie nie rozni od tego adresu powyzej - tylko nazwa
    parametru jest inna

    Disallow: /*PHPSESSID

    To juz dziala dobrze i przechodzi walidacje. Bede wdzieczny za wskazkowki.

    Pozdrawiam
    Raf



  • 2. Data: 2012-10-10 10:35:23
    Temat: Re: Wykluczenie adresów przez robots.txt
    Od: Kapsel <k...@o...pl>

    Fri, 5 Oct 2012 11:42:54 +0200, Koń Rafał napisał(a):

    > Po page jest nr. strony, więc sprawa w robots.txt niby prosta `
    >
    > Disallow: /*&subkategoria1=&subkategoria2=&page=
    >
    > Teoretycznie powinno działać, ale w narzedziach dla webmasterow pisze mi ze
    > adres jest dozwolony. Probowalem podwojny ampersand * na koncu, ale nie
    > chodzi. Dodam, ze wykluczenie adresow z PHPSESSID dziala bezblednie i
    > teoretycznie niczym sie nie rozni od tego adresu powyzej - tylko nazwa
    > parametru jest inna

    Myślałem że ktoś będzie widział lepiej, ale nikt Ci nie odpisał :]

    Teoretycznie nie widzę przeciwwskazań, żeby taka konstrukcja nie była
    odczytywana przez robota...

    Standardowo koniec linijki ma "nadawaną" gwiazdkę i bez zmiany tego, jest
    czytane jako cokolwiek, więc nie powinno być problemu z numerami stron itd.

    Możesz spróbować zablokować pojedynczy parametr, np.
    Disallow: /*page=

    i ewentualne inne jeśli potrzebne.

    W Google Webmaster Tools masz też panel do sterowania parametrami i tam
    możesz je m.in. zablokować (z różnym skutkiem ;)

    Generalnie w kwestii błędu - nie przywiązywałbym szczególnie dużej uwagi do
    tego co mówią narzędzia testujące od Google, bo nader często zawierają
    różne wesołe błędy, często znane i niepoprawione przez długie miesiące.

    Być może jakieś parametry w adresach faktycznie psują tu regułę, ale to by
    ktoś mądrzejszy w temacie musiał.

    Zawsze też możesz skorzystać ze - ogólnie lepszego - metatagu noindex :)


    --
    Kapsel
    http://kapselek.net
    kapsel(malpka)op.pl

strony : [ 1 ]


Szukaj w grupach

Szukaj w grupach

Eksperci egospodarka.pl

1 1 1

Wpisz nazwę miasta, dla którego chcesz znaleźć jednostkę ZUS.

Wzory dokumentów

Bezpłatne wzory dokumentów i formularzy.
Wyszukaj i pobierz za darmo: