Wyższy standard skuteczności
Blog
Informacje z branży i życia firmy
Wybierz dziedzinę

5 sposobów na uniknięcie duplikatów

Opublikowano: 06-10-2016
Czas potrzebny do przeczytania: 3:00 min

Z duplikatem treści mamy do czynienia zarówno w obrębie tej samej witryny na różnych podstronach (tzw. duplikat wewnętrzny), jak też w przypadku kopiowania treści pomiędzy różnymi domenami (tzw. duplikat zewnętrzny). Obecność powielonych treści może powodować, że wyszukiwarka Google nie oceni prawidłowo, która ze stron prezentuje treść oryginalną, a która skopiowaną i która w związku z tym powinna rankingować na wyższe pozycje. Duplikaty przeszkadzają więc w pozycjonowaniu.

Google zawsze dąży do prezentowania wyników, które najtrafniej odpowiadają na pytanie użytkownika. W sytuacji treści powielonych, na pierwszym miejscu może, ale nie musi pojawić się strona z oryginalną treścią.

 

 

Google dąży do wyświetlania stron o wyróżniającej się treści. Jeżeli Google uzna, że kopiowanie treści może mieć na celu manipulowanie pozycją witryny w wynikach wyszukiwania, może całkowicie usunąć stronę z indeksu i w ogóle nie wyświetlać jej w wynikach.

Aby uchronić witrynę przed utratą zaufania robotów wyszukiwarki, warto zastosować kilka zabiegów technicznych. Dzięki nim nie tylko uda się zniwelować problem powielonych treści, ale także zadbać o to, aby użytkownicy internetu widzieli dokładnie to, co właściciel domeny chce im zaprezentować.

 

Masz duplicate content? Nie panikuj!

 

 

1. Zastosowanie przekierowania 301

Ten zabieg przekierowuje automatycznie użytkownika, Googlebota oraz pozostałe roboty na stronę z treścią oryginalną. Przekierowanie 301 można zastosować zarówno dla całej witryny, jak i dla poszczególnych podstron w ramach tejże witryny. Co więcej, rozwiązanie to pozwala zachować wartość linków przychodzących do przekierowywanej witryny/podstrony, a więc jest (względnie) bezpieczne dla działań związanych z pozycjonowaniem.

 

2. Blokowanie z zastosowaniem metatagu robots z atrybutem noindex, follow

Umieszczając metatag robots z atrybutem noindex w kodzie HTML witryny, indeksowanie aktualnie odwiedzanej podstrony zostaje zablokowane. Strona wciąż jest widoczna dla wyszukiwarki, ale nie jest zapisywana w indeksie. W ten sposób można zablokować np. strony w wersji do druku. Na efekt blokowania metatagiem noindex trzeba jednak poczekać, aż zmianę "zauważą" roboty wyszukiwarki - co może zająć nawet kilka tygodni.

 

3. Zachowanie ostrożności przy rozpowszechnianiu treści na innych stronach

Oczywiście z punktu widzenia pozycjonowania najlepiej jest publikować w sieci wyłącznie unikalne treści. Jeżeli jednak z jakichś przyczyn musimy powielić tę samą treść na innych stronach, warto zachować ostrożność. Idąc za radą Google dobrze jest na każdej stronie z rozpowszechnianymi treściami zamieszczać link do oryginalnej wersji artykułu. Webmasterzy mogą też umieścić metatag noindex, aby konkretne podstrony z powieloną treścią nie były indeksowane przez Google.

Można też oznaczyć strony ze skopiowaną treścią elementem rel="canonical". Trzeba jednak pamiętać, że Google nie gwarantuje prawidłowej interpretacji tego znacznika. Stąd przy zastosowaniu tego rozwiązania nie wykluczamy ryzyka, że to nasza strona zostanie (niesłusznie) uznana za duplikat. A w rezultacie pozycjonowanie i cały wysiłek w nie włożony może pójść na marne.

 

4. Zabezpieczenie przed indeksowaniem niegotowych stron

Każda strona, która jest dopiero wersją tymczasową powinna zostać zablokowana przed indeksowaniem metatagiem noindex. Dzięki temu strona nie straci zaufania robotów, ani co równie ważne, użytkowników sieci. Pamiętajmy, że po wdrożeniu nowej wersji metatag noindex należy usunąć.

 

5. Zmniejszenie ilości podobnych treści do minimum

W miarę możliwości treści na każdej podstronie serwisu, w profilach społecznościowych czy na aukcjach internetowych powinny być zawsze unikalne.

Aby sprawdzić, czy dana strona posiada duplikaty, wystarczy skopiować wyrywkowo wybrany fragment (najlepiej całe zdanie ze środka tekstu, niezawierające nazwy firmy) i wkleić go w okno wyszukiwarki Google. Wówczas w wynikach wyświetlą się strony, które posiadają ten sam content – w całości lub we fragmentach. Strona wyświetlona na pierwszym miejscu zawiera treść oryginalną - pozostałe to duplikaty.

 

W życiu nie zawsze udaje się uniknąć duplikatów... Ale w internecie można! ;-)

 

Podsumowanie

Obecność duplikatów treści może utrudniać pozycjonowanie - osiąganie wysokich pozycji w wynikach wyszukiwania. Witryna o unikalnych treściach spełnia kryterium eksperckości, które doceniają zarówno użytkownicy sieci, jak i roboty wyszukiwarek. Aby ograniczyć do minimum duplikowanie treści warto korzystać z zabezpieczeń w postaci przekierowania 301, metatagu robots z atrybutem noindex oraz przede wszystkim zadbać o unikalność tekstów na wszystkich podstronach serwisu i pozostałych stronach, na których publikowana jest treść.

 

Źródła: Support Google, Searchengineland.com

Autor
Sonia Grzenkowicz
Ocena artykułu
4.18 - (11 głosów)
Komentarze
Dodaj komentarz
Ostrzeżenie: Uwaga na firmę o podobnej nazwie! Więcej...
Zapoznałem się