Masz swoją stronę internetową lub sklep online? Koniecznie poznaj sposoby prawidłowego tworzenia treści, które jako jedne z wielu elementów SEO stoją na straży wysokiej pozycji Twojej witryny w wynikach wyszukiwania. Tutaj dowiesz się więcej na temat duplikatów, które są największym wrogiem SEO i poznasz metody, dzięki którym osiągniesz jeszcze lepszy wynik w rankingu!
Zacznijmy od tego, że duplikatem mogą być nie tylko treści pisane, ale także te graficzne, video i pozostałe. Niezależnie od tego, czy powielenie treści jest nieumyślne, czy celowe, może być niebezpieczne nie tylko dlatego, że obniży wynik Twojej strony w wynikach wyszukiwania, ale również dlatego, że jest ono własnością innej osoby. Za przywłaszczenie jej sobie grożą konsekwencje prawne.
Z celowym powielaniem treści mamy najczęściej do czynienia, gdy właściciel serwisu nie ma czasu lub chęci na tworzenie własnego contentu i po prostu kopiuje go ze strony konkurencji. Najbardziej rażącymi błędami wynikającymi z powielonych treści jest kopiowanie ich jeden do jeden, co często można zobaczyć przede wszystkim na różnego rodzaju podstronach z regulaminem, polityką prywatności czy RODO, gdzie niezmieniona zostaje nawet nazwa firmy czy inne dane. Warto jednocześnie pamiętać, że także nieznacznie zmodyfikowana treść stanowi duplicate content i może mieć negatywny wpływ na SEO. Dotyczy to zarówno fragmentów, jak i całości treści znajdujących się na różnego rodzaju stronach. Co niezwykle istotne, algorytmy Google doskonale potrafią rozpoznać, który content został skopiowany z witryny, na której pojawił się po raz pierwszy.
Poza działaniami celowymi i nieumyślnymi wyróżniamy dwa rodzaje duplikacji treści:
Doskonale wiemy, że to nieświadomość i brak znajomości zasad rządzących algorytmami wyszukiwarek sprawiają, że właściciele stron internetowych popełniają te błędy – dlatego właśnie jesteśmy tutaj, aby powiedzieć na ten temat więcej i uchronić Twój biznes przed prawdziwą katastrofą, jaką grozi duplicate content.
Jak już wyżej wspomnieliśmy, powielone treści mają niebagatelny wpływ na pozycjonowanie. Duplikatów należy więc z całą pewnością unikać, jeśli chcemy cieszyć się wysokim wynikiem w rankingu – ale nie tylko dlatego.
Algorytm Panda, który został oficjalnie wprowadzony przez Google w 2011 roku, do dziś czuwa nad jakością oraz unikalnością publikowanego w sieci contentu. Jego głównym zadaniem jest dbanie o zwiększenie widoczności witryn o wysokiej jakości i użytecznych treściach oraz obniżanie pozycji stron, które zawierają powielony content lub ten o charakterze spamu. Wraz z pojawieniem się algorytmu Panda wiele witryn niestosujących się do nowych wytycznych spadło w rankingu, a tym samym można powiedzieć, że przestało istnieć w internetowej przestrzeni.
Nie jest to oczywiście do końca prawda, ponieważ nadal były one aktywne, jednak strony plasujące się na 2, 3, 4 czy 5 stronie w wynikach wyszukiwania miały znacznie mniejsze możliwości niż te, które zadbały o wysokiej jakości content i wyświetlały się na pierwszej stronie. Wprowadzenie w 2022 roku przez Google continuous scroll, czyli funkcji przewijania wyników wyszukiwania bez konieczności klikania kolejnych stron, stawia przed webmasterami prawdziwe wyzwanie w kwestii pozycjonowania. Daje ona bowiem stronom z niższym rankingom szansę na zdobycie większej liczby kliknięć niż gdyby znajdowały się na pierwszej stronie wyników wyszukiwania. Jednak pamiętaj, że to, czy zostaną oni na Twojej stronie na dłużej i skorzystają z Twojej oferty, zależy wyłącznie od Ciebie.
Jak to się dzieje, że pozycja strony ulega zmianie? Odpowiada za to algorytm, który został stworzony w taki sposób, by dokładnie analizować znajdujące się na witrynach treści w tym:
Znajdując strony, które nie stosują się do wytycznych, Google może ukarać stronę poprzez nałożenie filtrów algorytmicznych. Mogą one dotyczyć zarówno na całej domeny, jak i poszczególnych podstron czy słów kluczowych. Alternatywą jest nałożenie ręcznego filtra – metoda ta jest stosowana w skrajnych przypadkach, gdy serwis w znacznej większości składa się ze zduplikowanych treści. Ostatnim rodzajem kary od Google za celowe lub nieumyślne powielanie contentu jest po prostu niewyświetlenie jej w wynikach wyszukiwania. Algorytm docenia jednak te strony, które dbają o unikalne, wysokiej jakości treści, i podnosi ich pozycję w wynikach wyszukiwania.
Wielu webmasterów zadawało sobie pytanie, czy działanie Google było fair i czy wprowadzenie algorytmu Panda faktycznie przyczyniło się do tego, że Internet jest miejscem, które stanie się użyteczne internautom. Dziś wiemy już, że była to jedna z lepszych decyzji, jaką Google mogło podjąć. Nikt z nas przecież nie lubi spamu, w którym nie znajduje merytorycznych treści, niezrozumiałych od sztucznego nagromadzenia słowami kluczowymi tekstów czy niewnoszących niczego nowego duplikatów, które można spotkać na co drugiej stronie.
Nie ma więc już złudzeń, że powielanie treści nie jest niczym dobrym i poza obniżeniem pozycji w rankingu może powodować także problemy z pozycjonowaniem czy utratą wiarygodności oraz zaufania w oczach odbiorców.
Znajomość rozwiązań, które pozwalają weryfikować treści na stronie, jest kluczowa, szczególnie w przypadku bardzo rozbudowanych stron z dużą ilością contentu. Pomogą Ci w tym:
Jeśli dopiero tworzysz swoją stronę, koniecznie zapamiętaj, aby unikać kopiowania treści z zewnętrznych stron, ale także podstron we własnym serwisie. Regularnie rób audyty i sprawdzaj, czy przypadkowo nie powieliłeś contentu, który powinien być w pełni unikalny pod każdym linkiem. Podczas weryfikacji znalazłeś duplikaty? Nic straconego – pomożemy Ci uporać się z problemem, aby pozycja Twojej witryny nie spadła i abyś nie stracił potencjalnych odbiorców!
Możesz skorzystać z kilku metod:
Jak widzisz, treści mają ogromne znaczenie przy tworzeniu strony internetowej i w kwestii zadbania o jej wysoką pozycję w wynikach wyszukiwania. Dlatego pamiętaj, aby unikać duplikatów. Jeśli wystąpią, nie zapomnij stosować wyżej wymienionych metod – wtedy nie będziesz musiał się martwić o miejsce swojego serwisu w rankingu Google!
Ten zabieg przekierowuje automatycznie użytkownika, Googlebota oraz pozostałe roboty na stronę z treścią oryginalną. Przekierowanie 301 można zastosować zarówno dla całej witryny, jak i dla poszczególnych podstron w ramach tejże witryny. Co więcej, rozwiązanie to pozwala zachować wartość linków przychodzących do przekierowywanej witryny/podstrony, a więc jest (względnie) bezpieczne dla działań związanych z pozycjonowaniem.
Umieszczając metatag robots z atrybutem noindex w kodzie HTML witryny, indeksowanie aktualnie odwiedzanej podstrony zostaje zablokowane. Strona wciąż jest widoczna dla wyszukiwarki, ale nie jest zapisywana w indeksie. W ten sposób można zablokować np. strony w wersji do druku. Na efekt blokowania metatagiem noindex trzeba jednak poczekać, aż zmianę „zauważą” roboty wyszukiwarki – co może zająć nawet kilka tygodni.
Oczywiście z punktu widzenia pozycjonowania najlepiej jest publikować w sieci wyłącznie unikalne treści. Jeżeli jednak z jakichś przyczyn musimy powielić tę samą treść na innych stronach, warto zachować ostrożność. Idąc za radą Google dobrze jest na każdej stronie z rozpowszechnianymi treściami zamieszczać link do oryginalnej wersji artykułu. Webmasterzy mogą też umieścić metatag noindex, aby konkretne podstrony z powieloną treścią nie były indeksowane przez Google.
Można też oznaczyć strony ze skopiowaną treścią elementem rel=”canonical”. Trzeba jednak pamiętać, że Google nie gwarantuje prawidłowej interpretacji tego znacznika. Stąd przy zastosowaniu tego rozwiązania nie wykluczamy ryzyka, że to nasza strona zostanie (niesłusznie) uznana za duplikat. A w rezultacie pozycjonowanie i cały wysiłek w nie włożony może pójść na marne.
Każda strona, która jest dopiero wersją tymczasową powinna zostać zablokowana przed indeksowaniem metatagiem noindex. Dzięki temu strona nie straci zaufania robotów, ani co równie ważne, użytkowników sieci. Pamiętajmy, że po wdrożeniu nowej wersji metatag noindex należy usunąć.
W miarę możliwości treści na każdej podstronie serwisu, w profilach społecznościowych czy na aukcjach internetowych powinny być zawsze unikalne.
Aby sprawdzić, czy dana strona posiada duplikaty, wystarczy skopiować wyrywkowo wybrany fragment (najlepiej całe zdanie ze środka tekstu, niezawierające nazwy firmy) i wkleić go w okno wyszukiwarki Google. Wówczas w wynikach wyświetlą się strony, które posiadają ten sam content – w całości lub we fragmentach. Strona wyświetlona na pierwszym miejscu zawiera treść oryginalną – pozostałe to duplikaty.
Obecność duplikatów treści może utrudniać pozycjonowanie – osiąganie wysokich pozycji w wynikach wyszukiwania. Witryna o unikalnych treściach spełnia kryterium eksperckości, które doceniają zarówno użytkownicy sieci, jak i roboty wyszukiwarek. Aby ograniczyć do minimum duplikowanie treści warto korzystać z zabezpieczeń w postaci przekierowania 301, metatagu robots z atrybutem noindex oraz przede wszystkim zadbać o unikalność tekstów na wszystkich podstronach serwisu i pozostałych stronach, na których publikowana jest treść.
Sprawdź w 90 sekund, jak Twoja strona radzi sobie w sieci!
Pod lupę bierzemy aż 70 różnych parametrów.
Odbieraj regularną dawkę wiedzy i nowości ze świata digital marketingu!
Zero spamu, tylko konkrety!
Na dobry start
proponujemy Ci bezpłatnie: