Wyższy standard skuteczności
Blog
Informacje z branży i życia firmy
Wybierz dziedzinę

Wpływ błędów gramatycznych na pozycję w wyszukiwarkach

Opublikowano: 24-02-2014
Czas potrzebny do przeczytania: 5:05 min
Pozycjonowanie strony to praca na wielu płaszczyznach. Ważna jest dbałość o odpowiednie zaplecze oraz ciągłe monitorowanie, czy serwis nie został dodany do szkodliwych systemów spamerskich. Należy zadbać o kilkaset szczegółów, na które uwagę zwracają algorytmy wyszukiwarki. Jednak jednym z najważniejszych aspektów jest poprawa jakości tekstu w obrębie całego serwisu. Ważne, żeby pojawiająca się treść była zgodna z tematyką witryny, a do tego była pisana w sposób naturalny i tak, aby zainteresować potencjalnego użytkownika. Jednak nawet najlepsi popełniają błędy, nie tylko w pozycjonowaniu, o czym świadczą chociażby literówki czy potknięcia w gramatyce nawet w najbardziej znanych serwisach. Czy po opublikowaniu artykułu, w którym nie udało nam się wychwycić wszystkich pomyłek, otworzymy rywalom drogę do przejęcia pierwszego miejsca na daną frazę?
 
Google - błędy zdarzają się każdemu, a w komentarzach są nieuniknione
W 2011 roku, Matt Cutts odpowiadający na pytania odnośnie algorytmów Google, opowiadał o tym, jak bardzo można się pomylić, oceniając gramatykę na stronie. Jeszcze przed uruchomieniem algorytmu Panda (skrypt oceniający wartość treści), wyjaśniał że ciężko jest robotom jednoznacznie ocenić czy potencjalne błędy są nimi w rzeczywistości. Przykładowo – jeśli w środku sensownego tekstu nagle pojawiają się dwa akapity, których oprogramowanie wyszukiwarki nie jest w stanie zrozumieć, może to oznaczać dwie rzeczy – albo właściciel serwisu chce sztucznie zwiększyć objętość słów na stronie, albo niezrozumiałe paragrafy są napisane np. po węgiersku. W związku z takim podejściem, ciężko jednoznacznie oceniać kto popełnia błędy i komu należy się kara.
 
Źródło: Dejan SEO

Algorytmy oceniające zawartość są dziś znacznie bardziej rozbudowane niż chociażby trzy lata temu. Do tego dochodzi czynnik ludzki – pracownicy Google, którzy osobiście sprawdzają i oceniają treści. Czy więc twórcy stron powinni zatrudnić dodatkową korektę do sprawdzania każdego wpisu, np. na promowanym blogu?

W połowie lutego bieżącego roku Matt Cutts ponownie odpowiedział na zagadnienie dające pośrednią odpowiedź na tego typu kwestie. Omawiał on błędną gramatykę i pisownię w komentarzach na stronach. Jak słusznie stwierdził, w internecie może pisać każdy użytkownik, więc wielu z nich – świadomie lub nie – będzie popełniało błędy i jest to całkowicie normalne. W związku z tym, tak długo jak nie są to jedynie komentarze będące zwykłym spamem, autorzy witryn nie muszą przejmować się, że przez zawarte w nich literówki pozycje strony osłabną.

Równocześnie jednak, pada zdanie „tak długo, jak właściwa treść strony jest poprawna”. Ciężko więc odgadnąć jak duże znaczenie ma to, czy np. w istotnym tekście opisującym działalność firmy nie użyliśmy przypadkiem złej formy gramatycznej. Z pewnością napisanie frazy kluczowej z literówką nie jest dobrym pomysłem. Jednak Google, jako wyszukiwarka chcąca ocenić i zaindeksować jak największą ilość stron, jest dość pobłażliwa w przypadku pomyłek językowych. W końcu to tylko jeden z istotnych, kilkuset aspektów branych pod uwagę przy ustalaniu wartości witryny.
 
Microsoft Bing - strony z błędami są mało wartościowe dla pozycjonowania
Nieco odmienne stanowisko zajął 20. lutego 2014 Duane Forrester pracujący nad działaniem wyszukiwarki Bing – konkurentem Google stworzonym przez Microsoft. Bing od bardzo dawna podkreśla, że w jego interesie leży promowanie jak najbardziej wartościowych stron i będzie wzmagał działania wychwytujące witryny, które nie są przydatne użytkownikom lub których lepsze zamienniki można odnaleźć w sieci.

W ostatnim wpisie na blogu programistycznym, Forrester podkreśla, że webmasterzy powinni zwrócić uwagę na pisownię i gramatykę na swoich stronach. Podczas gdy Cutts zwrócił uwagę na to, że błędy zdarzają się każdemu, pracownik Microsoft przyznaje rację takim twierdzeniom, jednak równocześnie mówi też, że mimo to lepiej zaprezentować użytkownikowi witrynę, która tego typu nieprawidłowości będzie pozbawiona. W końcu na większość tematów, internet jest w stanie zwrócić nam przynajmniej dziesiątki odpowiedzi – czemu wyszukiwarka nie miałaby być wybredna przy doborze tych najbardziej wartościowych?
 
 
Forrester w swoim wpisie zachowuje się odmiennie do tego, co prezentuje Google. Wykazuje mniejszą tolerancję na to, jak literówki wkradają się w kolejne artykuły. Zamiast tłumaczyć autorów tekstów, podaje im odnośniki do dwóch narzędzi sprawdzających gramatykę języka angielskiego. Daje tym jasno do zrozumienia, że Bing może być bezlitosny przy ocenie stron, w których nagminnie łamane są zasady językowe. W końcu treść ma być pisana dla użytkownika, nie dla wyszukiwarki. Natomiast pisanie z błędami sprawia, że czytelnik przestaje skupiać się na treści, a zaczyna mimowolnie wychwytać literówki.

Główna zasada pozycjonowania stron internetowych brzmi tak, że serwisy powinny być tworzone z myślą o potencjalnych odwiedzających, a nie o robotach Google czy Bing. Warto więc zadbać o każdy aspekt witryny, z którym styka się użytkownik. To, które podejście jest lepsze – bardziej pobłażliwe i traktujące artykuły „po ludzku”, czy stawiające na niezachwianą rzetelność – pozostaje do indywidualnej oceny. Jedno jest pewne – im bardziej rozwijają się algorytmy, tym lepiej rozumieją nie tylko kod źródłowy, ale i zwyczajną, ludzką mowę.
 
Autor
Michał Grązka
Ocena artykułu
4.20 - (5 głosów)
Komentarze
Dodaj komentarz
Ostrzeżenie: Uwaga na firmę o podobnej nazwie! Więcej...
Zapoznałem się