Wyższy standard skuteczności
Blog

Pozycjonowanie

Wybierz dziedzinę
Blogowanie służy pozycjonowaniu!
Opublikowano: 29-09-2016
Czas potrzebny do przeczytania: 3:10 min

Osiągnięcie sukcesu w internecie jest zazwyczaj jednoznaczne z sukcesem biznesowym, dlatego też coraz większa liczba przedsiębiorców rezygnuje z klasycznych narzędzi marketingowych i daje się "złapać w sieć". Ale jak dać się zauważyć Internaucie i w jaki sposób wyrobić sobie markę? To proste – poprzez przygotowanie odpowiednio wyważonej mikstury, której głównymi składnikami będą pozycjonowanie i content marketing, a w tym konkretnym przypadku – blogowanie. Blogowanie, które z SEO bardzo się lubi.

Autor
Maciej Wiśniewski
Ocena artykułu
5.00 - (4 głosy)
Pingwin 4.0 - aktualizacja algorytmu Google
Opublikowano: 23-09-2016
Czas potrzebny do przeczytania: 2:15 min
Długo wyczekiwana aktualizacja algorytmu Pingwin wreszcie została oficjalnie potwierdzona przez Google! Po niemal dwóch latach od ostatniej aktualizacji inżynierowie Google zakończyli testy i rozpoczęli wprowadzanie tego jednego z najgroźniejszych algorytmicznych zwierząt wyszukiwarki. Co ważne, algorytm będzie wprowadzony na całym świecie we wszystkich językach.
Autor
Krzysztof Mierzyński
Ocena artykułu
4.00 - (14 głosów)
Robots.txt - plik z instrukcjami dla robotów sieciowych
Opublikowano: 13-09-2016
Czas potrzebny do przeczytania: 6:10 min

W pierwszej części cyklu o Googlebocie wspominałem o pliku robots.txt, będącym swego rodzaju „przewodnikiem” dla robotów sieciowych w procesie indeksowania naszej witryny. Optymalizacja tego pliku wpływa również na efektywność wykonywanego przez boty deep/main crawla. W sieci można spotkać wiele faktów i mitów na temat pliku robots.txt. Poniżej postaram się w najprostszy możliwy sposób przybliżyć czym jest robots.txt, dlaczego odgrywa ważną rolę, a także jak go tworzyć i optymalizować.

Autor
Łukasz Faliszewski
Ocena artykułu
4.83 - (6 głosów)
Kary ręczne za podlinkowane widgety
Opublikowano: 12-09-2016
Czas potrzebny do przeczytania: 1:30 min

Chcąc uprzyjemnić użytkownikom pobyt na naszej stronie, często korzystamy z różnych interaktywnych dodatków, np. z widgetów, które pokazują między innymi wykresy lub licznik odwiedzin. Choć są przydatne, mogą stanowić zagrożenie dla pozycjonowania naszej strony ze względu na linki, które są do nich dodawane, a za które Google może nałożyć karę ręczną.

Autor
Aldona Talarczyk
Ocena artykułu
5.00 - (3 głosy)
Pole opisu znika z Map Google i Google Moja Firma
Opublikowano: 02-09-2016
Czas potrzebny do przeczytania: 2:00 min

Opis działalności firmy na Mapach Google już od dłuższego czasu pełnił funkcję bardziej dekoracyjną niż praktyczną. Nic więc dziwnego, że od początku sierpnia nie można już dodawać opisu w panelu edycji Google Moja Firma. W zamian mamy otrzymać możliwość edycji tajemniczych "atrybutów" (wciąż nie wiemy co dokładnie Google ma na myśli), a jeśli uparcie chcemy dodać opis, wciąż możemy to zrobić w Google+.

Autor
Krzysztof Mierzyński
Ocena artykułu
4.80 - (5 głosów)
Kara za interstitial w mobilnych wynikach i wątpliwości webmasterów
Opublikowano: 01-09-2016
Czas potrzebny do przeczytania: 4:45 min

Ile razy uderzasz palcem w ekran swojego smartfona, żeby wyłączyć reklamę tym maleńkim iksem zawsze, ale to zawsze ukrytym w samym rogu? Już wkrótce problem pop-upów i interstitials zakrywających cały ekran powinien zniknąć. No przynajmniej z Top10. Mobilni użytkownicy wyszukiwarki Google cieszą się, jednak co na tę zmianę w algorytmie webmasterzy i inni specjaliści IT?

Autor
Marta Ciechomska
Ocena artykułu
4.80 - (5 głosów)
4 proste rady: jak tworzyć przyjazne adresy URL?
Opublikowano: 31-08-2016
Czas potrzebny do przeczytania: 2:57 min

Przyjazny adres URL (ang. friendly URL) to skuteczne wsparcie w osiąganiu wysokich pozycji w wynikach wyszukiwania. To rozwiązanie doceniane jest zarówno przez roboty wyszukiwarek, jak i samych użytkowników internetu. Ludzie łatwiej zapamiętują i zapisują przyjazne adresy URL, z kolei roboty na ich podstawie mogą skuteczniej rozpoznać strukturę serwisu, a także powiązać z zapytaniem użytkownika. To może być atut w osiągnięciu przewagi nad konkurencją. Jak powinien wyglądać taki adres?

Autor
Sonia Grzenkowicz
Ocena artykułu
5.00 - (4 głosy)
Fresh Crawl i Deep Crawl – czym są i dlaczego są ważne
Opublikowano: 11-08-2016
Czas potrzebny do przeczytania: 5:50 min

Jak wspomniałem w poprzedniej części cyklu o Googlebocie, robot sieciowy bywa nazywany również crawlerem (z ang. crawl – pełzać). Pomimo, iż pełzanie większości z nas kojarzy się z uległością, w tym wypadku to my musimy dostosowywać się do działań Googlebotów (pełzaczy), które na naszej stronie internetowej (prawdopodobnie) regularnie przeprowadzają fresh crawl i deep/main crawl. W tym artykule dowiecie się więcej o obu rodzajach „pełzania” wykonywanych przez roboty sieciowe.

Autor
Łukasz Faliszewski
Ocena artykułu
4.75 - (4 głosy)
Jak poprawić ruch organiczny?
Opublikowano: 04-08-2016
Czas potrzebny do przeczytania: 3:30 min

Istnieje wiele czynników, które mogą wpływać na ruch organiczny na stronie oraz na konwersje. Jeśli więc nasze starania w zakresie ich pozyskania nie przynoszą pożądanych rezultatów, choć zadbaliśmy o prawidłowe pozycjonowanie: tytuły oraz nagłówki, linki zewnętrzne i uporaliśmy się z kwestiami technicznymi – czas poszerzyć obszar poszukiwań. Dlaczego? Ponieważ czynników wpływających na ruch organiczny jest bardzo dużo i nie wszystkie są aż tak oczywiste – warto więc wiedzieć, co jeszcze można sprawdzić.

Autor
Aldona Talarczyk
Ocena artykułu
5.00 - (2 głosy)
Mobilny indeks Google
Opublikowano: 08-07-2016
Czas potrzebny do przeczytania: 3:40 min

Google od dłuższego już czasu bawi się pomysłem stworzenia osobnego indeksu mobilnego. Zapewne obecnie nie jest to jeden z priorytetów firmy, choć tak naprawdę niczego nie można wykluczyć. Jeśli jednak taki indeks powstanie, jakich zmian możemy się spodziewać? I czy w ogóle stworzenie indeksu mobilnego, zupełnie odrębnego od zwykłego indeksu stron Google, ma sens?

Autor
Krzysztof Mierzyński
Ocena artykułu
5.00 - (2 głosy)
Jaką rolę w pozycjonowaniu odgrywa Googlebot?
Opublikowano: 01-07-2016
Czas potrzebny do przeczytania: 6:00 min

Googlebot, który jest nazywany również crawlerem czy spiderem (z ang. pająk) to najprościej rzecz ujmując program odpowiedzialny za indeksowanie stron internetowych w sieci. Indeks Google stanowi z kolei swego rodzaju bazę danych, z której najpopularniejsza wyszukiwarka internetowa na świecie korzysta przy ustalaniu rankingu witryn w wynikach wyszukiwania. Odgrywają one zatem bardzo ważną rolę we wszystkich procesach i działaniach podejmowanych w ramach SEO.

Autor
Łukasz Faliszewski
Ocena artykułu
5.00 - (5 głosów)
Panda częścią głównego algorytmu Google. I co dalej?
Opublikowano: 09-02-2016
Czas potrzebny do przeczytania: 3:20 min

Bez paniki! Zespół ekspertów Sunrise System czuwa i wyjaśnia co to tak właściwie oznacza – zarówno dla specjalistów z branży SEO w Polsce i na całym świecie, właścicieli stron internetowych, jak i zwykłych użytkowników największej wyszukiwarki internetowej na świecie. Czy coś się zmienia w pozycjonowaniu? Czy to rewolucja? A może zupełnie nie ma się czym przejmować?

Autor
Krzysztof Mierzyński
Ocena artykułu
5.00 - (2 głosy)
Ostrzeżenie: Uwaga na firmę o podobnej nazwie! Więcej...
Zapoznałem się