Korzystanie z analitycznych i marketingowych plików cookies wymaga Państwa zgody, którą można wyrazić, klikając „Zaakceptuj”. Jeżeli nie chcą Państwo wyrazić zgody na korzystanie przez nas i naszych partnerów z określonych kategorii plików cookies, należy wybrać opcję „Zarządzaj Cookies” i zadecydować o swoich preferencjach. Wyrażoną zgodę można wycofać w każdym momencie poprzez zmianę preferencji plików cookies. Szczegółowe informacje dotyczące przetwarzania danych osobowych znajdują się w Polityce prywatności.

 

Poniżej możesz zarządzać preferencjami dotyczącymi korzystania przez nas i naszych partnerów z plików cookie.

Niezbędne i funkcjonalne pliki cookie
Zawsze aktywne
Więcej szczegółów: Polityka cookie
Google Analytics

Więcej szczegółów: Google Analytics

Ikona 02:00 min Ikona 18.06.2009

Inteligentne wyszukiwarki i semantyczne pozycjonowanie?

Obserwując powstawanie nowych i odświeżanie starych wyszukiwarek, mających pokonać Google, mamy prawo oczekiwać, że ten swoisty „wyścig zbrojeń” przyniesie, jak to w wojnie konkurencyjnej bywa, korzyści dla użytkowników. Ciągle jednak nie ma niezawodnej metody wyszukiwania w oparciu o zapytania mające strukturę zbliżoną do pytania w języku naturalnym.

 

Semantyka

 

Wyszukiwarka semantyczna, przynosząca odpowiedzi na takie pytania, to jednak stosunkowo stały cel na horyzoncie nowych rozwiązań i najrealniejsza wersja tak zwanej sztucznej inteligencji.

Roboty sieciowe mają po prostu „rozumieć”, o co pytamy, a nie jedynie podsuwać listę wyników uszeregowanych według statystycznej częstotliwości występowania określonego zapytania, będącego krótkim, ogólnym i przeważnie odrzeczownikowym słowem czy równoważnikiem zdania. Ma to oczywiście bezpośrednie przełożenie na pozycjonowanie i metody stosowane w optymalizacji stron internetowych.

Tim Berners-Lee, ojciec technologii WWW i twórca konsorcjum W3C (standaryzującego sposób tworzenia stron internetowych pod kątem ich uniwersalności i dostępności dla każdego użytkownika), już w 1999r. mówił o sieciach semantycznych. Dziś zaczynają być tworzone zasady takiego pisania stron internetowych, by łatwo było powiązać je w sieci semantyczne. Czy więc rewolucja również w pozycjonowaniu jest blisko?

Uogólniając: inteligentne strony powinny być budowane na znacznikach XML, a możliwa do zastosowania metodologia to na przykład NLU (przetwarzanie języka naturalnego), polegająca na rozszerzaniu stron opartych na (X)HTML o tzw. metadane, albo rozwijanie specyfikacji RDF czy wykorzystanie technologii OWL i SPARQL.

Istota rzeczy polega na tym, że  wyszukiwanie semantyczne oparte byłoby na stronach pisanych czy mocno optymalizowanych pod kątem semantycznych wyszukiwarek. Superinteligentna wyszukiwarka nie zadziała, jeśli nie będzie mogła czerpać z właściwie zbudowanych i powiązanych stron www.

 

Rewolucja w pozycjonowaniu i wyszukiwaniu?

 

Sceptycy podkreślają, że idziemy raczej w stronę automatyzacji tworzenia stron, więc konieczność manualnego tworzenia kodu brzmi mało realnie. Z drugiej jednak strony, potrzeby użytkowników mogą ukierunkować się na tego typu sposób wyszukiwania: na maksymalną dokładność, precyzję, adekwatność.

Źródło: CHIP

Udostępnij:
Ocena artykułu:
Ikona

How useful was this post?

Click on a star to rate it!

Average rating 0 / 5. Vote count: 0

No votes so far! Be the first to rate this post.

Udostępnij:

Zadaj pytanie

ekspertowi

Dowiedz się jak być lepiej widocznym w sieci

Bezpłatna wycena Bezpłatny audyt SEO

Na dobry start
proponujemy Ci bezpłatnie:

  • audyt SEO Twojej strony
  • konsultację z doświadczonym ekspertem
  • ofertę dopasowaną do Twojego biznesu

Bezpłatna wycena
Kontakt

Wyprzedź
konkurencję

Zadaj pytanie ekspertowi

61 655 95 55