Korzystanie z analitycznych i marketingowych plików cookies wymaga Państwa zgody, którą można wyrazić, klikając „Zaakceptuj”. Jeżeli nie chcą Państwo wyrazić zgody na korzystanie przez nas i naszych partnerów z określonych kategorii plików cookies, należy wybrać opcję „Zarządzaj Cookies” i zadecydować o swoich preferencjach. Wyrażoną zgodę można wycofać w każdym momencie poprzez zmianę preferencji plików cookies. Szczegółowe informacje dotyczące przetwarzania danych osobowych znajdują się w Polityce prywatności.
Poniżej możesz zarządzać preferencjami dotyczącymi korzystania przez nas i naszych partnerów z plików cookie.
Więcej szczegółów: Google Analytics
Teoretycznie nikt nie ma mocy prawnej, by narzucać sposoby tworzenia stron www i funkcjonowania w sieci. W praktyce jednak większość ludzi na całym świecie używa oprogramowania jednej firmy i tworzy strony www w tym samym języku programowania. Dlaczego? Istnieją standardy sieciowe, bez których spójne funkcjonowanie i rozwój Internetu byłyby chyba niemożliwe. Ich kształtowaniem zajmuje się kilka światowych organizacji, których nazwy wyglądają równie enigmatycznie, co działania: IETF, ISO, ANSI, ECMA, WHATWG. Jednak prym w ustalaniu standardów wiedzie W3C – World Wide Web Consortium, czyli zespoły złożone z ekspertów z różnych organizacji zrzeszonych właśnie w celu ustanowienia standardów. By dołączyć do W3C i mieć wpływ na jego decyzję, firma musi je wesprzeć finansowo (roczna opłata, zależnie od rodzaju organizacji, wynosi od 10 000 do 50 000 USD). Obecnie do W3C należy ponad 400 rozmaitych organizacji – uczelnie i stowarzyszenia, webmasterzy, agencje rządowe, ogromne firmy (na przykład Microsoft). W początkach swego istnienia W3C zajmowało się jedynie udzielaniem „rekomendacji” dla swoich członków, z czasem jednak (a dokładnie w 1998 roku) „rekomendacje” stały się „standardami sieciowymi”, których przestrzeganie nie jest obowiązkowe, ale nieprzestrzeganie – bolesne. Po prostu – wyznacza ono pewne zasady, bez których strona internetowa będzie nieużyteczna, pozbawiona funkcjonalności, niezauważalna dla wyszukiwarek, niewygodna w nawigacji. To W3C wskazuje języki strukturalne (na przykład XHTML), języki warstwy prezentacyjnej (na przykład CSS), modele obiektów, języki skryptowe. Jednocześnie W3C zaleca komponenty, jaką powinna zawierać każda strona www. Należą do nich: struktura, prezentacja i zachowania. A algorytmy wyszukiwarek, ten ciąg znaków, który determinuje pozycję strony w wyszukiwarkach? To już tajemnica informatyków i programistów pracujących w korporacji zarządzającej wyszukiwarką. Nie można ich zupełnie rozgryźć ani złamać (mówię tu o legalnych i etycznych działaniach), można natomiast zoptymalizować stronę tak, by zbliżona była do ideału. Realizacja wytycznych W3C oraz dostosowanie kodu własnej strony do algorytmów wyszukiwarek ma jedną zasadniczą cechę (zastosowana, staje się zaletą strony). Jeżeli strona nie spełnia standardów, roboty sieciowe jej nie zauważą. A więc nie zobaczy jej internauta. To tak, jakby nie istniała.
Na dobry start
proponujemy Ci bezpłatnie: