Jeżeli nie ma cię w wyszukiwarce, to tak, jakby twoja strona nie istniała. Te słowa padają z ust coraz większej liczby webmasterów, bo samo przygotowanie strony WWW nie oznacza, że ktoś ją obejrzy. Zobaczmy więc, co możemy zrobić, by wyszukiwarki patrzyły na nas przychylniejszym okiem.
Wpisując do wyszukiwarki słowo kluczowe, zapewne zastanawiasz się, jak to jest, że jedna witryna znajduje się na samej górze listy, a inna spoczywa na piątej stronie wyników. Odpowiedzi na to pytanie nie zna w zasadzie nikt, bo dokładne algorytmy wyszukujące są jednymi z najściślej strzeżonych tajemnic. Wiadomo jednak, co przyczynia się do uzyskiwania przez stronę internetową wysokiej pozycji. Tych czynników jest bardzo wiele. Część z nich może, lecz nie musi przynosić spodziewanych efektów, dlatego warto podkreślić, jak bardzo ważne jest eksperymentowanie.
Co to jest pozycjonowanie?
Są to wszelkie czynności, których dokonujemy w celu osiągnięcia możliwie najwyższej pozycji w wynikach wyszukiwania dla danych słów kluczowych. Stronę pozycjonujemy więc dla konkretnych fraz, które uważamy za zbieżne z działalnością witryny.
Gdzie pozycjonujemy?
Wyszukiwarką numer 1 w Polsce jest Google. Posiada najbardziej skomplikowany algorytm wyszukujący na świecie, wokół którego krąży bardzo wiele legend i domysłów, często zresztą ze sobą sprzecznych.
Pozostałe interfejsy wyszukiwawcze, które warto wziąć pod uwagę, to Onet.pl i Wirtualna Polska. Dlaczego nie są to stricte wyszukiwarki? Wyszukiwarka to oprogramowanie, które odpowiada za zbieranie danych (indeksowanie stron), analizowanie ich i sam proces wyszukiwania.
Onet.pl korzysta z wyszukiwarki (mówiąc bardziej technicznie – silnika) Morfeo, która została stworzona przez programistów z Czech, Słowacji i Polski. Projekt ma za zadanie wspierać specyfikęjęzyków słowiańskich, charakteryzujących się mnogością odmian tego samego słowa.
Wirtualna Polska deklaruje, że korzysta z silnika wyszukiwawczego dostarczanego przez NetSprint. Jeżeli jednak porównamy wyniki zwrócone przez wyszukiwarkę NetSprint z wynikami zwróconymi przez Wp.pl, dostrzeżemy różnice. Wynikają one z nakładki, którą wprowadza Wirtualna Polska na wyniki zwrócone przez NetSprint. Wiadomo, że na wyniki wpływają dane zgromadzone w katalogu Wirtualnej Polski.
Co to jest SEO?
SEO (z ang. Search Engine Optimization) to tzw. optymalizacja strony pod kątem wyszukiwarek, czyli zbiór czynności dokonywanych na strukturze strony WWW i w jej kodzie HTML. Wszystko to ma na celu zwrócenie uwagi wyszukiwarki na interesujące nas słowa kluczowe. Jeżeli wyszukiwarka wie, że na naszej stronie znajdzie to, czego użytkownik szuka, to jest bardziej prawdopodobne, że to właśnie nasza strona znajdzie się w pierwszej piątce wyników.
Stąd łatwiej wypozycjonować stronę o bogatej zawartości merytorycznej, ponieważ jest zasobniejsza w potrzebne słowa kluczowe, a zatem z punktu widzenia wyszukiwarki bardziej wartościowa.
Co to jest bot?
Bot, czy inaczej pajączek, to specjalny program, który ma za zadanie analizować witryny internetowe i podążać za odnalezionymi odnośnikami. Każda wyszukiwarka posiada określoną ilość botów, które krążą w sieci wg ustalonego harmonogramu.
Boty odgrywają kluczową rolę w pozycjonowaniu. Im częściej robot indeksujący odwiedza naszą stronę, tym świeższe informacje o zawartości naszej strony przechowywane są w lokalnych kopiach wyszukiwarki. Ma to szczególne znacznie dla witryn publikujących dużą ilość nowych treści, np. stron informacyjnych, gdzie publikowane treści szybko ulegają przedawnieniu.
Grunt to dobre statystyki
Każdy, kto pozycjonuje witryny, bazuje na informacjach z systemu statystyk, który dostarcza niezbędnych informacji o:
- aktualnej oglądalności serwisu i trendzie,
- częstotliwości zaglądania botów indeksujących na stronie,
- ruchu z wyszukiwarek internetowych w stosunku do wejść bezpośrednich (poprzez wpisanie adresu w przeglądarce),
- słowach kluczowych, które odsyłają użytkownika do strony (osobno dla każdego silnika wyszukiwawczego).
Wyszukiwarka nie potrafi zaindeksować stron, które wykorzystują jako nawigację:
- skrypty JavaScript,
- aplety Java,
- animacje Flash.
Jeżeli koniecznie musisz użyć jednego z powyższych, zadbaj, by udostępnić dodatkowe odnośniki tekstowe na samym dole witryny. Prawdziwe wyzwanie w pozycjonowaniu stanowią witryny, które w całości skonstruowane są z animacji Flash. W takim przypadku niemożliwe jest zaindeksowanie jakiejkolwiek treści witryny, oprócz jej metatagów, których Google w żaden sposób nie uwzględnia. Musimy wówczas bazować na odnośnikach zewnętrznych z katalogów i zaprzyjaźnionych witryn.
Co prawda nikt nie udowodnił, że strony niezgodne ze standardami określonymi przez W3C (http://validator.w3.org) są gorzej traktowane przez wyszukiwarki, lecz skoro zgodność ze standardem zapewnia poprawne wyświetlanie strony w przeglądarce, to tym łatwiejsze zadanie czeka wówczas bota wyszukiwarki.
Co lubią wyszukiwarki?
Domyślamy się, że wszystko to, co sprawia, że witryna postrzegana jest jako dobre źródło informacji, tzn.:
- posiada spójną szatę graficzną, na tyle lekką, by ładowanie stron przebiegało szybko,
- nie sposób zgubić się na niej,
- zawiera dużo unikalnych na skalę internetu treści,
- nie tylko odpowiada na zadane pytanie, lecz proponuje treści powiązane,
- wyświetla się prawidłowo w każdej przeglądarce internetowej,
- posiada przejrzysty katalog zasobów i udostępnia wewnętrzną wyszukiwarkę,
- nie stroni od polecania innych stron internetowych, wszak internet to sieć globalnych powiązań między witrynami,
- nie atakuje użytkownika nieetycznymi treściami, podejrzanymi formantami ActiveX
- znajdziemy ją bez większego wysiłku, korzystając z popularnego katalogu stron internetowych bądź wyszukiwarki,
- witrynę szanują inni użytkownicy sieci, chętnie publikując na swoich stronach łącza do niej.
Struktura witryny
Profesjonalną witrynę łatwo poznać po przemyślanej strukturze, swoim kształtem przypominającym drzewo, gdzie pień to nasza strona główna, a liście to poszczególne artykuły czy podstrony. Często zapominanym przez webmasterów elementem witryny jest jej mapa, która będzie uwzględniała najważniejsze podstrony. Osobną kwestię stanowi wygląd odnośników stosowanych w serwisie:
Zamiast:
{html}http://mojastrona.pl/artykuly/pokaz.php?dzial=artykuly&id=5{/html}
lub
{html}http://mojastrona.pl/artykuly/pokaz.php?dzial=artykuly&id=5&session_id=zp764qo3hy5s8jnkl{/html}
użyjmy:
{stala}http://mojastrona.pl/artykuly/5.html{/stala}
lub
{stala}http://mojastrona.pl/artykuly/pozycjonowanie_rady.html{/stala}.
Niech adres {stala}http://mojastrona.pl/artykuly{/stala} będzie spisem wszystkich artykułów dostępnych w serwisie.
Zamiast przekazywać identyfikator sesji, dołączając go do adresu URL, skorzystaj z cookies. To naprawdę lepsza metoda. Internauci rozumieją, że pewne witryny sieciowe (np. sklepy internetowe) wymagają autoryzacji użytkownika i z pewnością z powodu cookies nie stracisz klientów. Wyszukiwarki podchodzą do adresów z identyfikatorem sesji bardzo podejrzanie, co może zaważyć na twojej oglądalności.
Stworzenie ładnie wyglądających odnośników wcale nie musi oznaczać dużych wydatków. Skorzystaj w tym celu z jednego z dwóch mechanizmów:
- mod_rewrite to dodatek do serwera apache, który pozwoli ci przejść na nowe rozwiązanie bez konieczności modyfikacji jakiegokolwiek kodu w twoich skryptach. Jedyne, co musisz zrobić, to pozmieniać na stronie adresy odnośników na przyjazne wyszukiwarkom.
- ForceType to funkcja serwera apache, która pozwala na traktowanie plików bez rozszerzeń jakby były skryptami PHP. Wpisując więc adres {stala}http://mojastrona.pl/artykuly/5.html{/stala}, uruchamiasz skrypt artykuly (nazwa zmieniona z artykuly.php), który dokonuje analizy adresu URL i wyświetla pożądaną treść.
Więcej informacji o powyższych metodach można znaleźć w internecie pod hasłem \”przyjazne adresy url\”.
Słowa kluczowe
Prowadzisz stronę o określonej tematyce i sam najlepiej wiesz, jakich użyłbyś słów kluczowych, aby znaleźć to, co oferujesz. Twoje poszukiwania kończą się bardzo szybko, bo przecież jesteś ekspertem w tym, co robisz i wiesz, jak skutecznie szukać. Wyobraź sobie, że nie wszyscy mają taką wiedzę. Zorganizuj więc sondę. Zapytaj znajomych, porozmawiaj z kolegami z pracy, zapytaj członków rodziny, co wpisaliby do wyszukiwarki, gdyby przyszło im szukać strony, która znajduje się w twojej branży.
Ich pomysły skonfrontuj ze swoją listą. Pamiętaj, że nawet jeżeli te idee wydają się nietrafione, część użytkowników internetu właśnie tak postąpi. Uwzględnij także to, że użytkownicy sieci się mylą. Jeżeli więc operujesz trudną nazwą produktów lub uciążliwą terminologią, dodaj do listy słów kluczowych także błędne zapisy. Zobacz, jak funkcjonuje konkurencja, przeglądając wyniki wyszukiwania dla sporządzonej w ten sposób listy słów kluczowych.
Metatagi
Każdy kod HTML składa się z dwóch części: nagłówka (head) oraz treści (body). Konstruuj poprawnie swoją sekcję head, pamiętając o umieszczeniu w niej następującego kodu:
TYTUL STRONY
Określ, jakiego kodowania używasz na stronie i w jakim jest ona języku. Jeżeli strona jest w kilku językach, publikuj za każdym razem prawidłowy kod, zaprzęgając do tego prosty skrypt. Umieść listę swoich słów kluczowych. Możesz oddzielić je przecinkami lub znakiem spacji. Nie sporządzaj zbyt długiej listy. Słowa kluczowe uwzględniane są i tak bardzo rzadko (głównie przez stare silniki wyszukiwawcze).
Sporządź opis strony, jednak nie dłuższy niż 250 znaków. Niech składa się z dwóch, maksymalnie trzech zdań, przy czym użyj nie więcej niż 15-20 słów. Wyszukiwarki, takie jak Google, nie zwracają uwagi na opis i słowa kluczowe witryny podczas ustalania jej pozycji w wynikach wyszukiwania.
Z kim nie warto wymieniać odnośników
Zdecydowanie odradzamy jakąkolwiek wymianę lub publikację odnośników do twojego serwisu na stronach:
- używających technik spamerskich,
- których jedynym celem jest promowanie odnośników do innych stron (tzw. farmy odnośników),
- które proponują udział w programie wymiany linków na zasadzie obrotu odnośnikami pomiędzy stronami członkowskimi.
W ten sposób możesz stracić więcej, niż zyskasz.
Pomimo to sporządzanie opisu witryny jest bardzo ważne. Opis witryny jest wyświetlany w wynikach wyszukiwania wraz z tytułem i linkiem do strony. Internauta może podjąć decyzję o przejściu na twoją stronę właśnie po przeczytaniu opisu. Metatag Robots upewni boty, że mogą bez przeszkód eksplorować twoje zasoby.
Tytuł witryny to najważniejszy tag w całym nagłówku. Niech zawiera: nazwę witryny, trzy najważniejsze słowa kluczowe i slogan.
Tutaj oczywiście nie ma reguły. Możesz na tym polu dowolnie eksperymentować. Pamiętaj jednak, że uzyskanie pierwszej pozycji w wynikach wyszukiwania za wszelką cenę wcale nie oznacza, że internauci będą odwiedzać twoją stronę. Jeżeli będziesz używał zbyt dużej ilości słów kluczowych, tworząc niejasny gramatycznie przekaz, witryna może zostać pominięta, jako niewarta uwagi.
Jeżeli twoja strona jest rozległa i porusza wiele tematów, stwórz unikalne metatagi dla każdej podstrony. Jeżeli sprzedajesz laptopy, umieść w tytule odpowiednią nazwę produktu, nie zapominając o nazwie swojego sklepu. Buduj markę!
Zmiany w kodzie HTML
Pierwsze strony internetowe tworzone 10 lat temu były wzorem dla dzisiejszego optymalizowania kodu HTML. Jeżeli w tekście znajdował się ważny termin, używano kursywy lub pogrubienia. Jeżeli był to artykuł, jego tytuł umieszczano w paragrafie {html}
{/html}. Sama treść wędrowała do paragrafu {html}
{/html}. Wydaje się to oczywiste, lecz wielu webmasterów zapomina o tak prostych zasadach.
Wyszukiwarki zwracają uwagę na kod HTML i elementy, w których osadzamy tekst. Zmodyfikuj więc swój kod HTML tak, by nagłówki były nagłówkami {html}
{/html}, {html}
{/html},…, bloki tekstu były paragrafami {html}
{/html}, ważne terminy oznacz kursywą, ważne słowa kluczowe pogrubieniem, a odnośniki i zdjęcia opis, dodatkowymi tagami, czyli odpowiednio {stala}title{/stala} i {stala}alt{/stala}.
Stwórz taki kod, aby był czytelny i logiczny dla ciebie. Nie przesadzaj. Jeżeli zależy ci na konkretnym słowie kluczowym, pogrub raz, dwa, ale nie więcej. Wyszukiwarki mogą to uznać za spam.
Weź pod uwagę fakt, że z internetu korzystają także ludzie niewidomi. Jeżeli twoje odnośniki będą posiadały dodatkowo atrybut {stala}title{/stala}:
a zdjęcia atrybut {stala}alt{/stala}:
to nie tylko skorzystają na tym osoby niepełnosprawne, ale także i wyszukiwarka, która nie potrafi przecież interpretować zdjęć.
Linki i jeszcze raz linki
Wyszukiwarka Google buduje swoje wyniki również w oparciu o popularność strony, wyrażaną ilością odnośników prowadzących do niej. Tak można w skrócie przedstawić wskaźnik, który określamy nazwą Google PageRank. Opisuje on ważność strony w sieci, posługując się 10-stopniową skalą. PageRank naszej strony odczytamy, instalując Google Toolbar lub korzystając z serwisów internetowych oferujących narzędzia dla pozycjonerów (np. Webmaster ToolKit (http://www.webmaster-toolkit.com/).
Od tego, ile linków zdobędziesz i jakiej będą one jakości, zależy twój sukces. Na polskim poletku osiągnięcie PageRank na poziomie 5/6 jest już bardzo dobrym wynikiem. Aby podwyższać swój PageRank, rozbudowuj witrynę i staraj się pozyskiwać coraz większą ilość odnośników z witryn zewnętrznych.
Pierwszym krokiem, który można zrobić w tym celu jest rejestracja witryny w katalogach. Pamiętaj jednak o tym, by rejestrować się w katalogach, które budzą zaufanie – posiadają pewną renomę. Dodanie strony do byle jakiego katalogu może przynieść więcej szkody niż zysku. Bardzo ważnym czynnikiem jest jakość katalogu, którą można wysondować po wartości wskaźnika PageRank katalogu i ogólnym wrażeniu.
Drugim krokiem jest pozyskiwanie odnośników do strony głównej lub do konkretnych podstron serwisu wśród autorów serwisów internetowych. Jeżeli możesz się poszczycić interesującą zawartością serwisu, jest prawie pewne, że będziesz często cytowany, np. przez autorów blogów. W przeciwnym wypadku powinieneś poszukać stron internetowych o zbieżnej grupie docelowej (wiek/zainteresowania), proponując im wymianę odnośników.
Katalogi internetowe
Najpopularniejsze internetowe katalogi w Polsce – zobacz, gdzie warto zarejestrować swoją stronę, aby poprawić pozycję w wyszukiwarkach:
- dmoz.org: http://www.dmoz.org/
Otwarty katalog internetowy będący przez długi czas podporą dla mechanizmu wyszukiwawczego Google, bezpłatny, choć czas dodania do może trwać bardzo długo, nawet kilka miesięcy. - katalog Onet.pl: http://katalog.onet.pl/
Katalog najpopularniejszego polskiego portalu, dodanie bezpłatne, z możliwością płatnego przyspieszenia. - katalog WP.pl: http://katalog.wp.pl/
- katalog Interia.pl: http://katalog.interia.pl/
- katalog Gazeta.pl: http://szukaj.gazeta.pl/katalog/0,0.html
- katalog Gooru.pl: http://gooru.pl/katalog/
Dodanie stron do wyszukiwarek
Po wszystkich wymienionych zabiegach warto dodać stronę do indeksacji przez najpopularniejsze wyszukiwarki. Dodawanie jest we wszystkich przypadkach bezpłatne i polega wyłącznie na podaniu odnośnika do strony głównej witryny. Robot wyszukiwarki odwiedzi stronę, i w zależności od wyszukiwarki, w okresie od kilku do kilkudziesięciu dni zobaczysz stronę w wynikach.
Początkowo pozycja będzie niezadowalająca, lecz z czasem, gdy wyszukiwarka przekona się o jakości serwisu (między innymi za pośrednictwem zewnętrznych linków), notowania wzrosną, a wraz z nimi pozycja w wynikach wyszukiwania.
Google może nie zarejestrować strony, jeżeli nie prowadzą do niej żadne linki zewnętrzne. Warto więc poczekać, aż strona pojawi się w katalogach. Jeżeli w tym czasie Google samoistnie nie zarejestruje strony, można skorzystać z linku dodawania strony do wyszukiwarki.
Google SiteMaps
Google przygotowało bardzo kuszącą ofertę dla rozbudowanych witryn internetowych. Webmaster takiej witryny przygotowuje dla Google dokument XML z listą wszystkich podstron witryny, która jest pobierana automatycznie przez wyszukiwarkę w odpowiednich interwałach czasowych. W ten sposób Google bez konieczności odwiedzania strony może wysłać swojego bota do indeksacji nowych podstron.
Ma to szczególne znaczenie przy bardzo rozbudowanych serwisach internetowych, publikujących szybko dezaktualizującą się treść. Więcej o tym niezwykle interesującym programie znajdziesz pod adresem: http://www.google.com/webmasters/sitemaps/.
Bezpłatne internetowe narzędzia SEO
W internecie znaleźć można całą masę narzędzi mających usprawnić pracę wszystkim tym, którzy zajmują się SEO. Zasadniczą wadą większości z nich jest fakt, iż nie zostały one dostosowane do polskich warunków. Problemy z obsługą polskich znaków na stronach WWW, czy uwzględnienie słów typu \”i\”, \”a\” nie należą do rzadkości. Tym niemniej warto się z nimi zapoznać, ponieważ mogą znacznie uprościć nasze dotychczasowe poczynania.
1. Keyword Research Tool
Webmaster ToolKit
http://www.webmaster-toolkit.com
Jeżeli masz wątpliwości, czy znalazłeś już wszystkie słowa kluczowe powiązane z naszą działalnością, dobrze jest wykorzystać narzędzie Keyword Research Tool. Podając słowo kluczowe, a następnie wybierając wyszukiwarkę, o którą mamy zamiar oprzeć badania, otrzymujemy pełną listę sugerowanych alternatywnych słów kluczowych.
Wpisując więc hasło \”projektowanie stron WWW\”, uzyskaliśmy takie słowa kluczowe, jak: \”agencja internetowa\”, \”aplikacje internetowe\”, \”building web site\”, \”designing web sites\”, \”tworzenie stron internetowych\”, które wyłowione z szeregu niecelnych propozycji stanowią bardzo dobry przykład na to, iż narzędzie to może okazać się naprawdę bardzo pożyteczne.
2. Keyword Analysis Tool
Webmaster ToolKit
http://www.webmaster-toolkit.com
Analizator słów kluczowych po podaniu adresu URL strony zwraca tabelę z występującymi na niej słowami kluczowymi wraz z procentem, jaki stanowią one w stosunku do ogółu słów. Narzędzie pozwala na przyjęcie optymalnej granicy użycia konkretnych słów kluczowych, mieszczącej się na maksymalnym poziomie 5%.
3. Search Engine Spider Simulator
Webmaster ToolKit
http://www.webmaster-toolkit.com
Symulator pajączka internetowego to narzędzie pokazujące sposób patrzenia na stronę bota internetowego przeszukującego witrynę. Po podaniu adresu URL strony otrzymujemy zlepek słów występujących na stronie, całkowicie pozbawionych formatowania. Tym sposobem możemy dokonać oglądu właściwej treści na stronie, zwracając uwagę na częstość i umiejscowienie najważniejszych słów kluczowych.
4. Multi-Rank Checker
iWebTool
http://www.iwebtool.com
To narzędzie pozwala na sprawdzenie w ekspresowym tempie aktualnych PageRanków dla 10 stron internetowych. Możesz tu podać również adresy konkretnych podstron. Multi-Rank Checker wyświetla również wskaźnik Alexa (http://www.alexa.com). Informuje on w mniej lub bardziej dokładny sposób, na jakiej pozycji w światowym ruchu internetowym znajduje się witryna. Pierwsza pozycja to witryna najpopularniejsza w sieci. Palmę pierwszeństwa w światowej sieci dzierży portal Yahoo.com, docierając do 3 na 10 internautów.
Dane do statystyk prezentowanych przez Alexa są generowane na podstawie ukrytej aplikacji szpiegowskiej obecnej w każdym Internet Explorerze 6.0. Microsoft zrezygnował z niej wraz z wejściem SP2 dla Windows XP, który usuwa ten moduł z systemu.
5. Sprawdź Link-Popularity
HotScripts.pl
http://www.hotscripts.pl/seo
Inne narzędzie oferowane przez stronę hotscripts.pl posiada z kolei tę unikalną cechę, iż bierze pod uwagę także polskie silniki wyszukiwawcze. Badanie popularności linków przebiega niestety tylko dla jednej domeny jednocześnie.
Skrypt obejmuje swoim zasięgiem następujące wyszukiwarki polskie: Google, Szukaj.Onet.pl, Szukaj. Wp.pl, NetSprint.pl; oraz zagraniczne: MSN, Yahoo, AlltheWeb, Altavista, GigaBlast, HotBot, Teoma. Sprawdza też, czy witryna istnieje w katalogach DMOZ i Zeal, wyświetlając jednocześnie wartość wskaźnika Alexa Rating.
6. Visual PageRank
iWebTool
http://www.iwebtool.com
Kapitalne narzędzie, analizujące wartość PageRank wszystkich odnośników umieszczonych na badanej stronie. Visual PageRank otwiera badaną stronę, publikując ją w zewnętrznym oknie, wzbogaconą o wskaźniki PageRank umieszczane obok wszystkich odnośników, które znajdują się na stronę. W ten sposób możemy zbadać, czy nasza strona została w całości zaindeksowana przez Google.
Najbardziej poprawny schemat indeksacji występuje wówczas, gdy działy naszej witryny posiadają PageRank o jeden mniejszy od strony głównej, a podstrony o 2 lub 3 mniejszy (w zależności od poziomu podstrony w hierarchii). Strony, które nie zostały jeszcze zaindeksowane mają naturalnie PageRank równy 0. Obok każdego odnośnika wskazującego na zewnętrzną domenę publikowany jest znaczek EX.
7. Google PageRank Prediction
iWebTool
http://www.iwebtool.com
Niezwykle przydatne narzędzie określające bieżący i przewidujące przyszły PageRank badanych witryn. Pozwala na przewidzenie, jak zmieni się wartość tego wskaźnika na przestrzeni najbliższych miesięcy. PageRank Prediction śledzi informacje o wskaźniku PageRank prezentowane na dziesiątkach produkcyjnych serwerów Google.
Oprócz przypuszczalnej wartości nowego PageRank (z dokładnością do jednej cyfry po przecinku) prognozuje także prawdopodobieństwo, z jakim może nastąpić zmiana, oraz najbardziej aktualną liczbę backlinków. Jest to ilość odnośników zewnętrznych i wewnętrznych, wskazujących na badaną domenę.
8. Website Speed Test
iWebTool
http://www.iwebtool.com
Ostatnie narzędzie w zestawieniu nie jest ściśle powiązane z SEO. Website Speed Test pozwala na określenie, z jaką prędkością ładuje się strona WWW. Publikuje informacje na temat prędkości przesyłu 1 KB danych ze strony, czasu ładowania strony w sekundach oraz rozmiaru ogólnego rozmiaru kodu witryny. Pozwala stwierdzić, czy nasza storna jest szybka, normalna, czy wolna.
Nasze pomiary wskazują, że najwolniej odpowiada wyszukiwarka Google. Jest to prawdopodobnie spowodowane faktem, że istnieje dość długi czas nawiązania połączenia, po którym następuje szybki transfer danych. Ponieważ Google przesyła tylko 2,6 kB, jego czasy są słabe. Jeżeli nasza strona ładuje się dłużej niż 2 sekundy, należy poszukać przyczyny (mocno obciążony serwer, wolne łącze, nieoptymalne skrypty wyświetlające stronę).
Czego robić nie powinniśmy
Warto wspomnieć także o praktykach, które uznawane są za spam i mogą wykluczyć stronę z dalszej indeksacji:
- używanie tagów HTML niezgodnie z ich przeznaczeniem (np. korzystanie z ukrytego nagłówka {html}
{/html} bądź nagłówka pomniejszonego stylami do minimalnych rozmiarów),
- tworzenie ukrytego tekstu w stopce strony, mającego tylko i wyłącznie na celu podniesienie gęstości słów kluczowych na stronie,
- faszerowanie strony słowami kluczowymi (np. przesycanie zdań słowami kluczowymi, stosowanie słów nieodpowiadających zawartości),
- stosowanie cloakingu, czyli wyświetlanie robotom wyszukiwarek innej strony (przesyconej słowami kluczowymi) niż zwykłym użytkownikom,
- tworzenie stron stanowiących jedynie przekierowanie do właściwego serwisu,
- tworzenie farm odnośników, czyli stron, których jedynym celem jest zwiększenie ilości odnośników prowadzących do promowanych stron.
Rejestracja
Najpopularniejsze wyszukiwarki i bezpośrednie odnośniki do rejestracji:
- Google
http://www.google.com/addurl/?continue=/addurl - Szukaj.Onet.pl
http://szukaj.onet.pl/dodaj/dodaj.html - Szukaj.Wp.pl
http://biznes.szukaj.wp.pl/odswiezanie.html - NetSprint.pl
http://www.netsprint.pl/serwis/addurl
Stosowanie powyższych technik nie jest jednoznaczne z usunięciem witryny z wyszukiwarki. Może jednak stanowić do tegopodstawę.
Podsumowanie
Jak widzisz, optymalizacja strony pod kątem wyszukiwarek to pewien zbiór reguł, których należy przestrzegać podczas tworzenia serwisu internetowego. Po pierwsze, zadbaj o kod źródłowy strony. Niech będzie zgodny ze standardami i zindywidualizowany dla każdej podstrony (zmieniające się metatagi, tytuł witryny). Po drugie, dodaj stronę katalogów, co do których masz zaufanie. Zdobędziesz w ten sposób cenne linki prowadzące do twojego serwisu, a wyszukiwarka potraktuje twoją stronę z większym szacunkiem.
W pozycjonowaniu główną rolę odgrywa wytrwałość w eksperymentowaniu i czas, który należy na te eksperymenty poświęcić. Co prawda drobna zmiana w kodzie zajmuje jedynie chwilę, ale na jej efekty poczekamy nawet kilka miesięcy.