Jak zbadać popularność witryn w wyszukiwarkach i sprawdzić jak użytkownicy odnajdują witryny w oparciu o mechanizmy wyszukujące w internecie? Czym jest długi ogon w wynikach wyszukiwarek?
Każde zapytanie przesłane do wyszukiwarki
zwraca listę z wynikami wyszukiwania.
Naturalne wyniki wyszukiwania
powstałe w oparciu o algorytm wyszukiwarki,
który rankinguje i sortuje zwracane rezultaty,
prowadzą do adresów internetowych. Wyszukiwarki
potrafią indeksować usługi WWW, FTP
i grupy dyskusyjne.
Ponad połowa użytkowników odwiedzających
witryny internetowe jest do nich kierowana
prosto z wyszukiwarek, mniej natomiast
poprzez bezpośredni odnośnik. Wyszukiwarki
odnotowują miesięcznie ponad 4,5 miliarda zapytań wprowadzanych przez użytkowników.
Witryny konkurują ze sobą o to, do której
z nich w wyniku wyszukiwania przejdzie
użytkownik. Proste zapytanie do wyszukiwarki
o dużych zasobach zwraca tysiące, a nawet
miliony odpowiedzi. Użytkownik spojrzy tylko
na kilka z nich, zwykle z pierwszej strony (tak
robi 73% internautów).
Popularność wyszukiwarek internetowych
jest silnie uzależniona od dokładności rezultatów,
które zwracają. Im dokładniejsze wyniki,
tym większą popularność zyskuje wyszukiwarka.
Procedura ustalania rankingu jest fundamentalną
charakterystyką każdej wyszukiwarki i ma
ogromny wpływ na istnienie oraz popularność
pozostałych witryn w internecie. Wysoka pozycja
na liście zwracanych wyników dla słowa kluczowego
związanego z witryną zazwyczaj przynosi
znacznie więcej korzyści, niż bardzo droga kampania
reklamowa oparta o banery.
Optymalizowanie wyników w wyszukiwarkach
Celowe działania, które mają doprowadzić
do znalezienia się na samym szczycie listy
z wynikami wyszukiwania nazywa się pozycjonowaniem
witryn internetowych. Pozycjonowanie
jest jednym z narzędzi promocji
oraz reklamy w internecie i polega na kombinacji
działań zwiększających prawdopodobieństwo
znalezienia się pozycjonowanej witryny
wśród pierwszych wyników wyświetlanych
przez wyszukiwarki internetowe. Wyniki
mają dotyczyć najbardziej popularnych
słów kluczowych związanych z tematyką pozycjonowanej
witryny internetowej.
Czynniki, które potencjalnie wpływają na
ranking wyszukiwarki internetowej dzielą się
na dwie kategorie. Pierwsza to czynniki wewnętrzne,
które są zależne od treści na stronie,
jak obecność i częstotliwość słów kluczowych,
druga to czynniki zewnętrzne, które
są uzależnione od informacji pochodzących
z zewnętrznych stron, które mają odnośniki
do reklamowanej witryny. Jednak
obie grupy czynników trudno wyliczyć, ponieważ
wyszukiwarki internetowe nie ujawniają,
które w szczególności są używane do
określenia pozycji w rankingu.
Problem jest złożony. Istnieje ponad 200
różnych czynników używanych m.in. przez
Google do wyliczania rankingów stron. Ponieważ
większość z nich jest nieznana, nie
wiadomo jaki wpływ mają na wynik końcowy.
Waga każdego z użytych czynników do określenia wyników z pierwszej strony re zultatów może być różna od wagi użytej dla
pozostałych stron z rezultatami. Różne zapytania
mogą zostać obsłużone przez różne
czynniki bądź różne wagi. Google ma wielorakie
centra z danymi rozmieszczone po
całym globie, nie wszystkie są synchronizowane
w tym samym momencie.
Wszystko to sprawia, że zidentyfikowanie
czynników zaangażowanych przez algorytm
wyszukiwarki jest bardzo trudne. W konsekwencji
zapotrzebowanie na wiedzę o tych
czynnikach doprowadziło do powstania przedsiębiorstw
trudniących się pozycjonowaniem,
które jest określane z angielska jako SEO (Search
Engine Optimization) lub – w szerszym
ujęciu – SEM (Search Engine Marketing).
Celem firm SEO/SEM jest zwiększenie wartości
rankingu w wynikach wyszukiwarek dla
swoich klientów. Dzięki doświadczeniu i wielu
testom są w stanie znacząco polepszyć wynik
witryny. Jednak trzeba podkreślić, że po przeszukaniu
wielu forów i blogów internetowych
prowadzonych przez firmy SEO/SEM okazuje
się, iż ich praca ewidentnie opiera się na zgadywaniu,
próbach i błędach. Mimo to obroty
na rynku SEO/SEM rosną z każdym rokiem.
Badanie stron na przykładach
Do badania wybrano 6 stron, które były odwiedzane
w okresie od stycznia do kwietnia
2007. Witryny są zróżnicowane pod względem
budowy, treści i celu w jakim zostały stworzone
(patrz tabela). Badanie opiera się na statystykach
pobranych z systemu analitycznego
Awstats zainstalowanego na serwerze
z usługą hostingową. Badane witryny nazwijmy A, B, C, D, E i F,
aby nie ujawniać ich prawdziwych adresów.
Witryna A jest stroną typu non-profit, najkrócej
istniejącą spośród badanych. Witryna
B jest stroną komercyjną z branży fotograficznej.
Witryna C to strona komercyjna z branży
budowlanej. Witryna D to strona komercyjna
z branży agencji interaktywnych, czyli agencji
reklamy i usług w internecie. Witryny E i F
to strony komercyjne oferujące loga, dzwonki
i SMS-y dla telefonów komórkowych.
Każda z witryn uczestniczyła w procesie pozycjonowania
dla wcześniej wybranych słów
kluczowych. W tym czasie dla kilku słów kluczowych
osiągnięto wysokie miejsca, dzięki
czemu użytkownicy zaczęli odwiedzać te strony.
Liczba słów kluczowych to ilość wyrażeń,
dla których witryny były pozycjonowane. Wyjątkiem
jest witryna A, która była pozycjonowana
tylko na jedno słowo kluczowe składające
się z jednego wyrazu. Pozostałe witryny
były pozycjonowane dla słów kluczowych składających
się z co najmniej dwóch wyrazów.
Witryny zostały także ocenione pod kątem
kryteriów takich jak:
- liczba stron z witryny zaindeksowanych
przez wyszukiwarkę (niektóre witryny są
większe niż inne, być może większe oznacza
lepsze), - wynik PageRank w ocenie algorytmu Google,
- liczba odnośników przychodzących według
Google i Yahoo!, - wiek nazwy domeny witryny (spekuluje się,
że starsze domeny są oceniane wyżej niż
nowe w przypadku tej samej zawartości), - obecność witryny w najważniejszych katalogach
edytowanych przez redaktorów– wpisy z katalogów Yahoo! i DMOZ (Open
Directory Project) zasilają wyniki w wyszukiwarkach
Yahoo! i Google. Ponieważ
witryny znajdujące się w tych katalogach
przechodzą kontrolę wysokiej jakości,
strony tych katalogów są traktowane
jako autorytety, które wyszukiwarki
mogą wykorzystać jako jeden z czynników
rankingu.
Pod uwagę wzięto informacje takie jak:
- oglądalność, czyli liczba unikalnych gości
– użytkowników, którzy odwiedzili stronę
z niepowtarzalnym numerem IP, - liczba wizyt – użytkownicy, którzy odwiedzili
stronę (wraz z powracającymi do niej), - źródła połączeń, a w tym liczba wizyt bezpośrednich
lub z Ulubionych/Zakładek, liczba
wizyt z wyszukiwarek oraz liczba wizyt
z odnośników na innych stronach, - popularność słów kluczowych, czyli poszukiwane
słowa kluczowe (frazy) oraz poszukiwane
wyrazy.
Oglądalność witryn
Oglądalność jest uzależniona od popularności
witryny, częstotliwości z jaką użytkownicy odnajdują
daną stronę w internecie oraz samej
budowy wewnętrznej witryny. Oczywiście istnieje
całe mnóstwo innych stron ze znacznie
większą oglądalnością niż te wzięte do analizy.
Mimo to, już na uzyskanym poziomie wyświetleń,
można wyprowadzić wiele cennych
wniosków i porównań.
Należy wyjaśnić, dlaczego liczba otwartych
stron w przypadku witryn C i D jest większa niż
liczba stron znajdujących się w indeksie wyszukiwarki.
Te witryny zbudowane są w technologii
Macromedia Flash. Jedna wizyta generuje otwarcie
co najmniej dwóch stron – głównej, czyli
index.html, oraz treści multimedialnej traktowanej
jako kolejna otwarta strona. W przypadku
C średnia jest poniżej dwóch, ponieważ przeglądarka
powracającego użytkownika nie pobiera
ponownie pliku multimedialnego, jeśli znajduje
się w jej pamięci podręcznej.
Natomiast witryna
D w trackie przeglądania witryny otwiera
co najmniej trzy pliki SWF oraz mogą zostać
wywołane żądania o otwarcie kolejnych plików.
Należy pokreślić także widoczną różnicę pomiędzy
liczbą wizyt a unikalnymi użytkownikami na
witrynie C. Ponieważ jej rozmiar to ok. 1 MB
w technologii Flash i zawartość nie podlega aktualizacji,
toteż ponad 60% wizyt jest wykonywanych
przez serwer proxy z jednego IP.
Rys. 1. Źródła generowanych wizyt w badanych
witrynach. Do wyszukiwarek zagranicznych
należą: Google z udziałem ponad
98%, MSN, Dmoz, Yahoo!, Alexa, AOL,
AltaVista i Seznam. Polskie wyszukiwarki to:
OnetSzukaj, NetSprint i Szukacz.
Witryna A i B (budowane w tej samej technologii)
oraz C charakteryzują się podobnymi
statystykami – 50-60% wizyt jest generowanych
przez wyszukiwarki. Witryny C, E,
F są dostępne wyłącznie w wyszukiwarkach,
nie mają żadnych popularnych odnośników.
Witryna D należy do wysoko konkurencyjnej
branży usług internetowych, jest najrzadziej
odwiedzaną witryną i ma najmniej wizyt
z wyszukiwarek
Frazy kluczowe
Wyniki z tabeli pokazują jak wielką przewagę
przy wyszukiwaniu mają witryny budowane
w technologii tekstowej, wypełnione wysokiej
jakości pożądanymi treściami, nad witrynami,
które nie mają takiej zawartości. Ilość
utworzonych słów kluczowych, czyli fraz, dzięki
którym witryna została znaleziona w wyszukiwarkach,
w przypadku A jest średnio 14 razy
większa od C i D, w przypadku B jest średnio
8 razy większa, natomiast E i F przewyższają
je niemal stukrotnie. Ilość możliwych kombinacji,
jakie jeszcze mogą powstać, jest również
kilka razy większa w przypadku witryn
A, B, E, F, ponieważ w ich treści znajduje się
znacznie więcej różnorodnych wyrazów znalezionych
do tej pory przez wyszukiwarki.
Rys. 2. Procentowy udział poszczególnych
fraz w badanych witrynach. Począwszy od
witryn E i F, które zanotowały największą
ilość wizyt na różne frazy z wyszukiwarki,
ponad 95% wejść zostało wygenerowanych
przez frazy spoza pierwszej dziesiątki. Witryny
A i B, mniejsze objętościowo w liczbę
podstron, ale jednocześnie pozycjonowane
na kilka fraz kluczowych, otrzymały już tylko
odpowiednio 80% oraz 64% wejść poprzez
frazy spoza pierwszej dziesiątki. Natomiast
witryny C i D zanotowały mniejszą liczbę
wejść z długiego ogona, około 56% i 44%
Długość zapytań
Ostatnim mierzalnym parametrem, charakteryzującym
wysoką widoczność w wynikach
wyszukiwania, są formułowane zapytania do
wyszukiwarki. Można pokusić się o twierdzenie,
że ilu użytkowników wyszukiwarek, tyle
sposobów na wyszukanie informacji. Autorzy
Google podają, że około 50% wpisywanych do niej zapytań każdego dnia jest niepowtarzalnych,
nigdy wcześniej nie stworzonych.
Na rys. 3 tylko witryna E jest zgodna
z twierdzeniem autorów Google. W witrynach
A, C i F utrzymuje się poziom ok. 40% niepowtarzalnych
wpisywanych fraz kluczowych do
wyszukiwarki w stosunku do całkowitej liczby
wszystkich fraz, łącznie z powtórzeniami,
czyli do całkowitej liczby wizyt pochodzących
z wyszukiwarek. Natomiast witryny B i D mają
poniżej 20% niepowtarzalnych fraz w całkowitym
udziale wizyt w witrynie. Średnia ważona
przedstawia łączny udział fraz niepowtarzających
się ze wszystkich witryn.
W statystykach odwiedzin najczęściej powtarzają
się kombinacje, dwu-, trzy- i czterowyrazowe.
Rys. 3. Całkowity udział fraz niepowtarzalnych do powtarzających się
* * *
Jakie wnioski warto wysnuć z powyższych
rozważań? Po pierwsze do skutecznego pozycjonowania
niezbędne jest umiejętne korzystanie
ze statystyk odwiedzin witryny. Dane statystyczne
pozwalają obserwować trendy odwiedzin
oraz stymulować i kontrolować wzrosty
i spadki liczby użytkowników. Umiejętna analiza
statystyk pozwala wprowadzać konieczne
zmiany na witrynie w najbardziej optymalnym
do tego czasie.
Po drugie, aby osiągnąć lepszą pozycję w wynikach
wyszukiwarek, na witrynie należy zdywersyfikować,
czyli zróżnicować wizyty pochodzące
z wyszukiwarek. Ruch z wyszukiwarek
nie może być oparty wyłącznie na kilku popularnych
frazach kluczowych. Gdyby witryna
utraciła swoje korzystne pozycje w wynikach
wyszukiwania pod te frazy, ruch na niej radykalnie
by się zmniejszył. Witryny składające
się z wielu podstron bogatych w treść lepiej
sobie radzą z tym problemem. Nawet, jeśli
okresowo witryna pod pewnymi frazami kluczowymi
nie jest na wysokich pozycjach, to
pozostaje jeszcze wiele innych fraz, o których
autor strony nigdy by nie pomyślał, że mogą
do niej doprowadzić.