Pozycjonowanie stron od A do Z

Duże marki i sklepy internetowe wydają nawet dziesiątki tysięcy złotych na działania pozycjonerskie. Najczęściej jest to budżet o wiele większy niż jest wymagany aby osiągnąć sukces w pozycjonowaniu strony. Liczy się skuteczna strategia oparta na wiedzy i doświadczeniu.

Z tego powodu do każdego klienta podchodzimy indywidualnie kreując skuteczną strategię pozycjonowania strony na wiele miesięcy do przodu. Wszelkie działania zawsze rozpoczynamy od audytu SEO w pierwszej kolejności eliminując wszelkie błędy techniczne na stronie.

W dalszej kolejności wykonujemy analizę słów kluczowych aby każda z podstron celowa w określone wartościowe słowo kluczowe, które jest wyszukiwane przez potencjalnych klientów. Po analizie słów kluczowych obieramy strategię contentową i linkbuildingową na podstawie szerokiej analizy konkurencji. Tak przygotowana strategia zawsze jest skuteczna i pozwala sukcesywnie rosnąć naszym klientom w Google, co potwierdzają również referencje na temat naszej firmy.

 

Ile kosztuje pozycjonowanie strony?

Pozycjonowanie stron w wynikach wyszukiwania jest bardzo ciężko do wyceny bez znajomości adresu URL strony pozycjonowanej, jej konkurentów, czy słów kluczowych w które ma celować. Jest to trudne ponieważ z SEO jest jak z biznesem. Jeden jest bardziej konkurencyjny od drugiego.

W naszej ofercie pozycjonowania wyszliśmy naprzeciw przeciwnością rynku i rozbiliśmy ofertę pozycjonowania strony na 3 elementy, z których się ono składa

  • Koszt pracy specjalisty SEO
  • Treści (copywriting)
  • Link Building

Z tych trzech elementów, zawsze składało się skuteczne seo – i się to nie zmieni. Aby wyliczyć koszt docelowy należy zrobić odpowiednią analizę konkurencji i odnaleźć różnice w postaci

  • różnić treści (ilościowe i jakościowe)
  • różnice linkbuildingowe (jak bardzo strona pozycjonowana odbiega i konkurentów)
  • Ilość błędów i wielkość strony, która wpływa na ilość koniecznej pracy nad stroną.

Mając powyższe informacji wraz z cennikiem za treści, linki oraz pracę bardzo prosto można oszacować potrzebny budżet na pozycjonowanie wybranej strony internetowej.

 

Rozliczenie abonamentowe

Za działania SEO rozliczamy się w abonamencie,
ze względu na złożoność projektu i działań.

Dla przykładu zwykła strona wizytówkowa działająca lokalnie będzie wymagała 500-1000 zł netto budżetu miesięcznego na działania w związku z link buildingiem, treściami i pracą nad nią

Jednak mały sklep internetowy w zależności od branży będzie wymagał co najmniej 1500-4000 zł netto na pozycjonowanie strony ze względu na złożoność projektu, konkurencyjność, konieczność napisania treści oraz zbudowania linków.

 

Korzyści pozycjonowania strony

Pozycjonowanie w Google ma ogromną ilość zalet i korzyści a ruch pozyskany z organicznych wyników wyszukiwania w Google jest jednym z najlepiej konwertujących źródeł ruchu w Internecie.

Sprecyzowana grupa docelowa – Reklama w Google, czy to za pomocą Google Ads lub za pomocą pozycjonowania strony internetowej, jest znacznie lepsza
i lepiej konwertująca w porównaniu do mediów społecznościowych. Dlaczego? Dlatego, że odpowiadamy na bezpośrednie zapytanie użytkownika. Jestem przekonany że to nie na Facebooku będziesz szukał hydraulika w Twojej miejscowości, tylko właśnie w Google!

Wzrost sprzedaży – Oczywiście skuteczne pozycjonowanie strony w Google jest równoznaczne z pozyskiwaniem ruchu na stronę, który finalnie może przełożyć się na sprzedaż.

Wzrost wiarygodności i zaufania marki – Wyszukiwarka Google to jedno z podstawowych źródeł informacji, któremu ufają internauci. Dane mówią, że ludzie znacznie bardziej ufają stronom internetowym, które wysoko wyświetlają się w wynikach wyszukiwania i chętniej się z nimi kontaktują.

Długoterminowe efekty – Pozycjonowanie strony internetowej to proces trwający miesiącami, a nawet latami. “SEO to nie sprint tylko maraton”, jednak ma
on na celu systematyczny wzrost widoczności i ruchu organicznego na stronie. Skutecznie prowadzone działania SEO, a w tym przyjazne dla użytkowników
i precyzyjnie odpowiadające na zapytania użytkowników w Google, finalnie mają szanse na długoterminowe efekty. Nawet wieloletnie!

Zwiększenie użyteczności, a przy tym konwersji – Dobrze przeprowadzona optymalizacja SEO strony, ma również za zadanie przeanalizowanie i poprawę
użyteczności dla użytkowników, co finalnie będzie miało impakt na wzrost świadomości i zaufania do marki. Warto również wspomnieć, że wkrótce będzie to również czynnik rankingowy w Google (informacja z 18.06.2020)

Rozwój biznesu – Jak to każde działanie marketingowe w Internecie, pozycjonowanie ma zadanie wzrost ruchu sprzedaży, a co za tym idzie – rozwój Twojego biznesu online.

 

Efekty pozycjonowania strony

Finalnym efektem pozycjonowania jest pozyskanie jak największej ilości najlepszych pozycji w Google dla poszczególnych słów kluczowych oraz pozyskiwanie ruchu organicznego z Google. W to również zalicza się wzrost widoczności, świadomości i zaufania marki wśród docelowej grupy odbiorców.

Pozycjonowanie strony w Google jest długoterminowym działaniem i wymaga szerokiego spektrum działań takich jak analiza techniczna, analiza contentu, analiza słów kluczowych czy pisanie i publikowanie treści. Z tego powodu podchodzimy do pozycjonowania strony każdego z naszych klientów indywidualnie i strategicznie na podstawie rzetelnych danych i informacji, które zapewnia obranie skutecznej kampanii SEO dopasowanej do indywidualnych potrzeb.

Poniżej opisane studium przypadku SEO odzwierciedla, nasze podejście do klienta, jego potrzeb i problemów.

 

CEL I ZAŁOŻENIA

Pozycjonowanie stron:
Obrane cele i założenia w projekcie

Klient z branży produktów metalowych postanowił stworzyć trzy nowe sklepy internetowe na trzy kraje Europejskie ( Polskę, Słowację i Węgry). Od momentu decyzji klient powierzył nam pełne działania nad stroną. Począwszy od jej zakodowania i w tym pozycjonowanie strony www. Razem z klientem opracowaliśmy strategię pozycjonowania  na podstawie szerokiej analizy konkurencji. Celem strategii był wzrost widoczności sklepów internetowych na pierwszą stronę wyników wyszukiwania na główne frazy kluczowe związane z jego biznesem w ciągu 12 miesięcy.

DZIAŁANIA

Pozycjonowanie stron:
Obrane cele i założenia w projekcie

Pierwszym etapem do skutecznych działań pozycjonowania strony www (stworzeniu strony internetowej) była analiza słów kluczowych i na jej podstawie przygotowanie odpowiedniej architektury informacji w każdym z 3 sklepów, które nam powierzył. Audyt techniczny nie był wymagany, ponieważ strona została zakodowana przez nas zespół. Po analizie słów kluczowych mieliśmy obraz tego, co jest konieczne aby osiągnąć sukces. Jak wiele podstron (kategorii produktowych oraz wpisów blogowych) musi powstać na przestrzeni kolejnych 6-12 miesięcy. Następnie wykonaliśmy bardzo dokładną analizę konkurencji, która dała nam podgląd tego jak długie mają być treści, w jakie słowa kluczowe mają celować oraz jak wiele linków musimy pozyskać statystycznie każdego miesiąca aby “dogonić” konkurencję w działaniach SEO.

OSIĄGNIĘTE EFEKTY

Pozycjonowanie stron:
Uzyskane efekty w trakcie pozycjonowanie strony

Rzetelne i systematyczne działania zarówno on-site jak i off-site oparte na danych (nie spekulacji), pozwoliły nam już po pierwszych 4 miesiącach zwiększyć widoczność każdego ze sklepu w Google o 200-300%. Wykonując systematyczne działania zarówno contentowe jak i linkbuildingowe w kolejnych miesiącach zaowocowały kolejnym znacznym wzrostem i pozwolił pojawić się na ok 13 pozycji na główną frazę kluczową. Dalsze efekty pozycjonowania to była tylko kwestia czasu. Po 8 miesiącach większość głównych fraz kluczowych w każdym kraju osiągnęły pozycje z zakresu TOP1-TOP6. Taki efekt zaowocował znacznym wzrostem sprzedaży, kreowaniem marki klienta jako lidera rynku i do dnia dzisiejszego sprzedaż za pomocą ruchu organicznego działa i wciąż jest rozwijana.

Na poniższym ekranie można zobaczyć efekt współpracy z klientem oraz jak jego strona każdego miesiąca rosła w wynikach wyszukiwania.

 

Jak działają wyszukiwarki internetowe tj. Google?

Wyszukiwarki mają trzy zasadnicze funkcje:

  1. Crawlowanie: przeszukiwanie Internetu w celu znalezienia stron i treści, następnie przeszukiwanie kodu źródłowego znalezionych stron.
  2. Indeksowanie: Przetrzymywanie, organizowanie i wyświetlanie w wyszukiwarce znalezionych stron i contentu w trakcie crawlowania. Dlatego jeżeli strona znajduje się w indeksie, oznacza to, że można ją znaleźć w wynikach wyszukiwania.
  3. Ocenianie: Aby przedstawić użytkownikowi jak najlepiej dopasowaną odpowiedź do jego zapytania, robot musi wcześniej sprawdzić wszystkie możliwe odpowiedzi i wybrać najlepsze, czyli zwaluować je.

Czym jest Crawlowanie przez roboty

Crawlowanie czyli inaczej przeszukiwanie jest procesem odkrywczym, w trakcie którego wyszukiwarki wysyłają zespół robotów (znanych jako spiders = pająki albo crawlers=poszukiwacze) w celu znalezienia nowej lub zaktualizowanej treści. Treść to szerokie pojęcie. Może to być strona internetowa, obraz, filmik bądź dokument PDF itp.

Crawlowanie internetu

Googlebot (robot od Google) zaczyna od pobrania/znalezienia kilku stron, następnie podąża za wszystkimi URL’ami (linkami) odsyłającymi z tej strony, aby znaleźć nowe URL’e. Poprzez podążanie za siecią znalezionych URL’i, robot crawlujacy jest w stanie znaleźć nową i dotąd nieodkrytą treść, a następnie dodać ją do swojego indeksu nazywanego Caffeine, – który jest OGROMNYM zbiorem znalezionych dotychczas URL’i – aby następnie dopasować jak najbardziej trafną odpowiedź do zapytania szukającego spośród wszystkich stron w indeksie Caffeine.

Czym jest index wyszukiwarek

Wyszukiwarki przetwarzają, a następnie przechowują znalezione informacje w swoim indeksie, ogromnej bazie danych wszystkich dotychczas odkrytych treści, które uznają za wystarczająco dobre, by służyć szukającym, czyli nam – ludziom.

Ranking wyszukiwarek

Gdy użytkownik wpisuje swoje zapytanie w wyszukiwarkę (np. Google), przeszukuje ona swój index w poszukiwaniu jak najbardziej trafnej odpowiedzi, a następnie pokazuje je w kolejności z nadzieją że pokazane wyniki udzielą odpowiedzi na pytanie szukającego – czyli w rzeczywistości rozwiążą jego problem. To sortowanie wyników wyszukiwań przez dopasowanie do pytania szukającego jest znane jako pozycjonowanie/rankowanie. W zasadzie, można przyjąć że im wyżej strona pokazuje się w wynikach wyszukiwania, tym bardziej trafna jest odpowiedź na pytanie szukającego.

Możliwym jest zablokowanie robotów wyszukiwarek z części, bądź z całej strony internetowej, lub poinstruowanie ich, aby nie przechowywały części podstron w swoim indeksie. Może być powód wykonania takiego zabiegu, jednak jeśli chcesz aby Twoja strona internetowa oraz treści mogły zostać znalezione przez roboty wyszukiwarek, musisz mieć pewność, że Twoja witryna jest dla niech dostępna i indeksowalna. W innym wypadku będzie niewidoczna.

W pozycjonowaniu i optymalizacji (SEO), nie wszystkie wyszukiwarki są takie same!

Wielu początkujących myśli, że wszystkie wyszukiwarki są podobne. Większość ludzi jednak wie, że Google ma największy udział w rynku, jednak jak ważna jest optymalizacja pod kątem Binga, Yahoo i innych wyszukiwarek? Prawdą jest że, pomimo istnienia ponad 30 dużych wyszukiwarek, społeczność pozycjonowania stron internetowych (SEO) zwraca uwagę wyłącznie na Google. Dlaczego? Krótko mówiąc Google jest wyszukiwarką, z której korzysta większość ludzi. Jeżeli do całości dodamy Google Maps, Youtube, Obrazki (własności Google), to ponad 90% zapytań internetowych dzieje się za pośrednictwem Google – to niemal 20 razy więcej niż Bing i Yahoo razem wzięte.

Crawlowanie: Czy roboty wyszukiwarek mogą znaleźć Twoją stronę?

Jak już wiesz – ponieważ się tego nauczyłeś – żeby mieć pewność, że Twoja strona może zostać poprawnie scrawlowana (przeszukana) i zaindeksowana przez roboty, pierwszym koniecznym warunkiem jest pojawienie się w SERP’ach (wynikach wyszukiwania). Jeżeli posiadasz już stronę www, dobrym pomysłem jest abyś zaczął od sprawdzenia jak wiele Twoich podstron znajduje się w indeksie. Zapewni to Tobie świetny podgląd tego, czy Google znajduje i poprawnie index’uje wszystkie strony, które chcesz i tych, których nie chcesz.

Pierwszym sposobem, aby to sprawdzić jest wpisanie “site:TwojaDomena.pl” w Google jako operator wyszukiwania zaawansowanego.

index google

Liczba wyników w Google wyświetlana jako (xx results (xxx seconds)) nie jest w 100% dokładna, jednak da Ci to podgląd tego jakie Twoje podstrony wyświetlają się w Google oraz tego jak się wyświetlają (meta tytuł i meta description).

Dla bardziej sprecyzowanych wyników, wykorzystaj “Indeks > Stan” w Google Search Console (GSC). Możesz założyć darmowe konto w Google Search Console, jeśli jeszcze nie posiadasz. Wykorzystując to narzędzie – które jest prosto od Google – możesz wrzucać sitemap’y (mapy strony), i obserwować jak wiele z przesłanych adresów URL zostało zaindeksowanych i znalezionych przez Google.

Jeżeli Twoja strona w ogóle nie wyświetla się w wynikach wyszukiwania, istnieje kilka możliwych powodów, przez które może się tak dziać:

  • Twoja witryna jest nowa i nie została jeszcze zaindeksowana.
  • Twoja witryna nie jest powiązana z żadnymi zewnętrznymi witrynami.
  • Nawigacja witryny utrudnia robotowi skuteczne jej indeksowanie.
  • Twoja strona zawiera podstawowy kod zwany dyrektywami robota, który blokuje wyszukiwarki.
  • Twoja strona została ukarana przez Google za taktyki spamerskie.

Poinstruuj roboty wyszukiwarek jak mają crawlować Twoją stronę

Jeżeli użyłeś zaawansowanego operatora wyszukiwania “site:twojadomena.pl” i zauważyłeś, że niektóre z ważnych podstron nie znajdują się w wynikach wyszukiwania Google lub niektóre z podstron, których nie chciałeś wyświetlać w Google jednak się tam pojawiły – powinieneś zastosować kilka z możliwości optymalizacyjnych, aby lepiej kierunkować roboty Google (Googleboty) jak mają crawlować Twoją stronę.  Gdy to zrobisz pozwoli Ci to mieć lepszą kontrolę nad tym co finalnie znajdzie się w indeksie Google czyli w wynikach wyszukiwania.


Większość ludzi zdaje sobie sprawę z tego, aby mieć na uwadze Google, żeby mogło znaleźć ważne podstrony. Bardzo łatwo jednak jest zapomnieć, że istnieją również takie podstrony, których nie chcesz pokazywać w wynikach wyszukiwania. Mogą to być podstrony ze starymi URL’ami, słabą treścią, zduplikowane URL’e (bardzo częsty przypadek w sklepach internetowych), strony testowe i wiele innych…

Aby zabronić robotowi Google dostępu do danych podstron wykorzystaj plik robots.txt

Robots.txt

Pliki robots.txt są zlokalizowane w głównym folderze strony (np. twojastrona.pl/robots.txt) i kierunkuje roboty przeglądarek, które podstrony powinny być indexowane, a które nie. Możesz również sprecyzować prędkość crawlowania Twojej strony używając sprecyzowanych dyrektyw robots.txt

Jak Robot Google traktuje plik robots.txt

  • Jeśli Googlebot nie może znaleźć pliku robots.txt dla witryny, kontynuuje indeksowanie witryny.
  • Jeśli Googlebot znajdzie plik robots.txt dla witryny, zwykle postępuje zgodnie z sugestiami i kontynuuje indeksowanie witryny.
  • Jeśli Googlebot napotka błąd podczas próby uzyskania dostępu do pliku robots.txt witryny i nie może ustalić, czy istnieje, czy nie, witryna nie będzie indeksować witryny.

Optymalizuj pod kątem budżetu crawlowania (crawl budget)

Crawl budżet jest średnią liczbą URL’i, które robot google scrawluje na Twojej stronie zanim ją opuści. Optymalizacja crawl budżetu sprawia, że robot google nie traci czasu na crawlowanie Twoich mało istotnych podstron biorąc pod uwagę, że może jest zignorować pomimo wykorzystania crawl budgetu. Crawl budżetu jest bardzo istotny na dużych stronach z setkami tysięcy lub nawet milionami adresów URL, dlatego dobrym pomysłem jest zablokowanie dostępu do podstron, na których Ci nie zależy. Pamiętaj jednak aby nie blokować dostępu crawlerom do podstron, na których wykorzystałaś inne dyrektywy tj. linki kanoniczne (canonical) lub noindex. Jeżeli to zrobisz, robot Google nie będzie w stanie zastosować się do dyrektyw zastosowanych na tych podstronach.


Nie wszystkie roboty stosują się do pliku robots. Ludzie ze złymi intencjami (np. tacy, którzy masowo pobierają adresy) budują programy, które nie przestrzegają zasad ustalonych w robots.txt. Niektórzy mogą użyć pliku robots, aby zlokalizować gdzie umieściłeś swoje prywatne treści. W teorii logicznym jest , aby zablokować dostęp robotom z prywatnych podstron tj. strony logowania czy strony panelu administracyjnego, tak aby nie pojawiały się publicznie w wynikach wyszukiwania, jednak zablokowanie dostępu do nich w robots.txt oznacza, że ludzie ze złymi intencjami bardzo łatwo będą mogli je zlokalizować. Lepszym pomysłem jest wykorzystanie znacznika “noindex” na tych podstronach niż umieszczenie ich bezpośrednio w publicznie dostępnym pliku robots.txt.

Czy roboty (crawlery) mogą znaleźć wszystkie ważne treści?

Teraz, gdy już znasz taktyki, które sprawiają, że roboty trzymają się z dala od stron, które są nieistotne lub mało ważne, nauczymy się na temat optymalizacji, która pomoże robotom Google znaleźć ważne treści na Twojej stronie internetowej.

Czasami wyszukiwarki będą w stanie znaleźć część treści i podstron na Twojej witrynie poprzez crawlowanie jej, jednak inne strony bądź sekcje mogą być dla nich przyćmione lub niezrozumiałe. Dlatego bardzo ważnym jest, aby mieć pewność, że wyszukiwarki są w stanie poprawnie scrawlować całą Twoją witrynę i odkryć wszystkie ważne podstrony, które chcesz aby zostały zaindeksowane. Nie tylko stronę główną.

Zadaj sobie pytanie: Czy robot google może przeskanować całą twoją stronę, a nie tylko kilka podstron?

 

Czy Twoja treść jest ukryta za opcją logowania?

Jeżeli wymagasz od użytkowników aby się zalogowali, bądź odpowiedzieli na jakiekolwiek pytanie zanim zobaczą finalną (ważną) treść – to pamiętaj – że prawdopodobnie wyszukiwarki nie zobaczą zahasłowanej treści! Przecież robot crawlujący nie jest w stanie się zalogować aby zobaczyć treści.

 

 

Opierasz stronę na funkcji “szukaj”?

Roboty nie są w stanie używać funkcji szukaj. Część ludzi myśli, że jeśli umieszczą funkcję szukania na swojej stronie internetowej, to roboty crawlujące będą w stanie znaleźć wszystko, czego użytkownicy szukają na tej stronie.

 

Czy Twoja treść jest umieszczona w elementach “non-text”? (obrazy, video, GIF’y)

Elementy non-text czyli obrazy, filmy, gify itd nie powinny być używane w celu wyświetlania treści na stronie, którą chcesz umieścić w indeksie Google. Pomimo tego, że wyszukiwarki są coraz mądrzejsze i coraz to lepiej rozpoznają obrazki, to nie ma 100% gwarancji, że będą w stanie przeczytać i zrozumieć treść, którą umieścisz np. na obrazku. Najlepszym rozwiązaniem jest umieszczenie tekstu w czystym HTMLu.

 

Czy wyszukiwarki mogą podążać za linkami w nawigacji (menu) Twojej strony?

Tak jak crawler musi znaleźć Twoją stronę poprzez odnośniki na innych stronach, tak Ty musisz posiadać odpowiednie odnośniki nawigacyjne na stronie, aby wskazać im drogę. Jeżeli masz stronę, którą chcesz wyświetlać w wynikach wyszukiwania Google i pozyskać na nią ruch, a jednak nie linkujesz do niej z żadnej swojej podstrony – jest ona niemal niewidoczna. Wielu ludzi popełnia błąd krytyczny podczas tworzenia struktury nawigacyjnej w sposób ciężki lub niedostępny dla robotów crawlujących przez co sprawiają, że ich strona nie wyświetli się w wynikach wyszukiwania.

 

Najczęściej popełniane błędy, które sprawiają że roboty crawlujące nie mogą ich znaleźć:

  • Posiadanie innej struktury nawigacji na urządzeniach mobilnych i innej na urządzeniach dekstopowych.
  • Posiadanie jakiekolwiek innej nawigacji nie umieszczonej w znaczniku HTML, np. umieszczonej w JavaScripcie. Google coraz lepiej rozumie JavaScript, jednak wciąż nie jest to w 100% idealny proces. Aby mieć większą pewność, że Google znajdzie, zrozumie i zaindeksuje treść lepiej jest ją umieścić w znacznikach HTML.
  • Pokazanie innej nawigacji użytkownikom, a innej robotom crawlującym.
  • Pominięcie linkowania do strony głównej na stronie przy użyciu nawigacji. Pamiętajmy, że linki to wyznaczone ścieżki dla robotów crawlujących.

Między innymi, biorąc pod uwagę powyższe powody, niezwykle ważne jest, aby Twoja strona miała czystą i przejrzystą strukturę nawigacji.

Czy posiadasz przejrzystą architekturę informacji?

Architektura informacji jest praktyką organizacji i oznaczania treści na stronie internetowej, która ma na celu poprawienie wydajności i łatwości wyszukiwania dla użytkowników. Najlepszą architekturą informacji jest logika i intuicja, oznacza to że użytkownicy Twojej witryny nie powinni głowić się nad znalezieniem na niej odpowiedzi – czyli tego czego szukają (artykułu czy produktu)

Czy wykorzystujesz mapę strony? (sitemapę)

Sitemapa (Mapa strony), jest dokładnie tym jak brzmi. Listą adresów URL Twojej strony internetowej, którą roboty crawlujące mogę przeglądać w celu odnalezienia i indeksacji treści na Twojej stronie www. Jedną z najłatwiejszych sposób aby mieć pewność, że Google znajdzie ważne dla Ciebie i Twoich użytkowników strony jest stworzenie mapy strony (sitemapy) zgodnej ze standardami Google, a następnie zgłoszenie jej wykorzystując Google Search Console. Oczywiście zgłoszenie mapy za pomocą narzędzia GSC nie jest zamiennikiem dla odpowiedniej struktury nawigacyjnej, jednak pomaga robotom crawlujących podążać ścieżką wszystkich ważnych podstron.

Upewnij się że w sitemapie umieściłeś tylko adresy URL, które chcesz aby były indeksowane. Przykładowo nie dodawaj adresów URL, jeżeli są one zablokowane przez robots.txt, mają dyrektywę noindex, sa zduplikowane bądź posiadają adres kanoniczny.

Jeśli Twoja strona nie posiada odnośników z innych stron internetowych (backlinków), wciąż może zostać szybko i sprawnie zaindeksowana gdy zostanie poprawnie zgłoszona w Google Search Console. Nie ma gwarancji, że Google umieści zgłoszone adresy w indexie, jednak… wciąż warto spróbować!

Czy roboty crawlujące dostają błąd zwrotny podczas próby wejścia na Twoje adresy URL?

Podczas procesu crawlowania adresów URL na Twojej stronie internetowej, robot crawlujący może dostać błędy zwrotne. Możesz wejść w Google Search Console, przegląd, “Błędy skanowania” aby znaleźć adresy URL, które potencjalnie mogą taki błąd dostawać – raport z GSC pokaże Ci błędy serwera (server errors) oraz błędy 404 (nie znaleziono). Logi serwera również wykażą Ci takie błędy. Są również skarbnicą innych informacji np. tj. częstotliwość indeksowania (wizyt robota Google na Twojej stronie www). Jednak dostęp do logów serwera to bardziej zaawansowane taktyki – nie będziemy tej kwestii omawiać w poradniku SEO dla początkujących.

Zanim cokolwiek zrobisz z informacjami na temat crawlowania, warto zrozumieć błędy serwera oraz błędy 404 (nie znaleziono).

Błędy 4xx: Gdy roboty crawlujące nie mogą wejść na treść przez błąd klienta

Błędy 4xx są błędami klienta (client errors), oznacza to, że żądany adres URL posiada złą składnię lub żądanie nie można zostać spełnione. Jednym z najczęstszych powodów występowania błędów 4xx, jest błąd 404 – nie znaleziono. Może on oznacza usuniętą stronę, zmianę adresy URL, złe przekierowanie itp. Gdy wyszukiwarka natrafi na błąd 404, nie może wejść na treść. Gdy użytkownik trafi na stronę 404 – może być sfrustrowany i opuścić Twoją stronę.

Błędy 5xx: Gdy robot crawlujący nie może wejść na stronę ze względu na błąd serwera

Błędy 5xx oznaczają, że serwer, na którym znajduje się docelowa strona internetowa, nie spełnił żądania użytkownika lub robota crawlującego. W raporcie crawlowania w GSC znajduje się dedykowana zakłada dla tego typu błędów. Zazwyczaj takie błędy występują, gdy żądanie dla danego adresu URL wygasło (trwało zbyt długo), dlatego robot Google opuścił to żądanie. Przejrzyj dokumentację Google, aby dowiedzieć się więcej o rozwiązywaniu problemów z łącznością z serwerem.

Na szczęście istnieje sposób na poinformowanie wyszukiwarek, że Twoja strona została przeniesiona – przekierowanie 301 (permanentne – trwałe).

Przekierowania 301 obrazek

Powiedzmy, że przenosisz stronę z TWOJADOMENA.pl/bluzy-kobiece/ na TWOJADOMENA.pl/bluzy-dla-kobiet. Wyszukiwarki i użytkownicy potrzebują przejścia ze starego adresu URL na nowy. Przekierowanie 301 jest właśnie tym przejściem

  Kiedy należy wdrożyć 301: Kiedy nie należy wdrożyć 301:
Moc SEO Przekierowuje moc SEO ze starego adresu URL do nowego Bez przekierowanie 301 autorytet starego adresu URL nie jest przekazywany do nowego adresu URL.
Indeksowanie Pomaga Google znaleźć i zaindeksować nową wersję strony. Istnienie błędów 404 na Twojej stronie nie wpływają bezpośrednio na wyniki organiczne jednak, gdy pozwolisz aby ludzie trafiali na strony 404 będzie to dla Ciebie utratą ruchu i pozycji.
UX Zapewnia, że użytkownicy znajdą to czego szukają. Pozwolenie użytkownikom na kliknięcie w nieaktualne adresy URL z błędem zamiast przekierowania do właściwej wersji może być dla nich bardzo frustrujące

Kod 301 oznacza, że strona została trwale przeniesiona do nowej lokalizacji, więc unikaj przekierowywania adresów URL na niepowiązane tematycznie strony – adresy URL, na których treść starego adresu URL nie istnieje. Jeśli strona wyświetla się wysoko w Google dla danego zapytania, a ty wykonasz na niej przekierowanie 301 do adresu URL z inną treścią, jej pozycja może spaść w rankingu, ponieważ tytuł i treść, która spowodowała, że wysoko się wyświetlała – już nie istnieje. Przekierowania 301 są potężne – Używaj ich odpowiedzialnie!

Masz również opcję wykorzystania przekierowania 302, jednak powinno być ono wykorzystane tylko podczas tymczasowych zmian oraz w przypadkach, w których przekazanie mocy strony (link juice) nie stanowi problemu. 302 są trochę jak objazd drogowy. Chwilowo wysysasz ruch przez określoną trasę, jednak nie permanentnie.


UWAŻAJ NA łańcuchy przekierowań!

Może być trudnym dla robota Google aby trafić na daną stronę jeżeli zrobisz łańcuch przekierowań. Google radzi aby zminimalizować łańcuch do minimum. Jeżeli zrobisz przekierowanie z TWOJADOMENA.pl/link1 do TWOJADOMENA.pl/link2 a następnie do TWOJADOMENA.pl/link3, lepiej zredukować przekierowanie pomiędzy i przekierować bezpośrednio TWOJADOMENA.pl/link1 do TWOJADOMENA.pl/link3.

Gdy upewnisz się, że Twoja strona jest zoptymalizowana pod kątem możliwości indeksowania, kolejnym etapem jest… jej zaindeksowanie w Google!

Indexowanie: Jak wyszukiwarki interpretują i przechowują Twoją stronę?

Gdy upewnisz się, że Twoja strona może zostać, lub już została scrawlowana, następnym etapem jest upewnić się, że może zostać zaindeksowana. Zgadza się – tylko dlatego, że Twoja witryna może zostać wykryta i zaindeksowana przez wyszukiwarkę, niekoniecznie oznacza, że zostanie zaindeksowana i będzie przechowywana w indeksie Google. W poprzedniej sekcji poświęconej indeksowaniu omawialiśmy, w jaki sposób wyszukiwarki odkrywają i crawlują strony internetowe. Indeks jest miejscem, w którym przechowywane są odkryte strony. Gdy robot znajdzie stronę, wyszukiwarka renderuje ją tak jak przeglądarka. W ten sposób wyszukiwarka analizuje zawartość tej strony, a wszystkie te informacje są przechowywane w indeksie.

Czytaj dalej, aby dowiedzieć się, jak działa indeksowanie i jak upewnić się, że Twoja witryna znajdzie się w bazie danych Google czyli – indexie

Czy mogę sprawdzić jak robot Google widzi moją stronę?

Tak, wersja strony z pamięci podręcznej cache przedstawi Ci podgląd jak robot Google widział Twoją stronę ostatni raz gdy ją odwiedził.

Google przeszukuje i zapisuje w pamięci podręcznej cache strony w innym odstępie czasowym. Strony internetowe z dużym autorytetem i popularnością jak onet.pl będą znacznie częściej crawlowane w porównaniu do mniej znanych i mniej zaufanych stron i blogów.

Możesz zobaczyć wersję strony z pamięci przeglądarki cache poprzez rozwinięcie menu klikając strzałeczkę obok nazwy domeny, następnie klikając “cached”

Możesz także wyświetlić tekstową wersję witryny, aby ustalić, czy ważna treść jest skutecznie crawlowana i indeksowana.

Czy strony są kiedykolwiek usuwanie z indeksu Google?

Tak! Oczywiście, że strony mogą zostać usunięte z indeksu. Jest kilka przyczyn, przez który adres URL może zostać usunięty z indexu:

  • URL zwraca błąd 404 (nie znaleziono), bądź błąd serwera (5xx) – takie zdarzenie może być przypadkowe( strona została przeniesiona bez zastosowania przekierowania permamentnego 301), lub celowe (strona została usunięte i zwraca błąd 404 w celu usunięcia jej z indexu).
  • Adres URL ma zastosowany tag “noindex” – Taki tag może zostać zastosowany przez właściciela strony w celu poinstruowania wyszukiwarki, aby nie indexowały danego adresu URL
  • Adres URL został ręcznie ukarany za naruszenie wskazówek dla webmasterów w wyniku czego został usunięty z indexu Google.
  • Adres URL został zablokowany przez robotami crawlujący przy użyciu hasła (np. strony logowania)

Jeśli uważasz, że Twoja strona, która była wcześniej w indeksie Google, już się w nim nie znajduje, możesz użyć narzędzia do sprawdzania adresów URL, aby dowiedzieć się o stanie strony, lub użyć narzędzia Pobierz jako Google, które ma funkcję „Poproś o indeksowanie”, aby przesłać poszczególne adresy URL do indeksu. (Bonus: narzędzie „pobierz” w GSC ma również opcję „renderowania”, która pozwala sprawdzić, czy występują problemy z renderowaniem strony przez Google).

Powiedz wyszukiwarkom jak mają indeksować Twoją witrynę


Dyrektywy wpływają na indeksowanie, nie na crawlowanie

Googlebot musi zaindeksować Twoją stronę, aby zobaczyć jej meta-dyrektywy, więc jeśli próbujesz uniemożliwić robotom dostęp do niektórych stron, meta-dyrektywy nie są na to dobrym sposobem . Tagi robotów muszą być indeksowane/zauważone, aby były przestrzegane


Dyrektywy meta dla robotów

Meta dyrektywy (lub “meta tagi = znaczniki meta”) są instrukcjami, które możesz dać wyszukiwarkom w zależności od tego, jak chcesz aby traktowały Twoją stronę internetową.

Możesz powiedzieć wyszukiwarkom np. “Nie indeksuj tej strony w wynikach wyszukiwań” lub “Nie przesyłaj mocy do żadnego linku na tej podstronie”. Te instrukcje są wykonywane przez Znaczniki Meta w znaczniku HTMl Twojej strony (najczęściej używane) lub przez X-Robots-Tag w nagłówku HTTP.

Znaczniki meta dla robotów

Znaczniki meta mogą zostać zaimplementowane w sekcji w HTML’u na Twojej stronie internetowej. Mogą wykluczyć wszystkie lub określone wyszukiwarki. Poniżej przedstawimy najczęściej stosowane meta-dyrektywy wraz z sytuacjami, w których można je zastosować.

index/noindex – informuje wyszukiwarki, czy strona powinna zostać przeszukana i zapisana w indeksie wyszukiwarek do pobrania. Jeśli zdecydujesz się użyć „noindex”, komunikujesz się z robotami indeksującymi, że chcesz wykluczyć stronę z wyników wyszukiwania. Domyślnie wyszukiwarki zakładają, że mogą indeksować wszystkie strony, więc użycie wartości „index” nie jest konieczne.

  • Kiedy można użyć: możesz oznaczyć stronę jako “noindex”, gdy chcesz aby strony z bezwartościowych contentem nie był indeksowane przez wyszukiwarkę, lecz chcesz aby użytkownicy mogli na nie wejść np.: strony profilowe

follow/nofollow – dają znak wyszukiwarkom czy roboty mają podążać “follow” czy nie mają podążać “ofollow” za linkami na tej stronie przekazując moc domeny (“link equity”) dalej przez te adresy URL. Jeżeli wybierzesz “nofollow”, roboty Google nie będą podążać dalej za linkami na danej podstronie, ani nie będą przekazywać przez nie mocy domeny. Domyślnie wszystkie strony posiadają atrybut “follow”.

  • Kiedy można użyć: nofollow jest często używany razem z noindex, gdy próbujesz zapobiec indeksowaniu strony, a także uniemożliwić robotowi podążanie za linkami na stronie.

noarchive służy do ograniczenia przez wyszukiwarki zapisywania kopii strony w pamięci podręcznej. Domyślnie wyszukiwarki zachowają widoczne kopie wszystkich stron, które zaindeksowały, dostępne dla wyszukiwarek poprzez link z pamięci podręcznej w wynikach wyszukiwania.

Kiedy można użyć: Jeśli prowadzisz sklep e-commerce, a Twoje ceny regularnie się zmieniają, możesz rozważyć użycie tagu noarchive, aby zapobiec wyświetlaniu użytkownikom nieaktualnych cen w wynikach wyszukiwania.

Oto przykładowe zastosowanie atrybutu noindex, nofollow:

Ten przykład wyklucza wszystkie wyszukiwarki z indeksowania strony i podążania za linkami na stronie. Jeśli chcesz wykluczyć wiele robotów, na przykład googlebot i bing, możesz używać wielu tagów wykluczania robotów.

Tagi x-robots

Tag x-robots jest używany w nagłówku HTTP twojego adresu URL, zapewniając większą elastyczność i funkcjonalność niż metatagi. Jeśli chcesz blokować dostęp robotom do wybranych stron na dużą skalę,  możesz wykorzystać wyrażenia regularne i blokować pliki inne niż HTML oraz stosować tagi noindex na całej stronie .

Na przykład możesz łatwo wykluczyć całe foldery lub typy plików (np. kgwebs.pl/obrazki/*):

Przykład: Header set X-Robots-Tag “noindex, nofollow”

Lub określone typy plików (np. Pliki PDF):

Header set X-Robots-Tag “noindex, nofollow”

Aby uzyskać więcej informacji na temat metatagów Robot, zapoznaj się ze Specyfikacjami meta tagów Google Robots.


Porada dla użytkowników WordPressa!

W Ustawienia>Czytanie miej pewność, że box „Proś wyszukiwarki o nieindeksowanie tej witryny” jest NIE zaznaczony. Blokuje on dostęp robotom wyszukiwarek do Twojej strony www przez plik robots.txt


Zrozumienie jak różne czynniki wpływają na crawlowanie i indeksowanie pomoże Ci uniknąć typowych problemów, które mogą uniemożliwić odnalezienie robotom ważnych stron.

Pozycje: Jak wyszukiwarki internetowe pozycjonują Twoje adresy URL?

W jaki sposób wyszukiwarki odnajdują właściwą odpowiedź na pytanie szukającego? Proces ten nazywany jest rankingiem lub kolejnością wyników wyszukiwania według najbardziej odpowiednich do najmniej istotnych dla konkretnego zapytania.

Aby określić trafność zapytania, wyszukiwarki wykorzystują algorytmy, procesy, dzięki którym przechowywane informacje są pobierane i porządkowane w logiczny sposób. Algorytmy te przeszły wiele zmian na przestrzeni lat w celu poprawy jakości wyników wyszukiwania. Na przykład Google dokonuje korekt algorytmów każdego dnia – niektóre z tych aktualizacji są drobnymi poprawkami jakości, podczas gdy inne są podstawowymi / szerokimi aktualizacjami algorytmów wdrożonymi w celu rozwiązania określonego problemu, na przykład Penguin w celu usunięcia spamu linkowego. Sprawdź naszą historię zmian algorytmu Google, aby uzyskać listę zarówno potwierdzonych, jak i niepotwierdzonych aktualizacji Google od 2000 roku.

Dlaczego algorytm zmienia się tak często? Chociaż Google nie zawsze ujawnia szczegóły, dlaczego robią to, co robią, wiemy, że celem Google przy dostosowywaniu algorytmów jest poprawa ogólnej jakości wyszukiwania. Dlatego w odpowiedzi na pytania o aktualizację algorytmu, Google odpowie następująco: „Cały czas pracujemy nad jakością wyników wyszukiwań”. Oznacza to, że jeśli Twoja witryna ucierpiała po dostosowaniu algorytmu, porównaj ją ze Wskazówkami dotyczącymi jakości Google, –  są bardzo wymowne, jeśli chodzi o potrzeby wyszukiwarek.

Czego chcą wyszukiwarki?

Wyszukiwarki zawsze chciały tego samego: udzielać właściwych odpowiedzi na pytania szukającego w najbardziej pomocnym formacie. Jeśli to prawda, dlaczego wydaje się, że pozycjonowanie stron różni się teraz niż w poprzednich latach?

Pomyśl o tym jak o osobie uczącej się nowego języka.

Na początku znajomość języka przez tę osobę jest bardzo niewielka lub zerowa. Jednak z czasem zrozumienie nowego języka zaczyna się pogłębiać i uczy się semantyki – znaczenia stojącego za językiem oraz relacji między słowami i frazami. W końcu, przy wystarczającej praktyce, uczeń zna język wystarczająco dobrze, aby nawet zrozumieć niuanse, i jest w stanie udzielić odpowiedzi na nawet niejasne lub niepełne pytania.

Gdy wyszukiwarki dopiero zaczynały się uczyć naszego języka, znacznie łatwiej było ograć system, stosując różnego rodzaju sztuczki, które w rzeczywistości są niezgodne z wytycznymi dotyczącymi jakości. Weźmy na przykład upychanie słów kluczowych. Jeśli chciałeś uzyskać pozycję dla określonego słowa kluczowego, takiego jak „śmieszne żarty”, możesz dodać kilka razy słowa „śmieszne żarty” oraz je “zboldować” (pogrubić) z nadzieją na podniesienie pozycji w rankingu dla tego hasła:

“Witamy w zabawnych dowcipach! Opowiadamy najśmieszniejsze żarty na świecie. Śmieszne żarty są zabawne i szalone. Twój śmieszny żart czeka. Usiądź wygodnie i czytaj śmieszne dowcipy, ponieważ śmieszne żarty mogą sprawić, że będziesz szczęśliwy i zabawny.”

Powyższa taktyka zapewniała okropne doświadczenia użytkowników (UX), ludzie zamiast śmiać się ze śmiesznych żartów, byli bombardowani irytującym i trudnym do odczytania tekstem. Działało to w przeszłości, jednak wyszukiwarki nigdy tego nie chciały.

Rola jaką linki odgrywają w SEO

Kiedy mówimy o linkach, możemy mieć na myśli dwie rzeczy: „linki przychodzące” to linki z innych stron internetowych, które prowadzą do Twojej witryny, podczas gdy “linki wewnętrzne” to linki w Twojej witrynie, które prowadzą do innych stron (w tej samej witrynie).

Patrząc wstecz, linki odgrywały bardzo dużą rolę w SEO. We wczesnych czasach istnienia wyszukiwarek, potrzebowały one pomocy w ustaleniu, które strony internetowe są bardziej wiarygodne i wartościowe od drugich, tak aby mogły one uszeregować organiczne wyniki wyszukiwań. Obliczanie liczby linków prowadzonych do wybranej strony pomagało im w tym.

Backlinki działają bardzo podobnie do poczty pantoflowej w prawdziwym życiu. Weźmy za przykład kawiarnię o nazwie “kawcia u Nati”. :

  • Polecenia od innych – dobra oznaka autorytety 
    • Przykład: Wielu różnych ludzi mówiło, że kawa Natalii jest najlepsza w mieście
  • Polecenia od ciebie = stronnicze, więc nie jest to dobry znak autorytetu 
    • Przykład: Natalia twierdzi, że jej kawa jest najlepsza w mieście
  • Polecenia z nieodpowiednich lub niskiej jakości źródeł = niezbyt dobry znak autorytetu, który może nawet oznaczać Cię jako spam 
    • Przykład: Natalia zapłaciła za to, by ludzie, którzy nigdy nie odwiedzili jej kawiarni, mówili innym, że jej kawa jest najlepsza w mieście.
  • Brak poleceń = niejasny autorytet 
    • Przykład: kawa Natalii może być dobra, ale nie możesz znaleźć nikogo, kto ma opinię, więc nie możesz być tego pewien.

Właśnie dlatego stworzono PageRank. PageRank (część podstawowego algorytmu Google) to algorytm analizy linków nazwany na cześć jednego z założycieli Google, Larry’ego Page’a. PageRank szacuje znaczenie strony internetowej, mierząc jakość i liczbę linków do niej wskazujących. Zakładamy, że im bardziej trafna, ważna i godna zaufania jest strona internetowa, tym więcej linków uzyska.

Im więcej masz naturalnych linków zwrotnych z witryn o wysokim autorytecie (zaufanych), tym większe szanse na wyższą pozycję w wynikach wyszukiwania.

Jaką rolę treści odgrywają w SEO?

Nie byłoby sensu linków, gdyby one nie przekierowywały użytkowników do czegoś. Tym czymś są treści/zawartość strony. Treść to coś więcej niż słowa; jest nimi wszystko co jest konsumowane przez użytkowników – są nimi treści wideo, treści graficzne i oczywiście tekst. Jeśli wyszukiwarki są automatami zgłoszeniowymi, treść jest środkiem, za pomocą którego wyszukiwarki te odpowiedzi udzielają.

Za każdym razem, gdy ktoś przeprowadza wyszukiwanie, istnieją tysiące możliwych wyników, więc w jaki sposób wyszukiwarki decydują, które strony wyszukiwarka uzna za wartościowe? Dużą częścią określania pozycji strony w rankingu dla danego zapytania jest to, jak dobrze treść na stronie odpowiada celowi zapytania. Innymi słowy, czy ta strona jest zgodna z wyszukiwanymi słowami i pomaga spełnić zadanie, które poszukiwacz próbował wykonać?

Ze względu na to, że koncentrujesz się na zadowoleniu użytkowników i wykonywaniu zadań, nie ma ścisłych kryteriów dotyczących tego, jak długo powinna trwać Twoja treść, ile razy powinna zawierać słowo kluczowe, ani co wstawiasz w tagach nagłówka. Wszystkie te kryteria mogą odgrywać rolę w skuteczności strony w wyszukiwaniu, ale należy skupić się na użytkownikach, którzy będą czytać treść.

Dzisiaj, z setkami, a nawet tysiącami sygnałów rankingowych, trzy pierwsze pozostają niezmiennie spójne: linki do Twojej witryny (które służą jako sygnały wiarygodności strony trzeciej), treść na stronie (jakość treści spełniająca zamierzenia osoby szukającej), oraz RankBrain.

Czym jest RankBrain?

RankBrain to element uczenia maszynowego podstawowego algorytmu Google. Uczenie maszynowe to program komputerowy, który z czasem poprawia swoje przewidywania dzięki nowym analizom zachowań użytkowników. Innymi słowy, zawsze się uczy, a ponieważ zawsze się uczy, jakość i precyzja wyników wyszukiwania z dnia na dzień się poprawia.

Na przykład, jeśli RankBrain zauważy niższy ranking URL zapewniający lepszy wynik dla użytkowników, niż adresy URL wyższego rankingu, możesz się założyć, że RankBrain dostosuje te wyniki, przenosząc bardziej trafny wynik wyżej i obniżając liczbę mniej istotnych stron, jako produktu ubocznego.

Podobnie jak teraz, w przypadku wyszukiwarki, nie wiemy dokładnie, co wchodzi w skład RankBrain, ale najwyraźniej ludzie w Google też nie.

Co to oznacza dla SEO?

Ponieważ Google będzie nadal wykorzystywać RankBrain do promowania najbardziej trafnych i pomocnych treści, musimy bardziej niż kiedykolwiek wcześniej skoncentrować się na spełnianiu celów użytkowników. Zapewnij możliwie najlepsze i najbardziej trafne informacje i doświadczenia dla użytkowników odwiedzających Twoją witrynę. Jeżeli o to zadbałeś – gratuluję! Wykonałeś pierwszy duży krok osiągnięcia dobrych wyników w RankBrain.

Wskaźniki zaangażowania: korelacja, związek przyczynowy czy oba?

W rankingach Google, wskaźniki zaangażowania najprawdopodobniej częściowo korelują, a częściowo są związkiem przyczynowym.

Gdy mówimy o danych dotyczących zaangażowania, mamy na myśli dane reprezentujące sposób, w jaki użytkownicy korzystają z Twojej witryny na podstawie wyników wyszukiwania.
Obejmuje to między innymi:

  • Kliknięcia (odwiedziny z wyszukiwania)
  • Czas na stronie (czas, jaki odwiedzający spędził na stronie przed jej opuszczeniem)
  • Współczynnik odrzuceń (procent wszystkich sesji witryny, w których użytkownicy oglądali tylko jedną stronę)
  • Pogo-sticking (kliknięcie wyniku organicznego, a następnie szybki powrót do SERP, aby wybrać inny wynik)

Wiele testów, wykazało, że wskaźniki zaangażowania korelują z wyższym rankingiem, jednak związek przyczynowy był przedmiotem gorących dyskusji. Czy dobre wskaźniki zaangażowania wskazują tylko na witryny o wysokiej pozycji? Czy witryny są wysoko w rankingu, ponieważ mają dobre wskaźniki zaangażowania?

Co powiedziało Google

Chociaż nigdy nie używali terminu „bezpośredni czynnik rankingowy”, Google jasno stwierdził, że wykorzystuje dane na temat kliknięć do modyfikowania wyników organicznych SERP dla określonych zapytań.

Według byłego szefa Google ds. Jakości wyszukiwania Udi Manbera:

„Na sam ranking wpływ mają dane kliknięcia. Jeśli odkryjemy, że w przypadku konkretnego zapytania 80% osób klika # 2, a tylko 10% klika # 1, po chwili stwierdzimy, że prawdopodobnie 2 jest tym, czego ludzie chcą, więc zmienimy go. ”

Kolejny komentarz byłego inżyniera Google Edmonda Lau to potwierdza :

„Jest całkiem jasne, że jakakolwiek rozsądna wyszukiwarka użyłaby danych o kliknięciach do własnych wyników, aby wrócić do rankingu w celu poprawy jakości wyników wyszukiwania. Rzeczywista mechanika wykorzystywania danych o kliknięciach jest często zastrzeżona, ale Google wyraźnie pokazuje, że wykorzystuje dane o kliknięciach w swoich patentach w systemach takich jak elementy treści z korekcją rangi. ”

Ponieważ Google cały czas musi poprawiać jakość wyszukiwania, wydaje się nieuniknione, że wskaźniki zaangażowania są czymś więcej niż korelacją, ale wydaje się, że Google nie nazywa wskaźników zaangażowania „sygnałem rankingowym”, ponieważ są one używane do poprawy jakości wyszukiwania, a ranking poszczególnych adresów URL jest tego produktem ubocznym.

Co potwierdzono testami

Różne testy potwierdziły, że Google dostosuje kolejność SERP w odpowiedzi na zaangażowanie wyszukiwarki:

  • Test Randa Fishkina z 2014 roku spowodował, że wynik nr 7 przesunął się na pierwsze miejsce po przekonaniu około 200 osób do kliknięcia adresu URL w wynikach wyszukiwań. Co ciekawe, poprawa rankingu wydawała się być odizolowana od lokalizacji osób, które odwiedziły link. Pozycja w rankingu wzrosła w Stanach Zjednoczonych, gdzie znajdowało się wielu uczestników, podczas gdy pozostała niższa na stronie w Google Canada, Google Australia itp.
  • Porównanie najlepszych stron przez Larry’ego Kima i ich średni czas przebywania przed i po RankBrain, wydawało się wskazywać, że element uczenia maszynowego algorytmu Google obniża pozycję w rankingu stron, na których ludzie nie spędzają tyle czasu.
  • Testy Darrena Shawa wykazały również wpływ zachowania użytkowników na wyniki wyszukiwania lokalnego i wyniki pakietu map.

Wskaźniki zaangażowania użytkowników (UX) są wyraźnie wykorzystywane przez wyszukiwarki do dostosowania wyników organicznych w celu poprawy jakości i pozycjonowania zmian pozycji jako produktu ubocznego, można śmiało powiedzieć, że SEOwcy powinni również optymalizować strony pod kątem zaangażowania. Zaangażowanie nie zmienia obiektywnej jakości strony internetowej, raczej poprawia wartość dla użytkowników w porównaniu z innymi wynikami w Google dla tego zapytania. Właśnie dlatego, po braku zmian na stronie lub braku linków zwrotnych (backlinków), może ona spaść w rankingu, jeśli zachowania użytkowników wskazują, że preferują odwiedzać i przeglądać inne strony (Twoich konkurentów).

Jeśli chodzi o ranking stron internetowych, wskaźniki zaangażowania działają jak sprawdzanie faktów. Czynniki obiektywne, takie jak linki i treść, zajmują pierwsze miejsce na stronie, a następnie wskaźniki zaangażowania pomagają Google finalnie doprecyzować i wyświetlić najbardziej trafne wyniki

Ewolucja wyników wyszukiwań

W czasach, gdy wyszukiwarkom brakowało wyrafinowania, jakie mają dzisiaj, termin „10 niebieskich linków” został wymyślony w celu opisania płaskiej struktury SERP. Za każdym razem, gdy przeprowadzono wyszukiwanie, Google zwraca stronę z 10 bezpłatnymi wynikami, każdy w tym samym formacie.

W tym krajobrazie poszukiwań, miejsce nr 1 było świętym graalem pozycjonowania stron. Jednak później nagle… coś się zmieniło. Google zaczął dodawać wyniki w nowych formatach na swoich stronach wyników wyszukiwania, zwane dodatkami czy funkcjami SERP. Niektóre z tych funkcji SERP obejmują:

  • Reklamy płatne
  • Featured snippets
  • People Also Ask boxes
  • Local (map) pack
  • Knowledge panel
  • Sitelinks

Google wciąż się rozwija i ewoluuje udoskonalając dodatki i co jakiś czas dodaje nowe. Eksperymentowali nawet z „SERP o zerowym wyniku”, zjawiskiem, w którym tylko jeden wynik istnieje bez żadnych wyników poniżej, z wyjątkiem opcji „zobacz więcej wyników”.

Dodanie tych funkcji wywołało początkową panikę z dwóch głównych powodów. Po pierwsze, wiele z tych funkcji spowodowało, że wyniki organiczne zostały zepchnięte na kolejny plan. Innym skutkiem ubocznym jest to, że mniej użytkowników klika wyniki organiczne, ponieważ znajdują oni odpowiedź bezpośrednio w wyszukiwarce

Dlaczego Google miałby to zrobić? Wszystko wraca do wyszukiwania. Zachowanie użytkownika wskazuje, że niektóre zapytania są lepiej zaspokajane przez różne formaty treści. Zauważ, jak różne typy funkcji SERP pasują do różnych typów zamiarów zapytań.

Cel zapytania Możliwy dodatek SERP (Feature Snippet), który się wyświetli
Informacyjne Dodatek feature snippet
Informacyjne z jednym wynikiem Knowledge Graph / instant answer
Lokalne Mapka
Transakycjne Reklamy shopping ads

W rozdziale 3 porozmawiamy więcej o zamiarach, jednak aktualnie ważne jest, aby wiedzieć, że odpowiedzi mogą być udzielane osobom szukającym w wielu różnych formatach, a sposób, w jaki tworzysz treść, może wpływać na format, w jakim będą one wyświetlane w wynikach wyszukiwania.

Lokalne wyszukiwanie

Wyszukiwarka taka jak Google ma własny indeks wykazów firm lokalnych, na podstawie którego tworzy wyniki wyszukiwania lokalnego.

Jeśli wykonujesz lokalne SEO dla firmy, która ma fizyczną lokalizację, i którą klienci mogą odwiedzić (np. dentystę czy prawnika) lub dla firmy, która podróżuje, aby odwiedzić swoich klientów (np. hydraulik), upewnij się, że zweryfikujesz i zoptymalizujesz bezpłatne wpisy w Google Moja Firma.

Jeśli chodzi o lokalne wyniki wyszukiwania, Google wykorzystuje trzy główne czynniki do ustalenia rankingu:

  • Stosowność
  • Dystans
  • Rozgłos

Związek z tematem (trafność)

Trafność polega na tym, jak dobrze lokalna firma odpowiada temu, czego szuka użytkownik. Aby upewnić się, że firma robi wszystko, co w jej mocy, aby była odpowiednia dla wyszukiwarek, upewnij się, że informacje o firmie są dokładnie i rzetelnie uzupełnione.

Dystans

Google wykorzystuje Twoją lokalizację geograficzną, aby lepiej wyświetlać wyniki lokalne. Lokalne wyniki wyszukiwania są bardzo wrażliwe na bliskość, która odnosi się do lokalizacji użytkownika i / lub lokalizacji określonej w zapytaniu (jeśli wyszukiwarka ją zawierała np. hydraulik Kraków).

Organiczne wyniki wyszukiwania są wrażliwe na lokalizację wyszukiwarki, choć rzadko tak wyraźne, jak w wynikach pakietu lokalnego (mapce Google z wynikami lokalnymi).

Celność

Wyróżniając się jako czynnik, Google chce nagradzać dobrze znane znane firmy w realnym świecie. Oprócz znaczenia firmy w trybie offline, Google sprawdza również niektóre czynniki online w celu ustalenia lokalnego rankingu, takie jak:,

Opinie

Liczba recenzji Google, które otrzyma lokalna firma ma znaczący wpływ na ich pozycję w lokalnych wynikach wyszukiwania.

Wzmianki/odniesienia o firmie

„wzmianki o firmie” lub „wykaz firm” to internetowe odwołanie do lokalnego „NAP” (nazwa, adres, numer telefonu) lokalnej firmy na zlokalizowanej platformie (Yelp, Acxiom, YP, Infogroup, Localeze itp.) .

Na lokalne rankingi wpływa liczba i spójność cytatów z lokalnych firm. Google pobiera dane z wielu różnych źródeł w celu ciągłego tworzenia indeksu lokalnych firm. Gdy Google znajdzie wiele spójnych odniesień do nazwy firmy, lokalizacji i numeru telefonu, wzmacnia to „zaufanie” Google do tego jak ważne są te dane. Prowadzi to następnie do tego, że Google jest w stanie pokazać firmę z większym stopniem pewności. Google wykorzystuje również informacje z innych źródeł w Internecie, takich jak linki i artykuły.

Ranking organiczny

Najlepsze praktyki SEO dotyczą również lokalnego pozycjonowania, ponieważ Google określa pozycję witryny w bezpłatnych wynikach wyszukiwania przy ustalaniu lokalnego rankingu.

Lokalne zaangażowanie

Chociaż nie jest wymieniony przez Google jako lokalny czynnik rankingowy, rola zaangażowania będzie się zwiększać w miarę upływu czasu. Google nadal wzbogaca wyniki lokalne, uwzględniając rzeczywiste dane, takie jak popularne czasy odwiedzin i średnia długość odwiedzin …

… a nawet zapewnia osobom wyszukującym możliwość zadawania pytań odnośnie tej firmy!

Niewątpliwie teraz bardziej niż kiedykolwiek wcześniej na wyniki lokalne wpływ mają rzeczywiste dane. Ta interaktywność polega na tym, w jaki sposób użytkownicy wchodzą w interakcje z lokalnymi firmami i reagują na nie, a nie wyłącznie na informacje statyczne, takie jak linki i wzmianki.

Ponieważ Google chce dostarczać wyszukiwarkom najlepsze, najtrafniejsze lokalne firmy, warto w nich korzystać z wskaźników zaangażowania w czasie rzeczywistym, aby określić jakość i trafność.

Co ma wpływ na pozycjonowanie stron w Google? Podsumowanie

Google wykorzystuje ponad 200 różnych czynników rankingowych w celu,
wyświetlenia strony na konkretnych pozycjach za pomocą procesu nazywanym pozycjonowaniem.

Jednak jest w tym haczyk. Nie wszystkie z tych czynników są równie ważne. Niektóre mają znacznie większe impakt na SEO w stosunku do drugich.

Poniżej przedstawię te, które są niemal elementarnymi fundamentami skutecznego pozycjonowania strony internetowej.

Nagłówek H1 to kolejny czynnik trafności, służący jako opis zawartości stron. Pomimo toczącej się dyskusji na temat jego znaczenia, nadal bardzo dobrą
i skuteczną praktyką jest umieszczanie słowa kluczowego w unikalnym tagu H1 na stronie.

Słowo kluczowe w tytułe ()

Meta tag tytułowy (tytuł strony prościej mówiąc) jest jednym z najsilniejszych sygnałów i najważniejszych dla wyszukiwarki. Sam title tag służy do dokładnego opisu zawartości stron. Wyszukiwarki używają go do wyświetlania głównego tytułu wyniku wyszukiwania. Umieszczenie w nim słowa kluczowego wskaże zarówno wyszukiwarce, jak i użytkownikowi, tematyczność danej podstrony oraz co się na niej znajduje.

Stosunkowo, najlepszym rozwiązaniem podczas jest umieszczenie słowa kluczowego na początku tytułu. W teorii strony z taką techniką optymalizacji tytułów mają szanse na uzyskanie lepszej pozycji niż strony, których słowa kluczowe używają na końcu takiego tytułu. JEDNAK należy pamiętać, że pozycjonowanie stron oraz sam Google coraz bardziej ewoluuje i coraz bardziej rozumie treści. Powyższa technika z pewnością działa jednak śmiało mogę stwierdzić, że nie jest to aż tak istotne jak było jeszcze rok temu.

Słowo kluczowe w meta description

Meta tag tytułowy (tytuł strony prościej mówiąc) jest jednym z najsilniejszych sygnałów i najważniejszych dla wyszukiwarki. Sam title tag służy do dokładnego opisu zawartości stron. Wyszukiwarki używają go do wyświetlania głównego tytułu wyniku wyszukiwania. Umieszczenie w nim słowa kluczowego wskaże zarówno wyszukiwarce, jak i użytkownikowi, tematyczność danej podstrony oraz co się na niej znajduje.

Słowo kluczowe w nagłówku H1

Nagłówek H1 to kolejny czynnik trafności, służący jako opis zawartości stron. Pomimo toczącej się dyskusji na temat jego znaczenia, nadal bardzo dobrą i skuteczną praktyką jest umieszczanie słowa kluczowego w unikalnym tagu H1 na stronie

Zagęszczenie słów kluczowych w treści strony

Jeszcze do niedawna wypychanie strony słowami kluczowymi (keyword stuffing) było skutecznym sposobem na pozycjonowanie strony i zwiększenia jej pozycji w rankingu dla danego słowa kluczowego. Jednak to już przeszłość. Warto spróbować zagęścić artykuł wartościowymi słowami kluczowymi (świetnie to działa), jednak należy to robić umiejętnie i z głową tak aby tekst wciąż był wartościowy i czytelny.

Długość artykułu/treści.

Pozycjonowanie stron, w gruncie rzeczy głównie opiera się na treści. Przecież google to maszyna odpowiadająca na pytania za pomocą… treści!. Przeszukując sieć. internauci chcą konsumować informację i wiedzę, dlatego z pewnością nie będą zadowoleni z krótkich i mało wartościowych artykułów (thin content). Z tego powodu Google szuka autorytatywnych i informacyjnych treści, które zajmą pierwsze miejsce. Nieprawdą jest, że im dłuższa treść, tym nasze szanse na zdobycie wysokich pozycji znacznie rosną. Treści należy pisać tak, aby wyczerpywały temat i były użyteczne dla użytkowników. Oczywistym jest również fakt, że konkurent posiadający tekst na 20 000 znaków, ma znacznie większe szanse na zdobycie wysokich pozycji, gdy napiszemy podobny artykuł, tylko na 2500 znaków. Dlatego nie wahaj się pisać długich, ale bardzo przydatnych tekstów.

Plagiaty treści (zduplikowana treść)

Nie wszystkie czynniki rankingowe pozytywnie wpływają na widoczność i pozycje strony internetowej. Posiadanie skopiowanej lub podobnej zawartości na różnych stronach może w rzeczywistości pozycjonowanie stron w ten sposób zaszkodzić Twojej stronie dlatego unikaj powielania treści i staraj się pisać unikalne teksty na każdą swoją podstronę czy kategorię w sklepie.

Linki kanoniczne (canonical)

Czasami bywa i tak, że nie jesteśmy w stanie uniknąć posiadania dwóch, trzech a nawet pięciu adresów URL o tej samej lub bardzo podobnej treści. Jednym ze sposobów na rozwiązanie tego problemu jest zastosowanie linków kanonicznych. Ten tag wdraża jedną prostą rzecz; informuje Google, że jeden adres URL jest równoważny drugiemu, wyraźnie stwierdzając, że pomimo dwóch stron o tej samej treści, w rzeczywistości są one jednym.

Optymalizacja obrazków

Rzeczy wymagające optymalizacji pod kątem SEO to nie tylko treści. Ba! Jestem w stanie stwierdzić, że obrazki potrafią więcej napsuć niż wnieść do projektu. Bardzo często ludzie wrzucając obrazki na stronę, nie zmniejszają ich i nie kompresują. Wyobraźmy sobie, że zamieszczając na stronie obrazek ważący 5mb, gdy cała nasza strona waży maksymalnie 1mb podczas ładowania. Pomyślmy teraz o prędkości strony – która również jest czynnikiem rankingowym. Dodatkowo, poprawnie zoptymalizowane obrazy mogą wysyłać sygnały trafności wyszukiwarkom np. poprzez wykorzystanie opisów alternatywnych (altów).

Aktualizacja treści

Algorytm Google preferuje i lubi świeże, aktualne lub zaktualizowane treści. Nie oznacza to, że musisz cały czas edytować teksty na swojej stronie. Uważam, że w przypadku stron e-commerce, takich jak opisy produktów, Google uznaje fakt, że nie są one tak wrażliwe na czas, jak artykuły na blogach dotyczące ostatnich wydarzeń. Rozsądne jest jednak włączenie strategii aktualizacji niektórych rodzajów treści np co 6-12-18 miesięcy.

Linki wychodzące

Linkowanie do wiarygodnych stron wysyła sygnał zaufania do wyszukiwarki. Pomyśl o tym w ten sposób: jedynym powodem, dla którego odeślesz użytkownika do innej witryny jest to, że chcesz, aby dowiedział się on więcej na określony temat. Może to być ogromny czynnik zaufania dla Google. Jednak pamiętaj, że zbyt wiele linków wychodzących może znacznie ograniczyć przepływ link juice i PageRank strony, powodując spadek pozycji.. Linki wychodzące mogą wpływać na twoje pozycje.

Wewnętrzne linkowanie

strony z linkami w obrębie Twojej witryny mogą przenosić między nimi swoją siłę. Jest to świetna metoda na poprawienie crawl budgetu oraz doświadczeń użytkowników na witrynie.

Słowo kluczowe w adresie URL

Dołączenie słowa kluczowego do informacji o adresie URL (ten fragment, który pojawia się po części „.pl /” adresu URL) wysyła kolejny sygnał trafności do Google. Jednak nie należy przesadzać z jego długością. Przykładowo dla poradnika SEO wystarczy adres url: “/poradnik-seo”

Mapa strony (Sitemap XML)

Mapa witryny pomaga wyszukiwarce w indeksowaniu wszystkich stron w witrynie. Jest to najprostszy i najskuteczniejszy sposób przyspieszenia indeksacji oraz poinformowania Google, jakie strony zawiera Twoja witryna.

Zaufanie i autorytet domeny

zaufanie i autorytet mają bardzo duże znaczenie podczas pozycjonowania strony. Logicznym jest, że strony , którym ufa Google, zajmują wysokie pozycje. Jednak w jaki sposób to zaufanie? Brian z Backlinko ma tutaj pełną listę czynników zaufania. Nie trzeba dodawać, że budowanie czynników zaufania w Twojej domenie z pewnością zaowocuje.

Jak Google ustala kolejność wyników organicznych?

Czasami (a nawet i często) może zdarzyć się, że wyszukamy dane słowo kluczowe w wyszukiwarce Google na dwóch bądź nawet trzech różnych urządzeniach
i otrzymamy różne wyniki. Na takie zdarzenie wpływ może mieć kilka czynników tj. aktualna lokalizacja (przede wszystkim dla wyszukiwań lokalnych) czy urządzenie, z którego aktualnie korzystamy.

Jednak pytanie brzmi: jakie czynniki mają największy wpływ na różnorodne wyniki podczas pozycjonowania stron?

Indywidualne preferencje
użytkowników

W dobie coraz to nowocześniejszego marketingu i możliwości technologicznych, reklamodawcy chcą dostarczyć nam jak najbardziej dopasowane reklamy do naszych indywidualnych preferencji. W przypadku Google jest dokładnie tak samo. Gdy będziemy korzystać z Google podczas gdy jesteśmy zalogowani na swoje konto Gmail, wyniki wyszukiwania zarówno płatne jak i organiczne, mogą być bardziej dopasowane do naszej indywidualnej historii wyszukiwania czyli tzw. indywidualnych preferencji.

Dlatego gdy chcemy sprawdzić manualnie na jakiej pozycji znajduje się aktualnie nasza strona internetowa należy to zrobić wykorzystując albo inną przeglądarkę albo (najlepiej) wykorzystać tryb incognito. Używając tego trybu nie posiadamy ani ciasteczek (plików cookies) ani historii przeglądania dzięki czemu wyniki są najbardziej rzeczywiste.

Pozycjonowanie stron - rezultaty działań

Pozycjonowanie a frazy lokalizacyjne i geolokalizacja

Różnice wyników wyszukiwania w Google powoduje lokalizacja, z której wysyłamy zapytania do Google (zwłaszcza dla zapytań lokalizacyjnych jak pozycjonowanie stron Kraków czy hydraulik Kraków). Jednak to nie wszystko. Dokładnie tak samo dzieje się w przypadku wpisywania ogólnych słów kluczowych jak fryzjer czy hydraulik. Przykładowo, będąc w Krakowie wpiszemy hydraulik – Google pokaże nam firmy hydrauliczne znajdujące się na terenie Krakowa, jednak gdy zrobimy to w Gdańsku – to z Gdańska.

Warto również wspomnieć, że użytkownicy korzystający ze smartfonów (a jest ich aktualnie bardzo dużo i ta liczba wciąż rośnie) mogą dostać bardzo precyzyjnie stargetowane reklamy od sklepów, czy usług znajdujących się najbliżej Twojej okolicy. Dzieje się to przez śledzenie lokalizacji za pomocą nadajników telekomunikacyjnych

Pozycjonowanie a pliki Cookies – ciasteczka w SEO

Pewnie zwróciłeś uwagę na wyświetlaną na większości stron www informację “akceptuję politykę prywatności”, bądź po prostu “ciasteczka”. Są to właśnie małe pliki zapisywane na komputerze przez przeglądarkę zawierające podstawowe dane na temat Twojego zachowania w Internecie, jak i aktywność każdego innego użytkownika. Są wykorzystywane do wyświetlania zawartości strony wg indywidualnych preferencji, a w tym i reklam. Właśnie dzięki nim, gdy przez 1h szukamy butów w sieci, to przez kolejny tydzień reklamy butów napotykamy na zdecydowanej większości odwiedzanych przez siebie stron.

Dlaczego pozycjonowanie stron internetowych jest ważne?

Podczas gdy płatne reklamy, media społecznościowe oraz inne platformy internetowe mogą generować ruch na stronach internetowych, większość ruchu online jest napędzana przez wyszukiwarki.

Organiczne (bezpłatne) wyniki wyszukiwania (czyli te osiągnięte z pozycjonowania strony) wydają się bardziej wiarygodne dla doświadczonych użytkowników i uzyskują znacznie więcej kliknięć niż płatne reklamy. Na przykład spośród wszystkich wyszukiwań w USA, tylko ok. 2,8% osób klika w płatne reklamy. W skrócie SEO ma około 20 krotnie większy potencjał ruchu niż płatne reklamy PPC zarówno na urządzeniach mobilnych jak i komputerach.

Pozycjonowanie stron internetowych oraz optymalizacja (SEO) to także jeden z niewielu kanałów marketingu internetowego, który przy prawidłowym skonfigurowaniu, z czasem nadal przynosi zyski. Jeśli dostarczysz solidną i wartościową treść, która posiada wiele odpowiednich słów kluczowych, ruch może z czasem wzrosnąć, podczas gdy płatna reklama wymaga ciągłego finansowania, abyś mógł pozyskiwać z niej ruch.

Wyszukiwarki są coraz mądrzejsze i coraz bardziej udoskonalane, jednak wciąż potrzebują naszej pomocy.

Optymalizacja witryny pod kątem wyszukiwarek pomaga dostarczać lepsze informacje do wyszukiwarek, dzięki czemu treści będą odpowiednio indeksowane i wyświetlane w organicznych wynikach wyszukiwania Google.

Jak długo należy czekać na efekty pozycjonowania strony?

To pytanie jest jednym z najczęściej zadawanych pytań dotyczących działań SEO. Odpowiedź jednakże nie jest taka prosta, ponieważ optymalizowanie stron internetowych pod kątem wyszukiwarek jest bardzo złożonym procesem. W pewnym sensie działania SEO dają natychmiastowy efekt, w postaci ulepszonego i bardziej wartościowego kontentu, lepszej organizacji strony, czy dobrej bazy linków, jednak większość klientów oczekuje tak naprawdę jednego, czyli pierwszego miejsca w wynikach wyszukiwania Google.

Istnieje wiele różnych czynników, które wpływają na to, kiedy strona zaczyna być coraz bardziej zauważalna przez Google. Działania pozycjonowania stron internetowych to nieustanny ruch i zmienna, ponieważ Google oficjalnie podaje, że zmienia swoje algorytmy około 600 razy w ciągu roku. Tak częste zmiany wymagają ciągłej adaptacji i elastyczności działań, dlatego pozycjonowanie stron www to działanie długodystansowe, a nie sprint. Jeżeli skusimy się na szybkie i spektakularne wyniki (Black Hat SEO), to z pewnością stracimy na tym nie tylko czas, ale także i pieniądze. Nie da się wypozycjonować strony w tydzień, czy miesiąc. Owszem, po kilkunastu tygodniach pierwszych działań, mogą być widoczne jakieś różnice, jednakże optymalnym czasem, w którym można spodziewać się lepszych wyników jest około 6 miesięcy.

Optymalne wyniki jakości pozycjonowania powinny być widoczne po 9-12 miesiącach działań SEO. Dlatego też pozycjonowanie strony powinniśmy brać jako długofalową inwestycję, a nie szybki strzał, który być może zapewni nam zwycięstwo. Konsekwentne, jednostajne i systematyczne działania stopniowo budują coraz wyższą pozycje danej strony w wyszukiwarkach, dlatego efekty działań SEO widoczne są dopiero po jakimś czasie. Przyspieszanie tego procesu kończy się karami od Google, dlatego warto wykazać się cierpliwością i stopniowo oraz konsekwentnie budować pozycję swojej witryny.

Co Google twierdzi na temat pozycjonowania stron?

Matt Cutts na powyższym video bardzo fajnie opisuje co dokładnie Google myśli na temat SEO i czy uznaje je za SPAM. Odpowiedź z góry jest NIE. Google nie traktuje optymalizacji (SEO) jako spam. Jak sama nazwa wskazuje, SEO oznacza optymalizację pod kątem wyszukiwarek co w zasadzie samo z siebie mówi, że właściciele stron internetowych mogą starać się udoskonalić swoją stronę tak aby była jak najlepiej prezentowana w wynikach organicznych Google.

  • możesz upewnić się, że Twoja strona jest dostępna dla robotów i indeksowalna, tak aby ludzie klikając w adres URL mogli na nią wejść
  • możesz upewnić się że wykorzystujesz poprawne i dobrze stargetowane słowa kluczowe. Jeżeli używasz przykładowo żargonu biznesowego, to poprawną analizą będziesz mógł dostrzec, że w rzeczywistości to nie te słowa kluczowe miałeś na myśli (tak samo Twoi odbiorcy)
  • możesz pomyśleć aby przyspieszyć swoją stronę internetową. Nie jest to jedyny czynnik rankingowy w Google, jednak jeśli sprawisz że Twoja strona stanie się szybsza, będzie to również również wpływało na doświadczenia użytkowników (UX)

Właśnie dlatego jest masa rzeczy które SEOwcy robią.

 

 

No Comments

Napisz komentarz