Trochę teorii o czarnym kapeluszu 🙂 W tym artykule postaram się wyjaśnić kilka podstawowych terminów związanych z działaniami Black Hat SEO.

Link farm

Link farm (farma linków) to strona zawierająca bardzo dużą ilość linków wychodzących. Odnośniki na tej stronie prowadzą do pozycjonowanych stron. Strony tego typu są rodzajem zaplecza pozycjonującego, najczęściej są tworzone automatycznie za pomocą programów do BHS i nie zawierają wartościowej treści. Farma linków jest formą spamowania indeksu wyszukiwarki.

Głównym zadaniem farm linków było podniesienie pozycji stron – serwis do którego prowadzi duża ilość odnośników zajmuje wyższe pozycje w SERPach. Aktualnie opisany wyżej sposób linkowania jest łatwo wychwytywany przez algorytmy, dlatego jest już bezwartościowy i nie wpływa korzystnie na pozycjonowanie strony. Co więcej, nawet programy do automatycznego link buildingu mają już opcje pozwalającą na omijanie stron będących farmami linków. Poniżej zrzut ekranu z ustawień filtrów w programie GSA Search Engine Ranker:

GSA-SER-filtry

Widok okna ustawień projektu z programu GSA Search Engine Ranker

Hidden text

Hidden text to technika polegająca na ukrywaniu wybranej treści, co powoduje, że użytkownicy strony jej nie widzą, jednak jest ona widoczna przez roboty wyszukiwarek. Najprostszym sposobem na ukrycie tekstu jest ustawienie takiego samego koloru czcionki i tła, lub stosowanie odpowiednich stylów CSS by ukryć wybrany element lub nałożyć na niego kolejne warstwy. Ukryty tekst jest identyfikowany przez wszystkie główne wyszukiwarki jako spam. Google oficjalnie informuje o tym, że nie indeksuje plików CSS, jednak sprawdza je przy sprawdzaniu ukrytego tekstu, o czym możemy przeczytać w licznych wideo-poradnikach i czatach z pracownikami tej firmy (ihttp://seoshrugged.com/2015/11/30/does-google-crawl-css-displaynone-content/, https://www.seroundtable.com/archives/017470.html)

Przykład-ukrytego-tekstu

Przykład ukrytego tekstu – odnośnik, który jest tego samego koloru co tło

Keyword stuffing

Keyword stuffing jest uważane za nieetyczną technikę optymalizacji. Technika ta polega na upychaniu słów kluczowych zarówno w znacznikach meta strony (meta keywords, meta description), jak i w treści strony widocznej dla użytkowników. Bardzo częste stosowanie powtarzających się słów kluczowych w meta tagach, które nie zawsze pokrywały się z tematyką danej strony, spowodowało że czołowe wyszukiwarki przy ocenianiu strony przestały zwracać uwagę na te parametry, dlatego nie ma już potrzeby ich używania. Stosowanie dużej ilości słów kluczowych w znacznikach meta keywords obecnie wpływa negatywnie na pozycję strony.

Nieco inaczej wygląda natomiast sytuacja z treścią widoczną bezpośrednio dla użytkownika. Teksty o dużym nasyceniu słów kluczowych dla użytkownika wyglądają nienaturalnie, jednak algorytmy wyszukiwarek wciąż nie radzą sobie z wykrywaniem stosowania tej techniki.

Przyklad-keyword-stuffing

Przykład stosowania keyword stuffig (www.hydraulik.poznan.pl) – 1 wynik na hasło „hydraulik Poznań”

Kolejny przykład spamowej strony, która ma się dobrze i rankuje w Google to twarowski.net

Raport pozycji strony www.hydraulik.poznan.pl

Raport pozycji strony www.hydraulik.poznan.pl w oparciu o wyniki z platformy SEMSTORM.com

Twarowski.net-przyklad-keyword-stuffing

Przykład keyword stuffingu na stronie twarowski.net, leczeniebarku.waw.pl, rwakulszowa.waw.pl

Twarowski.net-analiza-z-senuto

twarowski.net – analiza z SENUTO (dane z 31.10.2017)

Twarowski.net-analiza-z-semstorm

twarowski.net – analiza z SEMSTORM (dane z 31.10.2017)

Jak widać drugim przykładzie (Twarowski), można mieć stronę w ogóle nie zoptymalizowaną, która nie trzymie się żadnych standardów, a i tak rankuje. Tak w skrócie: strona ta nie jest responsywną, ma wielokrotnie za długi tytuł, description, używa keywordsów, a keywords stuffing występuje w każdym możliwym miejscu, do tego jest w ogóle nie zoptymalizowana i napisana kodem rodem z lat 90 (całość oparta na tabelkach). PS. Polecam obejrzeć film na samym dole strony 😀

Powyższe strony są idealnym dowodem na to, że SEO to brak całkowitej logiki w działaniu algorytmów Google i czasami “mniej schematyczne” działania przynoszą efekty 😉

Redirect

Redirect to przekierowanie użytkownika na inną witrynę. Istnieje bardzo wiele metod na ustawienie przekierowania. Dawniej często spotykane było przekierowanie w HTML lub JavaScript, co pozwalało na manipulację wynikami, bowiem przeglądarki ich nie interpretowały, a użytkownik po odwiedzeniu takiej witryny zostawał automatycznie przenoszony pod inny adres. Pozycjonerzy specjalnie przygotowali optymalną stronę, która szybko zajmowała wysokie pozycje. Główne sposoby przekierowań wraz z przykładami:

stosowanie metatagów refresh w kodzie HTML

<meta http-equiv="refresh" content="0; url=https://strona-docelowa.pl/" />

Przekierowanie w JavaScript

<script type="text/javascript">
  window.location.href='https://strona-docelowa.pl/';
</script>

Przekierowanie w PHP

<?php
  header("HTTP/1.1 301 Moved Permanently");
  header("Location: https://strona-docelowa.pl");
?>

Przekierowanie z użyciem mod_rewrite (na serwerach Apache):

RewriteEngine on
RewriteCond %{HTTP_HOST} ^stara-strona.pl [NC,OR]
RewriteCond %{HTTP_HOST} ^www.stara-strona.pl [NC]
RewriteRule ^(.*)$ http://strona-docelowa.pl/$1 [L,R=301,NC]

Przekierowanie na serwerach z nginx

Przekierowanie na nginx dla całej domeny:

rewrite ^(.*)$ $scheme://strona-docelowa.pl$1 permanent;

lub:
rewrite ^ $scheme://strona-docelowa.pl$request_uri? permanent;

lub (najlepsze rozwiązanie):
return 301 $scheme://strona-docelowa.pl$request_uri;

Przykład użycia w praktyce (przekierowanie starej domeny na nowy adres):
server {
  listen 80;
  server_name old-domain.com www.stara-strona.pl;
  return 301 $scheme://www.nowa-strona.pl$request_uri;
  # rewrite ^ $scheme://www.nowa-strona.pl$request_uri? permanent;
  # rewrite ^ $scheme://www.nowa-strona.pl? permanent;
}
hashem zakomentowane zostały wolniejsze rozwiązania 😉

Przekierowania na nginx dla podstrony

if ( $request_filename ~ stara-podstrona/ ) {
  rewrite ^ http://strona-docelowa.pl/podstrona/? permanent;
}

lub:
location ~ stara-podstrona/?$ {
  return 301 http://strona-docelowa.pl/podstrona$1;
}
(zalecane i nieco szybciej działające rozwiązanie)

Tiny text

Metoda polegająca na upychaniu treści o dużym nasyceniu słów kluczowych, które na stronie są wyświetlane bardzo małym rozmiarem czcionki w mało widocznym miejscu. Tekst taki jest praktycznie niewidoczny dla użytkowników, jednak jego treści indeksowane są przez wyszukiwarki.

Scraping

Scraping, Content Scraping, Data Scraping – to popularna technika SPAMu, w której spamer kopiuje treści z innych stron i umieszcza je na własnej stronie. Najczęściej kopiuje się treści, które są popularne, tworząc w ten sposób pozory strony zawierającej pewne zasoby wiedzy. Tworzenie stron zapleczowych z kopiowanej treści nie jest dobre, gdyż Google wykrywa zduplikowane treści (duplicate content), jednak dość często stosuje się mieszanie tekstu, czy też całych akapitów, zastępowanie słów synonimami lub tworzy się strony z samych nagłówków scrapowanych bezpośrednio z wyszukiwarki lub czytników RSS (wyszukiwarki nie zwracają szczególnej uwagi do poprawności gramatycznej, dlatego strony takie do czasu aż ktoś je ręcznie zgłosi mogą przynieść sporo zysków). Wiele programów do BHS posiada opcje scrapowania artykułów, m.in. Senuke, Scrapebox z wtyczką Article Scraper, czy GSA Search Engine Ranker. Obecna wersja GSA SER pozwala na scrapowanie tekstów pod kątem wybranego słowa kluczowego w ponad 60 różnych serwisach z artykułami:

Strony-do-scrapowania-w-GSA-SER

Lista stron z tekstami do scrapowania przez GSA SER

Scrapowanie artykułów w GSA SER

Opcja scrapowania artykułów w programie GSA Search Engine Ranker

W dziedzinie pozycjonowania pojęcie „scraping” odnosi się również do pozyskiwania wszelkich innych materiałów np. darmowych adresów proxy, listy URL itp.

Scrapowanie proxy w Scrapeboxie

Widok okna narzędzia ProxyManager w programie ScrapeBox

Blog spam

Blog spam, comment spam, link spam – metody spamowania w postaci komentarzy na blogach, wpisach do księgi gości i wszelkich innych profilach i stronach publicznych, gdzie można zamieścić odnośnik do strony www. W większości skryptów blogowych, w formularzu komentarza mamy możliwość wpisania adresu URL strony internetowej. Blog spam najczęściej odbywa się automatycznie, za pomocą specjalnych programów do BHS. Wpisy takie składają się najczęściej z wygenerowanego, uniwersalnego tekstu np. „Bardzo ciekawy wpis. Podoba mi się Twoja strona. Cieszę się, że ją odnalazłem”.

Synonimizowane-komentarze-w-gsa-ser

Przykład synonimicznej treści komentarza

Przyklad-wygenerowanego-komentarza

Przykład komentarza wygenerowanego na podstawie synonimicznego tekstu

Paid links

Praktyka kupowania linków na stronach internetowych w celu wzrostu popularności i osiągnięcia wyższej pozycji w wynikach wyszukiwania. W portalach aukcyjnych można odnaleźć bardzo wiele ofert sprzedaży linków „pozycjonujących”. Płatne linki można umieszczać na stronach internetowych, które tematycznie powiązane są z pozycjonowaną witryną, co teoretycznie powinno wpłynąć na wyższe pozycje strony. Niestety praktyka ta uważana jest przez Google za nieetyczną.

Doorway pages

Strony przejściowe, pośredniczące (doorway pages) to strony stworzone specjalnie po to, by podbiły ranking wyszukiwarki. Są formą spamowania indeksu wyszukiwarek. Zawierają odnośniki i/lub przekierowania do innej strony docelowej. W odróżnieniu od stron typu „landing page”, strony te nie zawierają bogatej treści i nie są wykorzystywane do kampanii PPC.

Cloaking

Maskowanie jest techniką optymalizacji pod kątem wyszukiwarek, która polega na prezentacji robotom wyszukiwarek innej treści niż użytkownikom. Jest to możliwe np. poprzez prezentacje treści na podstawie adresów IP lub nagłówka User-Agent przeglądarki. Za cloaking uznawane jest również przesuwanie treści poza obszar ekranu np. stosując styl text-indent: -9999px. Cloaking uznawany jest przez Google jako naruszenie, gdyż przyczynia się do wyświetlania użytkownikom wyszukiwarki nieoczekiwanych wyników.

Kategorie: BHS