Nieetyczne pozycjonowanie stron - Black Hat SEO

Nieetyczne pozycjonowanie stron internetowych, na rynku anglojęzycznym  nazywane Black Hat SEO jest bardzo popularną metoda podbijania stron w rankingu Google. W zasadzie samo pozycjonowanie już jest dość kontrowersyjne, bo sztucznie wpływa na pozycję strony w wyszukiwarkach.

Tak więc określenie czy pozycjonowanie jest etyczne czy nie, jest dość płynne. Ale na pewno niektóre techniki jednoznacznie zaliczają się do tych spod czarnego kapelusza.

Nieetyczne pozycjonowanie stron - Black Hat SEO

Popularne metody stosowane w nieetycznym pozycjonowaniu stron


Nadmiar słów kluczowych

Spamerzy (bo tak można śmiało nazwać osoby używające niedozwolonych technik pozycjonowania stron) często przepełniają stronę słowami kluczowymi. Kiedyś ładowali je w meta tagach (title, description, keywords). Z czasem nie miało to już wielkiego wpływu na ranking. Upychanie słów w treści nadal przynosi skutki, więc nadal jest stosowane. Jeżeli nie jest zachowany umiar i zdrowy rozsądek, tak że ze strony dosłownie wylewają się pozycjonowane frazy, mamy do czynienia z nieetycznym pozycjonowaniem.

Ukryty tekst

Ta technika odnosi się również do powyższej. Czyli jej celem jest umieszczenie większej ilości pozycjonowanych fraz niż wymaga tego logika.

Słowa kluczowe nie powiązane z tematyką

Spamerzy często dodają do stron słowa zupełnie z innej bajki. Dzięki temu liczą, że będzie więcej odwiedzin. Takie działanie nie dość, że jest nieetyczne to i nielogiczne. Jeżeli internauta nie znajdzie na stronie tego czego szuka od razu ją opuści.

Doorway pages

W tej technice spamer tworzy stronę naszpikowaną słowami kluczowymi o jakiejkolwiek tematyce. Często są to strony zbierające niszowy ruch. Czyli takie, które naturalnie występują wysoko w rankingu na mało popularne frazy. Strony takie są bezużyteczne, często treść jest nielogiczna. Użytkownik, który wejdzie na taką stronę zostaje od razu (często niezauważalnie) przekierowany na stronę docelowo pozycjonowaną. Technika tworzenia takich śmieciowatych stron jest nadal skuteczna. W tej chwili obserwuje w Google wysyp pewnego rodzaju śmieci na regionalnych polskich subdomenach, które zbierają pewnie pokaźny ruch. Proceder tego spamera wynalazcy trwa już dobre kilka miesięcy. Jak na razie Google nie jest w stanie poradzić sobie z tym.

Złe linkowanie zewnętrzne

Linki prowadzące do strony są głównym czynnikiem mającym wpływ na jej pozycję w wyszukiwarce Google. Dlatego tutaj jest najwięcej kontrowersji. Złe linkowanie to sztuczne linkowanie. Wielki skrót, ale taka jest prawda, Google akceptuje tylko naturalne linkowanie. W rzeczywistości bywa różnie. Linki można kupić, wymienić się na nie. Zdobyć zostawiając wpis z linkiem zwrotnym na forum, blogu, księdze gości. Można dodać stronę do katalogu. Można korzystać  z systemów wymiany linków. Opcji jest naprawdę dużo. Część z nich jest akceptowana inne nie, ale jest to płynne, jak już wspomniałem wcześniej

Podobne wpisy:

  • Czym jest pozycjonowanie stron internetowych

    Czym jest pozycjonowanie stron internetowych

    Pozycjonowanie stron internetowych (SEO - Search Engine Optimization) jest wpływaniem na pozycję strony w wynikach wyszukiwarek internetowych. W obecnych czasach pozycjonowanie odnosi się głównie do wyszukiwarki Google i nie jest w tym nic dziwnego, ponieważ to właśnie ta wyszukiwarka generuje największy ruch w internecie. Pozycjonowanie stron internetowych ze względu na obrany sposób można podzielić na dwie grupy: White Hat SEO (biały kapelusz) jest to określenie na ...
  • Kurs tworzenia stron www dla początkujących - CSS, HTML, PHP, MySQL, JavaScript

    Kurs tworzenia stron www dla początkujących - CSS, HTML, PHP, MySQL, JavaScript

    Właściwie to kurs tworzenia stron to za dużo powiedziane, ale przedstawię w tym artykule podstawowe, przydatne informacje dla osób chcących zacząć przygodę z tworzeniem stron internetowych. Osoby, które projektują strony www stosunkowo niedługi lub po prostu nie czują się w tym dobre, też znajdą tu informację czy czasem nie idą w złym kierunku. Na samym początku warto poznać same podstawy, czyli jaki język do czego służy (a raczej do czego powinien.. bo wiadomo, że ...
  • Dlaczego nie warto robić stron opartych na tabelach

    Dlaczego nie warto robić stron opartych na tabelach

    Opisze dość skrótowo zagadnienie budowy strony opartej na tabelach. Przedstawię wady takiego rozwiązania i zalety (o ile przyjdą mi jakieś do głowy podczas pisania). Określenie strona oparta na tabelach odnosi się do głównej konstrukcji strony jak i jej mniejszych elementów. W praktyce często objawia się to poprzez ukrycie obramowania tabeli i wielokrotne zagnieżdżanie ich w sobie. Tworzy się wtedy swoista siatka, na której można projektować stronę. Przykładowo główna ...
  • Czy i jak dodać plik robots.txt i mapę strony sitemap.xml

    Czy i jak dodać plik robots.txt i mapę strony sitemap.xml

    Czym jest plik robots.txt i sitemap.xml większość webmasterów wie. Tym co nie wiedzą ujawnię, że: robots.txt służy do instruowania botów wyszukiwarek (i innych) co im wolno a czego nie. Oczywiście czy te boty będą respektować narzucone im granice to już inna sprawa. Googlebot ponoć jest posłuszny. Dodatkowo w pliku tym możemy wskazać gdzie jest mapa strony, czyli sitemap.xml . Plik robots.txt musi znajdować się w głównym katalogu, czyli być dostępnym pod adresem: http://adres_strony.pl/robots.txt . ...

Komentarze:

Ten wpis nie był jeszcze komentowany.

Dodaj komentarz

* - pole wymagane