Search Engine Optimization and "Other Stuff" Blog

środa, grudnia 12, 2007

Trzy razy A

Właśnie skończyłem swoją pierwszą prostą aplikację ASP.NET z użyciem bazy danych i kilku bajerów w AJAXie. Oczywiście prowadził mnie za rękę tutorial, jak na razie daleko mi do programowania w C# czy VB, choć samo środowisko niezwykle ułatwia pracę niesamowicie. W zasadzie nawet bez głębszej znajomości programowania można tworzyć już proste aplikacje. Wystarczy dobry zmysł do analizy kodu, w czym zresztą także przychodzi z pomocą komunikator błędów oraz debugger.

Postanowiłem także przyjrzeć się z bliska jednemu z bardziej popularnych skryptów do automatycznego dodawania wpisów w katalogach. I muszę przyznać, że moje zdanie, jak dotąd negatywne względem tego narzędzia, znacznie się zmieniło. Jak każde narzędzie, nie jest ono złe samo w sobie, złą opinię tworzą jedynie osoby używającego go w niewłaściwy sposób. Odpowiednio skonfigurowany jest naprawdę pomocnym narzędziem i pozwala pozycjonerowi skupić się na ciekawszych czynnościach niż wklepywanie do katalogów. Grunt to oczywiście dobre zaprogramowanie. Ale w czym tu problem, skoro taki qlweb to nie precel, tutaj zazwyczaj wystarczy jedynie niecałe 300 znaków w opisie, sam w jeden dzień stworzyłem około trzydziestu tego rodzaju opisów bez większego wkładu czasu i wysiłku. To tylko skłania mnie do jeszcze ostrzejszego tępienia leniwych spamerów, którym nawet nie chce się wykonać tak prostej czynności. A może po prostu liczą na łatwy zysk w śmieciowych, niemoderowanych katalogach ? Ale tutaj tracą obie strony. Ci, którzy dodają śmieciowe wpisy mają szansę jedynie na ich akceptację w katalogach niemoderowanych. Właściciele niemoderowanych katalogów otrzymują masę bezwartościowego kontentu. Takie katalogi stawiane też lekką ręką bez większego wkładu, wyłącznie pod systemy są z tego powodu często czyszczone do zera. Ktoś kto zadał sobie trud straci tylko linki w śmieciowych katalogach. Kto się nie postarał musi jeszcze raz wykonać tą samą pracę. Ale czy warto?

piątek, grudnia 07, 2007

Darmowe aplikacje IBM

Jako, że przyszło mi ostatnio spędzić sporo czasu na stronach IBM/Lenovo w związku z poszukiwaniem sterowników do mojego nowego laptopa zaciekawiło mnie tam kilka rzeczy. Niestety z braku czasu nie mam nawet kiedy ich przetestować, ale może komuś przypadną one do gustu.

Rational Application Developer - środowisko dla osób tworzących w standardach JEE5 (EJB 3.0, JPA, JSF 1.2, JSP 2.1, Servlet 2.5). W chwili obecnej wersja beta została udostępniona do darmowych testów.

DB2 Express-C 9 - pełna wersja do darmowe go wykorzystywania po rejestracji.

Nadal szukam sterowników kontrolera matrycy zarządzania systemem, więc może uda mi się jeszcze coś ciekawego wygrzebać.


Etyka i współpraca

Wprowadzając pozycjonowaną frazę do pierwszej dziesiątki wyników prędzej czy później przyjdzie nam ochota na analizę konkurencji, szczególnie pierwszej trójki (ze wskazaniem na lidera rankingu). Sprawdzamy kod, linki prowadzące do strony. Aha! Tu Cię mam, ukrywasz linki, masz stronę w systemie, do tego ... fuj .. ten keyword stuffing. O! A tego linka to już na pewno kupiłeś! Na pewno nieraz też przemknęła nam przez głowę myśl o podkablowaniu konkurenta. W końcu jego ban pchnie nas oczko wyżej. No więc dalej mamy czujne oko. Ale czy to właśnie o to tutaj chodzi? Jeśli znaleźliśmy się w top 10 chociażby na średnio trudną frazę, to na pewno nie dzięki stosowaniu się do wyroczni Matta Cutts'a. Więc z etycznego punktu widzenia w niczym nie różnimy się tak naprawdę od raportowanego konkurenta. Droga na skróty nigdy nie popłaca, bo po pierwsze nie pokazuje naszego prawdziwego potencjału, po drugie - jak mawiał Kartezjusz, postępuj tak (lub jak w tym przypadku - nie czyń), jakbyś chciał, aby inni postępowali wobec Ciebie. Sami też możemy stać się pewnego dnia ofiarami interwencji "kolegi". Co tu dużo się rozwodzić, rynek zawsze będzie podzielony na tych, którzy ufają własnym siłom i na tych, którzy kopią dołki zazdroszcząc innym.

Chciałbym też napisać co nieco o współpracy w przypadku, kiedy pozycjoner nie jest człowiekiem-orkiestrą i nie zajmuje się wszystkim naraz (design'em, programowaniem oraz SEO). Jeśli zajmujemy się tylko SEO, a przychodzi czas na utworzenie nowego serwisu, współpraca jest konieczna, a jak dobrze wiemy, nie jest to takie proste. Częsty brak zrozumienia potrafi doprowadzić pozycjonera do prawdziwej wściekłości, kiedy pozostali próbują zignorować niepotrzebne ich zdaniem sugestie. No bo po co niby zastanawiać się nad altami, meta tagami, logiczną strukturą nagłówków? Jeśli nie wypracuje się odpowiednich standardów współpracy, wtedy taki serwis jest zazwyczaj jedynie częściowo zoptymalizowany. Kolejnym przeciwnikiem na horyzoncie są zazwyczaj ci pospolici marketingowcy, którzy za wszelką cenę starają się nam wejść w drogę ze swoimi ideami. Nie dostrzegą oni różnic pomiędzy tradycyjnym marketingiem, a marketingiem internetowym. Ci sieją zazwyczaj największe zniszczenie swoją niewiedzą. Tutaj najgorszym typem jednak są Ci, którzy w jeden weekend przeczytali dwie, trzy książki o pozycjonowaniu wydane kilka lat wstecz. Tych strzeżcie się najbardziej.

środa, grudnia 05, 2007

ASP.NET - tworzymy formularze i sesje

Minął już tydzień odkąd bawię sie Microsoft Visual Web Developer'em i jak widać nie miałem nawet zbyt wiele czasu na pisanie tutaj. Interfejs staje się dla mnie coraz bardziej intuicyjny, a tworzenie rozbudowanych formularzy nie stanowi żadnego problemu. Teraz przyszła pora na zarządzanie sesjami. Z tym już trochę problemu, ale to tylko i wyłącznie dlatego, że sam postanowiłem utrudnić sobie zadanie i zabrałem się do pisania w C# zamiast w VB. Także jutro trzeba będzie się trochę pogłowić jeszcze nad przepisaniem wszystkiego, tak żeby debugger już się tak nie czepiał.

Przez cały ten kram ucierpiało ostatnio trochę SEO, ale pora znów zabrać się ostro do roboty, szczególnie jeśli chodzi o linkowanie zaplecza. Po padzie laptopa sprzed trzech tygodni pozostałem bez możliwości pracy w domu, na szczęście jest już nowy, więc pora zarwać kilka nocek i weekendów ;) Przy okazji miałem swój pierwszy dłuższy kontakt z Vistą, zaledwie kilkugodzinny, po czym poddałem się i zrobiłem reinstalkę do XP Pro. Szkoda słów, jak na dzień dzisiejszy to ponad moje siły użeranie się z systemem mądrzejszym od admina.

środa, listopada 28, 2007

ASP.NET 2.0 "Hello World"

Dzisiejszy dzień upłynął mi na bliższym przyjrzeniu się platformie ASP.NET. Microsoft udostępnia darmową wersję Visual Web Developer 2005 Express Edition, więc dlaczego nie zapoznać się z tym frameworkiem? Download i instalacja oczywiście trwały trochę, jako, że całość zajmuje dobre 500 MB, ale warto było. Bardzo przyjemne środowisko pracy na pierwszy rzut oka. Mnóstwo video tutoriali zarówno na stronie asp.net, jak i jeszcze bogatszej learnvisualstudio.net (niestety płatnej). Na razie zapoznaję się z interfejsem i odpaliłem swój pierwszy skrypt. Zobaczymy, jak dalej będzie układać się zabawa.

poniedziałek, listopada 26, 2007

Link w live.com ponownie działa oraz inne mniej lub bardziej ważne sprawy

Najwyższy czas, aby moce obliczeniowe serwerów MS ponownie stały się użyteczne. Komenda link oraz linkdomain stały się ponownie funkcjonalne, z tą drobną różnicą, że tym razem komendę należy poprzedzić znakiem + . A więc zamiast wpisywać tak jak w google link:domena.pl , piszemy +link:domena.pl . Ciekawe jak długo będziemy mogli jeszcze się tym nacieszyć.

Dla amatorów zaśmiecania cudzych precli powstał już jakiś czas temu mixer. Tyczy się to oczywiście tylko tych osób, które w linkowanie swojego zaplecza i stron klienckich wkładają choć minimum wyobraźni i wysiłku. Nie jest to oczywiście automat, ale raczej maszynka do tworzenia podobnych artów, w których występują synonimy oraz bliskoznaczne zwroty. Ile? To już zależy od nas. Im więcej, tym więcej wersji artykułu jesteśmy w stanie wygenerować. Dla nie bojących się tej odrobiny wysiłku polecam odwiedzenie fabryki spamu.

Coraz bliżej jestem podjęcia decyzji o faceliftingu bloga. O ile forma graficzna jest naprawdę prosta, dzięki czemu strona zyskuje na czytelności, o tyle w dobie wypasionych w bajery blogów konkurencji trzeba się postarać o coś znacznie lepszego ;) Włączając w to przeniesienie na osobną domenę.

środa, listopada 21, 2007

Link baiting

Jak dotąd poruszałem na blogu kwestie automatycznego generowania treści, bądź też treści dodawanej przez innych użytkowników w zamian za linki (katalogi, presell pages). To co jednak może przynieść nam największą korzyść, to oczywiście nie śmieciowe, spamerskie zaplecze, ale strony stworzone dla użytkowników, jakakolwiek byłaby ich forma. To właśnie te serwisy mają szansę na dostarczenie nam największych korzyści, w tym przede wszystkim finansowych, ale nie tylko.

Rzeczą trudną do uzyskania, a wręcz niemożliwą w generowanym zapleczu jest link baiting. Czym jest link baiting w takim razie? Jeśli prowadzimy bloga, osobistego, tematycznego, branżowego staramy się, aby jego treść była atrakcyjna dla internautów. Kontrowersyjny, innowatorski tekst, śmieszny film to jedne z szybszych metod zdobywania linków. Ściągnięcie w ten sposób naturalnego traffiku zaowocuje najpewniej wieloma komentarzami (content!), a w wielu przypadkach także nowymi linkami do postów naszego bloga.

Konsekwentnie prowadząc naszego bloga budujemy swoją markę, co sprowadza do nas coraz większą ilość odwiedzających osób pozostawiających swoje komentarze oraz linkujących do nas ze swych stron. Jeśli nasza strona jest tematyczna, traktująca niszową kwestię, możemy być pewni, że artykułami zainteresują się głównie osoby z branży i być może zamieszczą linki do nas ze swych stron tematycznych, a to przecież jest to, co lubimy najbardziej!

Prowadzenie serwisów tematycznych, blogów jak wiemy jest czasochłonne, wymaga wiedzy oraz dużego wkładu pracy szczególnie w początkowej fazie rozwoju, co odstrasza większość pozycjonerów, którzy wolą pozostać przy swoim generowanym zapleczu. Jednak na pewno warto, szczególnie że jest to bezpieczna forma naszego zaplecza, do której zapewne nikt nie przyczepi się jako do generującej spam. Dodatkowo popularność serwisu, duża liczba użytkowników pozwolą także zarobić np. na AdSense bądź też ściągną reklamodawców.

W budowaniu zaplecza w oparciu o link baiting rozróżniamy trzy podejścia:

Podejście eksperckie, czyli tworzenie serwisu w oparciu o naszą dobrą wiedzę w zakresie tematyki bloga.
  • tworzymy artykuły tematyczne wysokiej jakości, listy, zbiory danych
  • tworzymy i udostępniamy narzędzia
  • tworzymy listę linków do tematycznych serwisów wysokiej jakości
  • tworzymy analizy oraz krytyki artykułów innych osób z branży
Podejście informacyjne, czyli bycie na czasie z informacjami.
  • publikujmy nowinki z branży jako pierwsi
  • przeprowadzajmy wywiady ze znanymi, opiniotwórczymi osobistościami z branży
  • śledzimy i opisujemy popularne temat
Podejście na wesoło, tego chyba nie trzeba tłumaczyć.
  • publikujemy ciekawe, śmieszne zdjęcia powiązane tematycznie z naszym blogiem
  • publikujemy, bądź nawet tworzymy filmy, śmieszne, szokujące
  • tworzymy rankingi
Jak widać, mój blog do opiniotwórczych nie należy, ale kto wie co przyniesie przyszłość, jeśli tylko zastosuję się sam do powyższych wskazówek. Jak na razie prowadzę jeden serwis, któremu udaje się zdobywać tematyczne, niszowe linki, ale to wciąż za mało, także pracy wciąż sporo.

poniedziałek, listopada 12, 2007

Generatory raz jeszcze

Miniony tydzień minął pod znakiem generatorów tekstu, w przeważającej większość opartych na wszelakich wtyczkach do WP. Generalnie mam mieszane uczucia, jeśli chodzi o budowę takiego zaplecza, ale jak się nie ma co się lubi ... Generatory wordpressowe ogólnie mogą być źródłem całkiem niezłego contentu, jeśli tylko odpowiednio dobierzemy do nich kanały, można zbudować ciekawe, aczkolwiek wciąż śmieciowe, zaplecze tematyczne. Przetestowałem też jeden z autorskich skryptów. Poświęciłem mu niewiele czasu, jednak na razie nie stworzył na mnie dużego wrażenia. Niestety na razie z braku czasu nie mogę się bardziej poświęcić budowaniu tego rodzaju zaplecza. W kolejce czeka linkowanie precli, ich odśmiecanie po weekendowym najeździe dodawarek, no i naprawa laptopa, którego brak ogranicza niemiłosiernie.

środa, listopada 07, 2007

Precelek na ... blogspocie

Założyłem dziś nowego bloga w celu sprawdzenia, co też za opcje Google dodał i czy warto przesiadać się ze starego na ten nowy (stary szablon zmodyfikowałem do tego stopnia, że musiałbym z niego zrezygnować, a cóż tu dużo gadać, przywiązałem się). No i bawiłem się i bawiłem i wyszedł mi z tego całkiem fajny precelek. Prostota wyglądu upodabnia go do skryptu mocnych linków, z tą różnicą, że nie uwzględniam możliwości dodawania artykułów bez rejestracji. Sama zaś rejestracja odbywa się przez bezpośredni mailowy kontakt ze mną. Mam nadzieję, że dzięki temu uniknę nawału niskiej jakości wpisów z dodawarek. Nie spodziewam się też jakieś wielkiej popularności, bo jak pokazał przykład precla na drupalu, którego nie obsługują wciąż (na szczęście) dodawarki, raczej wpisują się wyłącznie osoby dodające ręcznie (może zmieni się t, gdy tylko znajdę czas na podlinkowanie precla). Plusem na pewno jest brak konieczności poprawiania wpisów. Także zachęcam do dodawania wpisów do Piszemy ! Piszemy !

wtorek, października 30, 2007

MODx CMS

Dziś trafiłem na dosyć ciekawy system zarządzania treścią MODx (www.modxcms.com). A właściwie zasugerowałem się pozytywnymi opiniami wielu brytyjskich pozycjonerów. Postanowiłem system sprawdzić i właśnie jestem w fazie testów. Myślę, że docelowo wykorzystam go do postawienia precla na subdomenie i sprawdzę jego funkcjonalność i zainteresowanie nim ze strony osób dodających wpisy. Pozytywnie na pewno wygląda sprawa obsługi polskich znaków, stronę kodową można w łatwy sposób ustawić w opcjach. To samo tyczy się CURL i przyjaznych linków, które mogą być ustawiane indywidualnie przez użytkowników, jak i generowane na podstawie tytułów. Na razie staram się całość ogarnąć, konfiguracja sprawia trochę problemów, ale też nie miałem jeszcze czasu na bliższe zaznajomienie się z całością. Myślę, że już w najbliższym czasie, po ukończeniu poradnika dla Drupala i postawieniu precla na MODx, będę mógł podzielić się także konfiguracją tego systemu pod agregator artykułów.

poniedziałek, października 29, 2007

Update PR ?

To był bardzo szybki update, a w zasadzie to raczej downgrade, bo inaczej tego nazwać nie można. Z niezrozumiałych powodów wysoko w górę poszybowały śmieciowe stronki, a po łapach oberwało się starannie, merytorycznie prowadzonym serwisom. Utrwaliła się tendencja obniżania wpływu linków z katalogów na obliczanie samego PR. Wyniki jednak rekompensują straty, większość stron mocno awansowała, poza jedną frazą, która wyleciała bez powodu w kosmos (co ciekawe, stało się to dokładnie miesiąc po jej pierwszym wylocie) i nie wraca jak na razie. Nowy PR nadany preclom spowodował masowy ruch wśród pozycjonerów. Po weekendzie zanotowałem zwiększone zainteresowanie moimi preclami. Najwięcej zyskał tutaj mój pierwszy precel, dobrze podlinkowany (choć dostał jedynie PR1), w którym zanotowałem pięciokrotny wzrost ilości wpisów ( po odrzuceniu całego śmietnika, który każdego dnia jest zgłaszany).

W Stanach wrzesień okazał się czarnym miesiącem dla właścicieli płatnych katalogów. Ci, którzy nie wzięli na poważnie ostrzeżeń Google'a wylecieli z indeksu. Teraz przyszła kolej na większych graczy. Ci z kolei ukarani zostali obniżeniem wartości PR ( washingtonpost.com spadek z 7 na 5) za sprzedaż linków. Czy jest to poważny ruch ze strony Google ? Po pierwsze, na jakiej podstawie ocenia się, czy dane linki są płatne? Jeśli umieścimy na stronie linki do stron ludzi, których cenimy, a wśród nich te, które sprzedaliśmy, skąd wiadomo, które są płatne? Mamy umieszczać znacznik nofollow przy każdym wychodzącym linku, tak jak to czyni większość platform blogowych? Jakie znaczenie będą miały takie linki, przecież chcemy promować wartościowe strony na naszych wartościowych serwisach, nikt z nas nie pozwoli sobie na umieszczanie śmieciowych linków tam, gdzie odwiedzający nas mogliby być tym zdegustowani. Po drugie, dlaczego to właśnie Google miałby sprawować monopol w kwestii płatnego sprzedawania linków? Bo jest monopolistą? Bo wyszukiwarka to jego zabawka i będzie robił z nią to co mu się podoba? Zapomina się tylko o jednym istotnym elemencie. Gdyby nie internauci i właściciele stron internetowych, w tym także Ci sprzedający linki, to dzisiaj Google na pewno nie byłoby w tym miejscu, w którym jest. To my internauci zagłosowaliśmy na Google, jeśli zmiany będą szły nadal w tym kierunku, to zagłosujemy za kimś innym, a ktoś taki na pewno wykorzysta tą okazję nie popełniając błędów poprzednika.

Tutaj dla przykładu jedna z moich domen, której PR3 został wyzerowany. Zielony pasek traci na swym znaczeniu, bo w żaden sposób (poza może prestiżowym) nie dotknęło to mojej domeny. Pytanie tylko za co? Linki z katalogów? Precli? A może te wychodzące? Do stron może nie powiązanych tematycznie, ale zarazem wartościowych. I nikt za te linki nie zapłacił. Ale kogo to obchodzi...

środa, października 24, 2007

Sposób na drupalowego precla cz. 2

Nareszcie znalazłem chwilę na kontynuację artykułu o tworzeniu precla na Drupalu. Ostatnio skończyłem na zakładce Zarządzaj --> Budowa witryny --> Menu. Kolejna część budowy precla to włączenie niezbędnych modułów. Tutaj na pewno przyda się moduł locale, dzięki któremu użytkownicy precla mogą zmieniać język interfejsu. W tym przypadku na pewno dodamy język polski i pozostawimy język angielski jako opcjonalny.

Moduł Menu - umożliwi nam swobodne manipulowanie elementami paska nawigacyjnego.

Moduł Path - zmienia ścieżki do segmentów ( tutaj na pewno przyda się do tworzenia przyjaznych linków).

Moduł Ping - do pingowania naszego precla (można stosować w połączeniu z modułem Drupal).

Moduł Profile - do obsługi profili zarejestrowanych użytkowników.

Moduł Search - nie wymaga tłumaczeń.

Moduł Statistics - opcjonalnie.

Moduł Taxonomy - kluczowy moduł do tworzenia kategorii (patrz: Menu w części pierwszej)

Moduł Throttle - opcjonalnie, w celu kontroli przeciążenia precla w dalekiej przyszłości, kiedy to tysiące botów będą dziennie próbowały dodać swoje arty ;)

Skórki - tutaj kwestia gustu.

Zakładka Zarządzaj > Zarządzanie zawartością

Kanały RSS - tutaj ustawiamy jak nam się podoba, jeśli chcemy mieć otwarte kanały

Kategorie - to tutaj będziemy tworzyć nasze kategorie oczywiście. Zaczynamy od Dodaj Słownik. Pojawią nam się nowe pola do wypełnienia. Tytuł to oczywiście Kategorie (lub inne określenie kategorii), ewentualny opis słownika. Rodzaj zawartości oznaczamy jako artykuł, hierarchia jako wyłączony (chyba, że będziemy tworzyć podkategorie), poniżej zaznaczamy checkbox Wymagany i dajemy dodaj. Kiedy mamy już swój słownik, możemy zacząć dodawanie do niego terminów. Tutaj wpisujemy nazwę/tytuł i opcjonalnie opis. Terminy staną się naszymi kategoriami, pamiętajmy, aby nazwy kategorii, jako terminów słownika pokrywały się z elementami menu Kategorie. Trochę to zagmatwane, ale ważne, że działa :)

Rodzaje zawartości - są dwa typy, page i story. Osoby dodające artykuły będą dodawać jedynie story (page pozostawiamy dla siebie tylko, np. na ewentualny regulamin precla). Do preclów dodają Polacy, więc można element story edytować. Ustawiamy nazwę na Artykuł, typ pozostawiamy jako story. Tutaj jak najbardziej powinniśmy wypełnić opis, możemy w nim w skrócie przekazać np. ile linków może być w treści, co akceptujemy w artykule, czego nie. Na koniec Domyślne opcje ustawiamy jako Na stronie głównej i to tyle w tej części.

Ustawienia wpisów - tutaj ustawiamy ilość wpisów na stronie głównej (tradycyjnie można na 10 ustawić), ograniczenia długości skrótu, jeśli nie chcemy, aby cały pojawiał się na stronie głównej oraz podgląd tekstu (opcjonalny, wymagany) przed dodaniem arta.

Zawartość - to będzie najczęściej odwiedzane przez nas miejsce. Tutaj będą pojawiać się nowo dodane artykuły ze statusem nieopublikowany (jeśli moderujemy precla), stąd możemy go opublikować, zmienić arta lub jego kategorię, usunąć.

To na razie tyle, w kolejnej części omówiona konfiguracja witryny, zarządzanie użytkownikami i dzienniki zdarzeń.

piątek, października 12, 2007

Update PR Toolbar

W zasadzie powinien już się zbliżać, chociaż nigdy nie wiadomo kiedy dokładnie do niego dojdzie. Zauważalne są już pierwsze dziwne przetasowania w wynikach wyszukiwania. Jako, że dziś piątek, dla maniaków śledzenia toolbarowego PR polecam zgadywankę w PR Prediction Tool, czyli przewidywanie PR po nadchodzącym updacie. Można sobie sprawdzić stronki i poprawić bądź zepsuć humor, choć jak wiadomo toolbarowy PR nie ma większego znaczenia, poza psychologiczny i/lub marketingowym. Gdyby wszystko miało być tak pięknie jak obiecuje narzędzie, wbiłbym trzy portale klienckie na PR5, swoich około pięciu na PR4 (włączając ten blog), jednego precla na PR3, drugiego na PR2. W sumie, z jednej strony nieźle, z drugiej widzę, że trzeba popracować dalej nad linkami systematycznie, bo niestety cześć stron wbitych do top10 ostatnio tkwi w miejscu i ani drgnie w górę.

środa, października 10, 2007

Porządki

Odchudziłem dziś trochę narzędziownię bloga, część linków przestała być z czasem przydatna, część przestała działać, także pozbyłem się ich. Porządki także dotknęły google analytics, gdzie w końcu uporządkowałem domeny oraz dodałem nowe w kolejce. Dziś też zacząłem linkować w katalogach kolejnego precla, a w preclach kolejne strony. Czekam tylko na pozytywne efekty ostatnich prac. Wciąż niestety nie znajduję czasu na kolejną część poradnika stawiania precla na drupalu, ale przyjdzie i czas na to, ale niestety raczej na pewno nie przez najbliższe dziesięć dni.

wtorek, października 09, 2007

Pracowity weekend

Jak już pisałem wcześniej, powstał precel na mocnych linkach, w niedzielę dołożyłem kolejny na WP. W poniedziałek nastąpił update spisu precli, dzięki czemu moje nowe znalazły się tuż na początku listy, co zaowocowało zwiększoną ilością wpisów. Jeszcze większe oblężenie jest w podlinkowanych już preclach, co cieszy. Kilka stronek ruszyło w górę lub też utrzymało dobre wysokie pozycje, dzięki czemu wzrósł taże traffic na nich. Dzisiaj praktycznie skończyłem podlinkowanie tego bloga, jeszcze jutro tylko pół godzinki i koniec. Wczoraj też skończyłem dodawanie jednej z domen do precli, a więc czas najwyższy na nowe strony do katalogów i precli.

Przy okazji przyjrzałem się kilku preclom opartym na Joomli. Przeszło mi przez myśl stworzenie też jednego dla testów, ale jakoś nie do końca jestem przekonany do tego rozwiązania, na pewno nie będę traktował Joomli jako priorytetu w tym momencie.

niedziela, października 07, 2007

Nowe precle

Postanowiłem sprawdzić skrypt Mocnych Linków i postawiłem wczoraj na nowej domenie precla. Muszę przyznać, że jestem pod wrażeniem prostoty instalacji, konfiguracji i działania. Dodatkowo wbudowany jest moduł sprawdzający duplicate content (teraz już wiem, dlaczego tak mało MLi przyjmuje moje arty), aczkolwiek zasadniczo nie będę z niego korzystał w celu wyrzucania zduplikowanych artów.

Dzisiaj na kolejnej domenie powinien powstać także kolejny precel, tym razem na starym, dobrym skrypcie WP.

czwartek, października 04, 2007

Oszuści w preclach

Każdego dnia spotyka nas wiele niemiłych niespodzianek ze strony osób z tzw. "branży". Tym razem doszło do tego, że właściciele co poniektórych precli pazerni na content i nie zważający na ciężką pracę innych osób podmieniają linki we wpisach na swoje własne. Spotkałem się już z oszukiwaniem klientów, bądź to dla większej kasy, bądź też wykorzystywanie ich niewiedzy i umieszczanie na ich stronach ukrytych linków bez wiedzy klienta. Teraz na domiar złego dochodzi do oszukiwania konkurencji, a to na pewno nikomu nie popłaci. Jak tylko pojawi się czarna lista precli, w których dokonuje się tego typu akcji nie zawaham się opublikować jej tutaj ku przestrodze innych osób, które z mozołem pracują dla swoich klientów.

środa, października 03, 2007

Copywriting

Słowo daję, miałem nadzieję, że pisanie artów promocyjnych z ręki nie będzie rodziło się w tak wielkich bólach. Trafiłem na najcięższy przypadek (a może to po prostu moja ambicja), gdzie nie tylko muszę napisać dużo, szybko i po angielsku, ale w dodatku ciężko tutaj o uniknięcie pokusy kopiowania fragmentów gotowych tekstów z innych serwisów. Jednak postanowiłem, że tak będzie i tyle, nie dam wyszukiwarkom najmniejszego pretekstu do wrzucenia stron do suplementala. Miejmy tylko nadzieję, że już za rok będzie można liczyć na solidne zaplecze anglojęzyczne.

Odwrotnym przypadkiem jest na pewno przykład agregatora RSS-ów. Tutaj mamy dokładne kopiowanie, za to dużo, szybko, bez wysiłku. Generator zbiera każdego dnia kilkadziesiąt nowych wpisów, dzięki czemu site strony powoli, aczkolwiek stabilnie rośnie.

Od dziś wziąłem się też ostro za podlinkowanie tego bloga, zobaczymy na ile załapie się na zbliżający się update PR.

wtorek, października 02, 2007

Live i Yahoo gonią Google

Ostatnio dało się zauważyć zmianę interfejsu wyszukiwarki Live. Za nią podążyło także Yahoo. Obie wyszukiwarki starają się nadążać za Google we wdrażaniu nowych rozwiązań. Zarówno Microsoft, jak i Yahoo zdecydowały się na pełną integrację specyfikacji Web 2.0 w wynikach wyszukiwania starając się zwracać jak największą ilość danych generowanych na stronach, a więc nie tylko prostych wyników, ale także map i obrazów. Yahoo mimo prostego interfejsu wdrożył także już w fazie wyszukiwania (za pomocą drop down menu) tzw. related keywords suggestions, czyli podpowiedzi bardziej szczegółowych fraz, które mają użytkownikowi ułatwić szybsze wyszukanie pożądanej informacji. Niestety Yahoo wciąż ignoruje polskie wyniki i polską geolokację.

Nowe zaplecze, płatne precle

Minął już ponad rok od kiedy zajmuję się SEO. W tym czasie moja wiedza nt. marketingu internetowego znacznie się wzbogaciła, choć na pewno nie w każdej dziedzinie, w której bym się tego życzył. Jedyną rzeczą, której tak naprawdę mi dziś brakuje, to solidne zaplecze. Ale to buduje się, mozolnie, aczkolwiek systematycznie jego siła rośnie. Mówię tutaj oczywiście o zapleczu na rynek polski. Pora postawić kolejny krok. Tym razem będą to podwaliny pod zaplecze anglojęzyczne, które mam nadzieję będzie rosło w tempie równie dobrym, a nawet i lepszym niż polskie. To pozwoli na rozwinięcie skrzydeł i jaśniejsze spojrzenie w przyszłość. Poczynione zostały już pierwsze przygotowania i prace zaczynają nabierać zdecydowanie tempa.

Tak trochę w innym klimacie, aczkolwiek nie do końca. Właśnie zakończyłem linkowanie jednej z domen w preclach. Przeglądając całą listę natknąłem się na multum precli postawionych na mocnych linkach, których właściciel postanowił pójść najkrótszą linią oporu i masowo użył szablonu. Sęk w tym, że zażyczył sobie odpłatności za umieszczenie linka w swoich preclach. Odpłatność za linki nie jest niczym nowym w katalogach i preclach anglojęzycznych, sam pewnie kiedyś zdecyduję się na ten krok, aczkolwiek wciąż daleko mi do niego. Do czego piję. Wprowadzanie odpłatności ma sens tylko i wyłącznie tam, gdzie katalog/precel stoi na solidnej domenie, z odpowiednim stażem (patrz aging delay) i mocno podlinkowanej, często odwiedzanej przez roboty. Tą drogą właściciel precla pobiera należność za szybkie zaindeksowanie linka, który równocześnie nie będzie mało wartościowym, o niewielkiej sile. Może to sposób na naiwnych, ale ilu takich się znajdzie ? A jeśli już, to prędzej czy później płatnik zauważy jego mierność i jak zwykle oberwie się całemu środowisku. Akcje tego typu plus spam w najgorszym wydaniu ze strony innych, czynią nasze polskie SEO niezbyt wyszukanym i nie dziwię się, że pracownicy Google'a mają nas na oku. Ale to tyle moich żali w temacie, bodajże po raz któryś poruszanym.

W najbliższym czasie powinna pojawić się kolejna część tutoriala dla precli na Drupalu. Na liście polskich precli zauważyłem bodajże jedynie sześć innych precli na drupalu i powiem szczerze, ich budowa zniechęciła mnie do dodania stron. Nie miały w sobie niczego, co chociaż trochę przypominałoby katalog bądź precel. Mam nadzieję, że po kolejnym updacie spisu precli mój nowy również pojawi się na liście. Dla zainteresowanych podaję linka: Droopie . Życzę miłego dodawania.

poniedziałek, października 01, 2007

Będzie politycznie ...

Zbliża się w naszym kraju czas wyborów, do których pozostało niespełna trzy tygodnie. Jako, że jestem osobą, której nieobojętny jest los mojego kraju i nie kryję niezadowolenia z obłudy ostatnich dwóch lat, postanowiłem, że blog przyłączy się do akcji "Schowaj babci dowód". Cel akcji szczytny, bo środki zostaną przekazane na pomoc dzieciom. Przy okazji pojawia się możliwość zaprotestowania przeciwko dzieleniu społeczeństwa, kupowaniu głosów tanią wyborczą kiełbasą, wstydliwych koalicji, jeszcze większemu wstydowi na arenie międzynarodowej. Dzisiejsza debata dwóch panów K. jeszcze bardziej utwierdziła mnie w tej decyzji. Mówię stanowcze NIE dla rewanżyzmu za wszelką cenę, walce z przeszłością za cenę przyszłości, naszej przyszłości, nas, młodych ludzi, bo to o nas zapomina się coraz częściej budując ten kraj.

piątek, września 28, 2007

Sposób na drupalowego precla cz. 1

Tak jak już wcześniej obiecywałem, chiałbym przedstawić jeden z wariantów budowy presell page na silniku Drupala. Mam nadzieję, że wiadomości, które tutaj znajdziecie będą dla Was chociaż w części przydatne.

Ściągamy Drupala


Wchodzimy na drupal.org, gdzie w prawym górnym rogu strony znajdziemy najbardziej aktualną wersję systemu do ściągnięcia. Postawiony przeze mnie precel działa na wersji 5.2.

Baza Danych i instalacja

Do instalacji Drupala potrzebujemy funkcjonującej bazy danych (MySQL lub PostgreSQL). Po rozpakowaniu plików drupala do docelowego folderu (może to być główna domena, subdomena lub też katalog) uruchamiamy skrypt index.php, ale zanim to nastąpi, musimy ustawić prawa nadpisywania dla pliku /sites/default/settings.php . Powinna pojawić się plansza, gdzie wpisujemy nazwę bazy, usera i hasło.

Pierwszy użytkownik

W kolejnym kroku tworzymy usera z uprawnieniami globalnymi (UID1) . Warto później utworzyć także drugie konto z uprawnieniami na poziomie zwykłego użytkownika, pomoże nam to w testowaniu ustawień uprawnień.

Katalog files i zadania Cron'a

Zgodnie z wymogami tworzymy katalog files w /root. Uruchamiam także Cron'a (jeśli nasz serwer obsługuje zadania Cron'a).

Podstawowe ustawienia

Zakładamy, że nasz precel będzie po polsku. Idziemy do site configuration > localization . Tutaj importujemy wcześniej ściągnięty np. stąd plik z tłumaczeniem (rozszerzenie .po). Ustawiamy język polski jako domyślny i zapisujemy. Od teraz możemy spokojnie posługiwać się polską wersją językową.

Zakładka Zarządzaj > Budowa witryny

Aliasy adresów - tutaj znajdziemy wszystkie aliasy, ale o tym później.

Bloki - tutaj będą widoczne dostępne oraz uruchomione bloki menu. Dla precla utworzone powinien zostać ustawiony blok z naszymi kategoriami, ale to też w dalszej części.

Menu - to tutaj zorganizujemy nasze menu. Na początek wybieramy "Dodaj Menu", gdzie wpisujemy tytuł naszego menu, np. Kategorie. Następnie dodajemy elementy menu, gdzie tytuł będzie nazwą naszej kategorii, opis opcjonalnie. Ścieżka, najważniejszy element w tej układance. Ustawiamy taxonomy/term/n , gdzie n to numer kolejnej naszej kategorii, którą dodajemy, jeśli jest to nasza pierwsza kategoria, to ustawiamy taxonomy/term/1. Możemy zaznaczyć Rozwinięte, elementem nadrzędnym będzie element Kategorie. Zapisujemy całość i tak aż do ostatniej kategorii.


środa, września 26, 2007

Misja zakończona

No i jest już gotowy do publikacji pierwszych artykułów. Wprawdzie nie jest to jeszcze produkt doskonały i wymaga dodania modułu uzupełniania wpisu o tagi, opis i keywords, ale warto już teraz poddać go publicznej krytyce. Liczę na kilka ciekawych pomysłów ze strony forumowiczów PiO, choć pewnie znajdą się też i malkontenci.

Prace trwają ...

Dziś agregator został uzupełniony w części w kategorie (ta kwestia wymaga dalszego dopracowania), moduł moderacji wpisów oraz coś czego nie spotkamy w standardowych preclach: możliwość edytowania adresów URL wpisów w trakcie ich dodawania. Oprócz tego dokonano kilku zmian kosmetycznych (nowy blok menu z reklamą oraz usunięcie dodatkowe menu primary links). Wciąż jeszcze pozostaje do rozwiązania kilka dodatkowych kwestii, m. in. wyżej wymienione kategorie oraz kilka tłumaczeń i dodanie regulaminu. Mam nadzieję, że agregator uniknie losu precli atakowanych przez boty z dodawarek.

Małą transformację przeszedł też generator tekstu, gdzie usunięto nie funkcjonujący poprawnie moduł posts related.

poniedziałek, września 24, 2007

Prace nad drupalem

Mimo notorycznego braku czasu prace powoli posuwają się do przodu. W pocie czoła powstaje nowy precel, którego głównym celem ma być nieszablonowość (aczkolwiek w kwestiach graficznych z braku czasu zdam się pewnie na szablon). Można stawiać hurtowo precle na wordpressie, można to robić na mocnych linkach, kto co lubi. Nic nie ujmuję oczywiście sprawdzonym skryptom (sam w najbliższym czasie wystartuję zapewnie z Mocnymi Linkami). Ale warto wnieść też jakąś wartość dodaną do całości. Jeśli uda mi się zakończyć cały projekt sukcesem, być może podzielę się tutaj detalami konfiguracji agregatora. Obecnie trwa konfiguracja całości w celu stworzenia precla najbardziej SEO Friendly. Ze względu na przeznaczenie (rynek polski) zostało już zainstalowane polskie tłumaczenie CMS-a. Linki mają już postać bardziej przyjaznych dla wyszukiwarek. Obecnie trwają prace na optymalną konfiguracją Cron-a, akceptacją wpisów (nie wypuszczam produktów niemoderowanych) i pewnie kilkoma przekierowaniami w .htaccess.

piątek, września 21, 2007

SEO Warrior

Czasami trzeba nabrać dystansu do tego co robimy na codzień. Jako, że dziś piątek, proponuję małe starcie w ringu. Stajemy się SEO-wojownikiem, a raczej bokserem i zwalczamy przedstawicieli świata spamu okładając ich pięściami. Na naszej drodze stają kolejno Hidden Text Kid, Keyword Stuffer, Duplicate Content Girl, Cloaking Monster, Mr Redirect, Link Farmer i na samym końcu wielki Spam Lord. Zapraszam w ramach rozluźnienia do tej flashowej gierki.

KLIK

Może w ramach rewanżu napisać grę z Matt'em Cutts'em i spółką w roli głównej ;)

środa, września 19, 2007

Cake i Drupal

Dzisiaj powstał moduł autentykacji w Cake'u. Zabieram się za implementację CMS do jednego z portali, wybór padnie najprawdopodobniej na Drupal'a (na budowanie autorskiego CMSa jeszcze za wcześnie).

Wczoraj jedna z fraz wyleciała z trzeciego miejsca w kosmos. Nie wiem, czy to trwały filtr, czy też chwilowa fluktuacja. Dziś też skończyłem podlinkowywanie nie działającego ostatnimi czasy precla. Pojawiły się już w nim nowe wpisy. Niestety zauważyłem złą tendencję. Niektórzy pozycjonerzy zaczynają używać systemów mieszających opisy do precli. Systemy te są raczej wątpliwej jakości, jeśli tak dalej pójdzie, to zamiast marnować czas na poprawki, po prostu trzeba będzie wpisy usuwać, a szkoda, bo naprawdę warto poświęcić trochę więcej niż te kilka minut. Pojawienie się precli spowodowało jedną pozytywną rzecz także dla katalogów. Znacznie wzrosła jakość i długość wpisów. Spamerskie wpisy to już znikomy procent całości.

poniedziałek, września 17, 2007

Mod Rewrite - zalety i problemy

Aktywowanie modułu mod_rewrite ma w sobie wiele zalet, dlatego też przy wyborze dostawcy hostingu warto dowiedzieć się wpierw, czy takowy jest aktywowany na serwerze, aby uniknąć późniejszych ewentualnych rozczarowań. Oprócz trwałego przekierowania (tzw. 301) jednej domeny na drugą, co jest rozwiązaniem najlepiej akceptowanym przez wyszukiwarki, w sytuacji przenosin serwisu, mod_rewrite ma wiele innych zastosowań. Już samo zastosowanie w .htaccess opcji:

Options -indexes

blokuje pokazywanie struktury folderów domeny, co chroni nas przed osobami próbującymi podejrzeć np. folder z grafiką. Kolejnym zastosowaniem .htaccess może być tłumaczenie rozszerzeń plików (np. php do html):

AddType application/x-httpd-php .php .html

Kolejnym rozwiązaniem jest przekierowanie wszystkich adresów do struktury "z" lub "bez" www, dzięki czemu np nasz PR i siła linków nie są rozdzielane pomiędzy domena.pl a www.domena.pl.

Najistotniejszym jednak rozwiązaniem z punktu widzenia SEO jest możliwość translacji zmiennych php w ścieżkach URL, które zamieniamy na tzw. linki seo-friendly, zawierające słowa kluczowe w zamian za ciąg niezrozumiałych często znaków. Dodatkowo, roboty Google mają najczęściej problem z przejściem więcej niż dwóch zmiennych w adresie. Im większy serwis posiadamy (np. sklep internetowy) tym większą korzyść odnosi. Linki seo-friendly pozwalają na wbicie stronki do top10 (często także na pierwsze kilka pozycji na jedną frazę) dla wielu fraz kluczowych.

Teraz trochę z innej beczki, aczkolwiek nie do końca. Odkryłem właśnie przyczynę problemu z moim pierwszym preclem. Okazało się, że zmiana w pliku .htaccess, której dokonałem (wcześniej było przekierowanie na "bez www", zmieniłem na "z www" ) 24 sierpnia odbiła się czkawką na preclu. Wszystkie nowo dodawane wpisy pojawiały się bez treści, do tego były przypisywane innemu autorowi niż w rzeczywistości. Dziś cofnąłem zmiany do poprzedniej wersji i wszystko hula. Jak więc widać, korygowanie pliku .htaccess powinno być przeprowadzane z najwyższą ostrożnością i wszelkie zmiany powinny zakończyć się testami działania portalu. Porównując ten precel z pozostałymi, które funkcjonują bez zarzutu mogę jedynie stwierdzić, iż od momentu wprowadzenia pierwszego wpisu nie można robić tego rodzaju zmiany. Dotyczy to oczywiście precli bazujących na skrypcie wordpress.

czwartek, września 13, 2007

Cake i awanse

Dzisiejszy dzień przyniósł kilka zaskakujących zwyżek w wynikach wyszukiwania, dwie nowe frazy jednowyrazowe wskoczyły do top10, teraz tylko trzeba popracować nad usadowieniem ich w górnej połówce wyników.

Wróciłem właśnie do mojej przygody z PHP, może tym razem w końcu na dłużej. Na razie staram się zapoznać z framework'iem Cake. Może tym razem coś się otworzy w mojej głowie :)

środa, września 12, 2007

Tagi i pingi

Mały update bloga, otagowałem dzisiaj prawie wszystkie posty, site w końcu jest site, a i łatwiej będzie teraz odnaleźć posty w poszczególnych tematach, jeśli tylko nie będę zapominał to tagi będą przypisane do każdego wpisu.

Będąc już w temacie tagowania poruszę tylko pokrótce temat pingowania blogów w większych serwisach, tj. Yahoo czy też Technorati. Warto pamiętać od czasu do czasu, a może nawet i częściej, szczególnie po większym updacie contentu o pingach. Narzędzia można znaleźć łatwo w necie, wymienię tutaj jedynie znany pewnie wielu Pingomatic.

SEO-truizmy i SEO-bzdury



... czyli mydlenie oczu ludziom, którzy w SEO stawiają pierwsze kroki. Lubię oglądać filmy emitowane przez WebProNews, czasami można wyłowić interesujące perełki odnośnie trendów w pozycjonowaniu, dowiedzieć się o ciekawych wydarzeniach podczas spotkań "speców" w branży spotykających się na przeróżnych konferencjach. Czasami jednak wypuszczają filmy takie jak ten, które tak naprawdę nie wnoszą niczego nowego, a osobom początkującym mydlą oczy znaczeniem PR (choć jak wiadomo, PR jest często jedynym wskaźnikiem dla osób które nie znają się na rzeczy i na jego podstawie oceniają wartość strony). Wiadomo nie od dziś, że regularne update/dodawanie treści są konieczne w dzisiejszych czasach panowania web 2.0, z tego względu powstały precle i temu też w pewien sposób wciąż służą katalogi. Niemniej jednak dawanie za przykład bloga podstarzałem seo-amatora trochę dziwi, no chyba, że w zamierzeniu materiał został zasponsrowany przez w/w osobę (sam z ciekawości wszedłem na jego bloga), żeby zwiększyć swój traffic.

wtorek, września 11, 2007

SEO kryminał

Z pewnością pamiętamy niejedną akcję pozycjonowanie stron czy to Radia Maryja, czy też polityków niedawnej koalicji, albo wręcz stron partii. Żarty się skończyły. Za wypozycjonowanie oficjalnej strony internetowej obecnie urzędującego prezydenta na słowo kojarzące się z pewną męską częścią ciała, jak donosi dzisiejsza GW, 23-letni mieszkaniec Olsztyna, który dokonał tego czynu został oskarżony o zniesławienie głowy państwa, za co młodemu człowiekowi grozi kara do trzech lat pozbawienia wolności. Jak sam oskarżony stwierdził, testował tylko swoje oprogramowanie :)

Kampania mailingowa

Dziś po raz kolejny spędziłem kilka ładnych godzin na przygotowaniu i wysłaniu mailingu. Pewnie większość osób zajmujących się SEO nigdy nie zawracała sobie głowy tym tematem, ograniczając swoją działalność głównie do zdobywania linków w ten czy inny sposób, wbijania stron klientów i swoich na wysokie miejsca w wynikach wyszukiwania w celu zwiększenia ztargetowanego trafficu na tychże stronach. Ale jakby nie było jest to jedna z metod prowadzenia marketingu internetowego, która prowadzona we właściwy sposób sprowadza do nas to czego oczekujemy także po pozycjach w wyszukiwarkach, czyli napływ klientów. Samo przygotowanie kampanii składa się z kilku etapów. Po pierwsze, przygotowania samej oferty, co samo w sobie nie jest rzeczą prostą. Nasza oferta ma dotrzeć do klienta i nie utonąć w natłoku codziennego spamu w skrzynce pocztowej. Kolejną sprawą jest posiadanie odpowiedniego softu, dzięki któremu można zautomatyzować cały proces. Swego czasu testowałem kilka programów, każdy na pewno znajdzie na rynku coś co będzie pasowało do zapotrzebować oraz zasobności portfela. Najważniejszą jednak rzeczą jest dotarcie do grupy docelowej, czyli zdobycie listy adresów emailowych osób, które mogłyby stać się potencjalnymi klientami naszego produktu. Rzecz to najważniejsza a zarazem chyba najbardziej kosztowna w całym procesie. Jeśli tylko uda nam się odpowiednio połączyć powyższe czynniki, możemy liczyć na odpowiedni odzew.

poniedziałek, września 10, 2007

Generator, katalogi, precle i takie tam

Po weekendowych problemach z konfiguracją generatora dorzuconych zostało kilka RSSów, dzięki czemu ładnie tworzy się liczba podstron. Gienek nadal podlega obserwacji, a możliwe że trzeba będzie skonfigurować jeszcze kilka rzeczy w samym szablonie w celu uzyskania większej ilości podstron. Celem projektu jest stworzenie regularnie aktualizowanego serwisu, co jak wiadomo gwarantuje przewagę nad serwisami o treści statycznej.

Nie wiem, czy już o tym wspominałem, w ubiegłym tygodniu miałem swój pierwszy kontakt z supportem Google (chodziło o modyfikację w Google Analytics) i o dziwo już następnego dnia uzyskałem odpowiedz, że sprawa załatwiona. A już myślałem, że o mnie zapomną ;)

Pozycjonując ostatnio jedną ze stron zauważyłem pewną regułę. Dla fraz o niskiej/średniej trudności wpisy z katalogów dają większą moc niż wpisy z precli. Jest to spowodowane tym, że same precle w dużej większości wciąż nie są dobrze (lub też nie są wcale) podlinkowane. Sam dopiero co linkuję mojego pierwszego precla.

Wciąż martwi mnie problem źle skonfigurowanych dodawarek do precli, choć z drugiej strony to nie ja muszę się martwić, ale raczej właściciele niemoderowanych precli, którzy tak jak właściciele niemoderowanych qlwebów będą za niedługo źródłem spamu, raczej farmami linków niż agregatami treści z linkami. Dotknie to także osób, które linkują automatem, bo system dodaje jedynie puste artykuły. Sprawa utwierdza jedynie w przekonaniu, że ręczne dodawania lub też korzystanie z pół-automatu, nad którym ma się pełną kontrolę, mimo czasochłonności zawsze będzie lepsze i bardziej skuteczne od pełnego automatu.

piątek, września 07, 2007

Generator treści

Jak wiadomo, takim generatorem są katalogi, również precle. Wymiana barterowa w internecie kwitnie od wielu lat, ja tobie treść, ty mnie linka z anchorem i na odwrót. Wykorzystując kanały RSS można jednak zacząć generować treść bez konieczności każdorazowego "odwdzięczania się" linkiem. Precelki dobrze nadają się również do tej kwestii. Dzisiaj rozpocząłem testowanie takiego generatora site'u, wymagającego minimum nakładu pracy, który jednakże z czasem sam w pełni mógłbym się zautomatyzować i to przy wykorzystaniu odwiedzin na stronie, w tym także odwiedzin botów googla. Pewnie ktoś mógłbym mi tutaj zarzucić spamowanie, jednak nie zakładam prowadzenia tego typu działań na szeroką skalę, ot po prostu kolejne doświadczenie. Generator agreguje treści tematyczne dotyczące SEO. Za kilka dni będę mógł napisać coś więcej w temacie, na razie działa bez zarzutu.

Reaktywacja

Po prawie pięciu miesiącach przerwy postanowiłem wrócić do wypisywania moich urojeń na temat SEO ;) Przerwa była spowodowana wieloma względami, zwykle brakiem czasu, lenistwem, jak i planami przeniesienia bloga na własną domenę. Postanowiłem jednak na razie pozostać przy tej formie, może przez sentyment, może przez niechęć do rezygnowania z dodatkowego IP, a może też częściowo sprawia mi frajdę trzymanie seo-bloga na serwerach Googla :)

Od kwietnia sporo się zmieniło, przede wszystkim sukcesywnie zwiększam swoje zaplecze i moje, przynajmniej niektóre, wyobrażenia o tym co robię są dojrzalsze. Co do branży, to era qlwebów jednak się tak do końca nie przeminęła, nadal są istotną częścią linkowania zaplecza, rozsądnie prowadzone nie wpadają w site:260. Jak grzyby po deszczu powstają nowe precle, do nich dodawarki, co swoją drogą jest strasznie irytujące, wciąż nie są jeszcze dopracowane, przez co dodają mnóstwo nowych userów do blogów, co niestety nie idziesz w parze z ilością nowych wpisów. Problem równie irytujący co źle lub też niechlujnie skonfigurowany adder.


Zastanawiający jest też problem duplicate content, wielu właścicieli precli przesadza w kwestii unikalności treści odrzucając powielone artykuły w obawie przed wpadnięciem w suplemental. Osobiście nie przejmuję się tym zagadnieniem, a przynajmniej nie przeceniam go przyjmując wszystkie rzetelnie napisane arty, jak dotąd trzymam się bezpiecznie poza suplementalem.

Niemiłą sprawą jest na pewno inwigilacja polskich for poświęconych pozycjonowaniu przez pracowników Google Polska. Starają się wykorzystać zdobytą wiedzę przeciwko nam. Może nie mamy czego się obawiać i jest to tylko pic na wodę nowych pracowników starających się wykazać, a być może trzeba będzie pomyśleć o strefach ograniczonego dostępu tylko dla zweryfikowanych i zaufanych pozycjonerów. Czyżby IV RP dotarła już nawet tutaj ?

piątek, kwietnia 20, 2007

Centralne Biuro Antylinkowe

Mieliśmy już bezprecedensowy atak na nasze rodzime skrypty qlweb, mamy teraz kolejny doskonały pomysł, który wyskoczył z głowy Matta Cutts'a i spółki. Należy zakazać sprzedaży linków w internecie, a strony nieprzestrzegające tychże zaleceń będą surowo karane przez ... no właśnie, kogo? Algorytm? Setki lub nawet tysiące osób śledzących powiązania pomiędzy oferentami sprzedaży linków, a ich potencjalnymi nabywcami? Skąd niby będziemy wiedzieć, że dany link został kupiony/sprzedany? Bo ktoś doniesie na nas w specjalnym raporcie googlarzom? Już teraz zapewne płyną setki donosów, z czego, zgodnie z zasadą Pareto, 80% to żarty, kłamstwa, nieuczciwa konkurencja. Kto odsieje tą stertę? Nawet jeśli już zostanie odsiana, w jaki sposób udowodni się nam zakup linka? To że prowadzi on do nas ze strony, która należy do osób handlujących linkami? Skąd ta pewność, że nie uznali oni naszego serwisu na tyle wartościowy, iż warto było go podlinkować?
Kolejny bzdurny pomysł, który jeśli wdrożony w życie, przyniesie więcej szkody niż pożytku Googlowi. A może tutaj chodzi o co innego? W końcu kto należy do grona zbijających największą fortunę na sprzedaży linków? Zastanówmy się przez moment, jak wyglądałaby dzisiejsza sytuacja firmy, gdyby nie było AdWords?

wtorek, kwietnia 03, 2007

Komu precelka ?

Nadszedł czas zmian. Qlweb-y odchodzą do lamusa (przynajmniej na jakiś czas) od kiedy Google postanowiło zrobić porządek w polskim indeksie. O słabnącej mocy linków z katalogów mówiło się już od ponad roku, coraz ciężej było utrzymać nimi trudniejsze frazy. SEO nie znosie jednak próźni. Dlatego pojawiło się kolejne rozwiązanie, które nie tylko pomaga nam, ale także wychodzi naprzeciw wskazówkom, jakie wytyczyli sami ludzie Googla. Faktem niezaprzeczalnym jest konieczność włożenia o wiele większego wysiłku w tworzenie własnego zaplecza. Nie ma tego złego co by na dobre nie wyszło, bo na pewno wyeliminuje to leniwych amatorów-pozycjonerów stawiających dziesiątki subdomen z qlwebami na darmowych hostingach. Katalogi te stały się poważną plagą, niemoderowane, zaśmiecały indeks wyszukiwarek, co sprowokowało programistów do zajęcia się polskimi katalogami. Obecnie znikomy site tychże jest wyraźnie widoczny. Miejmy nadzieję, że nowa epoka przyniesie także nową jakość, budowę zapleczy tematycznych z dużą ilością (moderowanej) treści wraz z zawartymi w niej linkami, tak jak życzyliby sobie tego googlarze. Wracając zresztą do kilku klipów wideo w moim blogu, szczególnie tego z Vanessą Fox, można zauważyć wyraźne podpowiedzi co będzie w kolejnych latach promowane przez algorytmy wyszukiwarki.

czwartek, marca 29, 2007

Komenda link: w live.com / Alternatywa dla Captcha

Już dawno przestaliśmy sprawdzać linki za pomocą komendy link: w wyszukiwarce Google. Update linków jest coraz rzadszy, ostatnio już tylko raz na 3 miesiące. Do tego pokazywana jest jedynie próbka, czyli częściowe wyniki. Przywykliśmy więc do korzystania z tej komendy w wyszukiwarce msn.com, a ostatnio live.com. Od kilku dni funkcja jednak nie działa. Zamiast wyników wyszukiwania otrzymujemy pustą stronę. Jak się okazuje, to nie żaden błąd. Jak donosi Eytan Seidman,programista wyszukiwarki live.com opcja ta została czasowo wyłączona ze względu na jej nadużywanie przez automaty sprawdzające ilość linków dla wielu domen używane przez pozycjonerów. Pozostaje nam tylko czekać na rozwiązania zaproponowane przez programistów wyszukiwarki i ponowne uruchomienie usługi.

Każdy z nas wielokrotnie spotykał się z modułem autentykacji użytkownika za pomocą testu Turinga implementowanego w usługę CAPTCHA (Completly Automated Public Turing test to tell Computers and Human Apart). Ze względu na ograniczoną bazę obrazków służących do rozpoznawania ludzkiego użytkownia często CAPTCHA nie jest wystarczającym rozwiązaniem. Doświadczają tego przede wszystkim użytkownicy prowadzący internetowe katalogi, sklepy oraz fora. Pewną odmianę testu Turinga zaproponowały laboratoria badawcze Microsoftu. Korzystając z bazy danych petfinder.com gromadzącej około dwóch milionów zdjęć ... zwierzaków, postanowiono zmodyfikować moduł CAPTCHA w kierunku rozróżniania zdjęć kotów od zdjęć psów. Całość nazwana została Project Asirra i do znalezienia jest pod tym adresem. Moduł CAPTCHA można także zmodyfikować opierając się na gustach użytkowników, jak zresztą widać na załączonym przykładzie.

wtorek, marca 27, 2007

Strategie linkowania



Eric Ward, specjalista od strategii budowania bazy linków udziela wywiadu Mike'owi McDonald'owi. W wywiadzie poruszane są przede wszystkim kwestie sposobów linkowania, ale też powiązanie samego linkowania z treścią serwisu. Poruszane kwestie to m.in. link baiting, powiązanie linków z treścią, linki tematyczne, naturalne oraz zakupione. Myślę, że warto przyjrzeć się temu, jak robi się to profesjonalnie za oceanem. Miłego oglądania.

środa, marca 21, 2007

Katalogi pod lupą

No proszę, Google zaszczyciło nas swoją uwagą. Na oficjalnym blogu wyszukiwarki poświęcono nam cały artykuł zadając sobie nawet trud przetłumaczenia go na język polski (sic!). Do rzeczy. googlarce nie spodobało się SEO w wydaniu polskich pozycjonerów. Zwrócono nam uwagę, iż sztuczne zawyżanie ilości podstron serwisów, których treści nie stanowi większej wartości (tutaj nadmienia się skrypty Qlweb). Postanowiono ograniczyć sztucznie site takich katalogów do 260 wyników, ale algorytm chyba za bardzo się przy tym rozpędził. Ucierpiały na tym bowiem nie tylko katalogi bazujące na skrypcie qlweb, ale ogólnie wiele różnych serwisów, np. zawierające katalogi produktów sklepy internetowe. Tutaj chyba najczęściej wymienianym jest przykład księgarni internetowej Merlin.

Co mnie w tej kwestii zastanawia najbardziej, to szybkość reakcji załogi Google. Jest marzec 2007 roku. O odchodzeniu qlweb-ów do lamusa trąbi się już od zgoła 9 miesięcy. Wszyscy więksi i liczący się pozycjonerzy już dawno zrezygnowali z tego skryptu na rzecz zaplecza tematycznego lub też serwisów przynoszących oprócz mocy linków także konkretne zyski. Dla pozostałych nie powinna stanowić większego problemu przesiadka na inne skrypty, włączając w to autorskie. Czy chodzi tutaj po prostu o chęć wykazania się czymkolwiek polskiego odziału Google? Były kopie biblii, wiki, dmoza, będą kolejne. Google tego rodzaju działaniami dotyka czegoś co isnieje już od dawien dawna zmuszając tym pozycjonerów do ... zwiększenia wysiłków poszukiwania nowych, bardziej wyszukanych dróg pozycjonowania, które do Google okażą się jeszcze trudniejsze do wykrycia i zwalczania.

Tak z innej beczki: właściciel m.in. MTV, VH1 oraz telewizji Nickelodeon pozwał Google, właściciela portalu youtube.com, na okrągłą sumę miliarda dolarów za łamanie praw autorskich i publikację bez zgody właściciela około 160 tysięcy klipów wideo. Jestem ciekaw ile kosztować będzie ugoda.

piątek, marca 09, 2007

Geolokalizacja

Wszyscy już chyba przyzwyczailiśmy się do tego pojęcia, wiemy o jego istnieniu, ale czy każdy zdaje sobie sprawę na jakiej podstawie algorytm wyszukiwarki zwracam naszą stronę w przyciętych regionalnie wynikach? Mieliśmy już wiele teorii, począwszy od tych wskazujących na posiadanie odpowiedniej domeny ( .pl dla lepszej pozycji w wynikach polskiej wyszukiwarki). Inni znów wskazują na znaczenie lokalizacji serwera, lokalizacji firmy dostarczającej nam usługi hostingowe. Większość jednak (w tym także i ja) stoi na stanowisku, że to co najważniejsze w wyszukiwarce Google, czyli linki, ma największy wpływ na regionalizację wyników wyszukiwania. Znając Google, algorytm bierze pod uwagę wszystkie powyższe czynniki, ale też różnie je waży. Zatem pochodzenie linków musi być tutaj kluczowym czynnikiem. Chcąc pozycjonować strony polskie, w polskiej wyszukiwarce robimy to za pomocą linków pochodzących z polskich stron, a nie czeskich.
Geolokalizacja jest pewnym utrudnieniem dla SEO, ale nie jest to rzecz nie do przeskoczenia. Może tylko w niektórych przypadkach zwiększać koszty pozycjonowania.

wtorek, lutego 20, 2007

Nowy algorytm wkrótce ?

Ubiegły rok, jak i początek obecnego przyniósł wiele niepokojących zmian w sposobie wyświetlania wyników Google. Mieliśmy problemy z cache'm naszych stron po tym jak Google postanowił odchudzić swój indeks ze względu na ograniczoną przestrzeń swoich serwerów. Podejrzenia skierowano na algorytm bota, który mógł zostać źle skonstruowany i zamiast wyrzucania cache'u stron nieistniejących już od dłuższego czasu postąpił wręcz odwrotnie. Mieliśmy perturbacje z update PageRanku, gdzie dla wielu stron przywrócono w styczniowym updacie wrześniowe wyniki. Mieliśmy również wiele dziwnych posunięć wprowadzających różnorakie filtry na domeny. Do czego zmierzam. Pojawiły się pewne sygnały o zbliżającej się dużej zmianie w algorytmie wyświetlania wyników przez Google. Czy są to tylko plotki dowiemy się wkrótce, gdyż przypuszczalna data nowego update'u przewidziana jest na ... marzec. Co miałoby się zmienić? Wciąż najważniejsze byłyby linki, ale już nie sama ich ilość i siła. Google miałby postawić na klikalność linków, ilość kliknięć stanowiłaby siłę głosu jaki dana strona oddaje na naszą domenę. Oznaczałoby to, że strona z PageRank 3 generująca duży ruch, na której linki często są klikane oddawałaby na naszą stronę mocniejszy głos, niż strona z PageRank 7, gdzie mielibyśmy do czynienia ze znikomą ilością odwiedzin. Co powstrzymało by nas przed wynajęciem taniej siły roboczej mającej na celu jedynie klikanie na linki do naszych stron? W tym miejscu wchodzi w grę geolokalizacja. Jeśli mamy swój portal w Polsce, a osoba klika nasze linki np. z Chin, wtedy nasz portal wyświetlałby się wysoko w wynikach dla danej frazy (anchor text linka) w Google chińskim ( o ile jest możliwe przełożenie polskiej frazy na język chiński, ale załóżmy, że chodzi nam tutaj o czysto teoretyczną sytuację). Moim zdaniem, każdy kolejny update algorytmu zarządzającego wynikami w SERPach powiniem promować wartościowe strony kosztem spamu, zresztą kto tak nie myśli, nawet Google ma to za cel, choć nie zawsze im to wychodzi. Wydaje się, że mamy tu do czynienia z próbą połączenia starej idei content is king z ideą promowania stron za pomocą siły linków w ten sposób, że osoby będą klikać w linki wiodące do naszej strony wszędzie tam, gdzie znajdą content zachęcający do kliknięcia w tenże link. Powiązanie contentu z linkami w ten sposób uważam, że generowałoby bardziej porządany ruch na naszych stronach. Jeśli ktoś zapozna się z treścią promującą nasz serwis (np. w artykule), to tylko wtedy kliknie nasz link, jeśli chociaż część tej treści wyda się interesująca i zbieżna z szukanym materiałem. Czy ta teoria sprawdzi się, dowiemy się wkrótce. Warto być przygotowanym na każdą zmianę.

Jakie zaplecze ?

Każdy, kto trochę bardziej zainteresował się w swoim życiu pozycjonowaniem doszedł do momentu, w którym należałoby zaplanować budowę własnego zaplecza. I każdy z nas zapewne zadał sobie wiele pytań z tym związanych. Jakie zaplecze budować ? Jakim kosztem ? Ile czasu mi to zajmie ? Sposobów jest wiele, ale też ich wybór wpływa w głównej mierze na wartość zaplecza. A jak wiadomo, każdy chciałby mieć zaplecze jak najbardziej wartościowe. Można wybrać prostą drogę, przejrzeć zasoby internetu w poszukiwaniu gotowych skryptów i niewielkim wysiłkiem zbudować zaplecze na darmowych hostingach. W następnym kroku dochodzimy do konieczności podlinkowania tegoż zaplecza, kto zdoła wysupłać kilka groszy, ten zafunduje sobie usługę automatycznego dodawania stron do katalogów, mniej zasobni długimi godzinami będą ręcznie podsuwać linki. Efekt końcowy, mamy jako tako zaplecze, którego możemy użyć do pozycjonowania stron klientów na średnio trudne frazy. Gdzie haczyk? Prosta droga przyciąga zazwyczaj osoby leniwe, w pogoni za łatwym zarobkiem. Obecnie można zauważyć spory wysyp ofert pozycjonowania stron, nie bójmy się tego powiedzieć, marnej jakości, wprowadzających w błąd potencjalnego klienta, psujących dobrą opinię środowiska i zniechęcających do korzystania z tej formy marketingu. Co najgorsze, nie są to jedynie oferty pojedynczych pseudo-pozycjonerów, ale także firm, które posiadają wyrobioną markę. Po czym poznamy zatem osobę posiadającą dobrej jakości zaplecze? Chcąc pozycjonować trzeba najpierw zainwestować. Zarówno w serwer, jak i w domeny. Poważnym minusem darmowego hostingu i domen jest to, że w każdej chwili mogą przestać funkcjonować, serwery takie mają też niewielkie, bądź też żadne możliwości konfiguracji, w szczególności jeśli chodzi o konfigurację mod_rewrite. Dobry pozycjoner nie idzie na łatwiznę, korzystając jedynie z gotowych rozwiązań (choć te też są przydatne). Osoba taka ma pomysł. Dobry pomysł na budowę zaplecza przysporzy samemu zapleczu dużego ruchu i może dzięki temu zarabiać samo na siebie, chociażby poprzez reklamę typu AdSense. Jeśli jeszcze do tego uda nam się stworzyć rozległe zaplecze tematyczne, wtedy możemy pretendować do bycia pozycjonerem i bez wstydu przedstawiać naszą ofertę potencjalnym klientom.

wtorek, lutego 13, 2007

Piraci ze stajni Google

No i poszła wieść w świat. My tutaj, na tym naszym małym polskim poletku SEO zastanawiamy się, czy ten Gugiel, to taki fajny gość, który daje nam tyle dobrego, czy też Wielki Brat, który podsuwając nam pod nos super narzędzia szpieguje nas każdego dnia. A tu proszę taka wpadka. Pracownicy giganta śledząc ogromny ruch na stronach oferujących możliwość nielegalnego ściągania filmów zaproponowali właścicielom serwisu ... wykup kampanii AdWords na frazy jednoznacznie powiązane z piractwem komputerowym, takie jak "bootleg movie download" (dosłownie: nielegalne ściąganie filmów) i "download harry potter movie". Dzięki zaproponowanym przez Google frazom ruch na stronach znacznie wzrósł pomagając piratom w powiększeniu swoich zysków z tego procederu. Ponoć jest już pozew "dużych kompanii medialnych" przeciwko właścicielom wyszukiwarki wskazujący na czerpanie korzyści przez Google z nielegalnego rozprowadzania filmów oraz wsparcia biznesowego dla dwóch portali internetowych podejrzewanych o oferowanie nielegalnego dostępu do pirackich kopii filmów.

Źródło: ThreadWatch, Wall Street Journal Online, DailySearchCast

poniedziałek, lutego 12, 2007

12 zasad dobrego SEO

Krążąc po internecie (a jak!) natknąłem się na pewien artykuł, który postanowiłem po części przetłumaczyć (dzięki Gary!). Generalnie skupia on w większości zasady znane wielu z Was od dawna. Jest jednak kilka, które dla mnie jak i dla Was mogą być dosyć nowe. Postanowiłem zaprezentować je tutaj, mam nadzieję, że tłumaczenie dobrze odda sens słów.

12 zasad dobrego SEO

  1. Content - wysokiej jakości zawartość serwisu, pisana przez ludzi, którzy znają się na rzeczy, są osobami z branży, której dotyczy serwis lub też osobami, którym możemy zaufać, że najpierw pomyślą, zanim napiszą. Nowa treść powinna pojawiać się jak najczęściej, nie co miesiąc, nie co tydzień, najlepiej codziennie. Jeśli przeanalizujecie swoje logi, dowiecie się jak często boty zaglądają na Waszą stronę. Jeśli zauważają na niej nowy content, robią to częściej. Dobre serwisy odwiedzane są przez boty kilka razy dziennie. Co więcej, jeśli boty nie znajdą nowego contentu, wtedy szybko opuszczą stronę, jeśli natomiast będziemy często podsuwać im nową treść, wtedy możemy liczyć na to, że zostaną dłużej na naszej stronie, a co za tym idzie, będą podążać naszymi linkami w poszukiwaniu większej ilości nowej treści (właściwa nawigacja serwisu może zdziałać w tej mierze cuda). Nowy, ciekawy content to mnóstwo pracy i czasu, a czasem też i pieniędzy, ale to właśnie on wyróżnia Nasz serwis spośród tysięcy innych stron.
  2. Link przychodzące ze stron o dobrej renomie oraz pokrewnych tematycznie - strony o dobrej renomie, to strony zazwyczaj z PageRank 4 lub więcej, z których nie wychodzi więcej niż około 50 linków lub też strony z niższym PageRank, z których wychodzi co najwyżej 10-25 linków. Do najlepszych referrerów należą fora, blogi. Zdobywanie linków powinno być ciągłym, przemyślanym procesem. Linki, dla optymalnego efektu powinny wskazywać naszą stronę przez co najmniej 12-18 miesięcy. Duże, krótkotrwałe skoki linków w górę, a następnie szybki spadek to czerwone światło dla wszystkich wyszukiwarek. Tylko ciągłe, zrównoważone budowanie linków zagwarantuje nam pozycje na czele rankingów w dłuższej perspektywie. To oznacza zakaz partycypowania w farmach linków (wyszukiwarki potrafią wyłowić je w sieci). Algorytmy wyszukiwarek cenią ponad wszystko naturalne formy linkowania (albo takie, które wyglądają na naturalne).
  3. Zróżnicowane tytuły i opisy - były i wciąż są ważnym elementem każdej strony. Tytuł wciąż służy algorytmom do klasyfikowania tematyki strony i porównywania z zapytaniami użytkowników zarówno w wynikach organicznych, jak i płatnych reklamach. Opis (description) wciąż ma swoją wagę.
  4. Architektura strony/Nawigacja - to jak dobrze wewnętrznie linkowany jest nasz serwis jest wyznacznikiem tego, jak wieloma linkami podążać będą boty i jak długo pozostaną na naszych stronach.
  5. Słowa kluczowe - używaj na stronie 2-3 fraz kluczowych, nie przesadzaj z ich ilością, ale nie zapomnij też o tym, żeby znalazły się w każdym istotnym miejscu (tytuł, opis, keywords, treść, linki, tagi grafik).
  6. Mapy serwisu w XML - podsunięcie pod nos przeglądarek map to najlepszy sposób na ułatwienie im dotarcia do nas. Zarówno Google, jak i Yahoo i MSN zaadoptowały je już w swoich usługach. Korzystanie z map w XML daje nam wiedzę, kiedy i jak długo odwiedzał nas dany bot, ale także pozwala nam dowiedzieć się czy znalazł jakieś błędy.
  7. Media - grafiki, dźwięki audio, jak i obrazy wideo - staraj się, aby one także stały się częścią Twojego serwisu. Google, Yahoo i MSN, już teraz bądź też w niedalekiej przyszłości będą starały się ułatwić dotarcie użytkownikom do Naszych serwisów właśnie poprzez wyszukiwanie grafiki (Google Images), dźwięku i obrazu wideo.
  8. Web 2.0 - promowanie się w blogach i na forach internetowych dużych serwisów (flickr, myspace, technorati) poprzez publikacje.
  9. Sieci mobilne - starajmy się tworzyć serwisy, które będą dostępne także osobom korzystającym z internetu za pomocą telefonów komórkowych oraz wszelkich innych urządzeń przenośnych mniejszych od laptopów.
  10. Pokrewność tematyczna stron - staraj się aby nawigacja Twojego serwisu stwarzała wrażenie spójnej. Linkuj strony pomiędzy sobą tylko wtedy, kiedy ich treść jest ze sobą powiązana.
  11. Ciągłe monitorowanie i analiza statystyk - jest kluczową sprawą. Umiejętna analiza wyników naszych stron, zarówno tych organicznych, jak i płatnych, oraz zachowań użytkowników jest kluczowa dla odniesienia sukcesu.
  12. Buduj serwis o dobrej renomie - gromadź linki ze stron o pokrewnej tematyce, publikuj artykuły. Pamiętaj, że linki to to, czego potrzebujesz, ale to linki ze stron o pokrewnej tematyce wyniosą Cię wysoko w wynikach. Staraj się gromadzić linki ze stron władz publicznych (*.gov) oraz stron poświęconych nauce ( *.edu).

piątek, lutego 09, 2007

Redesign

Jeśli nie jest to Twoja pierwsza wizyta na moim blogu, to pewnie zauważyłeś zmiany. Znudził mi się już szablonowy styl prezentacji ( z całym szacunkiem dla twórcy szablonu) i postanowiłem całkowicie przebudować strukturę i oraz formę prezentacji. To pewnie jeszcze nie koniec zmian, jak coś nowego przyjdzie mi do głowy, to pewnie odbije się to na wyglądzie strony. Co przede wszystkim chciałem uzyskać, to lepszą czytelność i łagodniejsze dla oka czcionki, zdecydowanie biały tekst na niebieskim tle nie stanowił najlepszego zestawienia. Do tego postanowiłem wykorzystać niezagospodarowaną dotąd przestrzeń po obu stronach, dzięki czemu konieczność scrollowania w trakcie czytania posta została sprowadzona do minimum. Życzę miłej lektury.

czwartek, lutego 08, 2007

I po updacie ...

No i mieliśmy kolejny update page rank-u w google, było sporo kontrowersji, zresztą jak przy każdym updacie, jednym szedł w góre, innym w dół, jeszcze innym przywracał stare wartości. PR wprawdzie nie ma już takiej wartości jak niegdyś, aczkolwiek wciąż ma wartość marketingową i czysto estetyczną dla osób mnie obeznanych z marketingiem internetowym. Jak dotąd PR3 jest górną wartością dla moich stron, więc cel na przyszłość jest jednoznaczny. Wciąż jednak nie jestem zadowolony z ilości linków zaindeksowanych przez googla. Wczoraj bawiłem się nową zakładką Google Webmasters pozwalającą przejrzeć zewnętrzne i wewnętrzne linki zaindeksowane przez googla. Narzędzie daje zdecydowanie większe możliwości niż komenda link: pokazująca niewielki procent linków. Wprawdzie da się słyszeć głosy, iż jest to kolejny szpieg giganta, ale to głos przede wszystkim tych, którzy mają coś do ukrycia ... Pierwsze Mistrzostwa Świata SEO rozkręcają się, fraza "globalwarmingawareness2007" pozycjonowane jest zarówno przez osoby indywidualne, jak i grupy oraz firmy z branży SEO, cóż Citroen C2 i rejs statkiem po Karaibach to naprawdę ciekawe nagrody. Ale to nie wszystko, te mistrzostwa, jak i wiele konkursów pozycjonerskich dają przede wszystkim prestiż i poważanie w środowisku, jak i wyrabiają markę, a co za tym idzie, zwiększają napływ klientów.

wtorek, stycznia 09, 2007

Przyjazne URLe ?

Wiele osób prowadzących własny serwis internetowy zadaje sobie to pytanie, kiedy nadejdzie czas na szerszą promocję w internecie . Długie adresy URL zawierające szereg zmiennych mogą stanowić nie lada problem dla botów wyszukiwarek. Tutaj z pomocą przychodzi apache'owy mod_rewrite pozwalający na przekształcenie adresu na bardziej przyjazny dla oka użytkownika, jak i dla bota. Wiele osób nie radzi sobie jednak z tym problemem, co można zauważyć na wielu forach dotyczących SEO. Z pomocą mogą przyjść forumowicze, jak i odpowiednie narzędzia, które możemy znaleźć w internecie. Jedno z takich narzędzi dostępne jest tutaj. Wystarczy wpisać dynamiczny URL naszej strony, po czym wygenerowany zostanie odpowiedni kod, który należy wkleić do naszego pliku .htaccess. Efektem będzie statyczny URL, bardziej przyjazny użytkownikowi jak i wyszukiwarkom.

środa, stycznia 03, 2007

Pierwsze Mistrzostwa Świata SEO



No i doczekaliśmy się, mieliśmy wiele konkursów SEO, tym razem przyjdzie nam śledzić pierwsze mistrzostw świata w pozycjonowaniu (może za kilka lat SEO zostanie uznane za dyscyplinę olimpijską?). Mistrzostwa rozpoczną się 15 stycznia 2007 roku. Zasada jest prosta, zostanie wybrana fraza, którą będzie należało wypozycjonować w trzech wiodących wyszukiwarkach: Google, Yahoo i Live(MSN). Oczywiście punktowane będą jedynie miejsca w pierwszej dziesiątce. No cóż, dla mnie trochę za wysokie progi, choć nagrody naprawdę ciekawe. Na pewno będę przyglądał się na bieżąco przebiegowi rywalizacji, zapewne będzie to okazja do pobrania nauk od prawdziwych fachowców. Przy okazji dowiadujemy się, jak bardzo w tyle jesteśmy za Szwedami jeśli chodzi o dostępność i szybkość łącza internetowego.