Search Engine Optimization and "Other Stuff" Blog

czwartek, marca 29, 2007

Komenda link: w live.com / Alternatywa dla Captcha

Już dawno przestaliśmy sprawdzać linki za pomocą komendy link: w wyszukiwarce Google. Update linków jest coraz rzadszy, ostatnio już tylko raz na 3 miesiące. Do tego pokazywana jest jedynie próbka, czyli częściowe wyniki. Przywykliśmy więc do korzystania z tej komendy w wyszukiwarce msn.com, a ostatnio live.com. Od kilku dni funkcja jednak nie działa. Zamiast wyników wyszukiwania otrzymujemy pustą stronę. Jak się okazuje, to nie żaden błąd. Jak donosi Eytan Seidman,programista wyszukiwarki live.com opcja ta została czasowo wyłączona ze względu na jej nadużywanie przez automaty sprawdzające ilość linków dla wielu domen używane przez pozycjonerów. Pozostaje nam tylko czekać na rozwiązania zaproponowane przez programistów wyszukiwarki i ponowne uruchomienie usługi.

Każdy z nas wielokrotnie spotykał się z modułem autentykacji użytkownika za pomocą testu Turinga implementowanego w usługę CAPTCHA (Completly Automated Public Turing test to tell Computers and Human Apart). Ze względu na ograniczoną bazę obrazków służących do rozpoznawania ludzkiego użytkownia często CAPTCHA nie jest wystarczającym rozwiązaniem. Doświadczają tego przede wszystkim użytkownicy prowadzący internetowe katalogi, sklepy oraz fora. Pewną odmianę testu Turinga zaproponowały laboratoria badawcze Microsoftu. Korzystając z bazy danych petfinder.com gromadzącej około dwóch milionów zdjęć ... zwierzaków, postanowiono zmodyfikować moduł CAPTCHA w kierunku rozróżniania zdjęć kotów od zdjęć psów. Całość nazwana została Project Asirra i do znalezienia jest pod tym adresem. Moduł CAPTCHA można także zmodyfikować opierając się na gustach użytkowników, jak zresztą widać na załączonym przykładzie.

wtorek, marca 27, 2007

Strategie linkowania



Eric Ward, specjalista od strategii budowania bazy linków udziela wywiadu Mike'owi McDonald'owi. W wywiadzie poruszane są przede wszystkim kwestie sposobów linkowania, ale też powiązanie samego linkowania z treścią serwisu. Poruszane kwestie to m.in. link baiting, powiązanie linków z treścią, linki tematyczne, naturalne oraz zakupione. Myślę, że warto przyjrzeć się temu, jak robi się to profesjonalnie za oceanem. Miłego oglądania.

środa, marca 21, 2007

Katalogi pod lupą

No proszę, Google zaszczyciło nas swoją uwagą. Na oficjalnym blogu wyszukiwarki poświęcono nam cały artykuł zadając sobie nawet trud przetłumaczenia go na język polski (sic!). Do rzeczy. googlarce nie spodobało się SEO w wydaniu polskich pozycjonerów. Zwrócono nam uwagę, iż sztuczne zawyżanie ilości podstron serwisów, których treści nie stanowi większej wartości (tutaj nadmienia się skrypty Qlweb). Postanowiono ograniczyć sztucznie site takich katalogów do 260 wyników, ale algorytm chyba za bardzo się przy tym rozpędził. Ucierpiały na tym bowiem nie tylko katalogi bazujące na skrypcie qlweb, ale ogólnie wiele różnych serwisów, np. zawierające katalogi produktów sklepy internetowe. Tutaj chyba najczęściej wymienianym jest przykład księgarni internetowej Merlin.

Co mnie w tej kwestii zastanawia najbardziej, to szybkość reakcji załogi Google. Jest marzec 2007 roku. O odchodzeniu qlweb-ów do lamusa trąbi się już od zgoła 9 miesięcy. Wszyscy więksi i liczący się pozycjonerzy już dawno zrezygnowali z tego skryptu na rzecz zaplecza tematycznego lub też serwisów przynoszących oprócz mocy linków także konkretne zyski. Dla pozostałych nie powinna stanowić większego problemu przesiadka na inne skrypty, włączając w to autorskie. Czy chodzi tutaj po prostu o chęć wykazania się czymkolwiek polskiego odziału Google? Były kopie biblii, wiki, dmoza, będą kolejne. Google tego rodzaju działaniami dotyka czegoś co isnieje już od dawien dawna zmuszając tym pozycjonerów do ... zwiększenia wysiłków poszukiwania nowych, bardziej wyszukanych dróg pozycjonowania, które do Google okażą się jeszcze trudniejsze do wykrycia i zwalczania.

Tak z innej beczki: właściciel m.in. MTV, VH1 oraz telewizji Nickelodeon pozwał Google, właściciela portalu youtube.com, na okrągłą sumę miliarda dolarów za łamanie praw autorskich i publikację bez zgody właściciela około 160 tysięcy klipów wideo. Jestem ciekaw ile kosztować będzie ugoda.

piątek, marca 09, 2007

Geolokalizacja

Wszyscy już chyba przyzwyczailiśmy się do tego pojęcia, wiemy o jego istnieniu, ale czy każdy zdaje sobie sprawę na jakiej podstawie algorytm wyszukiwarki zwracam naszą stronę w przyciętych regionalnie wynikach? Mieliśmy już wiele teorii, począwszy od tych wskazujących na posiadanie odpowiedniej domeny ( .pl dla lepszej pozycji w wynikach polskiej wyszukiwarki). Inni znów wskazują na znaczenie lokalizacji serwera, lokalizacji firmy dostarczającej nam usługi hostingowe. Większość jednak (w tym także i ja) stoi na stanowisku, że to co najważniejsze w wyszukiwarce Google, czyli linki, ma największy wpływ na regionalizację wyników wyszukiwania. Znając Google, algorytm bierze pod uwagę wszystkie powyższe czynniki, ale też różnie je waży. Zatem pochodzenie linków musi być tutaj kluczowym czynnikiem. Chcąc pozycjonować strony polskie, w polskiej wyszukiwarce robimy to za pomocą linków pochodzących z polskich stron, a nie czeskich.
Geolokalizacja jest pewnym utrudnieniem dla SEO, ale nie jest to rzecz nie do przeskoczenia. Może tylko w niektórych przypadkach zwiększać koszty pozycjonowania.