Mobile first indexing. Jakie zmiany nadchodzą?

mobile first indexing

Statystyki są nieubłagane i rzeczowe. Kiedy wyniki wyszukiwania z urządzeń mobilnych przechyliły szalę wagi na swoją, stronę stało się oczywistym, że to najwięksi pokażą, w którym kierunku podąży sieć. Google od długiego już czasu prowadzi prace i testy nad nowym sposobem oceniania serwisów. Ma do tego służyć przygotowywany i testowany mobile first index.

Prezentowane w nim są wytyczne, jakie będą zastosowane w nowym algorytmie wyszukiwania i służące do klarownego oceniania ich wartości przez pryzmat wersji mobilnej. Rodzi to konieczność wykonania wielu prac przygotowujących serwis do nowej sytuacji. Jednym z ważniejszych zadań jest dobra obsługa ruchu robotów sieciowych.

Na jakie pomysły wpadali webmasterzy?

Mobilna wersja strony www mogła być emulowana przez proste zabiegi, które dawały pozór responsywności i nie były zakazane. Sposoby na osiągnięcie celu były banalnie proste, wykorzystujące furtki w algorytmie i zawstydzające jego twórców. Wersja mobilna była do osiągnięcia przy zastosowaniu prostego triku ze znacznikiem <div> służącym do grupowania elementów blokowych w celu późniejszego formatowania przy pomocy CSS. Z elementem oprócz arkusza formatującego współpracuje plik dynamiczny napisany w jednym z języków skryptowych i odpowiedzialny z wypełnienie diva tekstem np. o używaniu na stronie ciasteczek, zajmujący całą szerokość strony. Dzięki działaniu skryptu blok automatycznie dopasowuje się do szerokości ekranu wyświetlającego go urządzenia. Dlatego niezależnie, czy były to urządzenia mobilne, czy komputer stacjonarny, komunikat o możliwości dopisania się do listy mailingowej na newsletter zajmował całą szerokość ekranu. Choć ilość tekstu nie wymuszała takich zabiegów.

Innym sposobem bardziej subtelnym było zastosowanie tagu viewport. Znacznik służy do określenia obszaru widocznego wraz ze sterowaniem parametrami jego wymiarów oraz dopasowania. Szczególną uwagę należało zwrócić na atrybut device, aby nadać mu parametr odpowiadający za skalowanie szerokości do kalibru ekranu promptera.

Co ważne dopuszczane były typowe błędy wersji desktopowych dotyczące prezentacji na urządzeniach mobilnych:

  • treść niemieszcząca się w polu prezentacji
  • zbyt mała, przez co nieczytelna czcionka
  • elementy klikane zbyt blisko siebie, umieszczone na przyciskach wielkością nieprzystosowanych do obsługi przez duże palce dorosłych użytkowników.

Mimo wszelkich zaniedbań wiele stron internetowych dzięki tym dwuznacznym działaniom otrzymywało etykiety mobilności.

Wnioski z tej obserwacji są nader cierpkie. Dowodzi to działań będących sztuką dla sztuki. Nie wpływa to pozytywnie na wizerunek strony. Stopień odrzuceń jest wysoki. Niefunkcjonalna strona www nie zachęca do powrotów. Wymuszona pseudomobilność jest co najwyżej przejawem arogancji i niefrasobliwości. W efekcie to użytkownicy weryfikują najpełniej każdą witrynę internetową.

Google mówi nie

Wcześniej już nadmienione statystyki wyszukiwania i dbałość o własne interesy spowodowało, że Google wprowadza nowy sposób oceniania wszystkich serwisów. Ważne będzie posiadanie wersji dla urządzeń mobilnych. To ona będzie determinować pozycję w SERP-ach. Jest to przejaw niewidzialnej ręki rynku. Egoizm przedsiębiorców w zderzeniu z konkurencją powoduje ich zaangażowanie w dbałość o interesy klientów i klientów tych klientów. Google nie pozwala na działania niezgodne z wytycznymi, bo te strony są często bezwartościowe. Znajdując się wysoko w wynikach wyszukiwania, zabierają miejsce przedsięwzięciom wartościowym, które nie mogą się przebić wyżej.

Dopóki możliwości ludzkiej percepcji pozostają na obecnym poziomie, dopóty będą potrzebne wyszukiwarki dokonujące preselekcji wyników. Choć ludzki umysł przewyższa rozwiązania elektroniczne pod wieloma względami, brakuje mu jednak konsekwencji w działaniu, która jest zaburzana przez świadomość.

Prace nad nowym indeksem wartościującym portale w nowy sposób i próby związane z wprowadzeniem go w życie nazwane zostały przez środowisko webmasterów mobilegeddon. Google w związku z tym oddaje wiele narzędzi do ręki fachowców. Mobilegeddon Google tool, to często wpisywane hasło w okno przeglądarki. Wszyscy są ciekawi, jak ocenia ich największa na rynku wyszukiwarka. Mobilegeddon Google test jest stałym elementem pracy speców od pozycjonowania.

Na szczęście nawet brak doświadczenia w dziedzinie pozycjonowania nie jest przeszkodą, by ocenić stan faktyczny własnego serwisu. Google udostępnia darmowe narzędzie do testowania stron pod kątem etykiety mobile-friendly. Można je znaleźć pod adresem https://search.google.com/test/mobile-friendly
Wskazane jest też, by zadbać o częste i owocne wizyty botów.

Bądź gościnny dla botów

Nowe porządki mogą zachwiać pozycjami wielu stron internetowych. W ramach działań optymalizacyjnych związanych z wprowadzeniem nowego indeksu należałoby zadbać o aspekt indeksacji.

Programy indeksujące działając z ramienia przeglądarek, są pożyteczne, jednak wywołują znaczny ruch sieciowy. Nowoczesne programy do indeksacji potrafią zachowywać się jak użytkownik na stronie, co niestety zaburza statystyki. Dawniej roboty pobierając kod strony, nie wykonywały zawartych na niej skryptów, co nie odbijało się na wzrostach ilości odwiedzin zapisanych w statystykach. Dziś jest inaczej. Stąd lekko zafałszowane wyniki.

Skrypty programów wyszukiwarek mogą odwiedzać serwisy internetowe w związku z różnymi zadaniami.
Niektóre, jak – scrapery – sczytują zawartość, tak by po posortowaniu prezentować je w sposób graficzny w formie zestawienia. Obsługują one wyjście używane przez ludzi, a przetwarzają dane w sposób charakterystyczny maszynom.

Crawlowanie strony wwwRoboty indeksujące strony zwane – crawlerami – katalogują zawartości portali na potrzeby wyszukiwarek. W sieci żyją crawlery, które czytają strony www powierzchownie, zaglądając na nie każdego dnia. Wtedy nazywa się to – fresh crawl. Program porównuje podczas wizyty zebrane dane z poprzednią zarejestrowaną wersją i wyszukuje różnice. Deep crawl – wykonywany jest o wiele rzadziej. Podczas sesji przeszukują one gruntownie zawartość witryny. Od tych wizyt w dużym stopniu zależy częstotliwość indeksacji. Stosując pewne zabiegi, można wpłynąć na częstotliwość katalogowania.

Należą do nich:

  • pozyskiwanie linków, które mogą sprowadzić roboty wiedzione odnośnikiem z atrybutem follow
  • częste aktualizowanie treści np. prowadzenie bloga albo forum dyskusyjne
  • poprzez Google Search Console dające możliwość wywołania funkcji „Pobierz jako Google”.

 

Internet aż roi się od programów odwiedzających strony www. Oprócz wzmagania ruchu sieciowego mogą wykonywać przeróżne zadania. Nie zawsze zgodne z interesami gospodarza.

Co zrobić, by mieć kontrolę nad odwiedzinami i dopuszczać tylko do chcianych odwiedzin. W celu zdobycia podstawowych informacji należy zbadać nagłówki logów wysyłanych podczas komunikacji z serwerem www. Znajdują się tam charakterystyczne fragmenty świadczące o tożsamości przybysza. Korzystając ze wstecznego wyszukiwania DNS, można porównać informację wyjściową z powracająca. Jeśli różnią się, znaczy to, że mamy do czynienia z niby robotem.

Czemu programy podszywają się pod crawlery?

Roboty indeksujące podczas pracy mają o wiele większe uprawnienia i widzą w serwisie o wiele więcej. Dopuszcza się je w miejsca niedostępne dla zwykłych użytkowników. Nieosiągalne lub chronione limitowanym dostępem np. płatne obszary serwisu. Cybernaciągacz pod płaszczykiem bota może ominąć wiele zabezpieczeń i wyprowadzić wiele danych z serwisu.
Korzystając z Google Analytics i narzędzia Spider Test można wyłuskać niechcianych gości i nałożyć filtr na ich odwiedziny. Spider posiada opcję segmentacji i wyłuskiwania potencjalnych robotów sieciowych.

Mobile first indexing. Jakie zmiany nadchodzą?
Ocena: 4.1 (82.86%) 14

Joanna Nowicka

Od lat jestem pasjonatką nowych technologii. Interesuję się przede wszystkim marketingiem internetowym i tworzeniem stron. Moją ogromną pasją jest SEO.

Powiązane artykuły

2 komentarze
  • Wojt

    Będzie się działo. Ciekawe czy będzie to widoczne w spadkach witryn tych największych graczy.

    Marzec 27, 2018 Odpowiedz
  • giv

    W sumie to od dawna to już zapowiadali ale jakoś nie miało wielkiego przełożenia. Zobaczymy jak to będzie tym razem. Może jakieś case study?

    Marzec 27, 2018 Odpowiedz

Leave a Comment