Programmatic SEO w pigułce PDF i Spam Update [MałySEO #11]
Dziś na start mam dla was fantastyczną niespodziankę — PDF ze 134 slajdami z prezentacji Sebastiana Heymanna, który przed kilkoma tygodniami swoim przebojowym przedstawieniem tematu programmatic SEO zdobył serca publiczności semKRK#22 BIG. Wybrałem również kilka faktów na temat Spam Update’u, którego wdrażanie rozpoczęło się 20 czerwca, 9 newsów ze świata Google’a, 11 dogłębnych materiałów o SEO oraz jedną doskonałą ofertę pracy. Miłej lektury!
Spis treści:
Programmatic SEO w pigułce
Rozpoczął się Spam Update. Co to właściwie oznacza?
9 newsów ze świata Google’a
Praca szuka seowczyni lub seowca
11 dogłębnych materiałów o SEO
|
---|
Programmatic SEO w pigułce - strategie, rozwiązania, case studies
Dzięki uprzejmości Sebastiana Heymanna na samym początku dzisiejszego MałySEO Newslettera mogę podrzucić Wam przesoczysty plik pdf. Znalazły się w nim 134 slajdy z prezentacji Zaprogramuj swoje SEO, która zajęła pierwsze miejsce w głosowaniu publiczności podczas eventu semKRK#22 BIG!
Dokument, który otworzy się po kliknięciu w powyższy link, to potężna dawka wiedzy na temat programmatic SEO. Sebastian omawia w prezentacji najważniejsze strategie pSEO, opisuje szczegółowo procesy, prezentuje techniki wprowadzane na żywych organizmach i przede wszystkim sprawia, że temat przedstawiany niekiedy jako wiedza dla wtajemniczonych staje się zrozumiały oraz realistyczny do wdrażania nie tylko na stronach z szarej strefy afiliacji.
Ktoś mógłby powiedzieć w tym momencie “hola, hola, kolego, a co mnie po samej prezentacji bez prelegenta”, ale jak najbardziej znajdzie się na to satysfakcjonująca odpowiedź. W środę 3 lipca w godz. 12:00-13:00 odbędzie się w formie webinaru praktyczne szkolenie Programmatic SEO - Zaprogramuj swoje SEO. Zapisy prowadzone są pod tym adresem. Obecność obowiązkowa!
Rozpoczął się Spam Update. Co to właściwie oznacza?
20 czerwca Google ogłosił początek June 2024 Spam Update. Według informacji z Google Search Status Dashboard pełne wdrożenie może potrwać około tygodnia. Możliwe zatem, że kiedy czytacie to słowa, pojawiły się już informacje na temat zakończenia aktualizacji.
Wiele osób pokładało w ogłoszeniu nowego update’u duże nadzieje, ponieważ może odwrócić on ciągły trend spadkowy witryn, które zaczęły tracić widoczność wraz z Helpful Content Update we wrześniu 2023 roku. Warto jednak przypomnieć, że system Helpful Content jest obecnie częścią głównego algorytmu, zatem z dość dużą dozą prawdopodobieństwa Spam Update w tym przypadku nie pomoże i czekać trzeba na ogłoszenie Core Update’u.
Naturę Spam Update najlepiej oddaje notka z dokumentacji o aktualizacji rankingu. Aktualizacjom dotyczącym spamu podlegają według niej automatyczne systemy Google do wykrywania spamu w wyszukiwarce, na przykład SpamBrain. Zważywszy na fakt, że aktualizacje dotyczące spamowych linków ogłaszane są zazwyczaj oddzielnie pod nazwą Link Spam Update, możemy przypuszczać, że obecna aktualizacja skupi się przede wszystkim na treściach.
Co ciekawe, dwa ostatnie Spam Update’y wdrażane były jednocześnie z Core Update’ami, co znacząco utrudniało identyfikowanie elementów, w które były wycelowane. Ostatni niezależny Spam Update miał miejsce w październiku 2022 roku. Mimo przypuszczeń, iż Core Update wystartuje lada dzień i tym razem, po niemal tygodniu nic takiego się nie wydarzyło.
W komentarzu na Linkedinie oraz wpisie na Twitterze jednoznacznie określono, że częścią obecnego Spam Update’u nie jest algorytmiczne wdrożenie polityki dotyczącej nadużywania zaufania do witryny (kampania antykuponowa). Według deklaracji Google Search Central początek uderzeń algorytmicznych zostanie wyraźnie ogłoszony.
W dniu update’u pojawiły się również przejściowe problemy z indeksacją, o których naprawieniu zostaliśmy poinformowani tego samego dnia. Dotyczyły one nawet największych anglojęzycznych wydawców (Forbes, CNBC, CNN, WSJ, NYT etc.), jednak nie dowiedzieliśmy się, czy były one w jakikolwiek sposób powiązane z rozpoczęciem Spam Update’u.
9 newsów ze świata Google
Jak się okazuje, przejście na infinity scroll w wynikach wyszukiwania nie było najbardziej trwałą zmianą w historii Google. Od 25 czerwca paginacja SERP-ów wraca na desktopach (sprawdziłem i faktycznie tak jest!), a zgodnie z informacjami Search Engine Land niedługo przycisk "Więcej rezultatów” pojawi się także na mobile. Powodem odwrócenia tej niemałej rewolucji jest wg Google chęć oszczędzenia zasobów połączona z brakiem znaczącego wpływu infinity scrolla na satysfakcję użytkowniczek i użytkowników.
Kosmetycznego update’u doczekała się dokumentacja dotycząca Karuzeli uporządkowanych danych (beta), które od lutego wdrożone zostały na terenie Europejskiego Obszaru Gospodarczego. Co ciekawe, zmiana ta nie dotarła jeszcze do dokumentacji polskojęzycznej.
John Mueller potwierdził w trakcie June 2024 Google SEO office hours, że treść tłumaczona na inny język nie jest traktowana jako duplicate content. W artykule opublikowanym w Search Engine Journal Matt G. Southern rozwija tę myśl, podając przykłady podstron nadających się do bezpośredniego tłumaczenia oraz tych, do których oryginalności warto się przyłożyć.
Co jeszcze ciekawego mogliśmy usłyszeć lub przeczytać w czerwcowym Q&A? Ano w sumie niezbyt wiele, standardowo były to przede wszystkim zachęty do dbania o jakość treści oraz wprowadzanie konkretnych poprawek technicznych z myślą o użytkownikach. Ponadto Gary Illyes zadeklarował, że disavowanie toksycznych linków jest przy obecnych systemach antyspamowych zbyteczne, a John stwierdził, iż posiadanie na podstronie linków afiliacyjnych nie czyni jej automatycznie złą lub mało pomocną. Generalnie rzecz biorąc - wiele pustosłowia, nie warto tracić czasu na lekturę albo odsłuch.
W dokumentacji Google Merchant Center na temat danych strukturalnych wskazano, że dane te powinny być dodawane do źródła HTML, a nie generowane za pomocą JavaScript po załadowaniu strony. Choć Google może przetworzyć dane strukturalne generowane przez JavaScript, powodują one niekiedy problemy. Ryan Levering z Google potwierdził na Linkedinie, że o ile GMC może przetwarzać dane strukturalne generowane przez JavaScript, mogą wystąpić problemy, jeżeli zawartość HTML różni się od treści zmienianej później przez JavaScript. Jednocześnie przestrzegł przed wprowadzaniem pochopnych zmian technologicznych na bazie powyższego, sugerując, że jeśli w przypadku danej strony wszystko jest w porządku, to lepiej zostawić mechanizm w spokoju.
W Stanach Zjednoczonych pojawił się w SERP-ach widżet porównujący karty kredytowe, który bazuje na informacjach z Knowledge Graph. Jedni powiedzą, że to kolejne niesprawiedliwe uderzenie w strony afiliacyjne. Inni stwierdzą, że na biednego nie trafiło i stron pożyczkowych nie ma co żałować. Kto ma rację? Nie wiem, ale się domyślam ;)
Wyniki wyszukiwania prezentowane przez Mike’a Blumenthala w europejskiej części artykułu o ekspansji Local Pack w SERP-ach pokazują, że mimo wejścia w życie Digital Markets Act Google nadal śmieje się w twarz europejskim ustawodawcom. Miejmy nadzieję, że skończy się jak w pamiętnych marzeniach o losie prezesa Klubu Księgarza.
Chwilowo zawieszę chyba dalsze rozpowszechnianie statystyk AI Overviews. Sytuacja jest bowiem tak dynamiczna, że obecność tego snippetu w przypadku konkretnych tematyk czy branż potrafi się wywracać w tę i z powrotem z tygodnia na tydzień (ot, chociażby ostatni wzrost odpowiedzi na pytania związane ze zdrowiem), więc traktowanie ich jako wyznacznika czegokolwiek przestaje mieć choćby odrobinę sensu. Warto omijać szerokim łukiem posty na Linkedinie czy nagłówki na portalach, które informują o 30% zapytań z AI Overview w verticalu X czy 40% w branży Y. Informacja zostaje w głowie, a całkowite odwrócenie sytuacji po tygodniu prawdopodobnie do niej nie dotrze - mniej krzykliwe informacje niosą się po prostu słabiej. Fajnych i dogłębnych badań nie brakuje, ale czy w tak dynamicznym ekosystemie wnoszą one jakąkolwiek wartość? Szczerze wątpię.
Bloomberg opublikował niezwykle ciekawy reportaż (dostęp wymaga zalogowania, na przykład przez Gmaila czy FB), w którym opisana została metamorfoza patrzenia na AI przez Google od projektów badawczych do produktów nastawionych na maksymalizację zysków. Artykuł skupia się na zagrożeniach płynących z agresywnej komercjalizacji i zepchnięcia na dalszy tor badań technologicznych.
Praca szuka seowczyni lub seowca
Strategiczny partner MałySEO Newslettera odpalił przed kilkoma dniami rekrutację na specjalistkę lub specjalistę SEO do współpracy przy realizacji bieżących projektów SEO. Współpracę z Łukaszem na wczesnych etapach mojej kariery w tej branży wspominam jako niekończący się tok opowieści o fascynujących case’ach oraz nieskrępowane możliwości czerpania wiedzy na temat pozycjonowania na najwyższym poziomie, więc… polecam całym swoim serduszkiem.
Szczegóły w linku powyżej, a kilka podstawowych informacji tutaj:
zakres obowiązków będący chlebem i masłem specjalistki lub specjalisty SEO (30% technical SEO, 40% content SEO, 30% linkbuilding/content marketing);
wymóg konieczny pod względem doświadczenia to praca agencyjna i doświadczenie w pracy z klientami;
szacowana potrzebna dostępność dla projektów 60-80 godzin miesięcznie (z możliwością zwiększania razem z wynagrodzeniem);
wynagrodzenie od 6000 do 8000 PLN netto B2B/Useme.
CV-ki wysyłać można na adres lukasz@rogala.pro, do czego jeszcze raz serdecznie zachęcam!
11 dogłębnych materiałów o SEO
Semantic SEO nigdzie się nie wybiera, o czym świadczyć ma badanie 260k wyników wyszukiwania opublikowane w Search Engine Journal. Gwoli rzetelności wspomnieć trzeba, że badaniu partnerował Sufer SEO, czyli narzędzie, któremu na Semantic SEO zależy. Natomiast ze względu na liczbę badanych korelacji, dotyczących także zagadnień technicznych czy autorskich, zdecydowanie warto przyjrzeć się wynikom. Co istotne, nie jest to artykuł wyłącznie dla badawczych nerdów, ponieważ w każdym poruszanym aspekcie zostały przedstawione klarowne interpretacje i porady wynikłe z rezultatów badania.
Cyrus Shepard krótko i treściwie podsumował potencjalne badanie przez Google stopnia zaangażowania i wysiłku, jaki włożony został w napisanie treści.
Jako że bardzo lubię czytać Cyrusa S., z dużą przyjemnością odkryłem również dłuższy tekst jego autorstwa. To opis badania korelacyjnego, które przeprowadził na 50 stronach pod kątem kilkunastu elementów (od zróżnicowania anchor tekstów po linkowanie strony autora), aby określić, czy mogły mieć one wpływ na spadki lub wzrosty po tegorocznych aktualizacjach. Próbka była bardzo mała, większość wyników niekonkluzywna, ale da się wyciągnąć z tego kilka fajnych materiałów do przemyśleń.
Temat “wycieku” na całe szczęście mocno się już rozmył, ale na blogu Moz pojawiły się skondensowane przemyślenia 20 ekspertek i ekspertów SEO na temat tego faktu medialno-społecznościowego. Nie byłbym sobą, gdybym nie dorzucił komentarza o bardzo wielu bardzo mocnych tezach opartych na bardzo wątłych podstawach, ale ogółem jest to bardzo fajny zbiór, pokazujący, jak wiele różnych podejść może obok siebie funkcjonować.
W ostatnim odcinku SEOlettera Patryk Łazarek podrzucił link do bardzo fajnej checklisty elementów, które warto przetestować przed i po wdrożeniu większych zmian technicznych na stronie. Wprawdzie brakuje tam kilku szczegółów (ot, chociażby wykluczenie potencjalnej obecności noindexa) i nie wyobrażam sobie ręcznego odklikiwania każdego szczegółu, ale wraz z kodem na GitHubie jest to doskonała podstawa do budowania automatu.
Chris Long przypomniał na Linkedinie o niezwykle błyskotliwym sposobie na sprawdzanie kolejki do Direct Answer. Po raz pierwszy przeczytałem o nim na blog Szymona Słowika, i to właśnie do tego źródła odsyłam po szczegółowy opis. Co ciekawe, na jednym z prezentowanych tam screenów znajduje się featured snippet zaciągnięty z tekstu, który napisałem, gdy jeszcze od czasu do czasu przyjmowałem zlecenia copywriterskie :D
Z każdym tygodniem słyszę coraz więcej zachwytów nad Perplexity. Z dość dużą dozą niepokoju obserwuję, jak łatwo narzędzie to pozycjonuje się jako alternatywa dla drapieżnych zakusów Google’a na content tworzony przez wydawców. Jakkolwiek nie dziwi resentyment wobec giganta z Mountain View, narracja stawiająca Perplexity w roli “tego dobrego” zdecydowanie mija się z prawdą. W artykule Forbesa poczytać możemy o praktykach Perplexity sto razy bardziej nieuczciwych niż wykorzystywanie contentu wydawców przez Google’a, natomiast śledztwo przeprowadzone przez Wired pokazuje, w jaki sposób Perplexity omija nakładane przez wydawców blokady.
Wspomniane powyżej kontrowersje związane z Perplexity skłoniły Kevina Indiga do przyjrzenia się tematowi User-Directed AI Content z perspektywy SEO. Mógłbym postawić diamenty przeciw orzechom, że w ciągu kilku lat odpowiednie połączenie programmatic SEO z komponentem społecznościowym i takim sposobem generowania treści stanie się dla mądrych biznesów źródłem olbrzymiego ruchu z organica.
Na sam koniec materiał niezwiązany ściśle z SEO, ale jestem przekonany, że jego lektura ucieszy niejedną osobę czytającą MałySEO Newsletter. Trójka filozofów z University of Glasgow dogłębnie przygląda się w nim koncepcjom związanym z niepoprawnymi odpowiedziami ChataGPT oraz innych LLM-ów, dochodząc do wniosku, że “kłamstwa” czy “halucynacje” nie są najszczęśliwszymi określeniami, a jedynym sensownym słowem jest w tym przypadku “bullshit”.
Do przeczytania za tydzień!
Michał
PS Wszystkich zainteresowanych reklamą w MałySEO Newsletterze zachęcam do spojrzenia na podstronę na temat współpracy, może uda nam się razem zrealizować coś fajnego. A jeżeli dotarłaś czy dotarłeś do tego momentu, to na własnym przykładzie widzisz, jak bardzo angażujący potrafi być ten content ;)