MałySEO #10: 21 ciekawych newsów i materiałów (również o "wycieku")
“Wyciek” z Google wciąż nie schodzi z ust specjalistek i specjalistów SEO, jednak z olbrzymią satysfakcją odnotowuję, że wiele osób całkowicie zmienia swoją narrację. Okazało się bowiem, że nic rewolucyjnego z opisu atrybutów nie da się wyciągnąć, a deklaracje o wielkich zmianach w strategiach SEO oznaczają, że wcześniej było coś z tymi strategiami zdecydowanie nie tak. Jako że interesują mnie oczywiście tematy najgłośniejsze, to temu zagadnieniu poświęciłem dzisiejszy kącik grafomański, ale poza tym przedstawiam również 10 ekscytujących newsów oraz 8 dogłębniejszych materiałów, z którymi z radością zapoznają się ambitne seowczynie i seowcy. Zapraszam do lektury!
Spis treści:
Kolejne artykuły o “wycieku”
10 newsów ze świata Google’a
8 dogłębnych materiałów o SEO
Kolejne artykuły o “wycieku”
Z oczywistych względów najwięcej emocji wzbudzają w kontekście “wycieku” informacje dotyczące bardzo szerokiego zagadnienia, jakim jest wpływ user signals na ranking. W świetle licznych spekulacji to właśnie tego tematu dotyczy bodaj najobszerniejszy komentarz ze strony Google’a. Według deklaracji Danny’ego Sullivana Google agreguje dane o interakcjach użytkowników i przekształca je w sygnały, które pomagają algorytmom ocenić, czy wyniki wyszukiwania są odpowiednie do zapytań. Co ciekawe, mimo iż wiele osób uznaje to za wiedzę ukrywaną przez Google, te same informacje znaleźć można w oficjalnych materiałach na temat działania wyszukiwarki.
Jeżeli mówimy o wypowiedziach Google, które rzucały więcej światła na działanie systemu NavBoost, znacznie klarowniejsze wytłumaczenie niż dzikie interpretacje atrybutów z “wycieku” znaleźć mogliśmy w ubiegłorocznych zeznaniach z procesu antymonopolowego w USA. W doskonałym podsumowaniu Danny’ego Goodwina z grudnia 2023 roku znajdują się konkretne informacje, które uszczegóławiają proces zbierania danych behawioralnych oraz przekształcania ich w sygnały wpływające na ranking, o których w oficjalnych materiałach Google pisze bardzo ogólnikowo. Jeżeli ktoś sugeruje, że wyczytał te informacje z “wycieku”, musi być naprawdę wybitnym analitykiem, uzupełniającym liczne białe plamy praktycznie bezbłędnymi domysłami.
Jednym z cennych insightów z “wycieku” była prezentacja kilku atrybutów, które odnoszą się do osadzenia treści dokumentów w przestrzeni wektorowej w taki sposób, aby semantyczne właściwości mogły być analizowane i porównywane. Obecność tych atrybutów pokazała, że korzystanie z wektoryzacji tekstów może być zbieżne z tym, w jaki sposób analizuje treść Google. Tomasz Jeska opisał w artykule na Linkedinie, w jaki sposób liczyć podobieństwo wektorowe tekstów, co umożliwia np. identyfikację treści zbliżonych do siebie tematycznie lub zbyt do siebie podobnych. Możliwości praktycznego wykorzystania tego w działaniach SEO jest cała masa!
10 newsów ze świata Google’a
Na Twitterze pojawiło się nagranie wypowiedzi przedstawicielki Google’a, która w uroczo głupiutki sposób przedstawiła monopolistyczną politykę tej firmy: “było pięć najlepszych stron o finansach uporządkowanych według popularności, wdrożyliśmy Google Finance i umieściliśmy link na pierwszym miejscu, hehehe”. I to dokładny cytat, a nie żadna parafraza xDDD
Podczas konferencji SMX Advanced Barry Schwartz miał okazję przepytać Elizabeth Tucker w kwestii zmian z ostatnich miesięcy, a jej odpowiedzi wyjaśniły m.in. fakt tygodniowego opóźnienia w ogłoszeniu pełnego wdrożenia March Core Update. Przegląd 13 najciekawszych wyimków z tej rozmowy zamieścił w Search Engine Land Danny Goodwin
Ograniczenie AI Overviews względem częstotliwości występowania odpowiedzi SGE na etapie Search Labs połączone z dość szeroką krytyką względem odpowiedzi AI sprawiło, że wiele komentatorek i komentatorów mówi o jego zastopowaniu lub wieszczy rychłe zakończenie tego projektu. Z doniesień CNBC wynika jednak, że Google ma zamiar pchać AI Overviews niezależnie od tego, że nie jest w stanie wyłapać wszystkich błędów przed wdrożeniem kolejnych funkcjonalności na produkcję. Osoby decyzyjne utwierdzać ma w tej decyzji fakt, że zdecydowana większość viralowo rozchodzących się błędów miała charakter głupkowatego trollingu.
Pojawia się coraz więcej sygnałów ze strony Google’a, że kolejny Core Update może być momentem, w którym nastąpi wielce wyczekiwane odbicie dla części stron, które mocno straciły na widoczności i ruchu po Helpful Content Update z września 2023 roku. Jeżeli miałbym pokusić się o ostrożną interpretację wcześniejszych wypowiedzi Johna Muellera oraz podlinkowanego oświadczenia Danny’ego Sullivana, po najbliższej aktualizacji spodziewałbym się z perspektywy stron contentowych utrzymania srogości sygnałów dotyczących pisania “pod Google” (czyli tworzenia podstron pod mocno sprecyzowane keywordy oraz przepisywania internetu i braku jakichkolwiek information gains) przy jednoczesnym poluzowaniu oceniania dominacji treści przez jednostki reklamowe oraz content afiliacyjny. Za taką interpretacją przemawiają chociażby te wypowiedzi.
Osoby obserwujące z nadzieją lub niepokojem zmiany związane z zasadami dotyczącymi spamu mogą zainteresować się kolejnym uszczegółowieniem dotyczącym tego, w jakich przypadkach Google ma na myśli “unikatową wartość”. Pod tym pojęciem rozumie się “directly sourcing coupons from merchants and other businesses that serve consumers”. Warto jednak przypomnieć, że na chwilę obecną nie odnotowano algorytmicznych uderzeń w domeny czy subdomeny hostujące kody ze źródeł third-party.
W GSC pojawił się widok, który pozwala e-commerce’om na lepszy wgląd w skuteczność snippetów produktowych w Google Grafika. Rzadko zdarza się, aby było to znaczące źródło ruchu, jednak w przypadku sprzedaży produktów kupowanych przede wszystkim oczyma jest to ciekawa przestrzeń na optymalizację i pozyskanie dodatkowego ruchu.
Do grona znaczników schema, którymi warto oznaczać treść, dołączają dane strukturalne dotyczące zasad zwrotów na poziomie organizacji. Jako że tego typu informacje solidnie pracują na Trustworthiness z EEAT, warto ułatwić wyszukiwarce ich odnalezienie oraz przypisanie do konkretnego biznesu.
Chociaż trudno znaleźć obecnie osoby, które przykładają jakąkolwiek wagę do manipulacji atrybutu “lastmod” w sitemach, interesujące uszczegółowienie tego tematu z punktu widzenia Google zamieścił w komentarzu na Linkedinie Gary Illyes. Stwierdził on, że systemy traktują strony zerojedynkowo — albo ufają informacjom dostarczanym w sitemapach, albo nie, w żaden sposób tego nie niuansują.
Kolejne techniczne podkreślenie, co do którego stosowania nie trzeba nikogo przekonywać, dotyczy blokowania w pliku robots.txt adresów koszykowych w e-commerce. To jeden z podstawowych zabiegów w optymalizacji crawl budgetu, ale jeżeli ktoś potrzebuje oficjalnej wypowiedzi Google do przepychania tego typu mniejszych tasków, klarowne wyjaśnienie zamieścił na Linkedinie Gary Illyes.
Ten sam przedstawiciel Google poinformował również o drobnej zmianie w dokumentacji dotyczącej hreflangów.
8 dogłębnych materiałów o SEO
Marketerzy nie przestają zarzucać nas kolejnymi raportami, w których przewidują upadek ruchu organicznego. Powody podają różne, oczywiście poza tym, który najwygodniej ukryć — zazwyczaj zajmują się innym wycinkiem marketingu online i to właśnie swój wycinek podają jako ten, w który organizacje powinny inwestować, ucinając budżety na SEO. Kevin Rowe przyjrzał się dogłębniej jednemu z takich raportów, pokazując, w jaki sposób odbiorczynie i odbiorców tego typu materiałów prowadzi się w kierunku konkluzji wygodnych dla organizacji stojącej za takim raportem.
Chociaż nie dotyczy to bezpośrednio ruchu organicznego, jak najbardziej może mieć wpływ na praktyki contentowe. Zestaw dogłębnych badań opublikowanych w Science Advances pokazuje, jaki jest wpływ uproszczonego języka tytułów na chęć zapoznania się z materiałem wśród odbiorczyń i odbiorców. Oczywiście diabeł tkwi w szczegółach i warto dowiedzieć się, jakie konkretnie elementy nagłówków warto uprościć, aby miały pozytywny wpływ na przepływ kliknięć — samo hasło “pisz prościej” zdecydowanie niczego nie powie.
Robert Niechciał opublikował w SensAI Academy fantastyczne case study z wdrożenia programmatic SEO na przykładzie serwisu z modelkami z serwisu Onlyfans. To niezwykle ciekawy materiał, w którym przeprowadzani jesteśmy przez kolejne etapy programatycznej budowy contentu: od budowania infrastruktury dla danych po prezentację frontendową.
Olga Zarr udostępniła na blogu SEOSLY potężny poradnik, w którym pokazuje praktyczną implementację dobrych praktyk SEO na przykładzie stron internetowych z jednej konkretnej branży. To świetny materiał nie tylko dla osób, które zajmują się SEO w branży prawniczej.
W kolejnym artykule z serii David Vs. Goliath Kevin Indig pokazuje nie tylko dane statystyczne dotyczące częstotliwości dużych update’ów (kwestia już dość szeroko opisana i doskonale nam wszystkim znana), ale podaje też liczne przykłady stron, które rosną pomimo zmian algorytmicznych. Co istotne, nie są to przykłady oczywiste lub nudne, jak ma to najczęściej miejsce przy podsumowaniach update’ów na bazie punktów widoczności z Sistrix i innych tego typu narzędzi.
Chociaż nic nie zapowiada, aby AI Overviews zostały szybko wdrożone na rynku europejskim, osoby zajmujące się analityczną działką SEO już teraz interesują się możliwością badania ruchu z tego źródła. W artykułach AI Overview Tracking in Google Search Console [SEO Experiment] Brodie’ego Clarka oraz The Maddening Adventure Of Tracking AI Overviews In Google Search Console Glenna Gabe’a wykazane zostały problemy, które obecnie uniemożliwiają śledzenie ruchu z AIO nawet na rynkach, gdzie opcja ta jest dostępna dla użytkowników.
Na stronie Internet Marketing Ninjas pojawiło się szeroko komentowane w branży SEO badanie, które pokazywać ma znaczenie linków. Jakkolwiek ich olbrzymią wagę przyjmuję za aksjomat, bardzo rozbawiła mnie żonglerka danymi, która uprawiana jest na przestrzeni raportu. Zacytuję tylko jedno zdanie: “We then recorded the highest number reported by any of the four sources in a column labeled “Highest Ref Dom” (for finding the highest/lowest Unique Referring Domains). For example, if Moz reported 100 unique domain backlinks for a site, Ahrefs reported 200, Majestic Historic reported 300, and SEMRush reported 400, we would enter “400” in the “Highest Ref Domain” column.” I zachęcam do samodzielnej weryfikacji, bo różnice w liczbie raportowanych przez narzędzia backlinków są gigantyczne, a właśnie na nich opierają się głośne nagłówki z tego badania.
Do przeczytania za tydzień!