MałySEO Newsletter #6: wdrożenie SGE ogłoszone!
Ubiegłotygodniowy odcinek MałySEO Newslettera zdominowały newsy, które trzeba było nadgonić po majówce. Dlatego dziś, oprócz szybkiego przeglądu nowinek ze świata Google i okolic (w tym tej największej, czyli wdrożenia SGE do SERP-ów w Stanach!), zapraszam przede wszystkim na przyjęcie potężnej piguły świetnych tekstów na temat SEO. Jest o czym czytać!
Spis treści:
Dzieje się w świecie Google
Dzieje się w świecie generatywnej AI
Dzieje się w świecie mięsistych artykułów o SEO
|
---|
Co dzieje się w świecie Google?
We wtorek 14 maja na corocznej konferencji Google I/O ogłoszone zostało coś, co do czego sam miałem olbrzymie wątpliwości. Google zdecydowało się bowiem na launch SGE, a konkretnie — wdrożenie do SERP-ów w Stanach Zjednoczonych podsumowania treści przez AI. U nas wciąż czekali będziemy na efekty procedowania AI Act przez Unię Europejską, ale nowa era wyszukiwania staje się powoli faktem. Co oznaczała będzie ona dla seowczyń i seowców? Moim zdaniem fascynujące nowe wyzwania, które są dla nas przecież chlebem powszednim :)
Sam search wydawał się jednak zupełnie pobocznym dodatkiem do całej prezentacji Sundara Pichaia, CEO Google. Roztoczona przez niego wizja “Gemini era” skupiała się raczej na wizjonerskich trickach, których podsumowanie nie jest zbyt rewolucyjne. Ot, do różnych produktów Google’a zostaną dodane różne wodotryski i w sumie tyle.
Jason Barnard poinformował o kolejnej olbrzymiej aktualizacji w obrębie Knowledge Vault. Jeżeli wierzyć danym dostarczanym przez jego firmę (co nie jest takie oczywiste, biorąc pod uwagę ograniczenia wymienione w nagłówku “You aren’t safe (until you are)”), liczba encji przechowywanych w KV wzrosnąć miała jednego dnia o 7.23% do ponad 54 miliardów, a największe przyrosty rzędu +38% dotyczyć miały encji osobowych związanych z czynnikami EEAT (badacze, pisarze, dziennikarze, naukowcy etc.).
Głośno było ostatnio o wykresie udziałów wyszukiwarek w rynku na Statcounter, według których udział Google spaść miał w kwietniu o kilka punktów procentowych (dla USA nawet o kilkanaście). Błąd w zliczaniu danych został naprawiony, jednak problemy z tego typu statystykami zwróciły uwagę wielu osób. Oprócz screena Similarweb z powyższego artykułu warto przeczytać szczegółowy tekst Natalii Witczyk, w którym krok po kroku przedstawia, co z danymi Statcountera jest nie tak.
Dyskusję nad ucinaniem ruchu przez Google zdominowali w ostatnim czasie mali i średni wydawcy (w wielu przypadkach proponując fałszywą w moim mniemaniu dychotomię, w której oni robią content wartościowy, podczas gdy duzi wydawcy robią content niewartościowy). O perspektywie większych wydawców przeczytać możecie w opublikowanym tekście przemówienia redaktora naczelnego Onetu Bartosza Węglarczyka, w którym porusza temat zdominowania rynku reklamowego przez big techy.
O tym, jak olbrzymi jest to kawałek tortu, najlepiej mówią jednak dane opublikowanego w kwietniu raportu IAB-u za 2023 rok. Chociaż mowa tam wyłącznie o rynku amerykańskim, łączne przychody z reklam w internecie rzędu 225 miliardów dolarów (wzrost rok do roku o 7.3%) pokazują, czemu big techy nie oddadzą tak łatwo swojej oligopolicznej pozycji. Co ciekawe, zyski z reklamy w searchu osiągnęły tam rok do roku przyrost mniejszy niż ogół kanałów (o 5,2% do $88.8 mld).
Po wdrożeniu nowej polityki antyspamowej, która obrała na cel subdomeny oraz katalogi z kuponami, do grona protestujących wobec działań Google dołączyli również duzi gracze. USA Today opublikował tekst, w którym broni swoich kodów promocyjnych.
Bardzo trafne w mojej opinii podsumowanie, które uczciwie zamyka dyskusje na temat rośnięcia dużych i spadków małych, zaproponował na swoim blogu Szymon Słowik. Wydaje mi się, że jego podejście do tego tematu jest dość zbieżne z tym, o czym pisałem kilka odcinków temu — Google jest produktem kierowanym do odbiorcy masowego, zatem trudno spodziewać się, aby odpowiedzi na zapytania były formułowane z myślą o odbiorcy treści specjalistycznych. W przypadku niespecjalistycznych odbiorca chce zaś dostać od popularnego brandu informacyjnego potwierdzenie, że produkt popularnego brandu produktowego jest git. A jeśli dodać do tego budżety na linkbuilding oraz roboczogodziny poświęcone zmianom technologicznym przez dużych graczy, nie ma co się dziwić, że w długim dystansie wygrywają w SERP-ach i sprawiają, że próg wejścia w tę grę jest znacznie większy.
Ze świata generatywnej AI
Tydzień rozpoczął się od ogłoszenia przez OpenAI nowego modelu, GPT-4o. Mam wrażenie, że zachwyty nad prezentacją brały się przede wszystkim z chęci utrzymania przez influencerów AI ogromnego hype’u związanego z poniedziałkową konferencją. Wieszczono bowiem, że ogłoszona zostanie podczas niej przeglądarka od OpenAI, co Sam Altman dementował jeszcze przed wydarzeniem. Tymczasem nowy flagowy model OpenAI jest ponoć szybszy, na pewno tańszy i… to tyle. Generalnie wygląda to póki co raczej na standardowy element ewolucji LLM-u, a świadkami podobnych ogłoszeń (że lepsze parametry i że taniej) będziemy zapewne co kilka miesięcy.
Istnieje hipoteza (moim zdaniem bardzo trafna), w myśl której największym zagrożeniem dla Google’a nie jest niechęć użytkowników do wykorzystywania tej wyszukiwarki do zapytań specjalistycznych, tak jak dzieje się już dzięki narzędziom podobnym do Consensusa. Problemem będzie dopiero zmiana przyzwyczajeń searchowych użytkownika masowego, czyli kierowanie się przez normików do innych źródeł w przypadku większości codziennych zapytań. Aby tak się stało, musieliby mieć wyszukiwarkę jeszcze bardziej pod ręką, a tak się właśnie składa, że wprowadzona w USA oraz kilku innych rynkach Meta AI może pod tym względem namieszać. Jak pokazała na Twitterze Lily Ray, korzysta ona z linków podpowiadanych przez Google, chociaż w innych dyskusjach przewijały się również wyniki wzbogacone o Binga.
Swoją drogą, to gdybym był osobą, która obawia się wpływu generatywnej AI na świat i całą resztę, po wtorkowym Google I/O oraz ogłoszeniach innych big techów zacząłbym spać znacznie spokojniej. Miała być rewolucja, miała być utrata miejsc pracy, miał być bunt maszyn lub gwarantowany dochód podstawowy… A skończy się na generowaniu memów w konwersacjach na Messengerze i streszczaniu Wikipedii w wynikach wyszukiwania. Innego końca (a raczej kontynuacji) świata nie będzie ;)
Przy okazji wycięcia w pień działu korekty w Gazecie Wyborczej, co miało miejsce przed kilkoma tygodniami, przez polski internet przetaczały się kolejne fale dyskusji na temat tego, czy AI jest w stanie zadbać o poziom językowy w tekstach po polsku. Oczywiście 99% wypowiedzi w tych dyskusjach nie miało sensownych podstaw i bazowało na olbrzymich uproszczeniach i wręcz wyobrażeniach dotyczących AI, ale w końcu mamy nieco lepsze dane. Konkretnej analizy jakościowej podjął się Rafał Mazur w artykule “O poprawności językowej tekstów generowanych przez SI na przykładzie ChatuGPT”. Może wkrótce doczekamy się również badań ilościowych.
W fantastycznym reportażu Futurism przyjrzał się gigantowi, który dostarczał content AI dla wydawców w Stanach Zjednoczonych. Więcej tu mocnych dziennikarskich popisów (i super!) niż konkretnej wiedzy, ale dla wydawców decydujących się na wdrażanie treści AI jest to świetny poradnik na temat tego, co warto mieć zawczasu ograne komunikacyjnie.
Mięsiste artykuły o SEO
Test A/B Search Pilota dotyczący ukrycia pod “show more” połowy linków z bloczka linkowania wewnętrznego nie przełożył się negatywnie na wyniki organiczne w przypadku testowanej strony.
Bardzo ciekawą analizę wpływu ostatnich aktualizacji na wydawców z branży turystycznej zaprezentował James Brockbank. Chociaż balansuje ona na granicy jęczenia, które po kilku miesiącach od March Core Update jest coraz trudniejsze do empatyzowania, znajduje się tam mnóstwo ciekawych insightów i statystyk, które pokazują tendencje wzmocnione przez wdrożenie systemu Helpful Content do rdzenia algorytmu.
Chociaż ze wszystkich nieprzekładalnych na europejski rynek artykułów o SEO najbardziej nieprzekładalne są te dotyczące SGE w Local SEO, osobom zajmującym się tym kawałkiem pozycjonowania podrzucam w ramach ciekawostki artykuł z Search Engine Journal, w którym Jeff Riddall dzieli się swoimi spostrzeżeniami co do zmian na tym konkretnym froncie zmagań z Google.
W zeszłym tygodniu Screaming Frog wypuścił nową funkcjonalność związaną z customowymi skryptami JS, a w tym tygodniu mamy już pierwsze ciekawe use case’y! Fantastyczny proces analizy autorytetu tematycznego przy pomocy wektorów zaprezentował Mike King.
Innym świetnym poradnikiem wspierającym pracę ze Screaming Frogiem jest instrukcja do przetwarzania danych na temat linkowania wewnętrznego w BigQuery. W przypadku serwisów nieco większych Excel takiego czegoś nie udźwignie, a jak się okazuje — narzędzie do przetwarzania olbrzymich baz danych jak najbardziej sobie poradzi.
Wix opublikował natomiast bardzo fajny tekst, w którym wymienione zostały możliwości wynikające ze współpracy SEO z influencer marketingiem. W dobrze działającej organizacji tego typu synergie są nieodzowne!
Bardzo cenną perspektywą w przypadku myślenia o contencie jest pamiętanie o tym, że użytkownik niekoniecznie chce otrzymać jak najrzetelniejszą i jak najprawdziwszą odpowiedź. Bardzo dobre przypomnienie, jak działa confirmation bias w przypadku wyszukiwania informacji, przygotowała Sarah Presch.
I to tyle na dziś. Do przeczytania za tydzień!
Michał