Europa reguluje Internet, ale go nie naprawia i właśnie za to zapłacą wydawcy


Unia Europejska przez dwa lata próbowała ujarzmić Google prawem. Wielka Brytania przez rok konsultowała, jak uchronić twórców przed AI. Efekt? Wyszukiwanie jest gorsze niż przed regulacją, a prawa autorskie czekają w kolejce przynajmniej do 2027 roku.
Co warto wiedzieć?
- Digital Markets Act (ustawa o rynkach cyfrowych) wszedł w życie w marcu 2024 roku i miał wyrównać pole walki w wyszukiwaniu – dwa lata później 66% europejskich użytkowników potrzebuje więcej kliknięć, żeby znaleźć to, czego szuka.
- Wyszukiwanie hoteli i lotów w Europie pogorszyło się tak bardzo, że ponad 40% częstych podróżnych zapłaciłoby za przywrócenie funkcji sprzed regulacji.
- Izba Lordów opublikowała 6 marca 2026 roku raport ostrzegający, że firmy AI bezkarnie eksploatują brytyjskie strony internetowe – bez zgody, bez zapłaty, bez ujawniania, jakich materiałów używają do trenowania modeli.
- Rząd UK odłożył decyzję w sprawie prawa autorskiego AI na nieokreślone „później” – żadna z opcji zaproponowanych w konsultacjach nie zebrała wystarczającego poparcia.
- Właściciele stron mogą już dziś blokować niechciane crawlery AI przez robots.txt i pliki discovery i powinni to zrobić, zanim prawo ich do tego zmusi lub nie zmusi nigdy.
Czy Digital Markets Act naprawił Internet, czy go tylko przebudował?
Kiedy w 2022 roku Unia Europejska przyjmowała Digital Markets Act (DMA), czyli ustawę o rynkach cyfrowych, której celem było ograniczenie władzy największych platform technologicznych, branża SEO odetchnęła z ulgą. Google przez lata faworyzowało własne produkty w wynikach wyszukiwania: własny serwis zakupowy lądował na szczycie, a konkurenci tacy jak Foundem czy Kelkoo ginęli gdzieś na czwartej stronie wyników[1]. DMA miało to zmienić. Weszło w życie w marcu 2024 roku. Dziś, dwa lata później, coraz więcej specjalistów mówi, że regulacja wyrządziła więcej szkód niż pożytku[2].
Liczby, które bolą
Najbardziej kompleksowe badanie pochodzi od Nextrade Group, która przepytała 5 000 europejskich konsumentów w dwudziestu krajach członkowskich w połowie 2025 roku[3]. Wyniki są bezlitosne: dwie trzecie respondentów musiało wykonywać więcej kliknięć lub formułować bardziej skomplikowane zapytania, żeby znaleźć to, czego szukali[4].
Wśród osób korzystających z wyszukiwarki najczęściej, a więc tych, na których zależy reklamodawcom i wydawcom, 61% przyznało, że wyszukiwanie zajmuje im dziś nawet o połowę więcej czasu niż przed wejściem DMA[5]. 42% częstych podróżników stwierdziło, że szukanie lotów i hoteli wyraźnie się pogorszyło[6], a ponad 40% badanych zapłaciłoby za przywrócenie funkcjonalności, którą mieli za darmo przed marcem 2024 roku[7].
Skąd ten regres? DMA wymusiło na Google traktowanie Google Search i Google Maps jako osobnych usług, bo ich połączenie uznano za niedozwolone samopromowanie (ang. self-preferencing, czyli faworyzowanie własnych produktów nad konkurencją kosztem użytkowników). W efekcie zintegrowany widok z mapą, cenami i dostępnością noclegów przy wyszukiwaniu hoteli w Paryżu przestał istnieć[8]. Zamiast jednej strony – kilka osobnych serwisów do przeklikiwania. CTR na Google Hotel Ads spadł o 30% w regionach objętych regulacją w porównaniu z rynkami poza jej zasięgiem[9].
Organiczne SEO? Zakłócone strukturalnie
Równolegle z debatą o DMA Search Engine Land opublikował analizę pod wymownym tytułem „Organic search is fundamentally disrupted” – organiczne wyszukiwanie jest dziś strukturalnie zakłócone[10]. Dane mówią same za siebie: 73% serwisów B2B odnotowało istotne straty ruchu między 2024 a 2025 rokiem, ze średnim spadkiem o 34% rok do roku[11].
Branże opierające się głównie na treściach informacyjnych straciły od 15% do 64% organicznego ruchu od czasu pojawienia się AI Overviews[12]. Wydawcy informacyjni notują ruch z Google mniejszy o 33% w skali globalnej w ciągu dwunastu miesięcy kończących się w listopadzie 2025 roku[13].
Autor analizy w SEL, Luca Tagliaferro – specjalista SEO z piętnastoletnim stażem – stawia tezę, którą branża przyjmuje z mieszanymi uczuciami: DMA próbuje regulować zachowanie platformy, nie naruszając jej monopolu[14]. Jak pisze, to jak próba skierowania wody w inną stronę przez wyznaczenie trasy, którą musi płynąć, a woda i tak znajdzie inną drogę, i wszyscy przemokną[15]. Zamiast regulowania sposobu wyświetlania wyników postuluje rozważenie rozwiązań strukturalnych, takich jak przymusowe wydzielenie przeglądarki Chrome, co rozważają zresztą Stany Zjednoczone w swoich postępowaniach antymonopolowych przeciwko Google[16].
Czy Wielka Brytania ochroni twórców treści przed AI i kiedy?
Szóstego marca 2026 roku Izba Lordów opublikowała 180-stronicowy raport zatytułowany „AI and Copyright”[17]. Wniosek Komitetu ds. Komunikacji i Mediów Cyfrowych brzmi lakonicznie: firmy AI bezkarnie eksploatują brytyjskie strony internetowe bez zgody właścicieli, bez wynagrodzenia, bez ujawniania, jakich materiałów używają do trenowania modeli[18]. Raport powstał po miesiącach przesłuchań przedstawicieli firm AI, wydawców, muzyków, artystów i prawników.
Przez niemal rok rząd Wielkiej Brytanii prowadził konsultacje w sprawie uregulowania dostępu firm AI do materiałów chronionych prawem autorskim. Propozycja preferowana przez techgigantów – w tym Google – zakładała model opt-out: domyślne prawo do scrapowania, czyli pobierania i przetwarzania treści z Internetu w celu trenowania modeli, chyba że właściciel wyraźnie się temu sprzeciwi[19].
Branża kreatywna nie kryła oburzenia. Eric Fellner, współzałożyciel wytwórni Working Title Films, nazwał propozycję opt-out „egzystencjalnym zagrożeniem” dla brytyjskiego przemysłu kreatywnego[20]. Elton John określił rząd mianem „absolutnych przegranych”[21], a Paul McCartney stwierdził, że AI ma swoje zastosowania, ale „nie powinna okradać twórców”[22].
Konsultacje bez konsensusu
Konsultacje trwały od grudnia 2024 do lutego 2025 roku i zakończyły się bez jasnego rozstrzygnięcia[23]. Żadna z proponowanych opcji nie zebrała wystarczającego poparcia respondentów[24]. Osoba zorientowana w rządowych planach powiedziała Financial Times wprost: „Copyright is going to be kicked down the road” – sprawa praw autorskich zostaje odłożona na nieokreślone „potem”[25]. Projekt nowej ustawy nie trafi do Mowy Tronowej zaplanowanej na maj 2026 roku[26]. Ministrowie wracają do punktu wyjścia.
Izba Lordów w raporcie wskazuje kontekst, który trudno zbagatelizować: brytyjski przemysł kreatywny wytwarza 124 miliardy funtów rocznie i zatrudnia 2,4 miliona osób[27]. Sektor AI generuje 12 miliardów funtów i daje pracę 86 tysiącom ludzi[28]. Komitet rekomenduje model odwrotny do opt-out – licencjonowanie z góry (ang. licensing-first): zanim firma AI użyje cudzych treści do trenowania modelu komercyjnego, musi uzyskać zgodę i zapłacić[29]. Transparentność miałaby być obowiązkowa z mocy prawa, żeby twórcy mogli wiedzieć, kiedy i przez kogo ich prace były używane[30].
Co z terminem 18 marca?
Na mocy Data (Use and Access) Act rząd był zobowiązany opublikować do 18 marca 2026 roku raport z oceną wpływu ekonomicznego każdej z rozważanych opcji regulacyjnych[31]. Dokument trafia do parlamentu – jednak sam w sobie nie jest gotową legislacją[32]. Prawdziwe zmiany w prawie? Najwcześniej w 2027 roku, jeśli w ogóle[33]. Do tego czasu właściciele stron pozostają w prawnej próżni; AI może scrapować ich treści, a oni nie mają skutecznego narzędzia, żeby temu zapobiec.
Jak działać, gdy regulatorzy jeszcze śpią?
Obydwa przypadki pokazują jedno: regulatorzy działają wolniej niż rynek, a ich decyzje bywają mniej korzystne niż brak decyzji w ogóle. Dla właścicieli stron i specjalistów SEO to sygnał, żeby zabrać sprawę we własne ręce tam, gdzie jest to możliwe.
Blokuj crawlery AI już teraz
Plik robots.txt to podstawowe narzędzie, które pozwala powiedzieć crawlerom (botom przeszukującym Internet w celu zbierania danych) „tu nie wejdziesz”. Większość głównych systemów AI respektuje te dyrektywy: GPTBot (OpenAI), ClaudeBot (Anthropic), Google-Extended (trening modeli Gemini) czy PerplexityBot – każdy z nich można zablokować osobno[34]. Trwa to mniej niż godzinę, nic nie kosztuje i działa natychmiast, bez czekania na ustawodawcę.
Ważne zastrzeżenie: jeśli zależy Ci na cytowaniach w AI Overviews lub odpowiedziach ChatGPT, nie blokuj wszystkich botów hurtem – crawlery służące do trenowania modeli to zupełnie inne narzędzia niż te indeksujące strony do wyników wyszukiwania[35].
Zbuduj widoczność odporną na zakłócenia
Jeśli DMA i AI Overviews czegoś razem dowodzą, to tego, że model biznesowy oparty wyłącznie na organicznym ruchu z Google jest dziś kruchy. Search Engine Land rekomenduje poszerzenie mierzonych wskaźników poza pozycje i CTR – coraz istotniejsze jest to, czy marka jest cytowana w odpowiedziach AI, czy pojawia się na forach, w recenzjach i w serwisach branżowych[36]. Domeny obecne na platformach takich jak Trustpilot, G2 czy Reddit mają istotnie wyższe szanse na cytowanie przez systemy AI niż strony polegające wyłącznie na własnych treściach[37].
Dokumentuj to, co jest Twoje
Raport Izby Lordów i zawirowania wokół DMA mają jeden praktyczny efekt uboczny: kiedy regulacje w końcu wejdą w życie, liczyć się będzie to, kto pierwszy udokumentował autorstwo swoich treści[38]. Metadane, daty publikacji, jasne oznaczenie autorów, spójna struktura schema.org to sygnały zarówno dla Google, jak i potencjalny materiał dowodowy w sporach o naruszenie praw autorskich przez systemy sztucznej inteligencji[39].
Przypisy
- ↑https://searchengineland.com/organic-search-is-fundamentally-disrupted-heres-what-to-do-about-it-470816
- ↑https://searchengineland.com/organic-search-is-fundamentally-disrupted-heres-what-to-do-about-it-470816
- ↑https://searchengineland.com/organic-search-is-fundamentally-disrupted-heres-what-to-do-about-it-470816
- ↑https://searchengineland.com/organic-search-is-fundamentally-disrupted-heres-what-to-do-about-it-470816
- ↑https://www.engadget.com/ai/uk-government-delays-ai-copyright-rules-amid-artist-outcry-113937154.html
- ↑https://www.pymnts.com/cpi-posts/uk-government-delays-planned-ai-copyright-reforms-after-creative-industry-backlash/
- ↑https://www.engadget.com/ai/uk-government-delays-ai-copyright-rules-amid-artist-outcry-113937154.html
- ↑https://www.engadget.com/ai/uk-government-delays-ai-copyright-rules-amid-artist-outcry-113937154.html
- ↑https://www.engadget.com/ai/uk-government-delays-ai-copyright-rules-amid-artist-outcry-113937154.html
- ↑https://searchengineland.com/organic-search-is-fundamentally-disrupted-heres-what-to-do-about-it-470816
- ↑https://searchengineland.com/organic-search-is-fundamentally-disrupted-heres-what-to-do-about-it-470816
- ↑https://searchengineland.com/organic-search-is-fundamentally-disrupted-heres-what-to-do-about-it-470816
Formularz kontaktowy
Rozwijaj swoją markę

Specjalista SEO z ponad 12-letnim doświadczeniem w budowaniu strategii widoczności marek w wyszukiwarkach. Head of SEO w Cyrek Digital, a od 2024 roku również lider zespołu Performance Marketingu. Odpowiada za planowanie działań SEO w oparciu o dane, analizę algorytmów Google oraz skuteczne wdrażanie synergii między działaniami SEO, Google Ads i content marketingiem.
Skutecznie łączy analityczne podejście z komunikacją zespołową — wspiera specjalistów w tworzeniu zoptymalizowanych treści, które przekładają się na wysokie pozycje w SERP-ach i realny wzrost konwersji. Ekspert w zakresie technicznego SEO, optymalizacji contentu, researchu słów kluczowych oraz integracji danych z narzędzi takich jak GA4, GSC czy Looker Studio.