Spis treści
Sztuczna inteligencja i marketing – styczeń 2026


Prezentujemy wybór najważniejszych, najciekawszych i najbardziej wstrząsających wiadomości ze świata AI i marketingu ze stycznia 2026.
Osiągnięcia
Tomek Turba z redakcji Sekuraka od jakiegoś czasu pisze serię felietonów „AI bez lukru”. Dobrym startem będzie odcinek czternasty, w którym autor zadaje słuszne (i implikujące masę innych pytań) pytanie „czy AI może się zbuntować z nudów?” (tutaj kilka metod „uśmiercenia” zbuntowanej SI). Warty przeczytania jest także odcinek piętnasty, w którym redaktor Turba szuka odpowiedzi na pytanie, po co nam jeszcze żywi twórcy.
Jak legalnie korzystać z narzędzi AI? Odpowiedzi znajdziecie w materiale opracowany przez Poradnik Przedsiębiorcy. W tym kontekście polecamy też tekst o tym, jak oznaczać treści wygenerowane przez AI.
Unia Europejska powoli kończy prace nad prawnymi zasadami budowy tzw. gigafabryk AI, ale Polska i Francja mają kilka istotnych zastrzeżeń co do ostatecznego kształtu dokumentu.
Universal Music i Nvidia wspólnie tworzą narzędzia do odkrywania i tworzenia muzyki. Czy prawdziwi muzycy wkrótce staną się zbędni?
Coraz częściej można spotkać się z głosami, że Internet umarł (np. na YouTube już co piąty film jest wygenerowany przez AI), a śmiertelny cios i grób wykopała mu sztuczna inteligencja. Czy są jakieś sposoby rozwiązania problemów trapiących sieć? Może nim być C2PA.
Korea Południowa przyjęła nowe prawo regulujące użycie sztucznej inteligencji i obowiązki dostarczających ją firm i zrobiła to jako pierwsza na świecie.
Wikipedia przesz ła drogę od „nie korzystaj z niej, bo każdy może w niej napisać cokolwiek” do „korzystaj z niej, bo moderatorzy Wikipedii są wymagający, a poza tym zawiera ona informacje sprawdzone i rozbudowane, nie to co chatboty AI”, ale nawet jej dotknął wiatr zmian – Wikimedia Foundation podpisała umowę z technologicznymi gigantami, w której uregulowano zasady korzystania z niej przez Big Tech.
Google Gemini (który będzie przypominał, żeby zrobić sobie przerwę od korzystania z niego) kontroluje już ponad 20% rynku czatbotów i sukcesywnie podgryza ChatGPT.
Parlament Europejski pracuje nad przepisami, które zobowiążą dostawców AI do płacenia wydawcom za korzystanie z ich informacji.
Elon Musk chce wystrzelić w kosmos milion satelitów, żeby zasilić sztuczną inteligencję. Waszej ocenie zostawiamy sensowność tego pomysłu.
Ciekawy eksperyment pokazujący społeczne i środowiskowe koszty AI – grupa 50 Chilijczyków stworzyła chatbota „napędzanego ludzką siłą”. Co to znaczy? Oznacza to, że wszystkie zapytania były obsługiwane przez prawdziwych ludzi.
Meta inwestuje w infrastrukturę energetyczną, bo potrzebuje tak dużo prądy, a także staje się największym odbiorcą energii jądrowej w USA.
OpenAI ogłosiło premierę Prism, narzędzia AI wspomagającego tworzenie tekstów naukowych. Czy oznacza to, że publikacja naukowe będą pełne slopu? To się okaże, ale pewne jest, że w darmowym i najtańszym abonamencie ChatGPT pojawią się reklamy.
Trudności
Comiesięczny kącik „AI zabiera ludziom pracę”:
- Może nie do końca zabiera, ale na pewno zmienia pracę; skończyły się czasy, w których copywriterzy pisali teksty „z palca”, bo teraz są bardziej selektorami i redaktorami (tyczy się to też innych zawodów umysłowych).
- Spółka ASML dzięki AI osiągnęła rekordowe zyski i z tego powodu teraz zwalnia 1700 osób.
- Anthropic, spółka odpowiedzialna za Claude, zadał sobie pytanie „czy AI zabiera ludziom pracę?”, po czym przeprowadził badania, z których wyszło, że tak, ale nie.
- Liz Kendall, brytyjska minister nauki, innowacji i technologii, przepowiada, że sztuczna inteligencja może wpłynąć na pracę nawet 10 milionów Brytyjczyków.
- Otoczeni czatbotami i agentami pamiętajcie o swoich współpracownikach.
- Amazon zwolnił 16 tysięcy osób, ponieważ zautomatyzował część ich obowiązków z pomocą AI.
- A tu krótkie wyjaśnienie, dlaczego rozwój AI nie doprowadził (jeszcze) do masowego bezrobocia.
Ponieważ rozwój technologii ma zarówno dobre, jak i złe skutki, zawsze warto wiedzieć, jak przestępcy wykorzystują sztuczną inteligencję do swoich niecnych aktywności, tym bardziej że zagrożeń jest coraz więcej.
Widzisz, że bohater filmu podejrzanie błyszczy. Widzisz, że jego usta poruszają się bardzo nienaturalnie. Może nawet zauważysz, że ktoś ma dodatkowy palec lub w trakcie sceny zmienił kolor ubioru. Stwierdzasz, że film wygenerowano z pomocą SI, więc uznajesz, że nie uwierzysz jego przekazowi. Ty nie, ale cała masa ludzi tak, jak wynika z badania przeprowadzonego przez zespół Uniwersytetu w Bristolu. I co najgorsze, nie przeszkadza im to.
Satya Nadella, szef Microsoftu, wystosował ostatnio apel do internautów, żeby nie nazywali tworów AI „slopem”. Nadella prawdopodobnie nie zastanawia się nad tym, że coraz więcej kodu piszą sztuczne inteligencje, co z jednej strony przyspiesza prace, ale z drugiej produkuje masę błędów, których można by uniknąć, gdyby ktoś napisał program samodzielnie. Nie należy jednak oczekiwać od człowieka, który w kwietniu 2025 chwalił się, że „30% kodu w Microsofcie powstaje za pomocą AI”, że wycofa się ze swoich słów, nawet gdy dowody świadczą, że AI kod w produktach Microsoftu tylko je psuje i to psuje tak bardzo, że ludzie zaczęli nazywać firmę „Microslopem”.
Project Genie od Google może odmienić produkcję gier, bo jest w stanie wygenerować działającą grę na podstawie prompta. Co prawda na razie tylko krótką i niezbyt rozwiniętą, ale można przypuszczać, że projektowanie gier za 10 lat będzie wyglądać zupełnie inaczej. W tym kontekście warto też wspomnieć, że Steam, światowy lider w dystrybucji gier, złagodził swoje restrykcyjne wymagania co do oznaczania gier powstałych z pomocą AI, zaś GOG nie popisał się, używając grafiki AI w kampanii promocyjnej zimowej wyprzedaży.
Kolejny dowód, że żyjemy w cyberpunku, ale nie tym neonowym, tylko tym nudnym – Internet zalewają „roje AI”, które zachowują się jak ludzie, są trudne do wykrycia i bardziej niż zwykłe boty podważają zaufanie do innych i dostęp do prawdy.
Czy naprawdę konieczna była interwencja prezesa UODO, żeby prokuratura wznowiła śledztwo w sprawie nastolatków, którzy z pomocą AI wygenerowali nagie zdjęcia swojej koleżanki i rozpowszechniali je w Internecie?
Alex Pretti, 37-letni pielęgniarz, został śmiertelnie postrzelony przez agenta amerykańskiego patrolu granicznego, ponieważ pokojowo protestował przeciwko działaniom ICE w Minneapolis. Choć dowody wskazują, że funkcjonariusze w rażący sposób przekroczyli swoje uprawnienia, prawicowa infosfera zaczęła obwiniać Prettiego i na potęgę pisać, że sobie zasłużył, tym bardziej że przyszedł na protest uzbrojony. Czy zdziwi was, gdy okaże się, że „dowód fotograficzny” na potwierdzenie tych tez, to grafika wygenerowana przez AI? Jest to też pewne potwierdzenie trendu, który w ostatnich miesiącach obrała amerykańska administracja w swojej komunikacji w mediach społecznościowych, a jest ona pełna obrazów generowanych przez AI, a do tego Amerykanie bronią takiej strategii.
Wiele wskazuje, że AI zamiast nas rozwijać, tak naprawdę nas cofa, ponieważ daje nam odpowiedzi, zanim zdążymy zrozumieć pytania, a do tego może upośledzać naszą zdolność myślenia.
Perspektywy
Coraz więcej osób w kryzysie zdrowia psychicznego szuka odpowiedzi u chatbotów. Powodów jest wiele, na pewno jednym z nich jest trudny i drogi dostęp do terapeutów, ale można stwierdzić, że jeśli komuś pomaga rozmowa z ChatGPT, to nie ma problemu, ale warto zauważyć, że Polaków oszukują wygenerowani przez AI lekarze, a Google usunął część odpowiedzi z AI Overviews, po tym jak okazało się, że zawierały fałszywe informacje na temat zdrowia, więc czy na pewno terapeutyczna rozmowa z Chatem jest taka niewinna? W tym miejscu warto też wspomnieć, że OpenAI ogłosiło premierę nowego modułu do swojego flagowego produktu – ChatGPT Health.
Czy jeśli poproszę ChatGPT, żeby napisał mi opowiadanie, to kto będzie autorem – ja, który dostarczyłem pomysł, postacie i fabułę, czy Chat, który to wszystko spiął w całość i napisał. Kto będzie miał prawa autorskie do powstałego wytworu? Odpowiedzi w artykule Poradnika Przedsiębiorcy.
Autor tego tekstu ma pewne wątpliwości, czy uprawnione jest porównywanie pracy Alberta Einsteina i jego żony Milevy Marić, która niejednokrotnie pomagała mu w odkryciach, do współczesnego naukowca pytającego chatbota, czy dana teza jest prawdziwa, ale sam esej, w którym to porównanie się pojawia, jest warty przeczytania.
Kto ponosi odpowiedzialność za decyzje podjęte z pomocą AI? I co to oznacza dla prawników?
Cory Doctorow, pisarz s-f, futurysta i dziennikarz technologiczny, pisze, że „sztuczna inteligencja jest jak azbest” oraz przepowiada, że firmy AI upadną, a naszym zadaniem będzie odzyskać, co cenne z tego, co z nich zostanie.
Czy sztuczne inteligencje myślą? Nie wiadomo, ale wiele wskazuje, że „czują” lub mówiąc inaczej „intiucjują”.
Nie ma odcinka „Sztucznej inteligencji i marketingu” bez kolejnego przewidywania, kiedy AI zniszczy ludzkość.
Czy piana jest w stanie powiedzieć nam coś o logice sztucznej inteligencji? Wiele wskazuje, że tak.
Czujecie się przytłoczeni szybkim i niekontrolowanym rozwojem sztucznej inteligencji? Postawcie na prawdziwą społeczność.
Potrzebujemy porażek i to bardzo. Potrzebujemy ich tym bardziej, że sztuczna inteligencja znacząco ułatwia nam wygrywanie (np. w pracy czy w szkole), ale w ten sposób odbiera nam coś elementarnie ludzkiego.
Formularz kontaktowy
Rozwijaj swoją markę

Zajmuje się copywritingiem od 2020 roku, zaś pisaniem od 2010, co znalazło swój wyraz w jednej powieści, trzech książkach poetyckich i kilkudziesięciu artykułach opublikowanych w różnych mediach. Interesuje się content writinigiem, storytellingiem i rolą narzędzi AI we współczesnym copywritingu.