Spis treści
Sztuczna inteligencja i marketing – luty 2026


Prezentujemy wybór najważniejszych, najciekawszych i najbardziej wstrząsających wiadomości ze świata AI i marketingu z lutego 2026.
Osiągnięcia
Jeśli ciekawi was, jakie są możliwe połączenia sztucznej inteligencji i robotyki (lub po prostu lubicie takie pojęcia jak „robotyka kwantowa”), to Delloite przygotował zwięzłą ściągawkę na ten temat.
Światowi liderzy spotkali się w Indiach na szczycie AI i okazało się, że mają różne zdania i nie mogą się dogadać.
Sztuczna inteligencja jednak czasami do czegoś się przydaje, szczególnie w matematyce, gdzie ostatnio pomogła rozwiązać problem całujących się sfer i kilka innych problemów matematycznych. Przydaje się też w astronomii, gdzie poprawia działanie satelit.
Być może AI pomoże ZUS-owi decydować o niepełnosprawności.
Czy to koniec Hollywood? Seedance 2.0 jest w stanie generować filmy na poziomie największych hitów ostatnich lat.
Meta otrzymała patent na tworzenie cyfrowych awatarów użytkowników, które dzięki AI będą mogły postować, lajkować i komentować po prawdziwej śmierci prawdziwych użytkowników. Testuje też Vibes, aplikację w całości wypełnioną filmami wygenerowanymi przez AI. I jeszcze planuje własną wyszukiwarkę.
Peter Steinberg, twórca agenta AI Openclaw, dostał pracę w OpenAI, gdzie będzie zajmował się agentami AI. Jednocześnie warto wspomnieć, że OpenAI ogłosiło premierę Frontier, platformy do tworzenia agentów AI.
Sam Altman, broniąc zużycia energii do trenowania sztucznych inteligencji, powiedział, że „wychowanie człowieka również pochłania energię i jedzenie, i to przez 20 lat”. Autor tego tekstu zgadza się z komentarzami wyrażanymi w Internecie (raczej nie były przychylne Altmanowi), a już szczególnie z tym, że Altman powiedział głośno cichą część i udowodnił tym samym, że szefowie z Doliny Krzemowej traktują ludzi jak baterie.
OpenAI szykuje się do giełdowego debiutu, a analitycy przewidują, że firma zostanie wyceniona nawet na bilion dolarów. Jednocześnie Nvidia wstrzymała wartą 100 miliardów dolarów inwestycję w OpenAI, a ponieważ Altman rozpaczliwie potrzebuje pieniędzy, giełda wydaje się być sensownym wyjściem (i reklamy, nie zapominajmy o reklamach).
Jeśli usłyszeliście ostatnio o Moltbooku i zastanawiacie się, czym jest serwis społecznościowy dla agentów AI, to tutaj znajdziecie wyczerpujące a przystępne wyjaśnienie. A warto się dowiedzieć, bo boty już tworzą własne religie i handlują narkotykami, co wiemy m.in. od ludzi, którzy udają boty (co za czasy, żeby być żywym).
Na biegunie przeciwnym do Moltbooka jest RentAHuman, aplikacja, w której bot lub agent AI może wynająć człowieka, żeby wykonał jakąś pracę w mięsestrzeni (ang. meatspace; co za czasy, żeby być żywym).
Microsoft intensywnie pracuje na miano Microslopu – okazuje się, że ludzie nie chcą korzystać z Copilota i innych funkcji AI, ale firma uparcie brnie w sztuczną inteligencję.
SpaceX i xAI przeprowadziły fuzję, a Elon Musk chce wystrzelić w kosmos milion satelitów, żeby budować tam centra danych. W międzyczasie może się martwić tym, że Irlandzka Komisja ds. Ochrony Danych uruchomiła dochodzenie w sprawie Groka, a konkretnie w sprawie wykorzystania go do generowania pornografii.
Koniec z testerami i poszukiwaczami błędów? Czas pokaże, ale póki co ludzie są zachwyceni Claude Code Security od Anthropic. Przy tej okazji warto wspomnieć, że firma oskarża DeepSeek o kradzież danych, choć samo wcześniej kradło dane.
W Hiszpanii odbył się szczyt w sprawie militarnego wykorzystania AI, który zwieńczono podpisanie porozumienia o niewykorzystywaniu AI w wojskowości, ale zrobiło to tylko 35 z 80 zaproszonych państw i nie było wśród nich ani USA, ani Chin.
Google ogłosiło premierę Gemini 3.1 Pro i szuka alternatyw dla produktów Nvidii, inwestując we własne TPU. Gemini będzie mógł generować muzykę na podstawie poleceń tekstowych, a Apple Music będzie z pomocą AI tworzyć playlisty.
Trudności
Comiesięczny kącik „AI zabiera ludziom pracę”:
- Jak wynika z analiz przeprowadzonych przez Instytut Monitorowania Mediów, ludzie coraz chętniej i częściej poszukują stanowisk związanych ze sztuczną inteligencją.
- Okazuje się, że gdy nie zatrudniasz juniorów, a ich zadania powierzasz wadliwej AI, po której muszą sprzątać seniorzy, którzy w tym czasie nie mogą zajmować się swoimi zadaniami, to nie dość, że nie będziesz mieć pracowników, gdy ci doświadczeni odejdą, to jeszcze efektywność jakoś niespecjalnie rośnie.
- Slopaganda, połączenie AI slopu i prawdziwej propagandy, ma się bardzo dobrze. Ma się tak dobrze, że firmy zaczęły dostrzegać, że stosowanie AI do komunikacji wewnętrznej i zewnętrznej może nie być najsensowniejsze, bo SI, owszem, dostarcza dużo słów i dostarcza je szybko, ale często słowa te są bez znaczenia i w bezsensownych połączeniach. Dlatego coraz więcej firm szuka ludzi, którzy będą pisać im sensowne słowa i łączyć je w pełne znaczenia opowieści.
- Zwalnianie z powodu wdrożenia AI i AI washing mają się świetnie.
- Gdy mowa o chińskim modelu 996 (praca od 9 rano do 9 wieczorem przez 6 dni w tygodniu), to jest to zamordyzm, bezproduktywność i komunistyczna dyktatura, ale gdy to samo, pod postacią 72-godzinnego tygodnia pracy, mówią firmy technologiczne to jest to już wolność, efektywność i kapitalistyczna utopia.
- Oto współczesna gospodarka w pigułce – należący do Jeffa Bezosa Amazon zanotował 213 miliardów USD przychodu w czwartym kwartale 2025 roku i zamierza je wydać na AI. Ten sam Jeff Bezos, dzień po ogłoszeniu raportu finansowego, zwolnił jedną trzecią pracowników „The Washington Post”, którego jest właścicielem (a niektórych zostawił wprost na linii frontu). Dlaczego to zrobił? Bo mu się to opłacało. Inna historia – Jack Dorsey, CEO Block, zanotowało 6,25 miliarda USD przychodu w czwartym kwartale 2025 roku, między innymi z powodu wzrostu produktywności zanotowanego przez wdrożenie AI. Ten sam Jack Dorsey, już po ogłoszeniu wyników finansowych, zwolnił 4000 z 10 000 pracowników firmy. Dlaczego to zrobił? Bo mu się to opłacało i nawet tego nie ukrywał, a 20% wzrost cen akcji firmy potwierdza, że opłaca się to również inwestorom i nie przeszkadza im fakt, że 4000 osób zostało bez pracy.
Rano odpalasz agenta AI, żeby wyszukał ci najciekawsze wiadomości do śniadania. Popołudniu nadzorujesz kilku innych agentów – jeden odpisuje na twoje maile, drugi sprawdza dane w tabelach, trzeci rozrysowuje plan działań na najbliższy kwartał. Wieczorem spotykasz się z kolegami i razem rozmawiacie o swoich agentach, a przed snem jeszcze sprawdzasz, co tam słychać u agenta odpowiedzialnego za inwestowanie na giełdzie. Brzmi fantastycznie? No cóż, jak każda bajka. Choć nie da się zaprzeczyć, że agenci AI robią ostatnio furorę, to jednak daleko im do doskonałości, a także potrafią być po ludzku mściwi, o czym przekonał się pewien inżynier zajmujący się biblioteką Pythona.
Pentagon korzysta z Claude, ale ten ma wbudowane ograniczenia etyczne, dzięki czemu nie można go używać do masowej inwigilacji i tworzenia autonomicznej broni. Anthropic nie zgadzał się na ich usunięcie, więc amerykańska administracja zagroziła, że zerwie kontrakt i ogłosi firmę „ryzykiem w łańcuchu dostaw”. Szef Anthropica, Dario Amodei, odmówił i opublikował oświadczenie. Pracownicy Google i OpenAI wyrażali poparcie dla działań Amodeia, ale same firmy ugięły się pod żądaniami Pentagonu. Amerykańska administracja spełniła swoje groźby i zakazała wszystkim swoim pracownikom korzystania z produktów Anthtropic, kontrakt ostatecznie dostało OpenAI (które po cichu usunęło słowo „bezpiecznie” z oświadczenia o swojej misji), ale amerykański resort obrony nie odpuszcza i będzie się domagać od swoich podwykonawców zerwania współpracy z Anthropic, które najprawdopodobniej skieruje sprawę do sądu. Czego uczy nas ta historia? Najpewnie tego, że państwa potrafią być silne, gdy tego chcą, tego, że militarne zastosowanie AI jest coraz częstsze, a sztuczna inteligencja i różnego rodzaju miłośnicy militaryzmu i autorytaryzmu często idą ręka w rękę.
Studenci protestują, uczelnia broni, a sama artystka być może dostanie za niego nagrodę – tak w skrócie prezentuje się historia pewnego dyplomu z wrocławskiej ASP, w którym, dobrze się domyśliliście, posłużono się sztuczną inteligencją.
Badacze z Cornell University zadali sobie pytanie: „co się stanie, gdy będziemy toczyć długie dysputy z czatbotami AI?”. Okazało się, że im dłużej się się z nimi rozmawiam, tym bardziej się gubią. Tu znajdziecie zwięzłe podsumowanie, a tutaj całe badanie.
Uważaj, co mówisz, bo mogą ukraść ci głos, o czym przekonał się już lektor Jarosław Łukomski.
AI sprawi, że zapotrzebowanie na energię będzie większe, a smartfony droższe.
Generatory obrazów nie radzą sobie z perspektywą. I z puzonami.
Startup Flock obiecał kiedyś, że z pomocą AI „wyeliminuje przestępczość”. Miasta w USA zaczęły podpisywać z firmą umowy. Potem okazało się, że to nie AI wyłapuje złodziei, ale słabo opłacani i przepracowani pracownicy z Filipin, a sam system ma tendencję do profilowania rasowego i fałszywych oskarżeń. Nie powinno zatem dziwić, że miasta teraz czym prędzej rozwiązują umowy z firmą, a jej przyszłość stoi pod znakiem zapytania.
Era dowodu fotograficznego skończyła się wraz z premierą NanoBanana 2.0. Do tego dochodzi kolejny problem – współczesne smartfony bardzo często i to bez zgody użytkowników edytują nasze zdjęcia. Choć funkcje te można wyłączyć, to często są domyślnie włączone, co rodzi wiele pytań o moralność takiego działania, a także prowokuje do rozmyślań o pamięci.
Sztuczna inteligencja może niszczyć łańcuchy dostaw żywności.
Czasopisma i instytucje przegrywają walkę z tekstami generowanymi przez AI, ale nie poddają się i wciąż pracują nad lepszymi metodami wykrywania sztucznego tekstu.
Roje botów (cóż za piękna fraza, które byłaby niemożliwa do fizycznej realizacji jeszcze 10 lat temu) mogą wpływać na przekonania ludzi, a więc można je wykorzystać do powolnego rozmontowywania demokracji.
To może wyjaśniać, dlaczego autor tego tekstu miał ostatnio wrażenie, że algorytm i aplikacja mobilna Spotify działają gorzej niż zazwyczaj – firma chwali się, że dzięki AI od grudnia 2025 nie napisała ani jednej linijki kodu.
Citrini Research jeszcze miesiąc temu była mało znaną firmą analityczną z USA, ale po tym jak pod koniec lutego opublikowała swoje przewidywania na najbliższe lata (w skrócie – przyjdzie AI i nas zje), inwestorzy się trochę przestraszyli.
Perspektywy
Żyjemy w cyberpunku – w Nowym Jorku powstała kawiarnia, do której można zabrać na randkę swojego AI partnera. Tymczasem w Chinach powstają już przepisy regulujące działalność partnerów AI.
Michael Woolridge, jeden z największych naukowców zajmujących się AI, ostrzega, że duża presja na komercjalizację tej technologii może sprawić, że cała branża skończy jak sterowiec Hindenburg.
W kolumbijskich wyborach parlamentarnych wystartowała Gaitana. Zapytacie, co w tym dziwnego, że ktoś startuje w wyborach, przecież każdy może to zrobić. Jasne, ale Gaitana jest całkowicie wygenerowana przez AI.
„The Guardian” przygotował podsumowanie raportu „International AI Safety”, a ciekawych pełnej wersji odsyłamy tutaj.
Oto bardzo ważne pytanie, które nie jest wysławiane zbyt głośno i zbyt często – jeśli AI wyeliminuje ludzką pracę, to kto i jak będzie decydować o tym, kto i kiedy je?
A może jesteście ciekawi, dlaczego sztucznej inteligencji w ogóle nie można uznawać za inteligencję i nie boicie się odwołań do historii filozofii czy pojęć takich jak nous i telos? Jeśli tak, to tutaj znajdziecie interesującą argumentację za tym, że AI jest niczym innym jak błędnym rozumowaniem. Polecamy też tekst, w którym opisano, dlaczego porównywanie ludzkiej i sztucznej inteligencji jest jak porównywanie jabłek z gruszkami. Warty uwagi jest również materiał, w którym próbuje się odpowiedzieć na pytanie „czym jest inteligencja?” i jednocześnie odpowiada się, że AI jest inteligentne.
Annalisa Barbieri to felietonistka „The Guardian”, która co tydzień odpowiada na pytania czytelników, które najczęściej związane są z relacjami i problemami życiowymi. Jednym pytań, na które odpowiadała ostatnio, było „czy mój partner nie straci umiejętności samodzielnego myślenia, bo jest w 0,3% najaktywniejszych użytkowników ChatGPT na świecie?”.
W Australii czatboty przepytują uczniów z prac pisemnych, które uczniowie wcześniej napisali, co z jednej strony przygotowuje dzieci do przyszłej pracy z AI, ale z drugiej każe stawiać pytania o rolę edukacji i nauczycieli teraz i w przyszłości. Bo w końcu może być tak, że AI doprowadzi u ludzi do zaniku umiejętności uczenia się.
Historia jak z „Diuny” lub Warhammera 40K; może nie bezpośrednio związana z AI (w owych uniwersach ludzie albo rozszerzali swoją inteligencję do poziomu AGI, albo tworzyli „sztuczną inteligencję”, ale z ludzkich mózgów), to warto o niej wspomnieć – zespół naukowców z Cortical Labs wyhodował komórki mózgowe i najpierw nauczył je grać w „Ponga”, a potem w „Dooma”.
Formularz kontaktowy
Rozwijaj swoją markę

Zajmuje się copywritingiem od 2020 roku, zaś pisaniem od 2010, co znalazło swój wyraz w jednej powieści, trzech książkach poetyckich i kilkudziesięciu artykułach opublikowanych w różnych mediach. Interesuje się content writinigiem, storytellingiem i rolą narzędzi AI we współczesnym copywritingu.