Spis treści

​Sztuczna inteligencja i marketing – sierpień 2025

08 września 2025
6 min.
Damian Kowal
Damian Kowal
​Sztuczna inteligencja i marketing – sierpień 2025

Przedstawiamy wybór najważniejszych, najciekawszych i najbardziej wstrząsających wiadomości ze świata AI i marketingu z sierpnia 2025.

​Osiągnięcia

OpenAI ogłosiło premierę GPT-5 i wszyscy związani z AI żyją tym, że Chat-GPT wspiął się na nowe szczyty, ale niektórzy twierdzą, że wyższych szczytów już nie osiągnie.

Z kolei Google ogłosiło premierę nowego narzędzia do edycji i generowania obrazów – Nano Banana. Jego możliwości są tak imponujące, że niektórzy już wieszczą koniec zawodu grafika i jest przyszłością postprodukcji. Oprócz tego premierę miał Jules, asynchroniczny agent AI do programowania.

Motto Google brzmiało kiedyś „nie bądź zły” – firmie nie idzie to chyba najlepiej, bo 60 brytyjskich parlamentarzystów oskarża ją o naruszenie deklaracji „bezpiecznego rozwoju SI”.

Kolejny miesiąc i kolejny odcinek telenoweli „OpenAI kontra Elon Musk” – tym razem Elon z kolejnym pozwem przeciwko praktykom firmy dowodzonej przez Sama Altmana. Z drugiej strony – OpenAI pokonało Groka w turnieju szachowym.

Elon Musk chce kupić wszystkie karty graficzne na świecie, żeby napędzać swoje AI.

W sierpniu zaczęły obowiązywać nowe przepisy w ramach AI Act – jakie dokładnie, dowiecie się na stronie gov.pl.

Polscy rodzice uważają, że polska szkoła powinna oferować przedmiot przysposobienie do SI, ale (znając polskich rodziców) pewnie byliby oburzeni, gdyby coś takiego faktycznie zaproponowano (vide histeria z edukacją zdrowotną, na której uczniowie mają się uczyć jak dbać o zdrowie i stawiać granice, ale uczyniono z tego przedmiotu przedmiot moralnej paniki).

Geoffrey Hinton, ojciec chrzestny sztucznej inteligencji, ogłosił „jedyny sposób”, żeby ludzkość poradziła sobie z superinteligencją i, co ciekawe, nie jest to odłączenie jej od prądu. A jeśli zastanawiacie się, jak AI może zniszczyć ludzkość, to BBC ma dla was próbę odpowiedzi.

Projektanci – mebli, mody i budynków – wyjaśniają, jak AI zmienia ich codzienność.

Codziennie użytkownicy generują 2,5 miliarda zapytań do różnych sztucznych inteligencji i tak, wpływa to na planetę. Jak? Odpowiedzi w materiale CNN.

W tym cyklu patrzymy krytycznie na sztuczną inteligencję, ale gdy pojawia się sensowne zastosowania, od razu to przyznajemy – AI stetoskop, który pomaga wykrywać choroby serca jest jak najbardziej sensowny. Całkiem sensowne jest też wykorzystanie AI, żeby uświadomić mieszkańców aglomeracji Tokio, jakie mogą być skutki erupcji Fudżi.

Harvard Business Review z reguły dowozi, i jest tak też teraz – przed wami lista najchętniej czytanych w tym roku artykułów HBR o sztucznej inteligencji.

Bioakustyka to fascynująca dziedzina, dzięki której jesteśmy w stanie nie tylko lepiej zrozumieć naturę dźwięku, ale również dźwięki w naturze. Uzyskana wiedza może pomóc np. w ochronie zagrożonych gatunków, takich jak hawajki (mowa o ptakach z rodziny łuszczakowatych). A gdy połączymy bioakustykę i sztuczną inteligencję, możemy uzyskać jeszcze więcej danych. Sztuczna inteligencja pozwala też lepiej zrozumieć Słońce.

Można powiedzieć, ze się zdarza, a można powiedzieć, że obrazuje to stan mediów w 2025 roku – Wired i Business Insider usunęły artykuły pewnego freelancera, bowiem okazało się, że zostały wygenerowane przez SI.

​Trudności

Comiesięczny kącik „AI zabiera ludziom pracę”:

Pisaliśmy o tym już wielokrotnie, ale problem się nasila – pedofilie wykorzystują AI, żeby generować treści z nagimi dziećmi, ale (co każe zadawać wiele pytań) robią to też szkolni koledzy szkolny kolegom.

Czy bańka AI w końcu pęknie? Czy faktycznie mamy do czynienia z bańką AI? Czy wyścig AI zwalnia? Jak zwykle nie ma łatwych odpowiedzi na te pytania, ale faktem jest (potwierdzonym przez MIT), że 95% wdrożeń AI w zastosowaniach biznesowych kończy się fiaskiem, a na pewno nie takim sukcesem, jakiego oczekiwali szefowie i akcjonariusze. Faktem jest też, że zmiana w podejściu do AI jest coraz bardziej zauważalna.

Po raz kolejny okazuje się, że sztuczna inteligencja nie radzi sobie w zadaniach, w których poradziłby, cytując „Jaya i Cichego Boba”, „skeevy stoner” – Taco Bell właśnie wycofało AI ze swojego procesu zamówień, ponieważ bot pozwolił na zamówienie 18 tysięcy kubków wody.

Czyżby bonzowie Doliny Krzemowej sami wyprodukowali sobie sznur, na którym się powieszą? Okazuje się, że upowszechnienie sztucznej inteligencji doprowadziło do spadku zapotrzebowania na oprogramowanie, a co za tym idzie, spadku wycen gigantów w rodzaju Salesforce czy Adobe.

Pojawił się vibe coding (autor tego tekstu znalazł w sieci opinię, że vibe nie oznacza wibracji, ale jest skrótem od „very inefficent but entertaining”), więc nic dziwnego, że istnieje też vibe hacking.

Gracze™ odkryli, że Przeglądy AI od Google czasami kłamią i są oburzeni.

Okazuje się, że ChatGPT może szkodzić dzieciom.

YouTube od lat słynie z niezbyt uczciwych (lub co najmniej upierdliwych) praktyk, ale to każe się poważnie zastanowić nad wieloma kwestiami, bowiem platforma – bez informowania użytkowników oraz uzyskiwania ich zgody – stosuje sztuczną inteligencję do „poprawiania jakości” filmów, co może służyć do przyzwyczajania użytkowników do graficznego stylu AI, żeby nie czuli oburzenia, gdy platforma zostanie zalana AI slopem (jest to teoria spiskowa, ale autor tego tekstu uważa, że całkiem prawdopodobna).

Gdyby autor tego tekstu miał wskazać największy i najważniejszy wynalazek w historii ludzkości, powiedziałby, że są to najpierw pismo, a potem książka. O ile LLM-y raczej nie doprowadzą do upadku pisma (w końcu na nim bazują), o tyle mogą doprowadzić do upadku książek (ile razy słyszeliście, że ktoś czegoś nie czytał, bo streścił to sobie w Chacie? Autor tego tekstu sporo razy), co może wiązać się głównie ze stratami.

Historia Tay powtarza się w regularnych cyklach – naukowcy organizacji Truthful AI odkryli, że całkiem łatwo można nakłonić AI do popierania ludobójstwa.

Od ludzi, którzy doprowadzili do Holokaustu (lub chcą doprowadzić do nowego) gorsi są tylko ludzie, którzy chcą na tym zarobić, a już najgorsi z wymienionych są ci, którzy zarabiają na produkcji holokaustowego AI szlamu.

Firmy z Doliny Krzemowej są świetne w budowaniu etycznej otoczki wokół swojej działalności, ale wystarczy tylko trochę podrapać, a okazuje się, że pod warstwą PR-u kryją się niemoralne działania. Przykładem są wytyczne Meta dotyczące korzystania z jej czatbotów; pozwalają one dzieciom rozmawiać z botami o seksie, pytać, czy czarnoskórzy są głupsi od białoskórych i generować fałszywe dane medyczne.

​Perspektywy

Obstawiacie, że Barcelona wygra z Valencią? Albo może gracie na bardziej zaawansowanym poziomie i obstawiacie, że Lamine Yamal strzeli bramkę w 78. minucie z rzutu wolnego? Zapomnijcie o tym – od niedawna możecie obstawiać, jak poradzą sobie giganci AI i czy OpenAI podkupi kogoś od Meta lub odwrotnie.

Premiera GPT-5 przyniosła wielu osobom żałobę – ich „kochankowie” bazowali na starszych modelach, które zostały przez OpenAI wycofane. Przy okazji polecamy poczytać o tym, że coraz więcej dzieci i nastolatków korzysta z kompanów AI i dlaczego nie jest to najlepszy pomysł oraz dlaczego zbytnie poleganie na towarzystwie czatbotów może prowadzić do psychoz. Pozostając w kontekście kompanów AI, wspomnieć warto, że Korea Południowa mierzy się z epidemią samotności, szczególnie wśród seniorów. Jak rozwiązać ten problem? Okazuje się, że lalki zasilane Chat-GPT są całkiem niezłym rozwiązaniem.

Można nie zgadzać się z pozycjami ideologicznym zajmowanymi przez dr Józefa Orła, ale nie można mu odmówić kilku trafnych tez dotyczących przyszłości AI – np. tego, że wymiecie ona białe kołnierzyki i może doprowadzić do pogłębienia nierówności.

Psychoterapia z pomocą sztucznej inteligencji to interesujący i złożony temat, w którym nie ma jednoznacznych odpowiedzi i to mimo tego, że jej wyniki są niezbyt pozytywne. Wkrótce jednak może być ona nielegalna – w Polsce jeszcze się o tym nie rozmawia, ale w USA co najmniej kilka stanów rozważa wprowadzenie zakazu AI-terapii.

Czy w świecie pełnym samotności można ją zwalczyć sztucznymi przyjaciółmi? Próba odpowiedzi tutaj.

To jest bardzo ciekawe pytanie – czy sztuczna inteligencja może cierpieć? Próba odpowiedzi w „The Guardian”, gdzie również znajdziecie argumenty przeciw tezie, że AI może cierpieć, a nawet głos samej AI!

Co się stanie, gdy połączymy nieweryfikowalną astrologię i przehajpowaną sztuczną inteligencję? Nie wiadomo, ale wiadomo, że AI (nie wiadomo która, może równie zmyślona jak astrologia) ogłosiła, że rok 2026 będzie należał do Lwów. Zajrzyjcie w ten link i zastanówcie się nad stanem polskiego (ale też światowego) dziennikarstwa.

Formularz kontaktowy

Rozwijaj swoją markę

dzięki współpracy z Cyrek Digital
Wyślij zapytanie
Pola wymagane
Damian Kowal
Damian Kowal
Copywriter

Zajmuje się copywritingiem od 2020 roku, zaś pisaniem od 2010, co znalazło swój wyraz w jednej powieści, trzech książkach poetyckich i kilkudziesięciu artykułach opublikowanych w różnych mediach. Interesuje się content writinigiem, storytellingiem i rolą narzędzi AI we współczesnym copywritingu.

zobacz artykuły
Oceń tekst
Średnia ocena: artykuł nieoceniony. 0
Mapa strony