Spis treści
Sztuczna inteligencja i marketing – sierpień 2024
Prezentujemy wybór najciekawszych i najbardziej poruszających wiadomości i materiałów związanych ze sztuczną inteligencją i marketingiem, które miały miejsce w sierpniu 2024.
Osiągnięcia
Jak zawsze kolejne wydanie „Sztucznej inteligencji i marketingu” rozpoczynamy od przeglądu wydarzeń w firmach, które w największym stopniu wpływają na branżę AI. Dzieje się np. w OpenAI – według doniesień Microsoft powoli traci kontrolę nad organizacją dowodzoną przez Sama Altmana, co sprawia, że do gry włączają się inni, a konkretnie Apple i Nvidia. Sam Altman pozyska kolejne fundusze na rozwój swoich planów – a wśród nich m.in. prawie stuprocentowo skuteczny wykrywacz treści generowanych przez AI. Czy materiały AI będą w końcu oznaczone i połozy się kres plagiatom? Raczej nie – OpenAI nie chce udostępnić tego narzędzia, a powody poznacie w materiale The Verge. Z innych doniesień warto wspomnieć, że firma podpisała umowę na wykorzystanie treści z Condé Nast, konglomeratem medialnym wydającym m.in. „Vogue”, udostępniła swoje modele amerykańskiemu AI Safety Institute w celu testów bezpieczeństwa oraz przekroczyła 200 milionów użytkowników w jednym tygodniu. W kontekście OpenAI warto też poczytać o „polskim wątku”, a konkretnie o tym, że Jakub Pachocki jest głównym naukowcem tej firmy i co to mówi o drenażu mózgów z Polski.
A co słychać Elona Muska? We wrześniowym wydaniu pewnie napiszemy szerzej o zawieszeniu działalności X (dawny Twitter) w Brazylii, ale właściciel Tesli utrzymuje poziom:
- zapowiada humanoidalne roboty (choć pamiętamy, że poprzednim razem robotem był mężczyzna w przebraniu robota);
- Grok (którym zachwycona jest branża krypto) działa według jego myśli, czyli praktycznie bez żadnych ograniczeń, więc użytkownicy generują obrazy Myszki Miki z piwem, Elona z karabinem szturmowym oraz deepfake’ów z udziałem czołowych amerykańskich polityków (pewnie dlatego przedstawiciele 5 stanów USA naciskają Muska, żeby poprawił działanie Groka przed wyborami, ale biorąc pod uwagę jego „wywiad” z Donaldem Trumpem, nie należy się spodziewać, że tak się stanie);
- ku zdziwieniu wielu opowiada się za wprowadzeniem ustawy o bezpieczeństwie AI w stanie Kalifornia, co odróżnia go od innych graczy na rynku, np. OpenAI;
- twierdzi, że Neuralink da ludziom „supermoce” i „pozwoli im konkurować z AI” (że inwestuje w oba rozwiązania, to inna kwestia, ale warto o tym pamiętać);
- pozywa OpenAI za „czerpanie zysków ze sztucznej inteligencji” (sic!);
- ale przynajmniej zostanie ukarany przez Unię Europejską za nielegalne wykorzystanie danych użytkowników X (dawny Twitter) do szkolenia Groka.
Praca zdalna zaszkodziła Google w konkurencji z OpenAI – tak twierdzi Eric Schmidt, były CEO firmy. Mimo to można przypuszczać, że firma radzi sobie całkiem nieźle – Gemini Live udostępniono kolejnym użytkownikom, którzy będą mogli też tworzyć własne chatboty bazujące na Gemini, edycja zdjęć w Pixelu 9 przekracza oczekiwania (choć budzi zrozumiałe obiekcje), Google Research wykorzystało algorytm GameNGen, żeby wygenerować grywalnego „Dooma” bez użycia silnika gry, nowy model AI firmy ma pomóc w wykrywaniu chorób, a do tego naprawiono generator obrazów, który swego czasu wywołał wiele kontrowersji, np. generując obrazy czarnoskórych SS-manów. Jednocześnie AI Overviews wchodzi w kolejnych krajach (w UE wciąż niedostępne), a w tym kontekście warto dodać, że:
- podsumowania AI pokazują się niezalogowanym użytkownikom, co wcześniej nie było możliwe;
- firma poprawiła funkcje cytowania i linkowania;
- AI Overviews po zmianach w 99,5% przypadków cytuje strony z top 10;
- ostatnie Core Update wpłynęły na widoczność i jakość AI Overviews;
- spadła pozycja Reddita w podsumowaniach AI, a zyskały YouTube i LinekdIn;
- ogólna widoczność AI Overviews w wynikach wyszukiwania rośnie.
A poza tym warto jeszcze wspomnieć, że pracownicy DeepMind naciskają, żeby Google wycofało się z kontraktów wojskowych z Izraelem.
Meta wypuściła Llama 3.1 – największy dotychczas open-source’owy LLM. Z kolei Microsoft wypuścił nowe wersje LLM z rodziny Phi.
AI Act weszło w życie. Z tej okazji polecamy:
- materiał polskiego rządu opisujący nowe regulacje,
- komunikat Komisji Europejskiej na ten sam temat,
- tekst opisujący, jak kalifornijskie regulacje AI mogłyby wpłynąć na europejskie,
- a także komentarz prawny dotyczący obowi ązków i praw przedsiębiorców wynikających z AI Actu.
W kontekście AI Actu polecamy też wywiad z Nickiem Cleggiem, dyrektorem Meta ds. działań globalnych, który ma kilka „interesujących” spostrzeżeń na temat europejskiego podejścia do sztucznej inteligencji – uważa m.in. że jeśli ktoś nie chce, by modele AI były trenowane na jego danych, nie powinien uczestniczyć w świecie online. Ciekawe, prawda?
Polecamy też zapoznać się z raportem stworzonym przez zespół do spraw AI działający przy Ministerstwie Cyfryzacji – jest on dostępny tutaj.
ChatGPT czy Gemini mogą świetnie sprawdzać się w języku angielskim, ale mogę mieć duże problemy z innymi językami, w tym z polskim. Jeśli poszukujecie SI wyszkolonej na polskich danych i rozumiejącej nie tylko polski języki, ale również polskie konteksty, zachęcamy do zapoznania się z Bielikiem, który jest dostępny do testów w domenie publicznej.
Trudności
Sztuczna inteligencja od początku 2023 roku jest na ustach wszystkich, ale Cathy O’Neil, matematyczka specjalizująca się w algorytmach, twierdzi, że to „pusty slogan”, co szerzej wyjaśnia w wywiadzie przeprowadzonym przez Jakuba Dymka dla Fundacji Panoptykon. Można zgodzić się z twierdzeniem, że AI to nic innego jak hasło ukute przez marketerów, żeby sprzedawać trochę lepsze narzędzia do autouzupełniania, ale nie zmienia to faktu, że wpływ narzędzi SI jest z każdym dniem coraz większy, na co zwraca uwagę Michał Wąsowski w swoim komentarzy dla Money.pl – jak słusznie zauważa, AI przekracza granice realizmu i jest nowym zagrożeniem. W kontekście tego komentarza polecamy też poczytać opinię Jenny Ortegi, która wprost stwierdziła, że „nienawidzi AI” (przed SI ostrzega też Tom Hanks).
Z wiadomościami ekonomicznymi jest trochę jak z rabinami ze słynnego powiedzenia – w jednej możemy poczytać, że sztuczna inteligencja zabiła część start-upów, które obiecywały z jej pomocą stworzyć nowe rozwiązania, z drugiej czytamy, że analitycy przestają widzieć sens inwestycji w AI, a z trzeciej możemy się dowiedzieć, że 88% firm inwestuje we wdrożenie SI w miejscu pracy (więcej o tym w badaniu przeprowadzonym przez EY), a z jeszcze czwartej analitycy zastanawiają się, czy z AI kiedykolwiek będą jakieś pieniądze. Jak jest naprawdę? To wie tylko rynek.
Comiesięczny kącik „AI zabiera ludziom pracę”, zaczynamy od wiadomości, której spodziewali się chyba wszyscy, którzy wiedzą, jak działa gospodarka wolnorynkowa i potrafią dodać dwa do dwóch – wdrożenie sztucznej inteligencji w miejscu pracy owszem podniosło efektywność, ale w ponad 70% przypadków przyniosło pracownikom tylko więcej obowiązków i wypalenie zawodowe. Po raz kolejny musimy też napisać o szeregowych pracownikach branży gamingowej, którzy tracą pracę z powodu – tym razem mowa o aktorach głosowych i motion-capture (w kontekście aktorów głosowych polecamy fascynujący materiał o ludziach, którzy zakochują się w AI głosach). Na mniej zleceń z powodu AI narzekają też osoby pracujące z tekstami i programiści. Polecamy też poczytać o rynku pracy (konkretnie o call center) na Filipinach, gdzie już teraz można obserwować rzeczywistość, która w innych częściach świata dopiero nadejdzie.
ChatGPT radzi sobie z zastępowaniem rozbudowanych zespół marketingowych, ale nie radzi sobie z liczeniem liter – więcej w tym materiale.
Amy Software Factory, jednostka armii USA zajmująca się m.in. sztuczną inteligencją, stworzyła program do błyskawicznej identyfikacji celów.
Czy zbliżamy się do pęknięcia bańki AI? Próba odpowiedzi w materiale Vox.
A czy sztuczna inteligencja mogłaby pomóc w kolejnej pandemii? Choć autor tego tekstu uważa, że bardziej prawdopodobna jest pandemia z powodu uwolnienia drobnoustrojów zamkniętych w wiecznej zmarzlinie, która rozmarza z powodu globalnego ocieplenia, nie można wykluczyć, że Ai pomoże w bioterroryzmie na globalną skalę, jak zauważają Tharin Pillay i Harry Booth w materiale dla „Time”.
W kilku poprzednich wydaniach wspominaliśmy o kolapsie modelu – sytuacji, w której model AI załamuje się z powodu szkolenia na danych wygenerowanych przez inne modele AI. Dlaczego jest to duży problem i dlaczego zalewanie Internetu materiałami wygenerowanymi przez SI przybliża nas do tego, opowiada artykuł w The Converastion.
Nauka na całym świecie zmaga się z wieloma problemami, a jednym z nich są artykuły tworzone z pomocą sztucznej inteligencji. Teraz problem jest jeszcze większy, ponieważ Sakana AI Labs stworzyła „AI naukowca”, który może sam odkrywać i sam pisać artykuł, co może potrząsnąć podstawami naukowego świata. O ryzykach wynikających ze stosowania AI do oceny procesu naukowego oraz publikacji wyników badań można też poczytać tutaj. W tym kontekście warto też zapoznać się z materiałem o problemach wynikających z bezprawnego trenowania modeli AI na licencjonowanych artykułach naukowych.
Javier Milei, prezydent Argentyny, jest postacią kontrowersyjną. Dyskusje wzbudzają też jego pomysły – ostatnim jest zastosowanie AI do przewidywania przestępstw. Nie wiadomo, czy Milei czytał „Raport mniejszości” Philipa K. Dicka (lub oglądał film Stevena Spielberga pod tym samym tytułem), ale można być pewnym, że jeśli zapoznał się z tym dziełem, to potraktował je jako instrukcję obsługi, a nie przestrogę.
Okazuje się, że stosowanie SI do generowania opisów produktów przyczynia się do spadku sprzedaży. Okazuje się też, że klienci nie przepadają za stosowaniem sztucznej inteligencji w reklamie. Kto by się spodziewał?
Perspektywy
Nie musicie się już martwić – z badań Uniwersytetu Bath wyszło, że sztuczna inteligencja nie jest zagrożeniem dla ludzkości. Szczegóły w ich materiale.
Sztuczna inteligencja w szkołach? Polski rząd chce, dzieci korzystają, nauczyciele oponują. Więcej w materiale „Rzeczpospolitej”.
Ursula von der Leyden dała zielone światło dla liczącej ponad 100 miliardów euro inwestycji w „CERN dla AI”.
A może zastanawialiście się, jak sztuczna inteligencja wpływa na architekturę? Odpowiedzi znajdziecie w tym tekście.
O tym, co Chubby – wygenerowany przez AI kot, który jest niezwykle popularny na TikToku – mówi nam o współczesnym Internecie, poczytacie w materiale BBC.
Sztuczna inteligencja nie czuje smaku, ale może tworzyć przepisy kulinarne – uprzedzamy jednak, że choć niektóre są zjadliwe, większość jest tylko marnowaniem składników.
Pisaliśmy już wiele razy, że sztuczne inteligencje do działania wymagają niezliczonych ilości energii elektrycznej i innych zasobów, co wiąże się z dużymi emisjami gazów cieplarnianych. Międzynarodowy Fundusz Walutowy chce z tym walczyć, zachęcając państwa, żeby opodatkowały zużycie energii przez sektor AI.
Filozofię z jednej strony postrzega się jako ukoronowanie ludzkiej wiedzy i dziedzinę, która czyni nas ludźmi, ale z drugiej jest ona postrzegana jako bezużyteczna. Z tego powodu polecamy Wam poczytać, dlaczego w dobie AI (a więc narzędzia superefektywnego i superutylitarnego) potrzebujemy filozofii, jej nauczania i uprawiania.
Sztuczna inteligencja znalazła wielu apologetów, którzy traktują ją jako rozwiązanie wszystkich problemów oraz nie przyjmują do wiadomości jej krytyki. Można zatem powiedzieć, że traktują ją nie w sposób racjonalny, a religijny – o tym, dlaczego mniej należy obawiać się wzrostu możliwości SI, a bardziej ludzi, którzy traktują ją bezkrytycznie i niespełnienia ich oczekiwań, możecie przeczytać w artykule Navneeta Alanga w „The Guardian”.
Na koniec polecamy wam fascynujący artykuł o Alexandrze Grothendiecku, francusko-żydowskim matematyku, którego prace na temat topologii mogą otworzyć nowy rozdział w tworzeniu sztucznej inteligencji, a który sporą część swojego życia spędził, prowadząc pustelniczy tryb życia i eksplorując mistyczną tematykę.
Formularz kontaktowy
Rozwijaj swoją markę
Zawodowo zajmuję się copywritingiem. Ornitolog-amator, kucharz, pisarz.