Spis treści

Sztuczna inteligencja i marketing – wrzesień 2024

08 października 2024
10 min.
Damian Kowal
Damian Kowal
Sztuczna inteligencja i marketing – wrzesień 2024

Prezentujemy wybór najciekawszych, najbardziej wstrząsających i najbardziej obiecujących wiadomości ze świata AI i marketingu z września 2024.

Osiągnięcia

To wydanie warto zacząć od prawdopodobnie najważniejszej wiadomości w branży AI od premiery ChatGPT 3.5 (i jednocześnie tak zaskakującej, jak fakt, że w słońce wschodzi i zachodzi) – OpenAI odejdzie od modelu non-profit i przekształci się w nastawioną na zysk korporację (tutaj wyjaśnienie powodów tego ruchu; warto też przeczytać tekst Vox, w którym wprost pada zdanie, że „Sam Altman sprzedał nas wszystkich”). Spowodowało to odejście najważniejszych osób z firmy (m.in. Miry Murati, a w maju 2024 odszedł Ilya Sutskever, który założył własny start-up rozwijający „bezpieczną AI”).

Pojawiły się nowe modele od OpenAI – GPT o1 i Strawberry (ten drugi ma już „myśleć”, a tak naprawdę samodzielnie dzieli złożone problemy na mniejsze części, co poprawiło jej skuteczność, ale, jak zawsze, budzi obawy o bezpieczeństwo danych). OpenAI otworzyło też swoją akademię, która ma pomagać w rozwoju umiejętności, szczególnie w zakresie AI, programistom z krajów o niskich i średnich dochodach.

Przy okazji doniesień z OpenAI polecamy też tekst Sama Altmana, w którym zapowiada on „nadejście ery inteligencji” i kategorycznie stwierdza, że „uczenie głębokie podziałało” – gdy już skończycie, przeczytajcie materiał Hallama Stevensa, który, jak to się mawia w środowisku youtuberów, wyjaśnia tekst szefa OpenAI (robi to też Steven Levy w Wired). A potem jeszcze poczytajcie o planach Altmana, żeby sztuczna inteligencja płynęła jak prąd w gniazdkach, a potem sprawdźcie, jak jego ambicje wpłyną na zużycie energii elektrycznej.

Nie sądzicie, że całkiem zabawna jest wiadomość o tym, że Elon Musk – apologeta kapitalizmu i wolności we wszelkich, nawet najbardziej karygodnych przejawach – uważa, że restrukturyzacja OpenAI jest nielegalna? Nie najlepiej przyjął też wdrożony przez stan Kalifornia zakaz deepfake’ów i oczywiście, że nazwał go autorytarnym atakiem na wolność słowa, ale czego spodziewać się po człowieku, który coraz więcej inwestuje w dezinformację i udostępnia przedstawiającą go jako gladiatora grafikę, w której mowa o „niszczeniu wirusa woke”? Warto też poczytać, jak czatbot X rozsiewał fałszywe informacje w kontekście wyborów w USA i jak poradzili sobie z tym urzędnicy.

Grok, AI produkowane przez X, nie będzie używać danych użytkowników z Unii Europejskiej (po raz kolejny można być wdzięcznym, że żyje się w UE), ale jeśli mieszkacie poza Unią, przeczytajcie materiał Wired na temat prywatności danych w tym kontekście.

Jeszcze trochę o biznesach Muska – zaczniemy od interesującej opinii, że wygrywa on wyścig AI, czego dowodem ma być nowe, największe na świecie, centrum danych w Memphis, Tennessee, a jednocześnie polecamy poczytać, jak wpłynie to na zanieczyszczenie okolic Memphis oraz czy rozwój SI bez poszanowania zasad etycznych jest dobry.

Nie jest to bezpośrednio związane ze sztuczną inteligencją, ale jest to ważna sprawa i warto o niej wspomnieć – X zbanowany w Brazylii. I teraz kilka pytań i odpowiedzi:

Time opublikowało listę 100 najważniejszych osób w świecie AI. Nie ma na niej Muska, ale jest Scarlett Johansson.

Nie macie wrażenia, że platformy społecznościowe Meta, a szczególnie Facebook, zmieniły się w ostatnich miesiącach w śmietnisko pełne AI szlamu, na którym siedzimy z przyzwyczajenia i braku alternatyw? Może przyczyną jest fakt, że w wersji mobilnej praktycznie nie można zobaczyć tego, co się zaobserwowało, ponieważ platforma wyświetla głównie propozycje i sugestie (w wersji dekstopowych można je wyeliminować wtyczkami)? A może to dlatego, że owe propozycje często zawierają grafiki generowane przez AI? Jeśli to was boli, to Meta ma rozwiązanie – opcję „Imagine Yourself”, w której będziecie mogli wykorzystać SI, żeby wygenerować grafikę ukazującą was np. jako monarchę, więc już niedługo wasze feedy na Instagramie i Facebooku będą zawierały jeszcze więcej AI slopu, tym bardziej że informacja o edycji obrazu z pomocą AI nie będzie dostępna z poziomu strony głównej.

To nie koniec doniesień z firmy Marka Zuckerberga – na firmowym blogu można poczytać, jak produkty Meta AI stały się jeszcze lepsze. Przedsiębiorstwo ogłosiło też owoc współpracy z RayBan i zaprezentowało AI okulary (oczywiście, że budzą one obawy co do wykorzystania prywatnych danych), a także nowego asystenta głosowego, które będzie przemawiał głosami m.in. Judy Dench czy Johna Ceny.

Przy okazji warto wspomnieć (i podziękować, że żyjemy w Unii Europejskiej), że Meta użyła do szkolenia swoich AI wszystkich publicznych postów opublikowanych na swoich platformach od 2007 roku (ciekawie się w tym kontekście czyta wywiad z Joelle Pineau, wiceprezeską Meta ds. rozwoju AI, która mówi, że „użytkownicy muszą wziąć część odpowiedzialności za swoje dane”), publikowanie copypast nie chroni przed wykorzystaniem waszych danych, a firma lekce sobie waży europejskie regulacje w zakresie AI i ochrony informacji. I jeszcze próbuje wynaleźć influencerów na nowo – tym razem generowanych przez SI.

Porcja doniesień z Google:

Apple publikuje nowe funkcje AI w swoich urządzeniach, a Vox dowodzi, że są one „magicznie wręcz przeciętne”.

Polecamy to, to i to podsumowanie Forum Ekonomicznego w Karpaczu, ponieważ dyskutowano tam też o sztucznej inteligencji.

Trudności

Chociaż huragan Helene nie jest bezpośrednio związany ze sztuczną inteligencją, może wpłynąć na jej rozwój, ponieważ uderzył w teren, na którym znajduje się kopalnia kwarcu wykorzystywanego do produkcji czipów – pytających, czy nie można używać innego kwarcu, informujemy, że nie, ponieważ musi on mieć odpowiedni stopień czystości i najlepszy jest ten ze Spruce Pine. W tym kontekście warto jednak zastanowić się, czy huragan Helene nie miał nic wspólnego ze sztuczną inteligencją, ponieważ emisje gazów cieplarnianych pochodzące z centrów danych niezbędnych do funkcjonowania sztucznej inteligencji mogą być nawet o 662% wyższe niż oficjalnie raportowane przez bigtechy, a jak wiadomo, emisje są jednym z czynników wpływających na siłę huraganów (a być może już niedługo hiperkanów). Sztuczna inteligencja idzie też po naszą wodę.

Pewnego dnia AI będzie śledzić każdy twój krok; powinniśmy wykorzystywać sztuczną inteligencję, żeby stale inwigilować obywateli, bo wtedy będą zachowywać się lepiej” – autor tego tekstu jest pewien, że gdyby ta informacja pojawiła się w kontekście Chińskiej Republiki Ludowej, Rosji lub Iranu, w części świata podniosłaby się wrzawa, że mowa o cenzurze, totalitaryzmie i łamaniu praw człowieka, ale ponieważ wypowiedział je Larry Ellison, dyrektor techniczny Oracle, na spotkaniu z analitykami finansowymi, autor tego tekstu pozwoli sobie na dość śmiałe przypuszczenie, że nietrudno będzie znaleźć ludzi, którzy będą bronić tez Ellisona argumentami o zmyśle biznesowym, optymalizacji kosztów i poprawie bezpieczeństwa. Ponieważ jednak Oracle ściśle współpracuje z amerykańską policją i innymi organizacjami odpowiedzialnymi za zapewnienie bezpieczeństwa publicznego, warto zdawać sobie sprawę, że wykorzystanie AI w monitoringu może nie być najlepszym pomysłem. Ciekawskim zostawiamy kilka materiałów o tym:

Gdyby zrobiła to jakaś firma, może jakiś start-up – media biznesowe zapewne okrzyknęłyby to innowacją, przykładem wspaniałej optymalizacji i świetną strategią biznesową. Zrobił to jednak jeden człowiek, więc jest to przestępstwo. O czym mowa? O mężczyźnie z Północnej Karoliny, który z pomocą AI wygenerował kilka zespołów muzycznych, stworzył im muzykę, wgrał ją do serwisów streamingowych, po czym stworzył boty, żeby jej słuchały i w ten sposób zarobił 10 milionów dolarów. Czy jest to oszustwo? Jak najbardziej. Czy pokazuje też nierównowagę sił w środowisku muzycznym? Jak najbardziej. Czy pokazuje też, że Spotify ma problem z milionami wygenerowanych przez AI piosenek, które zagrażają dochodom prawdziwych artystów, którzy zawsze są wyzyskiwani i na samym końcu do podziału zysków? Jak najbardziej.

SocialAI – platforma społecznościowa, w której waszymi znajomymi i obserwującymi są tylko i wyłącznie boty. Zakładacie konto, wybieracie ton botów i voila – możecie już pisać posty, a wasi robotyczni obserwujący odpowiedzą wam w wybranym przez was stylu. Reporterzy The Verge i Wired „zajrzeli w AI pustkę” i donoszą, że doświadczenie nie różni się specjalnie od mediów społecznościowych z ludźmi. SocialAI pokazuje, że przyszłość AI może wyglądać jak Twitter, napisano też w The Verge i warto zastanawiać się, czy to dobre.

Comiesięczny kącik „AI zabiera ludziom pracę”:

Dzieje się w IDEAS NCBR, instytucie badawczym zarządzanym przez Narodowe Centrum Badań i Rozwoju. Szczegóły wyjaśnia artykuł ITWiz, a w skrócie można napisać, że zespół zaprotestował przeciwko wyborowi nowego prezesa, dra Grzegorza Borowika, i wielu jego członków odeszło.

Ostatnie działania Canvy można podsumować dialogiem „Ty, mam plan. Jaki? Sprytny!” – okazuje się, że podwyżka abonamentu o 300% nie przynosi oczekiwanych przychodów. Czy można było to przewidzieć? Ekonomiści są podzieleni.

Regularnie piszemy o wykorzystaniu AI do siania dezinformacji i musimy zrobić to ponownie, ponieważ coraz chętniej wykorzystują ją neonaziści. Polecamy też materiał o tym, jak dziennikarz BBC oszukał swoich kolegów za pomocą AI klona.

Perspektywy

Zastanawialiście się kiedyś nad cenzurą AI w Chinach? Rest of World przystępnie opisuje całą sprawę.

Czy nasze obawy wobec sztucznej inteligencji obrazują nasze ludzkie obawy wobec innych inteligencji w ogóle? Michael Levin szuka odpowiedzi na to pytanie w swoim eseju.

Czy „AI naukowcy” odmienią świat nauki? Próba odpowiedzi tutaj.

Czy nadchodzi AI zima? Odpowiedzi w Search Engine Journal.

Uznajecie wytwory SI za sztukę? W takim razie zapraszamy do Datalandu w Los Angeles, pierwszego muzeum poświęconego tej kwestii. Jednocześnie polecamy poczytać historię Jasona Allena, który wygrał kiedyś konkurs graficzny obrazem wygenerowanym za pomocą Midjourney i teraz jest niezadowolony, że z powodu tego, jak działają generatywne AI, nie może go „swoich” obrazów licencjonować, a dodatkowo jest oburzony, że „inni kradną jego prace”. Cóż za chichot losu. Jednocześnie polecamy przeczytać (i zastanowić się, czy było to potrzebne), jak SI pomogła dokończyć nieukończony obraz Keith Haringa.

Pisaliśmy też czasami o „odpowiedzialności sztucznej inteligencji” za podjęte przez nią decyzje. Zdania w tej materii są podzielone, ale konsensus głosi, że „computer can never be held accountable”. AI jest jednak czymś delikatnie innym niż komputery, więc warto rozmawiać o odpowiedzialności za jej decyzje, a ciekawych odpowiedzi może dostarczyć średniowieczna teologia.

Jeśli cały czas zastanawiacie się, o co chodzi z tym całym AI, to Joseph Browning ma dla was dobrą odpowiedź. Pamiętajcie o niej, gdy dowiecie się, że rynek SI kontroluje kilka bigtechów, które, pomimo zapewnień o długofalowych perspektywach i bezpieczeństwie, myślą najdalej kwartał do przodu, a liczy się dla nich tylko zysk akcjonariuszy.

Formularz kontaktowy

Rozwijaj swoją markę

dzięki współpracy z Cyrek Digital
Wyślij zapytanie
Pola wymagane
Damian Kowal
Damian Kowal
Copywriter

Zawodowo zajmuję się copywritingiem. Ornitolog-amator, kucharz, pisarz.

zobacz artykuły
Oceń tekst
Średnia ocena: artykuł nieoceniony. 0
Mapa strony