Spis treści
Sztuczna inteligencja i marketing – wrzesień 2024
Prezentujemy wybór najciekawszych, najbardziej wstrząsających i najbardziej obiecujących wiadomości ze świata AI i marketingu z września 2024.
Osiągnięcia
To wydanie warto zacząć od prawdopodobnie najważniejszej wiadomości w branży AI od premiery ChatGPT 3.5 (i jednocześnie tak zaskakującej, jak fakt, że w słońce wschodzi i zachodzi) – OpenAI odejdzie od modelu non-profit i przekształci się w nastawioną na zysk korporację (tutaj wyjaśnienie powodów tego ruchu; warto też przeczytać tekst Vox, w którym wprost pada zdanie, że „Sam Altman sprzedał nas wszystkich”). Spowodowało to odejście najważniejszych osób z firmy (m.in. Miry Murati, a w maju 2024 odszedł Ilya Sutskever, który założył własny start-up rozwijający „bezpieczną AI”).
Pojawiły się nowe modele od OpenAI – GPT o1 i Strawberry (ten drugi ma już „myśleć”, a tak naprawdę samodzielnie dzieli złożone problemy na mniejsze części, co poprawiło jej skuteczność, ale, jak zawsze, budzi obawy o bezpieczeństwo danych). OpenAI otworzyło też swoją akademię, która ma pomagać w rozwoju umiejętności, szczególnie w zakresie AI, programistom z krajów o niskich i średnich dochodach.
Przy okazji doniesień z OpenAI polecamy też tekst Sama Altmana, w którym zapowiada on „nadejście ery inteligencji” i kategorycznie stwierdza, że „uczenie głębokie podziałało” – gdy już skończycie, przeczytajcie materiał Hallama Stevensa, który, jak to się mawia w środowisku youtuberów, wyjaśnia tekst szefa OpenAI (robi to też Steven Levy w Wired). A potem jeszcze poczytajcie o planach Altmana, żeby sztuczna inteligencja płynęła jak prąd w gniazdkach, a potem sprawdźcie, jak jego ambicje wpłyną na zużycie energii elektrycznej.
Nie sądzicie, że całkiem zabawna jest wiadomość o tym, że Elon Musk – apologeta kapitalizmu i wolności we wszelkich, nawet najbardziej karygodnych przejawach – uważa, że restrukturyzacja OpenAI jest nielegalna? Nie najlepiej przyjął też wdrożony przez stan Kalifornia zakaz deepfake’ów i oczywiście, że nazwał go autorytarnym atakiem na wolność słowa, ale czego spodziewać się po człowieku, który coraz więcej inwestuje w dezinformację i udostępnia przedstawiającą go jako gladiatora grafikę, w której mowa o „niszczeniu wirusa woke”? Warto też poczytać, jak czatbot X rozsiewał fałszywe informacje w kontekście wyborów w USA i jak poradzili sobie z tym urzędnicy.
Grok, AI produkowane przez X, nie będzie używać danych użytkowników z Unii Europejskiej (po raz kolejny można być wdzięcznym, że żyje się w UE), ale jeśli mieszkacie poza Unią, przeczytajcie materiał Wired na temat prywatności danych w tym kontekście.
Jeszcze trochę o biznesach Muska – zaczniemy od interesującej opinii, że wygrywa on wyścig AI, czego dowodem ma być nowe, największe na świecie, centrum danych w Memphis, Tennessee, a jednocześnie polecamy poczytać, jak wpłynie to na zanieczyszczenie okolic Memphis oraz czy rozwój SI bez poszanowania zasad etycznych jest dobry.
Nie jest to bezpośrednio związane ze sztuczną inteligencją, ale jest to ważna sprawa i warto o niej wspomnieć – X zbanowany w Brazylii. I teraz kilka pytań i odpowiedzi:
- Czy to komunizm? Marek Lesiuk z Bithub uważa, że tak.
- Czy to atak na wolność? Fundacja Friedricha Naumanna uważa, że tak.
- Czy sympatycy Jaira Bolsonaro wyszli na ulice, żeby bronić wolności słowa? CNN donosi, że tak.
- Czy politycy skrajnej prawicy w Brazylii wciąż używają X? Rest of World donosi, że jak najbardziej, jeszcze jak.
- Czy to pierwszy raz, kiedy X, a wcześniej Twitter, miał problem z lokalną legislacją? Al Jazeera donosi, że nie.
- Czy to wynik ciągnącego się od 2020 roku złożonego procesu, który związany był z działaniami skrajnej prawicy (i sympatykami byłego prezydenta Jaira Bolsonaro) i szerzącymi się na X fake newsami, dezinformacją oraz materiałami wprost faszystowskimi i rasistowskimi, których – mimo próśb brazylijskich organów państwowych – Musk usuwać nie chciał? The Conversation, donosi, że tak.
- Czy podobny los może spotkać X w Europie? Voice of America tego nie wyklucza.
- Jak radzą sobie z tym naukowcy? O tym pisze The Nature.
- Czy tę historię można interpretować jako opowieść o rządach prawa, wolności słowa i samostanowieniu narodów? The Conversation dowodzi, że tak.
Time opublikowało listę 100 najważniejszych osób w świecie AI. Nie ma na niej Muska, ale jest Scarlett Johansson.
Nie macie wrażenia, że platformy społecznościowe Meta, a szczególnie Facebook, zmieniły się w ostatnich miesiącach w śmietnisko pełne AI szlamu, na którym siedzimy z przyzwyczajenia i braku alternatyw? Może przyczyną jest fakt, że w wersji mobilnej praktycznie nie można zobaczyć tego, co się zaobserwowało, ponieważ platforma wyświetla głównie propozycje i sugestie (w wersji dekstopowych można je wyeliminować wtyczkami)? A może to dlatego, że owe propozycje często zawierają grafiki generowane przez AI? Jeśli to was boli, to Meta ma rozwiązanie – opcję „Imagine Yourself”, w której będziecie mogli wykorzystać SI, żeby wygenerować grafikę ukazującą was np. jako monarchę, więc już niedługo wasze feedy na Instagramie i Facebooku będą zawierały jeszcze więcej AI slopu, tym bardziej że informacja o edycji obrazu z pomocą AI nie będzie dostępna z poziomu strony głównej.
To nie koniec doniesień z firmy Marka Zuckerberga – na firmowym blogu można poczytać, jak produkty Meta AI stały się jeszcze lepsze. Przedsiębiorstwo ogłosiło też owoc współpracy z RayBan i zaprezentowało AI okulary (oczywiście, że budzą one obawy co do wykorzystania prywatnych danych), a także nowego asystenta głosowego, które będzie przemawiał głosami m.in. Judy Dench czy Johna Ceny.
Przy okazji warto wspomnieć (i podziękować, że żyjemy w Unii Europejskiej), że Meta użyła do szkolenia swoich AI wszystkich publicznych postów opublikowanych na swoich platformach od 2007 roku (ciekawie się w tym kontekście czyta wywiad z Joelle Pineau, wiceprezeską Meta ds. rozwoju AI, która mówi, że „użytkownicy muszą wziąć część odpowiedzialności za swoje dane”), publikowanie copypast nie chroni przed wykorzystaniem waszych danych, a firma lekce sobie waży europejskie regulacje w zakresie AI i ochrony informacji. I jeszcze próbuje wynaleźć influencerów na nowo – tym razem generowanych przez SI.
Porcja doniesień z Google:
- Sundar Pichai uważa, że AI sprawi, że świat będzie lepszym miejscem.
- Napisy do filmów w platformie Max będą generowane przez AI. Dlaczego? Bo tak jest taniej.
- Unia Europejska sprawdza, czy Google trenowało swoje AI zgodnie z europejskimi przepisami (pisze też o tym Euronews).
- Nowe narzędzia AI pomogą w optymalizacji reklam (można też poczytać, jak AI odmieniło reklamy w Google).
- YouTube Shorts zostaną zintegrowane z Veo, AI do generowania filmów. Oczywiście, żeby wzmocnić pozycję twórców na tej platformie.
- Search Engine Land wyjaśnia, jak Google używa AI w wyszukiwaniu.
- Google wyjaśnia, jak pomaga walczyć ze skutkami kryzysu klimatycznego. A także, jak pomaga odcyfrować język waleni.
- Nie chcesz oglądać filmu, ale musisz, bo potrzebujesz notatek? Google Notebook zrobi je za ciebie, a potem na ich podstawie wygeneruje podcast. Czy druga opcja jest potrzebna? Niech każdy odpowie sobie sam na to pytanie.
- Urzędnicy stanu Newada wpadli na doskonały pomysł – niech AI decyduje o przyznawaniu zasiłków bezrobotnym, a potem wydali ponad milion dolarów, żeby Google dostarczyło im technologie. Biorąc pod uwagę amerykańskie podejście do bezrobotnych, a także szeroko udokumentowaną historię uprzedzeń w decyzjach AI (zwłaszcza w tak zróżnicowanym społeczeństwie jak amerykańskie), coś nam mówi, że to zły pomysł.
Apple publikuje nowe funkcje AI w swoich urządzeniach, a Vox dowodzi, że są one „magicznie wręcz przeciętne”.
Polecamy to, to i to podsumowanie Forum Ekonomicznego w Karpaczu, ponieważ dyskutowano tam też o sztucznej inteligencji.
Trudności
Chociaż huragan Helene nie jest bezpośrednio związany ze sztuczną inteligencją, może wpłynąć na jej rozwój, ponieważ uderzył w teren, na którym znajduje się kopalnia kwarcu wykorzystywanego do produkcji czipów – pytających, czy nie można używać innego kwarcu, informujemy, że nie, ponieważ musi on mieć odpowiedni stopień czystości i najlepszy jest ten ze Spruce Pine. W tym kontekście warto jednak zastanowić się, czy huragan Helene nie miał nic wspólnego ze sztuczną inteligencją, ponieważ emisje gazów cieplarnianych pochodzące z centrów danych niezbędnych do funkcjonowania sztucznej inteligencji mogą być nawet o 662% wyższe niż oficjalnie raportowane przez bigtechy, a jak wiadomo, emisje są jednym z czynników wpływających na siłę huraganów (a być może już niedługo hiperkanów). Sztuczna inteligencja idzie też po naszą wodę.
„Pewnego dnia AI będzie śledzić każdy twój krok; powinniśmy wykorzystywać sztuczną inteligencję, żeby stale inwigilować obywateli, bo wtedy będą zachowywać się lepiej” – autor tego tekstu jest pewien, że gdyby ta informacja pojawiła się w kontekście Chińskiej Republiki Ludowej, Rosji lub Iranu, w części świata podniosłaby się wrzawa, że mowa o cenzurze, totalitaryzmie i łamaniu praw człowieka, ale ponieważ wypowiedział je Larry Ellison, dyrektor techniczny Oracle, na spotkaniu z analitykami finansowymi, autor tego tekstu pozwoli sobie na dość śmiałe przypuszczenie, że nietrudno będzie znaleźć ludzi, którzy będą bronić tez Ellisona argumentami o zmyśle biznesowym, optymalizacji kosztów i poprawie bezpieczeństwa. Ponieważ jednak Oracle ściśle współpracuje z amerykańską policją i innymi organizacjami odpowiedzialnymi za zapewnienie bezpieczeństwa publicznego, warto zdawać sobie sprawę, że wykorzystanie AI w monitoringu może nie być najlepszym pomysłem. Ciekawskim zostawiamy kilka materiałów o tym:
- co wynika z deklaracji Ellisona; spoiler – nic dobrego;
- jak AI wzniosło inwigilację na nowy poziom;
- jak AI inwigilacja rośnie i dlaczego nie przestanie rosnąć;
- jak wykorzystanie AI w monitoringu wpłynęło na sytuację czarnoskórej społeczności w USA; spoiler – nie wpłynęło dobrze;
- dlaczego wykorzystanie AI w monitoringu to więcej ryzyk niż zalet;
- jak Internet i AI ułatwiły śledzenie i szpiegowanie, i dlaczego to kiepska perspektywa;
- że AI w monitoringu to zagrożenie dla demokracji na całym świecie;
- dlaczego zastosowanie AI do śledzenia w szkołach dzieci rozważających samobójstwo może nie być dobrym pomysłem;
- jak połączenie AI, monitoringu i nowoczesnych metod zarządzania wpłynie na sytuację pracowników; spoiler – nie wpłynie dobrze;
- jak rządy wykorzystują AI, żeby rozpoznawać, wyłapywać i karać protestujących.
Gdyby zrobiła to jakaś firma, może jakiś start-up – media biznesowe zapewne okrzyknęłyby to innowacją, przykładem wspaniałej optymalizacji i świetną strategią biznesową. Zrobił to jednak jeden człowiek, więc jest to przestępstwo. O czym mowa? O mężczyźnie z Północnej Karoliny, który z pomocą AI wygenerował kilka zespołów muzycznych, stworzył im muzykę, wgrał ją do serwisów streamingowych, po czym stworzył boty, żeby jej słuchały i w ten sposób zarobił 10 milionów dolarów. Czy jest to oszustwo? Jak najbardziej. Czy pokazuje też nierównowagę sił w środowisku muzycznym? Jak najbardziej. Czy pokazuje też, że Spotify ma problem z milionami wygenerowanych przez AI piosenek, które zagrażają dochodom prawdziwych artystów, którzy zawsze są wyzyskiwani i na samym końcu do podziału zysków? Jak najbardziej.
SocialAI – platforma społecznościowa, w której waszymi znajomymi i obserwującymi są tylko i wyłącznie boty. Zakładacie konto, wybieracie ton botów i voila – możecie już pisać posty, a wasi robotyczni obserwujący odpowiedzą wam w wybranym przez was stylu. Reporterzy The Verge i Wired „zajrzeli w AI pustkę” i donoszą, że doświadczenie nie różni się specjalnie od mediów społecznościowych z ludźmi. SocialAI pokazuje, że przyszłość AI może wyglądać jak Twitter, napisano też w The Verge i warto zastanawiać się, czy to dobre.
Comiesięczny kącik „AI zabiera ludziom pracę”:
- Otwieramy od podsumowania badania przeprowadzonego przez EY, z którego wynika, że 68% badanych pracowników obawia się redukcji etatów w wyniku wdrożenia SI.
- Może dotarła do nich historia Alexandra Wanga, szefa Scale AI, który zatrudnia pracowników z krajów globalnego Południa do etykietowania danych do szkolenia modeli SI – polecamy przy okazji poczytać artykuł w Inc., z którego wynika, że Wang zbudował swoją fortunę, nie płacąc pracownikom z Azji i Afryki, którzy pracują w „cyfrowych sweatshopach” i są zwalniani bez słowa wyjaśnienia.
- Może też dotarły do nich informacje z Filipin, które są poligonem doświadczalnym dla rynku pracy w dobie AI i które pokazują, że „sztuczny pracownik” jest lepszy, szybszy i tańszy od żywego – nie powinno zatem dziwić, że firmy kierujące się wyłącznie maksymalizacją zysku i minimalizacją kosztów, tną te drugie, gdzie to tylko możliwe.
- Ministerstwo Cyfryzacji dołoży swoją cegiełkę do redukcji etatów? Tak można wnioskować na podstawie tytułu, ale jak zwykle sprawa jest nieco bardziej skomplikowana – radiolog AI może pomóc zmniejszyć umieralność na raka i jednocześnie poprawić skuteczność państwa.
- Z kolei z badania HP wynika, że ludzie są zadowoleni z wykorzystania AI w pracy.
- Pracownicy socjalni w Anglii coraz częściej korzystają z SI i nawet ją sobie chwalą.
- Okazuje się też, że sztuczna inteligencja może bez większego problemu zastąpić prezesów firm.
- Czy jesteśmy gotowi na agentów AI? Wiele wskazuje, że nie.
- Gaynor Parkin zadaje słuszne pytanie – czy warto jeszcze studiować, skoro sztuczna inteligencja kiedyś zabierze nam pracę? Jego odpowiedź jest twierdząca, podobnie jak odpowiedź autora tego tekstu – poszerzanie horyzontów jest wartością samą w sobie, a poza tym są w życiu rzeczy ważniejsze niż praca.
- Młodzi ludzie wykorzystują algorytmy rekomendacyjne mediów społecznościowych i zarabiają na generowaniu kolejnych porcji AI slopu.
Dzieje się w IDEAS NCBR, instytucie badawczym zarządzanym przez Narodowe Centrum Badań i Rozwoju. Szczegóły wyjaśnia artykuł ITWiz, a w skrócie można napisać, że zespół zaprotestował przeciwko wyborowi nowego prezesa, dra Grzegorza Borowika, i wielu jego członków odeszło.
Ostatnie działania Canvy można podsumować dialogiem „Ty, mam plan. Jaki? Sprytny!” – okazuje się, że podwyżka abonamentu o 300% nie przynosi oczekiwanych przychodów. Czy można było to przewidzieć? Ekonomiści są podzieleni.
Regularnie piszemy o wykorzystaniu AI do siania dezinformacji i musimy zrobić to ponownie, ponieważ coraz chętniej wykorzystują ją neonaziści. Polecamy też materiał o tym, jak dziennikarz BBC oszukał swoich kolegów za pomocą AI klona.
Perspektywy
Zastanawialiście się kiedyś nad cenzurą AI w Chinach? Rest of World przystępnie opisuje całą sprawę.
Czy nasze obawy wobec sztucznej inteligencji obrazują nasze ludzkie obawy wobec innych inteligencji w ogóle? Michael Levin szuka odpowiedzi na to pytanie w swoim eseju.
Czy „AI naukowcy” odmienią świat nauki? Próba odpowiedzi tutaj.
Czy nadchodzi AI zima? Odpowiedzi w Search Engine Journal.
Uznajecie wytwory SI za sztukę? W takim razie zapraszamy do Datalandu w Los Angeles, pierwszego muzeum poświęconego tej kwestii. Jednocześnie polecamy poczytać historię Jasona Allena, który wygrał kiedyś konkurs graficzny obrazem wygenerowanym za pomocą Midjourney i teraz jest niezadowolony, że z powodu tego, jak działają generatywne AI, nie może go „swoich” obrazów licencjonować, a dodatkowo jest oburzony, że „inni kradną jego prace”. Cóż za chichot losu. Jednocześnie polecamy przeczytać (i zastanowić się, czy było to potrzebne), jak SI pomogła dokończyć nieukończony obraz Keith Haringa.
Pisaliśmy też czasami o „odpowiedzialności sztucznej inteligencji” za podjęte przez nią decyzje. Zdania w tej materii są podzielone, ale konsensus głosi, że „computer can never be held accountable”. AI jest jednak czymś delikatnie innym niż komputery, więc warto rozmawiać o odpowiedzialności za jej decyzje, a ciekawych odpowiedzi może dostarczyć średniowieczna teologia.
Jeśli cały czas zastanawiacie się, o co chodzi z tym całym AI, to Joseph Browning ma dla was dobrą odpowiedź. Pamiętajcie o niej, gdy dowiecie się, że rynek SI kontroluje kilka bigtechów, które, pomimo zapewnień o długofalowych perspektywach i bezpieczeństwie, myślą najdalej kwartał do przodu, a liczy się dla nich tylko zysk akcjonariuszy.
Formularz kontaktowy
Rozwijaj swoją markę
Zawodowo zajmuję się copywritingiem. Ornitolog-amator, kucharz, pisarz.