"FaceTime Content" to nowy trend, który kocha pokolenie Z. Dlaczego takie treści działają na TikToku?

Sztuczna inteligencja zmienia zasady gry w marketingu. Czy jesteśmy gotowi na te zmiany? O wyzwaniach, pułapkach i najlepszych praktykach opowiada Kasia Krzywicka – adwokatką, założycielką Kancelarii Krzywicka i specjalistką od prawnych aspektów marketingu cyfrowego.
Spis treści
Wyobraź sobie scenariusz: twoja kampania reklamowa nagle „zjada” dziesięciokrotnie większy budżet, niż planowałeś(-aś). AI się pomyliło, karta płatnicza była podpięta, a ty stoisz przed klientem z faktem dokonanym. Kto poniesie odpowiedzialność? Podpowiedź: na pewno nie algorytm. To jeden z wielu przykładów, które pokazują, jak bardzo marketing oparty na AI zmienił reguły gry. I choć możliwości są fascynujące, to wyzwania etyczne i prawne rosną w tempie ekspresowym.
Marketing to dziś rozległy ekosystem – od analityki i danych, przez tworzenie treści i strategii, aż po reklamy. I w każdym z nich bardzo dobrze, a nawet świetnie radzą sobie programy oparte o AI. Co jednak ważne – korzystanie z takich narzędzi nie może być pozbawione refleksji, bo decyzji nie podejmuje maszyna, a my sami.
Każdy z tych obszarów niesie inne ryzyka, ale jedno pozostaje wspólne: odpowiedzialność zawsze ponosi człowiek – podkreśla Kasia Krzywicka.
Jeśli korzystasz z AI do analizy danych marketingowych i bez zastanowienia wrzucasz do otwartych modeli identyfikatory czy dane strategiczne, możesz stracić kontrolę nad tym, co powinno pozostać poufne. A w content marketingu? Tutaj sprawa robi się jeszcze bardziej skomplikowana.
Jeśli zobowiązujesz się do tworzenia utworów i przenoszenia praw autorskich majątkowych, a w rzeczywistości wklejasz prompt do AI i dostajesz gotowiec, to może się okazać, że utworu… w ogóle nie ma – wyjaśnia ekspertka. Z AI da się pracować tak, by finalnie powstawał utwór – ale to wymaga świadomego podejścia – dodaje.
I tu dotykamy sedna problemu, o którym mało kto chce głośno mówić. Shadow AI – czyli ukryte korzystanie z sztucznej inteligencji bez zgody klienta – to bomba zegarowa dla każdej agencji czy działu marketingu.
Właśnie dlatego każda firma powinna mieć swoją politykę korzystania z AI. Z jasno określonym zakresem narzędzi (białe i czarne listy), wyłączonymi procesami (np. analityka, jeśli klient nie chce dzielić się danymi) i ustaleniami z klientem. I nie udawajmy, że nie ma różowego słonia w pokoju – shadow AI to ryzyko wizerunkowe, etyczne i prawne – tłumaczy ekspertka.
Granice użycia AI, jak twierdzi Krzywicka, wyznaczają umowa, zdrowy rozsądek i otwarta komunikacja z klientem, najlepiej spisana jako załącznik do umowy.
Automatyzacja procesów decyzyjnych w marketingu to kolejne pole minowe. Kasia Krzywicka nie pozostawia złudzeń:
Największe ryzyko? Utrata kontroli. Gdy oddajemy AI decyzje bez nadzoru człowieka, może dojść do sytuacji, które kosztują – dosłownie.
I tu wraca przykład z początku artykułu – kampania, która zamiast zaplanowanych 100 złotych dziennie, pochłonie 1000 złotych.
Jeśli go przekroczysz, to nawet jeśli „to AI się pomyliło”, odpowiedzialność spadnie na ciebie lub twoją firmę. I to ty wypijesz ten ciężki kielich odpowiedzialności. AI nie stanie za ciebie przed klientem i nie wytłumaczy, że „przesadziło” – wyjaśnia prawniczka.
Ale to nie koniec problemów. Wyobraź sobie sytuację: chatbot na stronie internetowej obiecuje klientowi usługę za 100 złotych, choć prawdziwa cena to 1000 złotych. Zgodnie z prawem konsumenckim, klient może dochodzić realizacji tej obietnicy.
Taka sytuacja spotkała m.in. kanadyjskie linie lotnicze, które odpowiadały za błąd chatbota w obsłudze klienta – przypomina Krzywicka. Jeśli korzystasz z automatyzacji – potrzebujesz mieć sprawdzone narzędzie i system kontroli, który zminimalizuje ryzyko katastrofy. Dlatego człowiek powinien być nie tylko „w pętli” – ale w roli nadrzędnej. Automatyzacja powinna wspierać, nie zastępować rozsądek – podkreśla ekspertka.
Jak więc wprowadzać mechanizmy odpowiedzialności? Krzywicka ma konkretny plan działania.
Po pierwsze: ustal zasady. Polityka bezpiecznego korzystania z AI to nie fanaberia – to must-have każdej agencji i każdego zespołu. Ale te zasady nie powstają w próżni. Tworzymy je wspólnie z klientem (jeśli działamy na zewnątrz) lub z zespołem prawnym i zarządem (jeśli działamy wewnętrznie). Które działania są „AI-free”? Które wymagają podwójnego sprawdzenia? Co musi być zatwierdzone przez człowieka?
Po drugie: kto ponosi odpowiedzialność? Co mówi umowa? W modelu B2B to szczególnie istotne – bo brak zapisów nie oznacza braku konsekwencji. Trzeba dokładnie ustalić, kto co weryfikuje, kto zatwierdza i co się stanie, jeśli algorytm „się pomyli”.
Po trzecie: weryfikacja.
Wytyczne etyczne przy generowaniu treści reklamowych to temat, który budzi wiele emocji. Kasia Krzywicka podkreśla, że choć wiele zależy od wartości konkretnej firmy, są granice uniwersalne, których przekraczać nie wolno – nie naruszamy cudzych praw autorskich, nie wprowadzamy w błąd, nie kopiujemy cudzych treści i nie wrzucamy ich do narzędzi AI. Ekspertka zwraca również uwagę na fundamentalną zasadę – AI powinno pozostać narzędziem pomocniczym, a nie zastępować ludzką kreatywność. Finalna treść powinna być efektem naszej pracy twórczej, żeby uniknąć problemów z prawem autorskim.
A co z ryzykiem utrwalania stereotypów? Tu Kasia Krzywicka nie pozostawia złudzeń:
To wcale nie jest scenariusz z futurystycznych opowieści. Wszystko zależy od tego, na czym dane narzędzie AI było trenowane.
Przykład? Jeśli w danych treningowych dominowali mężczyźni jako CEO, AI z dużym prawdopodobieństwem będzie proponować właśnie taki obraz. „Tego typu przypadki są już dobrze udokumentowane, np. w generatorach obrazów” – dodaje ekspertka, przywołując dramatyczny przykład narzędzia COMPAS AI, które okazało się dyskryminujące wobec konkretnych grup.
Dlatego tak ważne są: transparentność narzędzi, z których korzystamy (czy wiemy, na jakich danych zostały przetrenowane), nasza własna odpowiedzialność – czyli podwójna weryfikacja, refleksja i odwaga, by nie iść na skróty – dodaje.
„Deepfake to treść audio, wideo lub graficzna, wygenerowana lub zmanipulowana przez AI tak, że przypomina prawdziwe osoby, miejsca, zdarzenia lub wypowiedzi – i może wprowadzić odbiorcę w błąd” – definiuje Krzywicka.
Czy można stworzyć deepfake przypadkiem? „Teoretycznie tak, ale w praktyce to raczej efekt świadomego działania. A skoro tak – marketerzy potrzebują mieć świadomość, że za treści, które tworzą lub zlecają AI, ponoszą odpowiedzialność. W reklamie politycznej, kampaniach społecznych czy projektach z udziałem znanych osób (żyjących lub nie) – ryzyko prawne i wizerunkowe jest ogromne – wyjaśnia ekspertka i radzi, aby wprowadzić politykę „zero deepfake’ów bez oznaczenia”, podwójnie weryfikować informacje, z którymi się stykamy i np. sprawdzać dokładnie, czy AI nie „wkomponowało” czyjegoś wizerunku w wygenerowany przez nas obraz.
Hiperrealistyczne awatary i symulowanie zachowań konsumenckich w reklamach to kolejny obszar wymagający ostrożności.
Tutaj mamy dwie kwestie do zauważenia – tworzenie bliźniaków cyfrowych i avatarów – wyjaśnia Krzywicka i kontynuuje: Tworzenie cyfrowych bliźniaków może wydawać się genialnym narzędziem optymalizacyjnym. Ale niesie ze sobą ryzyko. Przede wszystkim należy zbadać zgodność z AI Act – szczególnie w kontekście zakazanych praktyk, takich jak reklama behawioralna wykorzystująca manipulację czy techniki podprogowe w reklamie. W przypadku avatarów sprawa jest równie skomplikowana. „Należy zbadać czy przypadkiem taki awatar wpływa na decyzje konsumenckie w sposób niejawny – możemy mieć wtedy do czynienia z problemem prawnym.
W influencer marketingu może dojść do rozmycia granic autentyczności. „Kiedy awatar „zachowuje się” jak realny człowiek, pojawia się pytanie: kto naprawdę stoi za rekomendacją produktu? Transparentność wobec odbiorcy to klucz – i potencjalne pole minowe dla marek, które zdecydują się iść na skróty” – ostrzega Krzywicka, przypominając, że „prawa konsumenta obowiązują nawet w świecie avatarów”.
Na szczęście nie wszystko w temacie AI w marketingu brzmi jak scenariusz apokalipsy. Kasia Krzywicka dzieli się przykładami działań, w których można wykorzystać AI odpowiedzialnie.
Jednym z nich są „spersonalizowane ścieżki uczestnictwa w wydarzeniach – AI analizuje zainteresowania uczestnika i proponuje mu optymalną agendę warsztatów i prelekcji. Oczywiście to jedynie propozycja, ale naprawdę ciekawe wykorzystanie AI na dużych wydarzeniach branżowych”.
Drugi przykład to „zaawansowane CRM-y wspierane przez AI, które nie tylko analizują dane, ale też przewidują potrzeby klientów i automatyzują działania sprzedażowe – z ogromnym wpływem na wzrost konwersji. Tutaj także mała nota prawna – uważajmy na zautomatyzowane decyzje i przepływ danych”.
Trzeci przykład pokazuje możliwości dla twórców: „agenci AI wykorzystywani przez twórców do automatyzacji kampanii sprzedażowych – od analizy oferty, przez testy A/B, po optymalizację landing page’y”.
A porażki?
Podczas naszych szkoleń dla firm niemal zawsze pojawiają się przykłady sytuacji granicznych. Najczęstsze błędy? Przekazywanie do narzędzi AI poufnych informacji – strategii, danych kontaktowych, a nawet danych osobowych – wylicza ekspertka.
Coś, czego nie powiedzielibyśmy koleżance siedzącej przy biurku obok, często trafia do open-source’owego modelu bez refleksji – dodaje, formułując złotą zasadę: „zalecam najpierw znaleźć bezpieczne narzędzie, potem ustalić wspólnie procedurę, a następnie automatyzować”.
Marketing oparty na AI to nie przyszłość – to teraźniejszość. I choć wyzwania są ogromne, firmy, które podejdą do tematu świadomie i odpowiedzialnie, mogą zyskać przewagę konkurencyjną. Kluczem jest znalezienie równowagi między wykorzystaniem możliwości technologii a zachowaniem kontroli nad procesami i odpowiedzialnością za rezultaty.
Pamiętaj: AI to potężne narzędzie, ale to ty trzymasz za nie odpowiedzialność. I to ty stajesz przed klientem, gdy coś pójdzie nie tak.
Szukasz konkretów o AI bez teoretyzowania? Kup nagrania z najbardziej zgrywalizowanej konferencji w Polsce – I Love Marketing & Technology. Zobacz, jak najlepsi eksperci wykorzystują sztuczną inteligencję w marketingu, HR, e-commerce i automatyzacji, a wszystko to w formie 18-minutowych, pełnych konkretów wystąpień i paneli. Dzięki współpracy z rocketjobs.pl zapłacisz tylko 449 zł zamiast 897 zł – drugą połowę pokrywamy za Ciebie. Oglądaj kiedy chcesz, ucz się od najlepszych, nie zostań w tyle.
K. Krzywicka, LL.M. (Brussels School of Competition) – projektantka prawna, założycielka kancelarii adwokackiej DILAW oraz właścicielka e-sklepu z prawem DIMOTELY, wspierającego zarówno cyfrowy świat, jak i lokalne biznesy. Founderka startupu LegalTech, łączącego prawo i technologię. Specjalizuje się w prawnych aspektach e-commerce oraz nowych technologii. Doradza organizacjom, jak efektywnie i zgodnie z prawem wykorzystywać sztuczną inteligencję, a także prowadzi szkolenia i warsztaty w tym obszarze.
RocketSpace.pl
RocketSpace.pl to magazyn portalu pracy przyszłości – RocketJobs.pl. Misją RocketSpace.pl jest zwiększanie świadomości społecznej w kwestiach związanych z rynkiem pracy. Jesteśmy tam, gdzie każdy pracownik white collar. Śledzimy na bieżąco najnowsze trendy na rynku pracy.
Komentarze