„Odpowiedzialność zawsze ponosi człowiek”. Marketing w czasach AI okiem prawniczki

fot. Canva

Sztuczna inteligencja zmienia zasady gry w marketingu. Czy jesteśmy gotowi na te zmiany? O wyzwaniach, pułapkach i najlepszych praktykach opowiada Kasia Krzywicka – adwokatką, założycielką Kancelarii Krzywicka i specjalistką od prawnych aspektów marketingu cyfrowego.

Wyobraź sobie scenariusz: twoja kampania reklamowa nagle „zjada” dziesięciokrotnie większy budżet, niż planowałeś(-aś). AI się pomyliło, karta płatnicza była podpięta, a ty stoisz przed klientem z faktem dokonanym. Kto poniesie odpowiedzialność? Podpowiedź: na pewno nie algorytm. To jeden z wielu przykładów, które pokazują, jak bardzo marketing oparty na AI zmienił reguły gry. I choć możliwości są fascynujące, to wyzwania etyczne i prawne rosną w tempie ekspresowym.

Gdzie kryje się diabeł?

Marketing to dziś rozległy ekosystem – od analityki i danych, przez tworzenie treści i strategii, aż po reklamy. I w każdym z nich bardzo dobrze, a nawet świetnie radzą sobie programy oparte o AI. Co jednak ważne – korzystanie z takich narzędzi nie może być pozbawione refleksji, bo decyzji nie podejmuje maszyna, a my sami.

Każdy z tych obszarów niesie inne ryzyka, ale jedno pozostaje wspólne: odpowiedzialność zawsze ponosi człowiek – podkreśla Kasia Krzywicka.

Jeśli korzystasz z AI do analizy danych marketingowych i bez zastanowienia wrzucasz do otwartych modeli identyfikatory czy dane strategiczne, możesz stracić kontrolę nad tym, co powinno pozostać poufne. A w content marketingu? Tutaj sprawa robi się jeszcze bardziej skomplikowana.

Jeśli zobowiązujesz się do tworzenia utworów i przenoszenia praw autorskich majątkowych, a w rzeczywistości wklejasz prompt do AI i dostajesz gotowiec, to może się okazać, że utworu… w ogóle nie ma – wyjaśnia ekspertka. Z AI da się pracować tak, by finalnie powstawał utwór – ale to wymaga świadomego podejścia – dodaje.

Shadow AI – różowy słoń w pokoju

I tu dotykamy sedna problemu, o którym mało kto chce głośno mówić. Shadow AI – czyli ukryte korzystanie z sztucznej inteligencji bez zgody klienta – to bomba zegarowa dla każdej agencji czy działu marketingu.

Właśnie dlatego każda firma powinna mieć swoją politykę korzystania z AI. Z jasno określonym zakresem narzędzi (białe i czarne listy), wyłączonymi procesami (np. analityka, jeśli klient nie chce dzielić się danymi) i ustaleniami z klientem. I nie udawajmy, że nie ma różowego słonia w pokoju – shadow AI to ryzyko wizerunkowe, etyczne i prawne – tłumaczy ekspertka.

Granice użycia AI, jak twierdzi Krzywicka, wyznaczają umowa, zdrowy rozsądek i otwarta komunikacja z klientem, najlepiej spisana jako załącznik do umowy.

Gdy maszyna przejmuje kontrolę

Automatyzacja procesów decyzyjnych w marketingu to kolejne pole minowe. Kasia Krzywicka nie pozostawia złudzeń:

Największe ryzyko? Utrata kontroli. Gdy oddajemy AI decyzje bez nadzoru człowieka, może dojść do sytuacji, które kosztują – dosłownie.

I tu wraca przykład z początku artykułu – kampania, która zamiast zaplanowanych 100 złotych dziennie, pochłonie 1000 złotych.

Jeśli go przekroczysz, to nawet jeśli „to AI się pomyliło”, odpowiedzialność spadnie na ciebie lub twoją firmę. I to ty wypijesz ten ciężki kielich odpowiedzialności. AI nie stanie za ciebie przed klientem i nie wytłumaczy, że „przesadziło” – wyjaśnia prawniczka.

Chatboty, które kosztują fortunę

Ale to nie koniec problemów. Wyobraź sobie sytuację: chatbot na stronie internetowej obiecuje klientowi usługę za 100 złotych, choć prawdziwa cena to 1000 złotych. Zgodnie z prawem konsumenckim, klient może dochodzić realizacji tej obietnicy.

Taka sytuacja spotkała m.in. kanadyjskie linie lotnicze, które odpowiadały za błąd chatbota w obsłudze klienta – przypomina Krzywicka. Jeśli korzystasz z automatyzacji – potrzebujesz mieć sprawdzone narzędzie i system kontroli, który zminimalizuje ryzyko katastrofy. Dlatego człowiek powinien być nie tylko „w pętli” – ale w roli nadrzędnej. Automatyzacja powinna wspierać, nie zastępować rozsądek – podkreśla ekspertka.

Granice odpowiedzialności

Jak więc wprowadzać mechanizmy odpowiedzialności? Krzywicka ma konkretny plan działania.

Po pierwsze: ustal zasady. Polityka bezpiecznego korzystania z AI to nie fanaberia – to must-have każdej agencji i każdego zespołu. Ale te zasady nie powstają w próżni. Tworzymy je wspólnie z klientem (jeśli działamy na zewnątrz) lub z zespołem prawnym i zarządem (jeśli działamy wewnętrznie). Które działania są „AI-free”? Które wymagają podwójnego sprawdzenia? Co musi być zatwierdzone przez człowieka?

Po drugie: kto ponosi odpowiedzialność? Co mówi umowa? W modelu B2B to szczególnie istotne – bo brak zapisów nie oznacza braku konsekwencji. Trzeba dokładnie ustalić, kto co weryfikuje, kto zatwierdza i co się stanie, jeśli algorytm „się pomyli”.

Po trzecie: weryfikacja.

Etyka w generowaniu treści

Wytyczne etyczne przy generowaniu treści reklamowych to temat, który budzi wiele emocji. Kasia Krzywicka podkreśla, że choć wiele zależy od wartości konkretnej firmy, są granice uniwersalne, których przekraczać nie wolno – nie naruszamy cudzych praw autorskich, nie wprowadzamy w błąd, nie kopiujemy cudzych treści i nie wrzucamy ich do narzędzi AI. Ekspertka zwraca również uwagę na fundamentalną zasadę – AI powinno pozostać narzędziem pomocniczym, a nie zastępować ludzką kreatywność. Finalna treść powinna być efektem naszej pracy twórczej, żeby uniknąć problemów z prawem autorskim.

Stereotypy 2.0

A co z ryzykiem utrwalania stereotypów? Tu Kasia Krzywicka nie pozostawia złudzeń:

To wcale nie jest scenariusz z futurystycznych opowieści. Wszystko zależy od tego, na czym dane narzędzie AI było trenowane.

Przykład? Jeśli w danych treningowych dominowali mężczyźni jako CEO, AI z dużym prawdopodobieństwem będzie proponować właśnie taki obraz. „Tego typu przypadki są już dobrze udokumentowane, np. w generatorach obrazów” – dodaje ekspertka, przywołując dramatyczny przykład narzędzia COMPAS AI, które okazało się dyskryminujące wobec konkretnych grup.

Dlatego tak ważne są: transparentność narzędzi, z których korzystamy (czy wiemy, na jakich danych zostały przetrenowane), nasza własna odpowiedzialność – czyli podwójna weryfikacja, refleksja i odwaga, by nie iść na skróty – dodaje.

Era deepfake’ów w reklamie

„Deepfake to treść audio, wideo lub graficzna, wygenerowana lub zmanipulowana przez AI tak, że przypomina prawdziwe osoby, miejsca, zdarzenia lub wypowiedzi – i może wprowadzić odbiorcę w błąd” – definiuje Krzywicka.

Czy można stworzyć deepfake przypadkiem? „Teoretycznie tak, ale w praktyce to raczej efekt świadomego działania. A skoro tak – marketerzy potrzebują mieć świadomość, że za treści, które tworzą lub zlecają AI, ponoszą odpowiedzialność. W reklamie politycznej, kampaniach społecznych czy projektach z udziałem znanych osób (żyjących lub nie) – ryzyko prawne i wizerunkowe jest ogromne – wyjaśnia ekspertka i radzi, aby wprowadzić politykę „zero deepfake’ów bez oznaczenia”, podwójnie weryfikować informacje, z którymi się stykamy i np. sprawdzać dokładnie, czy AI nie „wkomponowało” czyjegoś wizerunku w wygenerowany przez nas obraz.

Awatary kontra autentyczność

Hiperrealistyczne awatary i symulowanie zachowań konsumenckich w reklamach to kolejny obszar wymagający ostrożności.

Tutaj mamy dwie kwestie do zauważenia – tworzenie bliźniaków cyfrowych i avatarów – wyjaśnia Krzywicka i kontynuuje: Tworzenie cyfrowych bliźniaków może wydawać się genialnym narzędziem optymalizacyjnym. Ale niesie ze sobą ryzyko. Przede wszystkim należy zbadać zgodność z AI Act – szczególnie w kontekście zakazanych praktyk, takich jak reklama behawioralna wykorzystująca manipulację czy techniki podprogowe w reklamie. W przypadku avatarów sprawa jest równie skomplikowana. „Należy zbadać czy przypadkiem taki awatar wpływa na decyzje konsumenckie w sposób niejawny – możemy mieć wtedy do czynienia z problemem prawnym.

W influencer marketingu może dojść do rozmycia granic autentyczności. „Kiedy awatar „zachowuje się” jak realny człowiek, pojawia się pytanie: kto naprawdę stoi za rekomendacją produktu? Transparentność wobec odbiorcy to klucz – i potencjalne pole minowe dla marek, które zdecydują się iść na skróty” – ostrzega Krzywicka, przypominając, że „prawa konsumenta obowiązują nawet w świecie avatarów”.

Dobre praktyki istnieją

Na szczęście nie wszystko w temacie AI w marketingu brzmi jak scenariusz apokalipsy. Kasia Krzywicka dzieli się przykładami działań, w których można wykorzystać AI odpowiedzialnie.

Jednym z nich są „spersonalizowane ścieżki uczestnictwa w wydarzeniach – AI analizuje zainteresowania uczestnika i proponuje mu optymalną agendę warsztatów i prelekcji. Oczywiście to jedynie propozycja, ale naprawdę ciekawe wykorzystanie AI na dużych wydarzeniach branżowych”.

Drugi przykład to „zaawansowane CRM-y wspierane przez AI, które nie tylko analizują dane, ale też przewidują potrzeby klientów i automatyzują działania sprzedażowe – z ogromnym wpływem na wzrost konwersji. Tutaj także mała nota prawna – uważajmy na zautomatyzowane decyzje i przepływ danych”.

Trzeci przykład pokazuje możliwości dla twórców: „agenci AI wykorzystywani przez twórców do automatyzacji kampanii sprzedażowych – od analizy oferty, przez testy A/B, po optymalizację landing page’y”.

Lekcja z błędów

A porażki?

Podczas naszych szkoleń dla firm niemal zawsze pojawiają się przykłady sytuacji granicznych. Najczęstsze błędy? Przekazywanie do narzędzi AI poufnych informacji – strategii, danych kontaktowych, a nawet danych osobowych – wylicza ekspertka.

Coś, czego nie powiedzielibyśmy koleżance siedzącej przy biurku obok, często trafia do open-source’owego modelu bez refleksji – dodaje, formułując złotą zasadę: „zalecam najpierw znaleźć bezpieczne narzędzie, potem ustalić wspólnie procedurę, a następnie automatyzować”.

Przyszłość już tu jest

Marketing oparty na AI to nie przyszłość – to teraźniejszość. I choć wyzwania są ogromne, firmy, które podejdą do tematu świadomie i odpowiedzialnie, mogą zyskać przewagę konkurencyjną. Kluczem jest znalezienie równowagi między wykorzystaniem możliwości technologii a zachowaniem kontroli nad procesami i odpowiedzialnością za rezultaty.

Pamiętaj: AI to potężne narzędzie, ale to ty trzymasz za nie odpowiedzialność. I to ty stajesz przed klientem, gdy coś pójdzie nie tak.

Chcesz wiedzieć więcej o AI w marketingu?

Szukasz konkretów o AI bez teoretyzowania? Kup nagrania z najbardziej zgrywalizowanej konferencji w Polsce – I Love Marketing & Technology. Zobacz, jak najlepsi eksperci wykorzystują sztuczną inteligencję w marketingu, HR, e-commerce i automatyzacji, a wszystko to w formie 18-minutowych, pełnych konkretów wystąpień i paneli. Dzięki współpracy z rocketjobs.pl zapłacisz tylko 449 zł zamiast 897 zł – drugą połowę pokrywamy za Ciebie. Oglądaj kiedy chcesz, ucz się od najlepszych, nie zostań w tyle.

Kasia Krzywicka

K. Krzywicka, LL.M. (Brussels School of Competition) – projektantka prawna, założycielka kancelarii adwokackiej DILAW oraz właścicielka e-sklepu z prawem DIMOTELY, wspierającego zarówno cyfrowy świat, jak i lokalne biznesy. Founderka startupu LegalTech, łączącego prawo i technologię. Specjalizuje się w prawnych aspektach e-commerce oraz nowych technologii. Doradza organizacjom, jak efektywnie i zgodnie z prawem wykorzystywać sztuczną inteligencję, a także prowadzi szkolenia i warsztaty w tym obszarze.

RocketSpace.pl

RocketSpace.pl to magazyn portalu pracy przyszłości – RocketJobs.pl. Misją RocketSpace.pl jest zwiększanie świadomości społecznej w kwestiach związanych z rynkiem pracy. Jesteśmy tam, gdzie każdy pracownik white collar. Śledzimy na bieżąco najnowsze trendy na rynku pracy.

Reklama poradnika To nie są lata 90.! Jak spoko żyć ze sobą w pracy?

Czytaj także

Komentarze

Subskrybuj
Powiadom o
guest
0 komentarzy
najstarszy
najnowszy oceniany
Informacje zwrotne w tekście
Zobacz wszystkie komentarze