Tematem naszego dzisiejszego odcinka będzie – „Prawnik versus AI”, czyli czy laik da sobie radę bez prawnika? Jest ze mną radca prawny Marcin Bagiński, który opowie nam coś więcej w temacie tego zagadnienia.
Czy zwykły Kowalski korzystając z AI może obyć się bez pomocy prawnika?
Temat jest ciekawy. Spotykamy się z nim na co dzień. Zdarza się, że przychodzą do nas klienci, którzy potrzebują pomocy po tym, jak wpakowali się w problemy właśnie przez skorzystanie ze sztucznej inteligencji. Zdarza się tak, że przychodzą klienci już z wypracowanym pomysłem niejako tylko do realizacji, który mamy wykonać, ponieważ oni już wiedzą jak to zrobić, bo podpowiedziała im to sztuczna inteligencja. Spotykamy się z tym na co dzień, więc mogę powiedzieć, tak, wiele osób próbuje korzystać z tego narzędzia jako jako ze swojego podręcznego prawnika. Niemniej wydaje mi się, że z praktyki trzeba przestrzec przed kilkoma przynajmniej zagrożeniami.
Jakie mamy pułapki korzystania z AI przez niespecjalistę?
Niespecjalistę 🙂 sztuczna inteligencja może gdzieś tam się wyspecjalizować. Niemniej przynajmniej na tym etapie, z czym się spotykamy w przypadku tych dostępnych płatnie i bezpłatnie narzędzi, to przede wszystkim sztuczna inteligencja ma problem z dostępem do źródeł. Czyli prosząc o wskazanie jakiegoś konkretnego artykułu z ustawy, z kodeksu, zdarza się, że sztuczna inteligencja, jeżeli to nie jest jakiś bardzo powszechny przepis, powszechnie stosowany, być może bardziej złożony, że sztuczna inteligencja podaje go w sposób nieprawidłowy, źle analizuje te źródło i podaje je w sposób nieprawidłowy. Jest to pewne zagrożenie z tego względu, że możemy się opierać o nieistniejące podstawy prawne, będąc w pełni przekonani, gdyż jest to prezentowane w sposób taki powiedzmy konfidentny wyłożony jak kawa na ławę, że mamy rację.
Mogę przytoczyć taką śmieszną anegdotę, gdzie kiedyś klient dostarczył mi swoją korespondencję ze wspólnotą mieszkaniową, która była prowadzona w ten sposób, że mój klient przedstawił problem prawny właśnie przez sztuczną inteligencję wygenerowany czy problem istniał, ale on był uzasadniony i argumentowany przez sztuczną inteligencję.
W omawianym przypadku problem polegał na tym, że w piśmie wygenerowanym przez sztuczną inteligencję przywołano nieistniejące podstawy prawne i orzecznictwo. Co więcej, zaproponowana procedura była w praktyce niemożliwa do zrealizowania. Dokument ten trafił następnie do wspólnoty mieszkaniowej, a jej zarządca – również korzystając ze sztucznej inteligencji – udzielił odpowiedzi w podobny sposób. Nie była to więc sytuacja, w której sprawę analizuje prawnik i wskazuje na oczywistą bezzasadność argumentacji. Przeciwnie – druga strona, posługując się tym samym narzędziem, kontynuowała błędny tok rozumowania. W efekcie obie strony zaczęły spierać się o coś, co w rzeczywistości prawnej w ogóle nie istnieje.
Zaangażowanie uczestników w tę fikcyjną wymianę doprowadziło niemal do skierowania sprawy do sądu, co pokazuje, jak łatwo może powstać swoista „alternatywna rzeczywistość prawna”. Trzeba jednak podkreślić, że sądy – w odróżnieniu od sztucznej inteligencji – opierają się na obowiązującym prawie i trudno przypuszczać, by zaakceptowały tego rodzaju wytwory fantazji algorytmu.
Cały czas porządek prawny opiera się na na kodeksach i ustawach, więc ryzykujemy tym, że pełni przekonania swoich racji możemy niestety zderzyć się z faktami.
Inną kwestią do czego przed chwilą nawiązałem jest to, że sztuczna inteligencja mojej z mojej perspektywy nie jest krytyczna. To znaczy jeżeli stawiamy jej jakiś problem najczęściej z tego w jaki sposób generujemy ten prompt, to zapytanie nasze już w pewien sposób wynika to przemieni dla sztucznej inteligencji, w jakim kierunku my oczekujemy odpowiedzi. Sztuką jest to, żeby zadać pytanie w ten sposób, by ono było całkowicie oderwane od naszego celu. Sztuczna inteligencja zazwyczaj chce nam pomóc, czyli odpowiada w sposób, który pozwala nam na ugruntowanie się w swoich na swojej pozycji, ugruntowanie swojej myśli, a nie do końca zawsze tak jest.
Należy pewne kwestie rozważać również krytycznie. Trzeba weryfikować, oceniać ryzyka i to nie jest tak, że prawnik jest osobą, która ma nas poklepać po plecach i wykonać to, co my sobie wymyśliliśmy, tylko powinien nas, mówiąc brutalnie, zweryfikować, czy aby na pewno to, co zakładamy jest możliwe do realizacji. I z tym sztuczna inteligencja ma istotny problem. Już nie mówiąc o tym, że nie potrafi powiedzieć nie wiem.
Często pojawiają się żarty czy memy o prawnikach, w których na każde pytanie odpowiadają: „To zależy”. I rzeczywiście, bywa to przedstawiane w humorystyczny sposób, ale taka odpowiedź jest w pełni uzasadniona – bo w prawie naprawdę wszystko zależy. Wynik danej sprawy zależy od wielu czynników i okoliczności, które trzeba najpierw dokładnie ustalić, zanim udzieli się rzetelnej odpowiedzi.
Sztuczna inteligencja ma z tym poważny problem – nawet kiedy czegoś nie wie, nie potrafi się do tego przyznać ani tego jasno zakomunikować. Zamiast przyznać: „Nie wiem”, zawsze udziela odpowiedzi, często tworząc wrażenie pewności tam, gdzie jej nie ma.
Doskonałym przykładem potwierdzającym te problemy jest sposób, w jaki sztuczna inteligencja generuje orzecznictwo. To naprawdę temat rzeka. Niejednokrotnie spotkałem się z sytuacją, w której nawet profesjonalni pełnomocnicy – nie wspominając już o osobach niebędących prawnikami – powołują się w pismach procesowych na rzekome orzeczenia Sądu Najwyższego czy Trybunałów.
Na pierwszy rzut oka wszystko wygląda bardzo wiarygodnie – uzasadnienie jest rozbudowane, cytaty brzmią przekonująco i człowiek ma poczucie, że rzeczywiście ma do czynienia z poważnym źródłem prawa. Kiedy jednak sięgamy po sygnaturę sprawy, okazuje się, że… taka w ogóle nie istnieje. Albo, co gorsza, odnosi się do zupełnie innej kwestii – na przykład w piśmie dotyczącym sprawy o alimenty widnieje orzeczenie pochodzące z Izby Gospodarczej. Już sama izba wskazuje, że to nie może być właściwy wyrok, bo przecież nie zajmuje się takimi sprawami.
Dla osób, które nie mają możliwości ani kompetencji, by to zweryfikować, stanowi to ogromne zagrożenie. Co więcej, sztuczna inteligencja dodatkowo utwierdza je w przekonaniu, że ich argumentacja jest prawidłowa – aż do momentu, w którym dochodzi do brutalnego zderzenia z rzeczywistością procesową.
To z kolei rodzi nowe wyzwania nie tylko dla adwokatów i radców prawnych, ale przede wszystkim dla sędziów. Przez wiele lat w środowisku prawniczym panowało przekonanie, że jeśli ktoś przywołuje orzecznictwo – zwłaszcza profesjonalny pełnomocnik – to przynajmniej wiadomo, że ono rzeczywiście istnieje. Można było się z nim zgadzać lub nie, ale nikt nie kwestionował jego autentyczności. Dziś, niestety, pojawiają się sytuacje, w których osoby działające w pośpiechu albo korzystające z takich narzędzi bezrefleksyjnie, podają po prostu fikcyjne orzeczenia.
W efekcie sędziowie stają przed koniecznością każdorazowego sprawdzenia, czy przywołany wyrok w ogóle istnieje, zanim ocenią jego znaczenie dla sprawy. To zasadnicza różnica – bo nie chodzi już tylko o zgodność linii orzeczniczej z poglądem sądu, ale o sam fakt istnienia przywołanego orzeczenia.
Wracając do wcześniejszego przykładu ze wspólnotą mieszkaniową – tworzenie w sztucznej inteligencji abstrakcyjnych, nieistniejących sporów czy podstaw prawnych nie ma żadnej wartości w realnym postępowaniu sądowym. Sąd nie będzie traktował takich „argumentów” ulgowo. Nie istnieje żadna taryfa ochronna dla osób, które popadły w problemy prawne przez bezkrytyczne zaufanie sztucznej inteligencji.
Ja spotkałam się z tym, że sztuczna inteligencja myli w ogóle procedurę karną z procedurą cywilną. Podaję problem cywilny, a rozwiązania są z procedury karnej. Także zauważam to, że trzeba być naprawdę ostrożnym i jak mamy jakiś problem, to lepiej udać się do specjalisty i jego zapytać o tą weryfikację, ale wydaje się, że w pewnych aspektach ta sztuczna inteligencja może być przydatna.
Wracając do tego, co powiedziałaś – sztuczna inteligencja w rękach specjalisty może być naprawdę wartościowym narzędziem. Jeżeli potrafimy dobrze sformułować zapytanie, czyli tzw. prompt, i skierować sztuczną inteligencję na właściwy tor myślenia, możemy uzyskać bardzo przydatne efekty. Kluczowa jest jednak umiejętność oceny tego, co otrzymujemy. To właśnie odróżnia specjalistę od laika.
Jeżeli nie mamy wiedzy w danym temacie – weźmy dla przykładu budowę domu – to nasz pierwszy kontakt z danym zagadnieniem, np. deskowaniem dachu, może nas zmylić. Pytamy sztuczną inteligencję o poradę i otrzymujemy odpowiedź, która brzmi logicznie i przekonująco. Dopiero później, gdy konfrontujemy ją z opinią fachowców, okazuje się, że była całkowicie błędna lub przynajmniej niepełna. Często coś, co miało przynieść korzyść, wcale jej nie daje – albo jest zupełnie odwrotnie, niż nam się wydawało.
Kiedy jednak z takiego narzędzia korzysta specjalista, np. inżynier budownictwa, potrafi zadać pytanie w sposób precyzyjny i krytycznie ocenić uzyskaną odpowiedź. Wtedy rzeczywiście sztuczna inteligencja staje się wsparciem, a nie zagrożeniem.
Jednym z obszarów, w których narzędzia AI są naprawdę pomocne, jest redagowanie tekstów. Jeśli mamy już gotowy materiał – pismo, artykuł czy pozew – ale chcemy go poprawić stylistycznie, doprecyzować lub dostosować do określonego formatu, sztuczna inteligencja potrafi to zrobić bardzo dobrze. W nowych modelach jej możliwości w tym zakresie są naprawdę imponujące.
Świetnie sprawdza się także w prostych sprawach życia codziennego. Na przykład przy sporządzeniu reklamacji – gdy chodzi o buty za 140 zł, nikt nie pójdzie z tym do prawnika czy rzecznika praw konsumenta, bo koszty przewyższają wartość sporu. W takich sytuacjach narzędzia AI mogą być pomocne i zupełnie wystarczające. Ryzyko błędu jest minimalne, a dzięki przepisom konsumenckim nasze prawa i tak są chronione.
Podobnie w przypadku przygotowania się do rozmowy z prawnikiem – sztuczna inteligencja może pomóc uporządkować fakty, opracować pytania, zdefiniować problemy. Dzięki temu rozmowa w kancelarii jest bardziej efektywna, bo przychodzimy z konkretnym zestawem informacji i wątpliwości.
Muszę jednak mocno podkreślić kwestię ochrony danych osobowych. Kancelarie prawne działające w Polsce są zobowiązane nie tylko do przestrzegania RODO, ale także do zachowania tajemnicy zawodowej – adwokackiej czy radcowskiej. Nie wyobrażam sobie, by można było wprowadzać do systemów AI dane klientów, dokumenty, numery PESEL czy inne informacje pozwalające na identyfikację osób.
Wysyłając takie dane do narzędzi online, tracimy nad nimi kontrolę – nie wiemy, kto może je zobaczyć, gdzie są przechowywane, czy ktoś w przyszłości nie wykorzysta ich w sposób nieuprawniony. Dlatego pod żadnym pozorem nie wolno wprowadzać takich informacji do systemów AI. Nawet przy generowaniu umów zostawmy pola, które wypełnimy sami – dane osobowe, adresy, numery dokumentów – to powinniśmy zawsze uzupełniać ręcznie, lokalnie, na własnym komputerze.
Sztuczna inteligencja nie sprawdzi się także w sprawach, gdzie istotne są emocje – np. w sporach rodzinnych, przy rozwodach, ustalaniu kontaktów z dziećmi czy podziale majątku. AI nie jest w stanie odczuwać i zrozumieć emocjonalnego kontekstu sprawy, który często jest kluczowy dla zbudowania odpowiedniej strategii.
Szerzej patrząc, w każdej sytuacji, w której konieczne jest opracowanie przemyślanej strategii prawnej, mającej doprowadzić do konkretnego celu – sztuczna inteligencja po prostu nie wystarczy. To narzędzie może pomóc, ale nie zastąpi doświadczenia, intuicji i zdolności oceny ryzyka.
Wielu ludzi, także dobrze wykształconych, ufa AI bezkrytycznie, przyjmując jej odpowiedzi jako pewnik. Często nawet kwestionują opinie prawników, bo „tak im napisało” w czacie. Ale prawda jest taka, że sztuczna inteligencja nie ponosi odpowiedzialności za swoje błędy – a my tak.
Miałem klienta, który chciał złożyć powództwo wzajemne na etapie, gdy było to już niemożliwe. Wytłumaczyłem mu, że termin minął i nie ma podstaw, by to zrobić. Klient nie dowierzał, bo „czat” powiedział mu coś innego. Dopiero gdy pokazałem mu papierowy kodeks i konkretne przepisy, zrozumiał, że AI się myliła.
To właśnie pokazuje, że prawnik nie jest od tego, by potwierdzać nasze pomysły, ale po to, by nas zweryfikować i doprowadzić do osiągnięcia celu w zgodzie z prawem.
Ślepe zaufanie sztucznej inteligencji może prowadzić także do strat finansowych. AI często nie nadąża za zmianami przepisów – zwłaszcza w podatkach, prawie pracy czy ubezpieczeniach społecznych. Czasami opiera się na nieaktualnych lub nieistniejących regulacjach, przez co użytkownik może nieświadomie narazić się na poważne konsekwencje.
Trzeba pamiętać, że tego typu narzędzia działają na bazie danych dostępnych do momentu ich publikacji. To, że potrafią generować teksty na bieżąco, nie znaczy, że zawsze bazują na aktualnym stanie prawnym. Dlatego AI to tylko narzędzie – przydatne, ale niedoskonałe.
Porównałbym ją do młotka w warsztacie. Młotek to świetne narzędzie, ale nie służy do wszystkiego. Nie wkręcimy nim śrubki, a jeśli użyjemy go nieumiejętnie, to po prostu uderzymy się w palec. Tak samo jest z AI – przydaje się, gdy wiemy, jak i do czego jej używać, ale może być niebezpieczna, jeśli powierzamy jej zbyt wiele.
Szczególnie w sprawach o dużej wartości – jak choćby przy umowie deweloperskiej na setki tysięcy złotych – ryzyko błędu jest zbyt duże, by polegać tylko na sztucznej inteligencji.
Możemy więc uznać, że AI świetnie sprawdza się w prostych kwestiach: przygotowaniu reklamacji, przeredagowaniu tekstu, uporządkowaniu myśli czy przygotowaniu pytań do prawnika. Ale w poważnych, skomplikowanych sprawach życiowych, gdzie liczy się strategia i doświadczenie – zawsze warto skorzystać z pomocy specjalisty.
W mojej ocenie AI nie potrafi, i jeszcze długo nie będzie potrafiła, wychodzić poza sztywne ramy logiki. Nie rozumie kontekstu emocjonalnego ani nie potrafi twórczo interpretować prawa. Tymczasem praca prawnika często polega właśnie na tym, by znaleźć sprawiedliwe rozwiązanie w sytuacji, która pozornie wydaje się beznadziejna.
Czyli trochę jak z medycyną – objawy możesz sprawdzić w Google, ale operacji sam nie wykonasz.
Dokładnie tak. Albo jak z tym młotkiem – przydatny, ale nie do wszystkiego.
W takim razie dziękuję Ci za tak szerokie i praktyczne wyjaśnienie tematu. Pojawiło się tu wiele ciekawych wątków, także z Twojej codziennej pracy.
Możemy więc zachęcić naszych słuchaczy, by sami sprawdzili, jak sztuczna inteligencja działa w ich branży – czy rzeczywiście jest nieomylna i czy faktycznie może zastąpić człowieka.
Świetny pomysł. To nie dotyczy tylko prawa – każdy może to przetestować w swojej dziedzinie i zobaczyć, czy AI rzeczywiście wie lepiej.
Dziękujemy za wysłuchanie kolejnego odcinka podcastu. Zachęcamy do subskrybowania naszego kanału i śledzenia kolejnych rozmów.