za
Prawnik i jego androidy.

Prawnik nieumiejętnie użył ChatuGPT – teraz sam stanie przed sądem!

European Halving Party 2024

Narzędzia AI dostępne są dziś powszechnie, jednak edukacja w zakresie ich poprawnego używania dopiero raczkuje. O błędach, jakie można popełnić używając AI, boleśnie dowiedział się prawnik, który skorzystał z ChatuGPT, aby zebrać dane do prowadzonej przez niego sprawy.

Nieumiejętne wykorzystanie ChatuGPT skończyło się katastrofą. Dowody zabrane przez AI okazały się bowiem całkowicie fałszywe. Wpadka ta jest nie tylko żenująca dla prawnika, ale jest także gwoździem do trumny jego ponad trzydziestoletniej kariery. Stanie on teraz przed sądem.

Błachy błąd, poważne konsekwencje

Najbardziej irracjonalne w całej sytuacji jest to, że wpadka wspomnianego prawnika – Stevena Schwartza – odnosi się do bardzo błahej sprawy. Proces dotyczył skargi pasażera linii lotniczych Avianca, który został uderzony przez stewardessę wózkiem do serwowania potraw. Linie lotnicze złożyły wniosek o odwołanie sprawy ze względu na małą wagę incydentu. Pasażer nie odniósł bowiem żadnych obrażeń.

W świetle tak przedstawionej sprawy, Schwartz postanowił powołać się na podobne przypadki. Chciał tym samym pokazać, że inni poszkodowali nie byli tak błaho traktowani. Według prawnika był to idealny plan na odrzucenie wniosku o oddalenie sprawy.

Aby zdobyć listę przypadków i potrzebne argumenty, postanowił on wspomóc się ChatemGPT. Steven wpisał prosty prompt i zaufał, że otrzymane dane – takie jak imiona i nazwiska – podano mu na chromowanej, cybernetycznej tacy. Argumenty te przedstawił w sądzie. Szybko jednak wyszło na jaw, że ChatGPT wymyślił wszystkie dane i owych spraw nigdy nie było. Ponad  trzydziestoletnia kariera prawnika legła w gruzach. Teraz będzie musiał on prawdopodobnie odpowiedzieć przez sądem za użycie fałszywych dowodów w sprawie.

Prawnik android przed rozprawą

Odpowiednie promptowanie, mocium panie!

Powyższa sytuacja jest doskonałym przykładem na to, że edukacja w obszarze narzędzi AI jest niezwykle istotna. Powodem katastrofalnej wpadki prawnika był brak wiedzy na temat odpowiedniego promptowania oraz halucynacje ChatuGPT.

Jeżeli w zapytaniu nie damy wyraźnej wskazówki ChatowiGPT, aby nie używał on fałszywych danych, to LLM będzie starał się dodać informacje uatrakcyjniając opowieść. Co więcej, nawet około 25% odpowiedzi ChatuGPT to halucynacje, czyli sytuacja, w której AI podaje niesprawdzone informacje. Dlatego też tak ważny jest nie tylko odpowiedni prompt, ale zasada ograniczonego zaufania. Niestety wiele osób ślepo ufa narzędziom AI. W połączeniu z brakiem edukacji w tym temacie, może skończyć się to katastrofą i poważnym nadszarpnięciem reputacji.

Bitcoina i inne kryptowaluty kupisz w prosty i bezpieczny sposób na giełdzie zondacrypto.

Tagi
Autor

Zawodowy copywriter oraz social media manager. Od 5 lat publikuje treści w tematyce m.in. nowoczesnych technologii. W Bitcoin.pl zajmuje się nowościami z rynku, artykułami odnośnie kryptowalut oraz sztucznej inteligencji.

Newsletter Bitcoin.pl

Więcej niż bitcoin i kryptowaluty. Najważniejsze newsy i insiderskie informacje prosto na Twój email.

Dbamy o ochronę Twoich danych. Przeczytaj naszą Politykę Prywatności