Firma straciła kontrakt przez błędne użycie AI

Co się wydarzyło: przypadek Exdrog i wykorzystanie AI

Osoba przy biurku pracująca na laptopie z wykresami, symbolizująca zarabianie na AI i wykorzystanie sztucznej inteligencji w biznesie
Źródło: Canva

Zarabianie na AI stało się w ostatnich latach jednym z najgorętszych tematów w biznesie. Firmy szukają sposobów, aby dzięki sztucznej inteligencji automatyzować procesy, przyspieszać przygotowanie dokumentów i generować realne zyski. Historia firmy Exdrog, działającej w Małopolsce w sektorze budowlanym, pokazuje jednak, że bez odpowiedniego nadzoru i weryfikacji danych, korzystanie z AI w praktyce może przynieść więcej problemów niż korzyści.

W 2025 roku Exdrog straciła kontrakt, co szybko stało się głośnym przykładem problemów związanych z zarabianiem na AI. Decyzja o wykorzystaniu sztucznej inteligencji w biznesie miała przyspieszyć przygotowanie dokumentacji przetargowej i obniżyć koszty, jednak w praktyce ujawniły się poważne ryzyka. System AI wygenerował dane, które wyglądały wiarygodnie, ale zawierały błędy merytoryczne – między innymi nieistniejące procedury, fikcyjne wyjaśnienia przepisów i częściowo błędne harmonogramy realizacji.

Pracownicy Exdrog z początku byli zachwyceni szybkością, z jaką AI przygotowywała obszerne dokumenty, myśląc, że automatyzacja pozwoli im konkurować szybciej i efektywniej. Jednak podczas oceny oferty przez komisję przetargową ujawniły się tzw. halucynacje AI, czyli generowane przez system informacje, które brzmiały profesjonalnie, lecz były nieprawdziwe. To pokazuje, że ryzyka korzystania z AI w biznesie mogą być realne i kosztowne, nawet dla firm posiadających doświadczenie i wiedzę w branży.

Historia Exdrog to także ostrzeżenie dla innych firm: nawet najlepsze narzędzia AI nie zastąpią ludzkiego nadzoru. AI może przyspieszyć procesy i pomóc w zarabianiu na AI, ale bez procedur weryfikacji danych i kontroli jakości dokumentów, może prowadzić do utraty kontraktów, ryzyk prawnych i strat reputacyjnych. To doświadczenie uświadamia, że sztuczna inteligencja w biznesie powinna być traktowana jako wsparcie, a nie jako pełnoprawny autor dokumentów formalnych.

W kolejnych akapitach przyjrzymy się szczegółowo, jak halucynacje AI wpłynęły na dokumentację Exdrog, jakie konsekwencje poniosła firma i jakie lekcje mogą wyciągnąć inne przedsiębiorstwa, chcące korzystać z AI w codziennej pracy.

Szczegóły przetargu i oferta

Przetarg obejmował modernizację dróg wojewódzkich w Małopolsce, a dokumentacja liczyła około 280–300 stron. Zespół Exdrog zdecydował się użyć AI do generowania uzasadnień dla kosztorysów, opisów technologii i harmonogramów, a także przygotowywania wyjaśnień dla pytań komisji przetargowej.

Początkowo wydawało się to idealnym przykładem zarabiania na AI, jednak wkrótce ujawniły się halucynacje AI – błędy generowane przez narzędzie, które wyglądały wiarygodnie, ale były niezgodne z rzeczywistością, np. nieistniejące interpretacje przepisów czy wymyślone dane techniczne.

Ilustracja ryzyk korzystania z AI

Poniższa tabela ilustruje ogólne obszary, w których AI w dokumentacji przetargowej może generować błędy. Dane są oparte na faktach z raportów medialnych, bez podawania wymyślonych liczb:

Obszar dokumentacji Rodzaj problemu generowanego przez AI Przykład z raportów Ryzyko dla firmy
Wyjaśnienia techniczne Niezweryfikowane lub nieistniejące dane AI wskazała technologie i procedury, które nie były zgodne z normami Wykluczenie z przetargu przez KIO
Kosztorysy i harmonogramy Błędne zestawienia danych AI wygenerowała informacje o kosztach i czasie realizacji niezgodne z rzeczywistością Ryzyko finansowe i reputacyjne
Interpretacja przepisów Halucynacje AI – fikcyjne przepisy lub interpretacje AI powoływała się na nieistniejące interpretacje podatkowe i prawne Ryzyko prawne i utrata kontraktu

Ten przypadek pokazuje, że firma Exdrog kontrakt AI straciła nie z powodu braku wiedzy technicznej, lecz z powodu niewystarczającej weryfikacji danych generowanych przez AI. To ważna lekcja dla każdej firmy rozważającej wykorzystanie sztucznej inteligencji w dokumentacji przetargowej i innych procesach biznesowych.

Zjawisko „halucynacji AI” i na czym polega ryzyko

Ręka trzymająca dokument przed ekranem komputera z wykresami, ilustrująca ryzyka i halucynacje AI
Źródło: Canva

Kiedy firma Exdrog zdecydowała się wykorzystać AI do przygotowania dokumentacji przetargowej, wielu w zespole postrzegało to jako szansę na szybkie zarabianie na AI. Maszyna mogła wygenerować obszerne wyjaśnienia techniczne, harmonogramy i kosztorysy w ułamku czasu, który zajęłoby zespołowi ludzi. Niestety, w tym przypadku pojawił się problem, który jest typowy dla wielu zastosowań sztucznej inteligencji w biznesie: tzw. halucynacje AI.

Czym są halucynacje AI

Termin halucynacje AI opisuje sytuacje, w których system sztucznej inteligencji tworzy informacje wyglądające wiarygodnie, lecz w rzeczywistości nieprawdziwe. To nie jest „błąd w oprogramowaniu” w klasycznym sensie — AI nie wie, że się myli. Generuje dane na podstawie wzorców, które poznała w treningu, czasem łącząc je w sposób logicznie brzmiący, ale niepoprawny merytorycznie. W dokumentacji przetargowej oznacza to, że wygenerowane koszty, harmonogramy czy wyjaśnienia techniczne mogą wyglądać profesjonalnie, lecz w praktyce wprowadzać w błąd komisję oceniającą oferty.

Dla firmy Exdrog oznaczało to realne ryzyko: system wskazywał technologie, procedury i interpretacje przepisów podatkowych, które w rzeczywistości nie istniały. Komisja przetargowa zauważyła nieścisłości, co doprowadziło do wykluczenia Exdrog z postępowania przez Krajową Izbę Odwoławczą. To przykład, jak ryzyka korzystania z AI w biznesie mogą kosztować firmę miliony złotych i reputację, nawet jeśli proces przygotowuje bardzo zaawansowane narzędzie.

Przykłady problemów z dokumentacją

W praktyce halucynacje AI mogą przybierać różne formy, które mają znaczenie w biznesie:

  • Nieprawdziwe dane liczbowe: AI generuje harmonogramy lub kosztorysy, które wydają się poprawne, ale są zaniżone lub zawyżone w stosunku do realnych wymagań projektu. W przypadku Exdrog chodziło o błędne zestawienia czasów realizacji poszczególnych etapów prac drogowych.
  • Nieistniejące procedury lub technologie: AI może wskazywać metody wykonania prac lub materiały, które nie są dopuszczone normami technicznymi. W dokumentacji Exdrog pojawiały się sugestie stosowania technologii, które w Polsce nie były dostępne ani zatwierdzone.
  • Fikcyjne interpretacje przepisów: Systemy AI czasem tworzą „legalne” wyjaśnienia, które brzmią profesjonalnie, ale powołują się na nieistniejące przepisy podatkowe lub normy branżowe. Exdrog wykorzystał takie wyjaśnienia, co KIO uznała za podstawę wykluczenia.

Chociaż AI w biznesie jest niezwykle przydatna, ten przypadek pokazuje, że każda firma, która chce zarabiać na AI lub używać jej w procesach formalnych, musi uwzględnić ryzyko halucynacji. Nawet zaawansowane narzędzie nie zastąpi człowieka w roli weryfikatora i odpowiedzialnego decydenta.

Dlaczego ryzyko jest tak duże

Co istotne, problem nie ogranicza się do przetargów. Każdy proces, w którym AI generuje treści wymagające precyzyjnej wiedzy lub odpowiedzialności prawnej, jest narażony na halucynacje. W praktyce oznacza to:

  • możliwe straty finansowe z powodu błędnych danych,
  • ryzyko prawne i odpowiedzialność przed kontrahentami,
  • zagrożenie reputacyjne, jeśli błędy staną się publiczne,
  • konieczność dodatkowych procedur kontrolnych i weryfikacji.

Dzięki przypadkowi Exdrog firmy z całej Polski mogą zobaczyć, że sztuczna inteligencja w biznesie to nie magiczne narzędzie gwarantujące sukces, lecz wsparcie wymagające kompetentnego nadzoru. Halucynacje AI pokazują, że odpowiedzialność człowieka nie zniknęła, a procesy weryfikacyjne są kluczowe do bezpiecznego wykorzystania technologii.

Podsumowując, zjawisko halucynacji AI jest jednym z największych wyzwań dla firm wchodzących w świat zarabiania na AI. Ten mechanizm pokazuje, że nawet jeśli narzędzie generuje profesjonalnie wyglądające dokumenty, należy traktować je jako wsparcie, a nie jako gotową i pewną treść. Dla Exdrog konsekwencje były dotkliwe: utrata kontraktu i utrata części zaufania rynku, a lekcja dla innych firm jest jasna – AI jest narzędziem, które wymaga ludzkiej kontroli.

Konsekwencje dla firmy i rynku

Utrata kontraktu przez firmę Exdrog stała się głośnym przykładem, jak błędne zastosowanie AI może prowadzić do poważnych konsekwencji. Co prawda decyzja o wykorzystaniu sztucznej inteligencji w biznesie miała przyspieszyć przygotowanie dokumentacji i pozwolić na efektywne zarabianie na AI, jednak w praktyce ujawniły się wszystkie ryzyka, o których często mówi się w kontekście nowych technologii, ale które wiele firm wciąż bagatelizuje. System AI wygenerował dane, które wyglądały wiarygodnie, lecz zawierały nieścisłości merytoryczne i błędy w harmonogramach realizacji, kosztorysach oraz interpretacjach przepisów. Komisja przetargowa szybko wychwyciła te nieprawidłowości, co doprowadziło do wykluczenia Exdrog z postępowania. To wydarzenie stało się przestrogą dla przedsiębiorców, pokazując, że ryzyka korzystania z AI w biznesie są realne, a niewłaściwe wdrożenie technologii może skutkować stratami finansowymi, utratą kontraktów i poważnym uszczerbkiem na reputacji. Historia Exdrog pokazuje, że AI w dokumentach formalnych to narzędzie wymagające stałej weryfikacji i nadzoru ekspertów – nawet najbardziej zaawansowany system nie zastąpi odpowiedzialnego człowieka.

Wykluczenie z przetargu

Najbardziej bezpośrednią konsekwencją było wykluczenie Exdrog z przetargu przez Krajową Izbę Odwoławczą (KIO). Komisja oceniająca ofertę stwierdziła, że niektóre dane w dokumentacji były nieprawdziwe lub niezweryfikowane, co w świetle prawa przetargowego stanowiło podstawę do wykluczenia. W praktyce oznaczało to, że firma straciła możliwość realizacji kontraktu o wartości ok. 15,5 mln zł, który mógł znacząco wpłynąć na jej przychody i rozwój w kolejnych latach.

Decyzja KIO była jednoznaczna: brak weryfikacji danych generowanych przez AI nie jest usprawiedliwieniem. Nawet jeśli narzędzie umożliwia szybkie przygotowanie dokumentacji, odpowiedzialność za jej poprawność spoczywa zawsze na człowieku. Dla Exdrog oznaczało to, że pomimo innowacyjnego podejścia, straciła szansę na realizację projektu, który mógł być przełomowy w kontekście lokalnego rynku drogowego.

Ryzyka prawne i reputacyjne

Młotek sędziowski na klawiaturze komputera, symbolizujący ryzyko prawne i konsekwencje związane z sztuczną inteligencją w biznesie
Źródło: Canva

Utrata kontraktu to jednak tylko wierzchołek góry lodowej. Pojawiły się też poważne ryzyka prawne i reputacyjne. Wyjaśnienia wygenerowane przez AI powołujące się na nieistniejące przepisy podatkowe czy normy techniczne mogły zostać odebrane jako próba wprowadzenia w błąd instytucji publicznych. W skrajnych przypadkach takie sytuacje mogą prowadzić do postępowań karnych lub finansowych wobec firmy.

Równie istotny jest wymiar reputacyjny. Informacja o tym, że firma Exdrog użyła AI, która wygenerowała błędne dane, pojawiła się w mediach branżowych, w tym w Business Insider i Pulsie Biznesu. Dla kontrahentów i inwestorów sygnał jest jasny: firma może mieć problemy z weryfikacją informacji, nawet jeśli technologia, którą wykorzystuje, jest zaawansowana. W praktyce oznacza to, że potencjalne kontrakty w przyszłości mogą być trudniejsze do zdobycia, a negocjacje będą obarczone większym poziomem ostrożności ze strony partnerów biznesowych.

W kontekście rynku, przypadek Exdrog pokazuje też, że ryzyka korzystania z AI w biznesie nie dotyczą tylko jednej firmy. Każda organizacja, która chce wykorzystać AI w dokumentach formalnych, analizach finansowych lub harmonogramach projektowych, musi być świadoma, że błędy generowane przez AI mogą wpływać na całą branżę. Jeśli takie sytuacje powtarzają się w przetargach publicznych, rośnie ryzyko, że organy nadzorcze zaczną wprowadzać dodatkowe procedury kontroli, co może spowolnić procesy i zwiększyć koszty dla wszystkich firm w sektorze.

Długofalowe konsekwencje dla Exdrog

Dla samej firmy Exdrog skutki są wielowymiarowe:

  • Finansowe: utrata kontraktu oznacza brak przychodów z dużego projektu i konieczność pokrycia kosztów przygotowania dokumentacji,
  • Reputacyjne: informacja o błędach AI trafiła do mediów, co może wpływać na zaufanie klientów i partnerów biznesowych,
  • Operacyjne: firma musi teraz wprowadzić procedury kontrolne i audyt danych generowanych przez AI, aby uniknąć podobnych sytuacji w przyszłości,
  • Prawne: ryzyko ewentualnych roszczeń lub konieczność wyjaśniania procesu w przypadku kolejnych przetargów.

Konsekwencje błędnego użycia AI w przypadku Exdrog są bardzo wyraźnym sygnałem dla całego rynku. Sytuacja pokazuje, że sztuczna inteligencja w biznesie to potężne narzędzie, ale wymaga odpowiedzialności, weryfikacji danych i świadomości ryzyk. Nawet przy zaawansowanych systemach, brak ludzkiego nadzoru może prowadzić do poważnych strat finansowych, prawnych i wizerunkowych.

Lekcje dla firm: jak bezpiecznie korzystać z AI w biznesie

Przypadek firmy Exdrog stał się cenną lekcją dla całego rynku. Pokazuje, że choć zarabianie na AI i wykorzystanie sztucznej inteligencji w biznesie może przynosić realne korzyści, to nieumiejętne wdrożenie technologii może prowadzić do poważnych konsekwencji. Historia kontraktu firmy Exdrog z wykorzystaniem AI uświadamia przedsiębiorcom, że nawet najbardziej zaawansowane narzędzia nie zastąpią nadzoru ludzkiego ani procedur weryfikacyjnych. Firmy, które planują wdrożenie AI w dokumentach formalnych, ofertach przetargowych czy analizach biznesowych, muszą uwzględniać ryzyka, takie jak generowanie nieprawdziwych danych, błędne interpretacje przepisów czy niekompletne harmonogramy.

W przypadku Exdrog, wykorzystanie AI przyspieszyło przygotowanie dokumentacji, ale ujawniło też braki w procedurach kontrolnych i weryfikacji treści. Zespół szybko zdał sobie sprawę, że wygenerowane przez AI wyjaśnienia, kosztorysy i harmonogramy wymagają szczegółowej weryfikacji ludzkiej, a brak takiego nadzoru doprowadził do utraty kontraktu. To wydarzenie stało się przestrogą dla całego rynku, pokazując, że ryzyka korzystania z AI w biznesie są realne i mogą dotyczyć każdej firmy, niezależnie od jej doświadczenia czy wielkości. Lekcja jest jasna: AI może wspierać szybkie zarabianie na AI, ale tylko w połączeniu z kontrolą człowieka, audytem danych i procedurami bezpieczeństwa. W kontekście audytów i kontroli danych warto zapoznać się z artykułem Agenci AI kontra audyt SEO, który pokazuje, jak systemy AI mogą wspierać weryfikację i monitorowanie procesów.

Audyt i weryfikacja danych AI

Podstawą jest **audyt i weryfikacja danych generowanych przez AI**. Każda informacja, która ma wpływ na decyzje biznesowe, dokumenty formalne czy oferty przetargowe, powinna być sprawdzona przez specjalistę. W praktyce oznacza to:

  • kontrolę kosztorysów, harmonogramów i wyjaśnień technicznych,
  • sprawdzenie źródeł i norm, na które powołuje się AI,
  • regularne testy systemów AI, aby wychwycić potencjalne halucynacje i błędy w danych.

Dzięki temu firma może wykorzystać AI do automatyzacji procesów, ale jednocześnie minimalizuje ryzyko błędów, które mogą prowadzić do wykluczenia z przetargów lub utraty reputacji.

Odpowiedzialność człowieka vs. AI

Człowiek z kalkulatorem przy wykresach wykonujący ręczny audyt, symbolizujący kontrakt firmy Exdrog z wykorzystaniem AI
Źródło: Canva

Ważne jest, aby jasno rozdzielić odpowiedzialność człowieka i AI. Technologia nie może zastępować ludzkiego nadzoru. W dokumentach przetargowych, analizach finansowych czy raportach technicznych AI powinna być traktowana jako narzędzie wspomagające, a nie podmiot odpowiedzialny za treść. Każda decyzja oparta na danych AI wymaga potwierdzenia przez osobę odpowiedzialną, co minimalizuje ryzyko popełnienia kosztownych błędów. Regularne sprawdzanie generowanych treści pozwala uniknąć problemów związanych z halucynacjami AI oraz nieprecyzyjnymi informacjami, które mogą wprowadzać w błąd decydentów.

Praktyka ta pomaga firmom w:

  • redukcji ryzyka prawnego i finansowego,
  • zwiększeniu zaufania klientów i kontrahentów,
  • zachowaniu reputacji w przypadku kontroli lub audytów,
  • lepszym wykorzystaniu AI w pracy, przy jednoczesnym zachowaniu pełnej kontroli nad procesami,
  • identyfikowaniu potencjalnych błędów zanim wpłyną na wyniki przetargów czy projektów.

Procedury kontrolne

Firmy powinny wdrożyć **procedury kontrolne** obejmujące:

  • listy kontrolne weryfikacji danych wygenerowanych przez AI,
  • audyt jakości informacji przed wysłaniem dokumentów do klientów lub instytucji publicznych,
  • szkolenia pracowników w zakresie rozpoznawania halucynacji AI i krytycznej analizy wyników systemów sztucznej inteligencji.

Dzięki tym procedurom możliwe jest maksymalne wykorzystanie zalet AI, takich jak oszczędność czasu i zasobów, przy jednoczesnym minimalizowaniu ryzyka, które w przypadku Exdrog doprowadziło do utraty kontraktu.

Kultura odpowiedzialnego korzystania z AI

Najważniejsza lekcja z historii Exdrog to budowanie **kultury odpowiedzialnego korzystania z AI**. Firmy powinny traktować AI jako partnera technologicznego, a nie magiczny skrót do sukcesu. Kluczowe elementy takiej kultury to:

  • świadomość możliwości i ograniczeń AI wśród pracowników,
  • regularne monitorowanie wyników systemów AI,
  • wdrożenie procedur eskalacji w przypadku wykrycia nieścisłości,
  • przygotowanie planów awaryjnych na wypadek błędnych danych lub niepoprawnych analiz.

Historia firmy Exdrog pokazuje, że ryzyka korzystania z AI w biznesie nie są abstrakcyjne. Każda firma, która chce korzystać z AI w przetargach, dokumentacji lub analizach, powinna łączyć automatyzację z ludzką weryfikacją, odpowiedzialnością i procedurami kontrolnymi. W ten sposób AI staje się realnym wsparciem w procesach biznesowych, a nie potencjalnym źródłem kosztownych błędów.

Konkluzja: AI jako narzędzie, nie skrót do sukcesu

Historia firmy Exdrog jest doskonałą lekcją dla wszystkich przedsiębiorców, którzy chcą wykorzystać sztuczną inteligencję w biznesie i jednocześnie zarabiać na AI. Pokazuje, że nawet najbardziej zaawansowane narzędzie technologiczne nie zastąpi doświadczenia, wiedzy i odpowiedzialności człowieka. AI może przyspieszać procesy, generować raporty czy analizować dane w sposób, którego człowiek nie byłby w stanie osiągnąć w krótkim czasie, ale bez weryfikacji, kontroli i procedur bezpieczeństwa, korzystanie z niej staje się ryzykowne.

Przypadek Exdrog uwidocznił kilka kluczowych wniosków:

  • AI nie jest nieomylna: Halucynacje AI mogą generować dane wyglądające wiarygodnie, ale w rzeczywistości nieprawdziwe, co w przypadku dokumentów formalnych może prowadzić do poważnych konsekwencji. Więcej o etyce i odpowiedzialnym wykorzystaniu AI przeczytasz w artykule Etyka i zarabianie na AI: granica automatyzacji i oszustwa.
  • Ludzki nadzór jest konieczny: Każda informacja przygotowana przez AI powinna być sprawdzona i zatwierdzona przez osobę odpowiedzialną.
  • Ryzyka finansowe i reputacyjne są realne: Brak kontroli nad treściami AI może prowadzić do utraty kontraktów, strat finansowych i spadku zaufania partnerów biznesowych.
  • Procedury i audyty minimalizują ryzyko: Wdrożenie list kontrolnych, audytów i szkoleń dla pracowników pozwala bezpiecznie korzystać z AI i maksymalizować korzyści.

W praktyce oznacza to, że AI powinna być traktowana jako narzędzie wspomagające, a nie jako magiczny skrót do sukcesu. Firmy, które myślą, że samo wdrożenie technologii wystarczy, aby zwiększyć efektywność i zyski, ryzykują poważne konsekwencje, tak jak Exdrog. Natomiast te, które łączą potencjał AI z odpowiedzialnością, kontrolą i wiedzą ekspercką, mogą osiągać realne korzyści, bez narażania swojej reputacji i finansów.

Podsumowując, ryzyka korzystania z AI w biznesie są rzeczywiste, ale z odpowiednim podejściem możliwe do minimalizacji. Kluczem jest świadomość ograniczeń systemu, procedury weryfikacyjne i ludzki nadzór. AI nie zastąpi człowieka, ale może stać się niezastąpionym wsparciem w procesach biznesowych, przynosząc wymierne korzyści i umożliwiając zarabianie na AI w sposób bezpieczny i efektywny.

Firma Exdrog zostawiła rynkowi cenną lekcję: technologia jest potężna, ale odpowiedzialność i kompetencje człowieka pozostają kluczowe. To przesłanie powinno być fundamentem strategii każdej firmy planującej wykorzystanie AI w dokumentacji, przetargach czy codziennych procesach biznesowych.

Wesprzyj moją pracę

Dziękuję za przeczytanie posta! Jeśli uznałeś/-aś go za przydatny, możesz postawić mi kawę ☕.
To dla mnie duża motywacja do dalszego tworzenia treści o zarabianiu online i AI.

Zostaw komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Przewijanie do góry
Menu