Poruszając tę tematykę, na wstępie należy wyjaśnić, czym są owi agenci AI. Od strony technicznej należy wskazać, iż stanowią oni nową, a zarazem szczególną kategorię systemów informatycznych, które – dzięki zdolności do samodzielnego uczenia się, analizy danych i podejmowania decyzji w określonych warunkach – mogą wykonywać zadania dotychczas zastrzeżone dla człowieka.
W literaturze przedmiotu agent AI definiowany jest jako oprogramowanie działające w sposób zorientowany na cel, zdolne do autonomicznego pozyskiwania informacji, ich przetwarzania oraz inicjowania działań w środowisku cyfrowym lub fizycznym.
W branży transportowej może to oznaczać zarówno system zarządzający flotą pojazdów, jak i inteligentnego asystenta logistycznego (autonomicznego spedytora) koordynującego trasy dostaw, monitorującego warunki drogowe czy nawet podejmującego decyzje w zakresie sprzedaży lub optymalizacji kosztów transportu.
Agenci AI a problem odpowiedzialności prawnej
O ile pojęcie „sztucznej inteligencji” jest już szeroko analizowane w literaturze, o tyle „agent AI” koncentruje się na aspekcie wykonawczym – a więc działaniu w imieniu określonego podmiotu.
Dodając do tego praktycznie zerową możliwość odróżnienia działań podejmowanych przez wspomnianego agenta od tych, które podejmuje człowiek, problem staje się niezwykle poważny. Z punktu widzenia prawa pojawia się pytanie o możliwość przypisania skutków prawnych czynności dokonanych przez agenta AI jego twórcy, użytkownikowi lub właścicielowi systemu.
Dwa wymiary analizy: techniczny i prawny
W związku z tym w pierwszej kolejności należy dokonać rozpoznania działania wspomnianego agenta AI. W branży transportowej wymaga to analizy dwóch kluczowych wymiarów – technicznego i prawnego.
W wymiarze technicznym kluczowe jest ustalenie, czy system faktycznie działa w sposób autonomiczny, czy jedynie wspomaga decyzje człowieka. Przykładem mogą być inteligentne systemy planowania tras, które – bazując na danych pogodowych, natężeniu ruchu i analizie kosztów – samodzielnie proponują najbardziej efektywny model dostaw.
W kontekście prawnym natomiast decydujące znaczenie ma to, czy działania agenta mogą być przypisane konkretnemu podmiotowi jako jego „czynność” w rozumieniu prawa cywilnego.
Luka w prawie i brak osobowości prawnej agentów AI
Niestety należy podkreślić, iż w aktualnym stanie prawnym brak jest w Polsce oraz w Unii Europejskiej regulacji nadających agentom AI osobowość prawną. Oznacza to, że każde działanie agenta AI musi być traktowane jako działanie człowieka lub przedsiębiorstwa, które zleciło jego wykonanie.
Problemem pozostaje jednak ustalenie momentu, w którym system przekracza próg samodzielności decyzyjnej, co utrudnia przypisanie odpowiedzialności. Kwestia odpowiedzialności za działania agentów AI stanowi obecnie jeden z najtrudniejszych problemów prawnych.
Ponieważ agent AI nie posiada zdolności prawnej ani deliktowej, nie może sam ponosić odpowiedzialności za swoje działania. Ciężar ten spoczywa zatem na podmiotach, które go stworzyły, wdrożyły lub nadzorują.
Model użytkownika i problem falsus procurator
Aktualnie w doktrynie dominuje pogląd tzw. „modelu użytkownika”, oparty na traktowaniu sytuacji związanych z tego typu systemami jako działań falsus procurator – czyli osoby działającej w cudzym imieniu bez umocowania lub przekraczającej jego zakres.
W tym przypadku kluczowe jest, że umowa zawarta przez falsus procuratora jest bezskuteczna, dopóki nie zostanie potwierdzona przez osobę, w której imieniu została zawarta.
Niestety rozwiązanie to nie jest idealne. Ze względu na praktycznie zerową możliwość odróżnienia działań agenta AI od działań człowieka, w wielu przypadkach może dojść do skrajnych sytuacji.
Przykładem może być sytuacja, w której strony skutecznie zawarły umowę przewozu (np. za pośrednictwem giełdy transportowej) i przystąpiły do jej wykonania, po czym okazuje się, że za zlecającego działał agent AI, a jego użytkownik nigdy nie potwierdził tej umowy. Problem komplikuje się jeszcze bardziej, gdy agent AI występuje jako jedno z ogniw łańcucha transportowego – posiadając uprawnienia przypisane zarówno zlecającemu, jak i przewoźnikowi – lub gdy po obu stronach transakcji działają agenci AI.
Alternatywne modele odpowiedzialności
Oprócz opisanej powyżej koncepcji w literaturze przedmiotu wyróżnia się inne możliwe modele przypisania odpowiedzialności:
- Model producenta – odpowiedzialność spoczywa na twórcy lub dostawcy oprogramowania, jeśli szkoda wynikła z wady systemu.
- Model użytkownika – opisany powyżej.
- Model ryzyka rozproszonego – odpowiedzialność dzielona jest pomiędzy różne podmioty uczestniczące w łańcuchu tworzenia i eksploatacji systemu.
Prawo w tyle za technologią
Z uwagi na zawiłość problemu oraz szybki postęp technologiczny, na horyzoncie zaczynają pojawiać się pierwsze szczegółowe regulacje – jak chociażby wdrażany w Unii Europejskiej AI Act.
Niestety, w tym „wyścigu miecza i tarczy” prawo pozostaje daleko w tyle za technologią. Racjonalnym rozwiązaniem byłoby uregulowanie tej kwestii przynajmniej na poziomie krajowym, jednak i w tym przypadku skala zapóźnień jest ogromna.
W stronę odpowiedzialnego wdrażania agentów AI
Podsumowując, należy podkreślić, że agenci AI stanowią jeden z najbardziej dynamicznie rozwijających się obszarów technologii w sektorze transportowym. Ich obecność rodzi szereg pytań natury prawnej – w szczególności w zakresie odpowiedzialności, kontraktów i zgodności z obowiązującymi regulacjami.
Brak jednoznacznych norm prawnych wymaga od ustawodawcy elastycznego podejścia opartego na zasadach ogólnych prawa cywilnego oraz koncepcji odpowiedzialności pośredniej.
W dłuższej perspektywie konieczne będzie jednak stworzenie szczegółowych regulacji, które umożliwią wypracowanie standardów odpowiedzialnego wdrażania agentów AI, zapewniających przejrzystość, audytowalność i zachowanie kontroli człowieka nad ich działaniami.













