REKLAMA
Petronas Tutela

AdobeStock

Agenci AI w branży transportowej – wprowadzenie do problematyki

Odsłuchaj artykuł

Ten artykuł przeczytasz w 6 minut

Wraz z dynamicznym rozwojem technologii sztucznej inteligencji (AI) coraz częściej obserwujemy jej przenikanie do tradycyjnych sektorów gospodarki. Branża transportowa, będąca jednym z filarów współczesnego obrotu gospodarczego, staje się przestrzenią szczególnie podatną na implementację rozwiązań opartych na algorytmach uczących się. W tym kontekście coraz częściej pojawia się pojęcie agentów AI – autonomicznych lub półautonomicznych systemów programistycznych, które działają w imieniu i na rzecz człowieka lub podmiotu prawnego, podejmując decyzje o skutkach prawnych i faktycznych.

Za tym tekstem stoi człowiek - nie sztuczna inteligencja. To materiał przygotowany w całości przez redaktora, z wykorzystaniem jego wiedzy i doświadczenia.

Poruszając tę tematykę, na wstępie należy wyjaśnić, czym są owi agenci AI. Od strony technicznej należy wskazać, iż stanowią oni nową, a zarazem szczególną kategorię systemów informatycznych, które – dzięki zdolności do samodzielnego uczenia się, analizy danych i podejmowania decyzji w określonych warunkach – mogą wykonywać zadania dotychczas zastrzeżone dla człowieka.

W literaturze przedmiotu agent AI definiowany jest jako oprogramowanie działające w sposób zorientowany na cel, zdolne do autonomicznego pozyskiwania informacji, ich przetwarzania oraz inicjowania działań w środowisku cyfrowym lub fizycznym.

W branży transportowej może to oznaczać zarówno system zarządzający flotą pojazdów, jak i inteligentnego asystenta logistycznego (autonomicznego spedytora) koordynującego trasy dostaw, monitorującego warunki drogowe czy nawet podejmującego decyzje w zakresie sprzedaży lub optymalizacji kosztów transportu.

Agenci AI a problem odpowiedzialności prawnej

O ile pojęcie „sztucznej inteligencji” jest już szeroko analizowane w literaturze, o tyle „agent AI” koncentruje się na aspekcie wykonawczym – a więc działaniu w imieniu określonego podmiotu.

Dodając do tego praktycznie zerową możliwość odróżnienia działań podejmowanych przez wspomnianego agenta od tych, które podejmuje człowiek, problem staje się niezwykle poważny. Z punktu widzenia prawa pojawia się pytanie o możliwość przypisania skutków prawnych czynności dokonanych przez agenta AI jego twórcy, użytkownikowi lub właścicielowi systemu.

Dwa wymiary analizy: techniczny i prawny

W związku z tym w pierwszej kolejności należy dokonać rozpoznania działania wspomnianego agenta AI. W branży transportowej wymaga to analizy dwóch kluczowych wymiarów – technicznego i prawnego.

W wymiarze technicznym kluczowe jest ustalenie, czy system faktycznie działa w sposób autonomiczny, czy jedynie wspomaga decyzje człowieka. Przykładem mogą być inteligentne systemy planowania tras, które – bazując na danych pogodowych, natężeniu ruchu i analizie kosztów – samodzielnie proponują najbardziej efektywny model dostaw.

W kontekście prawnym natomiast decydujące znaczenie ma to, czy działania agenta mogą być przypisane konkretnemu podmiotowi jako jego „czynność” w rozumieniu prawa cywilnego.

Luka w prawie i brak osobowości prawnej agentów AI

Niestety należy podkreślić, iż w aktualnym stanie prawnym brak jest w Polsce oraz w Unii Europejskiej regulacji nadających agentom AI osobowość prawną. Oznacza to, że każde działanie agenta AI musi być traktowane jako działanie człowieka lub przedsiębiorstwa, które zleciło jego wykonanie.

Problemem pozostaje jednak ustalenie momentu, w którym system przekracza próg samodzielności decyzyjnej, co utrudnia przypisanie odpowiedzialności. Kwestia odpowiedzialności za działania agentów AI stanowi obecnie jeden z najtrudniejszych problemów prawnych.

Ponieważ agent AI nie posiada zdolności prawnej ani deliktowej, nie może sam ponosić odpowiedzialności za swoje działania. Ciężar ten spoczywa zatem na podmiotach, które go stworzyły, wdrożyły lub nadzorują.

Model użytkownika i problem falsus procurator

Aktualnie w doktrynie dominuje pogląd tzw. „modelu użytkownika”, oparty na traktowaniu sytuacji związanych z tego typu systemami jako działań falsus procurator – czyli osoby działającej w cudzym imieniu bez umocowania lub przekraczającej jego zakres.

W tym przypadku kluczowe jest, że umowa zawarta przez falsus procuratora jest bezskuteczna, dopóki nie zostanie potwierdzona przez osobę, w której imieniu została zawarta.

Niestety rozwiązanie to nie jest idealne. Ze względu na praktycznie zerową możliwość odróżnienia działań agenta AI od działań człowieka, w wielu przypadkach może dojść do skrajnych sytuacji.

Przykładem może być sytuacja, w której strony skutecznie zawarły umowę przewozu (np. za pośrednictwem giełdy transportowej) i przystąpiły do jej wykonania, po czym okazuje się, że za zlecającego działał agent AI, a jego użytkownik nigdy nie potwierdził tej umowy. Problem komplikuje się jeszcze bardziej, gdy agent AI występuje jako jedno z ogniw łańcucha transportowego – posiadając uprawnienia przypisane zarówno zlecającemu, jak i przewoźnikowi – lub gdy po obu stronach transakcji działają agenci AI.

Alternatywne modele odpowiedzialności

Oprócz opisanej powyżej koncepcji w literaturze przedmiotu wyróżnia się inne możliwe modele przypisania odpowiedzialności:

  • Model producenta – odpowiedzialność spoczywa na twórcy lub dostawcy oprogramowania, jeśli szkoda wynikła z wady systemu.
  • Model użytkownika – opisany powyżej.
  • Model ryzyka rozproszonego – odpowiedzialność dzielona jest pomiędzy różne podmioty uczestniczące w łańcuchu tworzenia i eksploatacji systemu.

Prawo w tyle za technologią

Z uwagi na zawiłość problemu oraz szybki postęp technologiczny, na horyzoncie zaczynają pojawiać się pierwsze szczegółowe regulacje – jak chociażby wdrażany w Unii Europejskiej AI Act.

Niestety, w tym „wyścigu miecza i tarczy” prawo pozostaje daleko w tyle za technologią. Racjonalnym rozwiązaniem byłoby uregulowanie tej kwestii przynajmniej na poziomie krajowym, jednak i w tym przypadku skala zapóźnień jest ogromna.

W stronę odpowiedzialnego wdrażania agentów AI

Podsumowując, należy podkreślić, że agenci AI stanowią jeden z najbardziej dynamicznie rozwijających się obszarów technologii w sektorze transportowym. Ich obecność rodzi szereg pytań natury prawnej – w szczególności w zakresie odpowiedzialności, kontraktów i zgodności z obowiązującymi regulacjami.

Brak jednoznacznych norm prawnych wymaga od ustawodawcy elastycznego podejścia opartego na zasadach ogólnych prawa cywilnego oraz koncepcji odpowiedzialności pośredniej.

W dłuższej perspektywie konieczne będzie jednak stworzenie szczegółowych regulacji, które umożliwią wypracowanie standardów odpowiedzialnego wdrażania agentów AI, zapewniających przejrzystość, audytowalność i zachowanie kontroli człowieka nad ich działaniami.

TransLawyers Kancelaria Prawna jest dedykowana przedsiębiorcom z sektora transportu i logistyki. Wspiera firmy zajmujące się transportem drogowym, spedycją międzynarodową, logistyką intermodalną oraz transportem kontenerowym. Oferuje doradztwo w zakresie zakładania działalności gospodarczej, tworzenia umów transportowych, odzyskiwania odszkodowań oraz windykacji należności.
Tagi:

Zobacz również