Sztuczna inteligencja stwarza problemy. Pojawiają się pozwy
Na początku lipca br. kanadyjska pisarka Mona Awad i amerykański pisarz Paul Tremblay złożyli pozew przeciwko OpenAI. Wskazali, że spółka wykorzystała ich książki do trenowania ChatGPT, czym naruszyła ich prawa autorskie. W pozwie zarzucono, że OpenAI nieuczciwie czerpie zyski ze skradzionych tekstów i pomysłów. Wezwano firmę do odszkodowania finansowego w imieniu wszystkich autorów w USA, których prace zostały rzekomo wykorzystane do szkolenia chatbota. Podobny pozew przeciwko firmom OpenAI i Meta został niedawno złożony w amerykańskim sądzie przez kolejnych autorów – Christophera Goldena, Richarda Kadreya i komiczkę Sarah Silverman.
Więcej sztucznej inteligencji to więcej dezinformacji
Kolejnym problemem związanym z AI jest również większe zagrożenie dezinformacją i deep fake’ami. Problemem jest także to, w jakim celu użytkownicy korzystają z narzędzi opartych na sztucznej inteligencji. Dla zobrazowania – coraz więcej uczelni wprowadza w tej chwili zmiany w zasadach zaliczania egzaminów końcowych. Jest to spowodowane tym, że studenci zaczęli masowo wykorzystywać AI do pisania esejów i prac zaliczeniowych.
– Miesiąc temu w Stanach Zjednoczonych głośna była sprawa, w której prawnicy zostali ukarani przez sąd, ponieważ w ramach materiału dowodowego dostarczyli materiał wygenerowany przez AI, powołujący się na nieistniejące sprawy sądowe. Dlatego właśnie sądzę, że największym zagrożeniem jest to, że zaczniemy zbyt mocno polegać na wynikach pracy sztucznej inteligencji – mówi ekspert Silver Bullet Solutions.
– Ważnym zagrożeniem jest również to, że dane użyte do uczenia modeli językowych mogą wpływać na wyniki w sposób dyskryminujący niektóre grupy społeczne.
Czytaj też >> Znalezienie klientów będzie wyzwaniem dla 42 proc. firm z branży budowlanej
Kto odpowie za błędy?
Jak podkreśla, kwestia uregulowania odpowiedzialności za błędy systemów AI czy ich nieprawidłowego wykorzystania będzie istotnym wyzwaniem.
– Sądzę jednak, że odpowiedzialność za użycie narzędzia AI ponosi przede wszystkim użytkownik. Natomiast dostawcy takich rozwiązań powinni ponosić odpowiedzialność za ewentualne intencjonalne wypaczenie działania oferowanego rozwiązania AI. Np. za tendencyjny dobór danych uczących. Ten obszar będzie bardzo trudny do uregulowania. Na ten moment nie do końca wiemy, jak zadziałała sieć neuronowa i które z miliardów parametrów dały określony wynik działania systemu AI – podkreśla Krzysztof Choroszko.
– Odpowiedzialność za wykorzystywanie AI jest inaczej postrzegana przez europejski i amerykański system prawny, co wynika chociażby z różnego podejścia do prawa autorskiego i danych osobowych. Regulacje europejskie z pewnością ukierunkują rozwój i wykorzystanie mechanizmów sztucznej inteligencji zwłaszcza w obszarze praw autorskich, w zakresie których jesteśmy w Europie szczególnie wrażliwi.
Ekspert SBS ocenia, że na dalszy rozwój tej technologii wpłyną niedługo dwa kluczowe wymogi prawne. Będą to:
- wymóg informowania o tym, że dany utwór, obraz lub treść wygenerowała AI,
- jakie źródła wykorzystano do wytrenowania modelu językowego.
– To z jednej strony utrudni dowolne tworzenie nowych modeli, a z drugiej umożliwi m.in. walkę z częścią fake newsów – przewiduje.