08 11
2023
W dzisiejszych czasach coraz częściej staramy się powierzyć część naszych powtarzalnych obowiązków Chatowi GPT lub jego pochodnym. Tłumaczymy teksty na inne języki, sprawdzamy informacje, tworzymy wiadomości i staramy się przerzucić proste prace na technologię. Codziennie powstają nowe narzędzia do ułatwiania nam życia i przyspieszania procesów, zbudowane za pomocą zaawansowanej technologii, w tym AI. Ale czy to faktycznie jest bezpieczne i godne zaufania podejście?
Jeżeli spojrzymy na temat od strony prawnej, to nie wygląda on niestety zbyt optymistycznie. Dopiero powstają pierwsze regulacje dotyczące tego tematu. Unia Europejska od kilku lat pracuje nad takimi zapisami, które będą dbały o to, aby rozwiązania oparte o Sztuczną Inteligencje były bezpieczne, niedyskryminujące, przejrzyste i przyjazne dla środowiska. Ale na dzień dzisiejszy nie ma żadnych oficjalnych dokumentów prawnych regulujących tę kwestię. A to oznacza, że jakiekolwiek nadużycia prawne związane ze Sztuczną Inteligencją będą rozpatrywane na podstawie prawa niedostosowanego do obecnego świata technologii.
Dodatkowo warto dodać, że prace legislacyjne prowadzone przez Unię Europejską są pierwszymi takimi na świecie. Akt o Sztucznej Inteligencji – tak nazywa się zestaw kompleksowych przepisów regulujących aspekty związane ze Sztuczną Inteligencją – nie tylko ma zapewnić bezpieczeństwo użytkowania tego typu rozwiązań, ale również dostarczyć neutralną technologicznie, wspólną definicję AI. Obecnie nie mamy jednej wspólnej definicji, która miałaby ogólne zastosowanie. Dodatkowo, wyżej wspomniany akt ma określać różne poziomy ryzyka związane ze Sztuczną Inteligencją. Co jest ważne, europosłowie zapewniają, że negocjacje nad tym Aktem powinny zakończyć się do końca 2023 roku.
Ten temat jest bardzo szeroki, bo sama Unia Europejska pracuje również nad zagadnieniem sektorowym użycia AI, w tym w obszarze edukacji i kultury oraz prawa karnego. Dodatkowo posłowie i posłanki parlamentu europejskiego pracują nad zapisami prawnymi, które będą regulowały prawo autorskie do treści w całości lub części wytworzonej przez AI. Bo jeżeli zlecimy jakąś część naszych prac Chatowi GPT, to czy nie powinniśmy oficjalne umieścić takiej informacji w naszym dziele? Kto wtedy jest autorem takiej publikacji?
Jeżeli obecnie zadajecie sobie pytanie, a co właściwie złego może uczynić nam AI i dlaczego w ogóle powinniśmy się tym przejmować, to przykładów na te wątpliwości mamy już całkiem sporo. Zacznijmy od tego, że stosowane obecnie algorytmy AI, nie są przejrzyste. Daje nam to pewne zagrożenie, że nasze decyzje podejmowane na podstawie tego, co pokaże nam program oparty na AI, mogą być zmanipulowane. Nie wiemy jak bezstronne są ukazywane nam odpowiedzi. Dodatkowo nie wiemy, czy dane, którymi karmiony jest tego typu system są odpowiednim odzwierciedleniem rzeczywistości. Znamy już przypadki, kiedy algorytm rozpoznawania głosu był zasilony próbkami jedynie męskiego tonu i nie był w stanie rozpoznać słów wypowiadanych przez kobietę. Czy równie głośny przykład z firmy Amazon, który miał usprawnić proces rekrutacyjny na pracowników magazynowych na podstawie bazy CV pracowników. Historycznie Amazon zatrudniał w większości mężczyzn, przez co wskazywał tę płeć jako preferowaną.
Czy to oznacza, że powinniśmy przestać użytkować rozwiązania oparte na Sztucznej Inteligencji? W mojej prywatnej opinii oczywiście, że nie, ale używajmy naszej własnej inteligencji do oceny tego, czy dane, które wprowadzamy do zewnętrznych systemów nie są danymi wrażliwymi lub poufnymi. Mamy już przykłady korporacji, które zakazały użytkowania takich rozwiązań w obawie przed ujawnieniem tajemnicy przedsiębiorstwa. Bo pamiętajmy, że nadal do końca nie wiemy, gdzie trafiają nasze dane wprowadzone do tego typu systemów.
© 2024 ITDS - All Rights Reserved - made by Netwired
Adres:
SKYLIGHT BUILDING | ZŁOTA 59 | 00-120 WARSZAWA
BUSINESS LINK GREEN2DAY BUILDING | SZCZYTNICKA 11| 50-382 WROCŁAW
Kontakt:
INFO@ITDS.PL
+48 883 373 832