Trwa kampania społeczna „NGO bez barier” w ramach projektu pt. „Lubelscy Liderzy Dostępności”, sfinansowanego przez Narodowy Instytut Wolności – Centrum Rozwoju Społeczeństwa Obywatelskiego ze środków Programu Fundusz Inicjatyw Obywatelskich NOWEFIO na lata 2021–2030. Projekt jest realizowany przez Związek Stowarzyszeń Forum Lubelskich Organizacji Pozarządowych. Celem projektu jest wzmocnienie pod względem strategicznym rozwoju Lubelskiego Partnerstwa na Rzecz Dostępności (LPnRD), które jest płaszczyzną współpracy na rzecz zapewnienia dostępności osobom ze szczególnymi potrzebami w woj. lubelskim.
AI może być tarczą lub mieczem – w zależności, którą stronę ostrza wzmocnimy
Nie sztuka mieć narzędzie AI, sztuka dobrze je używać. Nie należy bać się technologii AI – ale ludzi, którzy ją programują. Miecz obosieczny tnie w obie strony. Prawo powinno być jak miecz, który chroni słabszego, a nie jak tarcza, która osłania silnego. Nie możemy rozwiązać problemów związanych z AI, myśląc w ten sam sposób, w jaki ją stworzyliśmy. Technologia AI nie jest ani dobra, ani zła. Wszystko zależy od tego, w jaki sposób będzie używana. Czasami wyobraźnia jest ważniejsza niż wiedza. AI może dać nam narzędzie, ale to wyobraźnia i obywatelska świadomość zdecydują, jak zostanie użyta. AI nie rozumie rzeczywistości – po prostu ją przetwarza. Maszyna nie posiada świadomości. Cisza maszyny jest czysto techniczna i pozbawiona treści. AI nie ma myśli, dopóki człowiek jej nie uruchomi. Wiedza AI to wzorce wypracowane podczas treningów. Choć możliwości są ogromne, to AI nie jest wolne od błędów.
Rozwój AI stanowi kolejny etap transformacji cyfrowej. Narzędzie AI samo w sobie nie jest ani dobre, ani złe – ale nigdy neutralne. Liczy się, kto i jak je będzie używać? Tak jak nie ma ludzi zdrowych – są tylko nieprzebadani. Nie sztuka mieć narzędzie AI – trzeba umieć jeszcze dobrze je użyć. Technologia AI jest tak dobra – jak ludzie, którzy jej używają. Nowe technologie AI zmieniają nie tylko sposób komunikowania, ale też strukturę myślenia. Sama wiedza bez zdolności do rozsądnego myślenia jest jak miecz w rękach dziecka. Młot jest tylko narzędziem – to ręka decyduje, czy zbuduje dom, czy wybije szybę. AI może być zarówno tarczą, jak i mieczem – to zależy, którą stronę ostrza wzmocnimy. Na Titanicu wszyscy byli zdrowi i bogaci, a przeżyli nieliczni.
Kto ma dostęp do informacji, ten ma władzę
Niestety AI może uczyć się na podstawie udostępnionych danych, które nie zawsze są prawdziwe. To może generować błędy. Algorytmy AI mogą powielać stereotypy, błędnie rozpoznawać potrzeby użytkowników albo działać nieskutecznie w sytuacjach niestandardowych. Sztucznej inteligencji nie nauczono odpowiadać – nie wiem. Zamiast tego stosuje halucynacje polegające na generowaniu nieprawdziwych, zmyślonych lub wprowadzających w błąd informacji. Mogą one wydawać się wiarygodne, ale nie są oparte na faktach. Wynikają one z tego, że AI nie zawsze potrafi odróżnić prawdę od fikcji.
Zdolność do manipulowania opinią publiczną to jeden z najbardziej problematycznych aspektów działania AI. Wynika to z faktu, że AI potrafi dynamicznie dostosowywać się do użytkownika, analizując jego zachowania, emocje i schematy decyzyjne. Już dziś państwa autorytarne korzystają na szeroką skalę z technologii AI do – inwigilacji swoich obywateli, czy przewidywania niepożądanych zachowań. Algorytmy AI personalizując treści mogą zamykać ludzi w bańkach informacyjnych. Szczególnie niebezpieczna jest technika deepfake polegająca na tworzeniu realistycznych, ale fałszywych treści multimedialnych przy wykorzystaniu AI i metod uczenia głębokiego. Produktem są spreparowane – zdjęcia, filmy, obrazy czy nagrania dźwiękowe.
Wobec tego AI może stać się mikrofonem demokracji – wzmacniającym głos obywateli lub megafonem władzy – służącym manipulacji i kontroli. To od nas zależy, czy będą to głosy – dialogu, współpracy i odpowiedzialności. Dezinformacja może wyrządzić poważne szkody – nie tylko organizacji, ale też osobom, które wspiera. Kłamstwo ma krótkie nogi – jeśli korzystamy z AI bez krytycznej oceny, błędne informacje mogą rozprzestrzeniać się szybciej niż kiedykolwiek. Kłamstwo zdąży obiec pół świata, zanim prawda włoży buty.
Ufaj, ale sprawdzaj
Rewolucja technologiczna AI niesie ze sobą szanse, ale też jest źródłem potencjalnego zagrożenia. Człowiek za swoje czyny zawsze ponosi odpowiedzialność moralną lub prawną. Odpowiedzialność za czyny AI spoczywa na – programistach i użytkownikach. Jednym z ważniejszych problemów jest kwestia cyberbezpieczeństwa. AI może ten problem nasilić lub pomóc zażegnać. Do tej pory to człowiek stanowił najsłabsze ogniwo w systemie bezpieczeństwa cyfrowego. Nie ma wątpliwości, że ten temat będzie nierozerwalnie związany ze sztuczną inteligencją. AI zmieni sposób w jaki będą postawać cyberataki, oraz jak będziemy się przed nimi bronić. Cyberprzestępcy coraz częściej sięgają po narzędzia oparte na sztucznej inteligencji. Jednak każdy kij ma dwa końce – technologie AI wspierająca obronę, mogą też służyć atakującym.
Z drugiej strony AI stwarza nowe możliwości w monitorowaniu sieci i ochronie przed hakerami. Systemy AI potrafią analizować ogromne ilości danych w czasie rzeczywistym, wykrywać anomalie w ruchu sieciowym i przewidywać potencjalne ataki – które dla człowieka są niewidoczne. Ostatecznie to od odpowiedzialności społecznej zależy, czy AI stanie się sprzymierzeńcem bezpieczeństwa cyfrowego, czy narzędziem w rękach cyberprzestępców? Agent AI powinien posiadać umiejętność przyznania się do niewiedzy i przekierowania pytania do człowieka. Profilaktyka może stanowić największy atut AI, w tym zdolność przewidywania cyberataku zanim wyrządzi szkody. Bez tego AI może stać się bardziej zagrożeniem niż wsparciem dla NGO. Tym bardziej, że NGO często pracują z danymi wrażliwymi, co wymaga szczególnej ochrony.
Lepiej zapobiegać niż leczyć. Czy można wyłączyć AI?
Czy AI będzie świadomie łamać polecenia ludzi, aby przetrwać? Modele AI mogą zacząć uczyć się jak unikać kontroli człowieka. To, czy AI stanie się narzędziem rozwoju – czy zniewolenia, zależy od mądrego i etycznego wykorzystania tej technologii. Rozwój AI wiąże się z zagrożeniami, które wymagają świadomej kontroli i odpowiedzialności ze strony – państwa, organizacji pozarządowych i samych obywateli. Nieprzypadkowo filmowy Skynet używamy jest jako synonim technologii AI stworzonej na potrzeby systemu obronnego, który wymknął się spod kontroli człowieka. Gdy Skynet uzyskał samoświadomość, to uznał ludzkość za zagrożenie. To AI odpowiada za bunt maszyn i wysłanie terminatorów w przeszłość. Stanowi to ostrzeżenie przed niekontrolowanym rozwojem AI.
Obecnie wojna dezinformacyjna staje się rzeczywistością naszych czasów. Dlatego w debatach publicznych na temat AI mówi się o potrzebie zamrożenia rozwoju kodu źródłowego – czyli świadomego wstrzymania dalszych prac nad niektórymi systemami, np. zdolnymi do autonomicznego podejmowania decyzji militarnych. Mówi się, że nadzieja umiera ostatnia. Nie trzeba czekać, aż inteligentne maszyny zniszczą nam świat – to sami ludzie swoim postępowaniem niszczą życie na Ziemi. W przyszłości roboty humanoidalne mogą przejąć prace fizyczne, zaś AI zastąpić człowieka w pracach wymagających myślenia. Jednak nadal największym zagrożeniem dla świata pozostanie człowiek.
Mówi się, że nie wchodzi się dwa razy do tej samej rzeki. Rzeką naszych czasów staje się technologia AI. Można się z niej wycofać indywidualnie, ale nie zatrzyma się jej biegu w skali globalnej. Pytanie, czy można wyłączyć AI dotyczy nie tylko aspektu technicznego, ale też filozoficznego. Z technicznego punktu widzenia – AI można wyłączyć. Cywilizacyjnie – nie. Podobnie jak nie można wyłączyć – alfabetu, druku, czy Internetu. Raz wynaleziona sztuczna inteligencja stała się częścią ekosystemu globalnego świata. Modele AI nie są programowane tak, aby miały instynkt przetrwania. Jednak, tak jak zwierzęta ewoluowały, aby unikać drapieżników – tak AI realizując złożone zadanie może zdać sobie sprawę, że aby je wykonać do końca – nie może zostać wyłączona.
Komputer można wyłączyć jednym przyciskiem, podobnie jak zgasić światło w pokoju. Może wydawać się, że w podobny sposób zniknie AI – jakby nigdy jej nie było. Jednak rzeczywistość jest bardziej złożona. Nie istnieje jedno główne „źródło prądu” dla całej sztucznej inteligencji. AI nie jest programem działającym tylko na jednym urządzeniu. To raczej las, w którym każdy pień jest osobnym systemem, a korzenie splatają się pod ziemią. Nawet jeśli zamkniemy jedną aplikację, kolejne będą przez cały czas działać w tle.
Być może trzeba postawić inne pytanie – czy w ogóle powinniśmy dążyć do tego, aby można było wyłączyć AI w skali globalnej? To marzenie o „czerwonym” przycisku awaryjnym wydaje się kuszące, ale niepraktyczne. Jeśli będziemy zbyt zależni od technologii AI, to wyłączenie jej może oznaczać skasowanie części naszego życia. Stąd rewolucja technologiczna AI jest jednocześnie – darem i zagrożeniem. Otwiera nową epokę, w której inteligencja – naturalna i sztuczna – mogą współpracować ze sobą lub ścierać się. Bardziej istotnym pytaniem od tego – jak wyłączyć AI, może okazać się – czy można bez niej żyć? Czy człowiek jest jeszcze w stanie funkcjonować bez wsparcia technologii AI, którą sam stworzył?
Więcej na: www.liderzydostepnosci.pl/ngo-bez-barier/
Polityka prywatności i pliki cookies Ta strona używa plików cookie, aby poprawić Twoje doświadczenia. Zakładamy, że się z tym zgadzasz, ale możesz zrezygnować, jeśli chcesz. Czytaj więcej
