W celu świadczenia usług na najwyższym poziomie stosujemy pliki cookies. Korzystanie z naszej witryny oznacza, że będą one zamieszczane w Państwa urządzeniu. W każdym momencie można dokonać zmiany ustawień Państwa przeglądarki. Zobacz politykę cookies.
Powrót

Etyka AI okiem ekspertów: dostrzegać kontekst, myśleć krytycznie

04.07.2022

Etyka sztucznej inteligencji wymaga jasno określonych zasad. Jednak aby móc zgodnie z nimi rozwijać i wdrażać tę technologię, trzeba spełnić także inne warunki. Chodzi przede wszystkim o wrażliwość na kontekst oraz umiejętność krytycznej refleksji. Bez nich etyka AI przerodzi się w mechanicznie spełnianą formalność.

Etyka AI okiem ekspertów: dostrzegać kontekst, myśleć krytycznie

Odpowiedzialne tworzenie i implementacja sztucznej inteligencji przestają być abstrakcyjnym postulatem. Już niedługo wymogi etyki AI będą obowiązywały dostawców tej technologii w Unii Europejskiej. Podczas zorganizowanej 14 czerwca przez Centrum Etyki Technologii konferencji „Co poza zbiorem zasad? Szersze spojrzenie na etykę AI. Konteksty, podejścia, ryzyka” o ich skutecznym wdrażaniu dyskutowało międzynarodowe grono ekspertów na co dzień zajmujących się różnymi aspektami AI. Było to już trzecie wydarzenie CET poświęcone etyce sztucznej inteligencji.

Przemysł 4.0 przyniósł niespotykane dotąd zmiany w biznesie, przedefiniował nasze życie i sposoby pracy. Nie ma uniwersalnej recepty na sukces w czasie gwałtownych zmian technologicznych, ale świadomość i rozumienie etycznych postaw wobec ciągle zmieniającego się otoczenia okazują się niezbędne. Przejrzystość, odpowiedzialność, aktywna obecność w otoczeniu i etyczne postępowanie to recepta na innowacje, które będą służyły całemu społeczeństwu – mówi Beata Staszków, prezes Zarządu Związku Pracodawców Polska Miedź, partnera konferencji.

Wojna w Ukrainie pokazała dobitnie, czym kończy się przymykanie oczu na ważne kwestie etyczne. Często ignorujemy pierwsze sygnały ostrzegawcze, a potem jest już za późno, by skutecznie przeciwdziałać zagrożeniom. Dlatego dziś nie możemy przesuwać na dalszy plan kwestii związanych z ekologią czy etyką technologii. W przeciwnym razie niebawem nie będziemy już w stanie znaleźć skutecznych rozwiązań dla tych problemów – ostrzegała Zofia Dzik, prezes Instytutu Humanites i przewodnicząca Rady Programowej CET.

Dwa lata temu dobiegły końca konsultacje dotyczące Białej Księgi AI, a niedługo później Rada Ministrów przyjęła Politykę rozwoju sztucznej inteligencji w Polsce – przypomniała minister Justyna Orłowska.

Wyraziła również nadzieję, że konferencja CET zaowocuje rekomendacjami nieujętymi dotychczas w rządowym dokumencie.

Dr Anaïs Rességuier, badaczka z Trilateral Research i zarazem keynote speaker konferencji, przekonywała, że największym problemem związanym z etyką sztucznej inteligencji jest dziś mylenie jej dwóch zasadniczych wymiarów: normatywnego i krytycznego.

Normy i zasady wymagają mechanizmów zapewnienia zgodności, podczas gdy myślenie krytyczne polega na uważności na kontekst i gotowości aktualizowania zasad do stale zmieniającej się rzeczywistości – wyjaśniała. Jeśli oba te wymiary są ze sobą mylone, wtedy normy etyczne dotyczące AI traktuje się instrumentalnie i wybiórczo, zaś refleksja nad oddziaływaniem sztucznej inteligencji staje się powierzchowna i nie znajduje przełożenia na praktykę.

Dlatego tak ważne jest włączenie wymogu zgodności z zasadami etyki AI do regulaminów przyznawania grantów w dziedzinie nowych technologii. Z drugiej strony należy również zapewnić rozwój interdyscyplinarnych badań nad oddziaływaniem sztucznej inteligencji w wymiarze społecznym, politycznym czy ekologicznym.

Sztuczna inteligencja przenika obecnie do wszystkich obszarów naszego życia i nie możemy biernie przyglądać się jej rozwojowi – wyjaśniał z kolei Paul Nemitz z Komisji Europejskiej. Skuteczna regulacja powinna być jednak technologiczne neutralna, tak aby zachować niezbędną elastyczność w sytuacji, gdy nieustannie pojawiają się jakieś nowe rozwiązania.

Sztuczna inteligencja przenika obecnie do wszystkich obszarów naszego życia i nie możemy biernie przyglądać się jej rozwojowi – wyjaśniał z kolei Paul Nemitz z Komisji Europejskiej. Skuteczna regulacja powinna być jednak technologiczne neutralna, tak aby zachować niezbędną elastyczność w sytuacji, gdy nieustannie pojawiają się jakieś nowe rozwiązania.

Dodawał, że jedną z najważniejszych lekcji płynących z wojny na Ukrainie jest konieczność zachowania krytycznego stosunku wobec wszelkich form władzy – także tych możliwych dzięki technologiom. Dlatego cały dyskurs dotyczący zaufania do AI wymaga szczególnej ostrożności. Musimy mieć jasne kryteria tego, co można pozostawić w sferze samoregulacji, i tego, co powinno być objęte twardym prawem.

Nemitz podkreślił też, że jasne prawo dotyczące AI będzie korzystne dla przedsiębiorców. Firmy działające na dobrze uregulowanym rynku nie będą musiały przekonywać konsumentów, że są godne zaufania. Wystarczy, że wskażą przepisy, których muszą przestrzegać.

Podczas konferencji nie zabrakło również głosu przedstawicieli inżynierów AI. Ewa Marczewska i Agnieszka Mikołajczyk omówiły prośrodowiskowy projekt Detect Waste in Pomerania, w którym powstało rozwiązanie umożliwiające rozpoznawanie i klasyfikację odpadów z wykorzystaniem uczenia maszynowego. Badaczki podkreśliły, że przy pracach nad projektem zadbano o właściwe przygotowanie danych treningowych (także pod kątem etycznym). Szczególna uwagę zwrócono również na zminimalizowanie śladu węglowego tworzonego modelu AI.

Obie badaczki entuzjastycznie odniosły się też do pomysłu tzw. sustainability budgets, które wprowadzałyby limity zużycia energii przy obliczeniach realizowanych w projektach AI. Ewa Marczewska podkreślała zarazem, że w Polsce środowisko badaczy AI jest raczej dobrze nastawione do inicjatyw proekologicznych oraz działań podejmowanych na rzecz równouprawnienia, jak Women in Machine Learning and Data Science.

Karolina Drobotowicz z Uniwersytetu Aalto w Finlandii przekonywała, że interdyscyplinarność i zróżnicowanie to podstawa demokratyzacji tworzenia usług publicznych. Bardzo ważne jest też zaufanie. Przy wdrażaniu innowacji chodzi jednak nie tylko o zaufanie do sektora publicznego, lecz także do samej technologii. Stąd też kluczowego znaczenia nabiera w tym kontekście przejrzystość działania AI. Instytucje chcące wykorzystywać sztuczną inteligencję powinny umieć wytłumaczyć obywatelom, w jakim celu chcą używać tej technologii, w jaki sposób będzie ona działała, oraz dlaczego podejmuje ona taką a nie inną decyzję.

O szansach, jakie dla innowacji stanowi dobrze skonstruowane prawo, mówiła z kolei Bruna de Castro e Silva z fińskiego Tampere University. Regulacja może być czynnikiem stymulującym rozwój, ale żeby tak się stało, musi jasno określać nasze powinności, prawa i odpowiedzialność – wyjaśniała. Technologie nie mogą powielać problemów, które mamy w społeczeństwie. Ich zadaniem jest przyczyniać się do ich wyealiminowania.

W podsumowaniu konferencji dyrektor programowy CET Maciej Chojnowski podkreślił znaczenie zaufania jako wartości, na której zdobyciu i utrzymaniu powinno szczególnie zależeć wszelkim organizacjom wykorzystującym sztuczną inteligencję. Odniósł się także do potrzeby popularyzowania nowych sposobów mówienia o technologii, które zwiększałyby zdolność do krytycznej refleksji w społeczeństwie. Zwrócił także uwagę na znaczenie interdyscyplinarności oraz kontekstowego myślenia przy rozwijaniu nowych technologii.  

Konferencja została objęta honorowym patronatem przez GovTech Polska. Partnerami wydarzenia byli Związek Pracodawców Polska Miedź oraz Grupa Robocza ds. Sztucznej Inteligencji przy Kancelarii Prezesa Rady Ministrów, zaś patronami medialnymi – „Forum Akademickie” i „ITWiz”.

Centrum Etyki Technologii to ośrodek promujący odpowiedzialny rozwój innowacji. CET tworzy przestrzeń dla debaty międzysektorowej i promuje międzynarodowe rekomendacje dotyczące etyki technologii. Oprócz tego bierze udział w pracach gremiów doradczych rozwijających politykę rozwoju technologii (Grupa Robocza ds. Sztucznej Inteligencji przy KPRM), popularyzuje metodyki pozwalające na projektowanie technologii zgodnie z wartościami, uczestniczy w rozwoju współczesnej refleksji na temat etyki technologii oraz współpracuje z Instytutem Humanites w zakresie rozwoju spójnego przywództwa.

Instytut Humanites – Człowiek i Technologia, którego częścią jest CET, od 2010 roku w systemowy sposób działa jako think&do tank na rzecz zrównoważonego rozwoju, a szczególnie rozwoju kapitału społecznego, ujmując tematykę człowieczeństwa i technologii w szerokim kontekście obejmującym m.in. biznes, edukację, kulturę, media i rodzinę w oparciu o autorski model „Wioski” Rozwoju Ekosystemu Społecznego oraz Model Spójnego Przywództwa™. Instytut jako jeden z pierwszych sygnalizował wpływ metazjawisk, takich jak: kryzys więzi rodzinnych, samotność, infodemia czy algorytmizacja życia człowieka, na rozwój gospodarczy, motywację oraz zdrowie fizyczne i psychiczne ludzi. Od dekady działa na rzecz rozwoju świadomego i wewnętrznie sterowalnego człowieka umiejącego sprostać wyzwaniom, które niesie technologiczna i społeczna rewolucja.

{"register":{"columns":[]}}