(Nie)etyczna AI — Paweł Półtorak — recenzja

(Nie)etyczna AI — Paweł Półtorak — recenzja

Ostatnio miałem przyjemność przeczytania książki “(Nie)etyczna AI” Pawła Półtoraka. Całość jest napisana bardzo przystępnym językiem, czyta się ją naprawdę lekko i szybko.

Sama treść była jednak dla mnie pełna kontrastów i zaskoczeń.

Początkowo, gdy zobaczyłem podtytuł “Jak programować odpowiedzialnie w erze sztucznej inteligencji”, pomyślałem, że jest to książka dedykowana ściśle dla programistów lub twórców oprogramowania. Jednak okazało się, że nie zawiera ona żadnych technicznych detali, które zawężałyby grono odbiorców do specjalistów IT. Z powodzeniem dużo z niej wyniosą zarówno osoby nietechniczne, te związane z IT jak i zwykli użytkownicy różnych systemów. Wspomniany podtytuł może więc wprowadzać w błąd i tym samym zniechęcać do sięgnięcia po tę lekturę osoby, które programowaniem się nie zajmują.

Plusem jest dość szeroka analiza zagrożeń, które kryją się za korzystaniem z dobrodziejstw sztucznej inteligencji. Książka daje dobre wyobrażenie tego, na co warto uważać we współpracy z AI (na różnych poziomach). Momentami jednak miałem odczucie skakania pomiędzy na pierwszy rzut oka dość luźno powiązanymi tematami. Utrudniało to zrozumienie treści i powiązań w jej ramach.

To, czego mi dość mocno zabrakło, to opis rzeczywistych przykładów złego użycia metod sztucznej inteligencji lub nadużycia jej przez atakującego. Nawet z moją branżową wiedzą, czułem potrzebę lepszej wizualizacji potencjalnych ryzyk i zobaczenia, jak te zagrożenia są obecne w różnych firmach. Dla części z nich przedstawiono przykłady osadzone w konkretnych firmach, ale tylko na zasadzie hipotezy, a nie faktu. Autor mógł sięgnąć po prawdziwe przykłady, które lepiej podparłyby niektóre z prezentowanych tez.

Po przeczytaniu całej książki miałem w głowie pewien dysonans. Wiele etycznych zagrożeń wymienionych i opisanych w książce nie jest następstwem korzystania z AI w systemach IT. Tego typu zagrożenia istniały, zanim AI stało się popularne i używane w tak wielu firmach. Zdecydowanie warto znać tego typu zagrożenia i wątpliwe moralnie zachowania. Uważam jednak, że łączenie ich wszystkich z rozwojem AI jest nieprawdziwe, jak również szkodliwe dlatego, że buduje narrację, że to AI jest wyzwalaczem tych wszystkich złych zachowań.

Mimo tych kilku niedogodności uważam, że warto zapoznać się z treścią tej książki. Pozwala ona zupełnie inaczej spojrzeć na współczesne zagrożenia związane z nowymi technologiami. W trakcie czytania wydawało mi się, że to wszystko już wiedziałem (co ze względu na moją specjalizację wcale mnie nie dziwiło), ale książka sprawiła, że w mojej głowie pojawiło się wiele pomysłów i analiz, jak lepiej zadbać o bezpieczeństwo nowoczesnych systemów w kontekście etycznego ich wykorzystania. Książka (Nie)etyczna AI zarysowuje wiele zagrożeń i zdecydowanie zachęca czytelnika do przemyślenia kwestii etyki w kontekście AI.

%d bloggers like this: