Prompt engineering. Projektowanie aplikacji z wykorzystaniem LLM – recenzja
„Prompt Engineering” to książka, która od początku jasno komunikuje, do kogo jest skierowana. I dobrze – bo to nie jest pozycja dla przypadkowego użytkownika czatu, który chce „lepiej gadać z AI”. To książka przede wszystkim dla programistów i inżynierów promptów, którzy faktycznie budują na modelach i potrzebują zrozumieć ich działanie, ograniczenia i dobre praktyki tak, żeby tworzyć powtarzalnie lepsze zapytania. Zwykły użytkownik szybko poczuje się przytłoczony – i nic dziwnego, bo część materiału wymaga już sporego obycia z LLM-ami, również na poziomie API.
Zacznijmy od rzeczy mniej przyjemnych: jest tu trochę błędów językowych, momentami wręcz rozpraszających. Do tego dochodzą fragmenty przekombinowane i niepotrzebnie rozwleczone. Zdarzają się też zaskakujące sformułowania, jak „zdrowy rozsądek modelu LLM”, które nie do końca pasują, ale rozumiem intencję autora.
Ale kiedy już przebijemy się przez te słabsze momenty, zobaczymy, że autorzy mają przemyślany i transparentny styl pracy. Omawiają różne techniki, pokazują zarówno ich zalety, jak i wady, co pozwala czytelnikowi zrozumieć, skąd dokładnie biorą się konkretne rekomendacje. To buduje realną świadomość i kompetencję — nie tylko „stosuj tę regułę”, ale dlaczego ją stosujesz.
Dużym plusem są wizualne przykłady – wiele omawianych koncepcji ma swoje graficzne przedstawienie. I to działa: nagle rzeczy, które brzmią abstrakcyjnie, stają się całkiem intuicyjne. Do tego dochodzą ćwiczenia, które zmuszają do myślenia i pomagają uporządkować wiedzę.
Podoba mi się też podejście autorów: zanim zaczniemy budować prompty, najpierw musimy zrozumieć jak działa LLM. Dlaczego zachowuje się tak, a nie inaczej. Skąd wynikają błędne odpowiedzi. Jak łączą się tokenizery z precyzją promptu. Brzmi akademicko, ale w praktyce bardzo ułatwia późniejszą pracę nad promptami. Na początku może to przytłaczać. Bo zaczynamy od długiego wstępu, ale znam ten ból, bo to samo zdarza mi się podczas prowadzonych przeze mnie szkoleń.
Kilka elementów jest naprawdę świeżych – na przykład dynamiczne budowanie promptów systemowych. Szczerze mówiąc, nie spotkałem się jeszcze z takim ujęciem w innych publikacjach.
Wielki plus za referencje do badań, które pozwalają sprawdzić źródła i pogłębić temat. Dzięki temu mamy łatwe odniesienia do pogłębienia wiedzy w danym temacie.
Niestety — książka jest już miejscami zdezaktualizowana. Widać mocne skupienie na GPT-3, więc część szczegółów jest dziś przestarzała. Znajdziemy podpowiedzi, które obecnie nie mają sensu (np. dotyczące „echo”). Jednak z drugiej strony to też pokazuje, które z opisanych koncepcji okazały się ponadczasowe. Na przykład opis tool callingu nie uwzględnia MCP, ale opisuje dość dokładnie sposób działania protokołu MCP. Tak więc mimo, że sama książka odnosi się do starszych technologii, nie zabiera to jej praktyczności.
Na koniec ciekawostka: wiele wprowadzanych pojęć brzmi na początku obco, ale szybko okazuje się, że to głównie efekt polskiego tłumaczenia. Odpowiedniki angielskie są bardziej naturalne.
Podsumowanie:
To książka nierówna, momentami rozwlekła i zbyt szeroko opisana, ale jednocześnie pełna konkretnych, praktycznych i dobrze wyjaśnionych wskazówek. Jeśli tworzysz prompty zawodowo, zbudujesz na niej solidne fundamenty. Jeśli korzystasz z LLM-ów okazjonalnie – to nie jest książka dla Ciebie. Jednak dla inżyniera: warto.