UXAIRFORCE

Context Management i Sub-agenty – Sekrety Efektywnego AI-Kodowania według Ray Fernando #EN244

A

Adam Michalski

29 lipca 2025

Poniższy artykuł powstał na podstawie notatek z 4-godzinnego livestreamu Ray Fernando, eksperta AI-kodowania. Wszystkie przemyślenia, obserwacje i wnioski pochodzą od prowadzącego oraz uczestników tej sesji.

TL;DR

  • Context windows działają jak pasek zdrowia w grach – zapełniają się stopniowo, ograniczając możliwości modelu
  • Sub-agenty rozwiązują problem skalowania – każdy otrzymuje świeże 200k tokenów zamiast dzielenia jednego okna
  • PRD z UI/UX tree eliminuje błędy implementacji – szczegółowe specyfikacje z komponentami SHADCN są kluczowe
  • 33-minutowa sesja wygenerowała całą aplikację za 33 dolary – cztery sub-agenty pracowały automatycznie
  • Claude Code (200 dolarów miesięcznie) vs Cursor (20 dolarów) – różnica w podejściu do kosztów tokenów
  • Dwie odrębne ścieżki kariery w erze AI – framework-level versus product-level development
  • Obecne AI to tylko wierzchołek góry lodowej – według Fernando rewolucja dopiero się zaczyna

Context windows – fundament efektywnej pracy z AI

Ray Fernando przedstawia mechanizm działania okien kontekstu przez pryzmat znanej wszystkim analogii. Porównuje je do paska zdrowia w grach wideo – im więcej operacji wykonuje agent, tym bardziej się wypełnia.

Zapełnianie kontekstu przebiega według stałego schematu:

  • Pierwsze zapytanie – instrukcje użytkownika zajmują początkową przestrzeń
  • Thinking task – model wykonuje zadanie myślowe, zużywając dodatkowe tokeny
  • Tool calling – przeszukiwanie kodu i plików zwiększa wykorzystanie
  • Generowanie odpowiedzi – kod wyjściowy zajmuje kolejną część okna
  • Kolejne iteracje – każda następna wymiana zachowuje całą historię

Fernando ostrzega, że już w jednej konwersacji można osiągnąć ponad 50% wykorzystania okna kontekstu. Problem pogłębia się z każdą kolejną iteracją, ponieważ agent musi pamiętać całą poprzednią konwersację.

Szczególnie problematyczne okazują się narzędzia MCP. Fernando zwraca uwagę na użytkowników z 80+ różnymi narzędziami, z których każde inicjuje własne sesje Claude Code. W rezultacie ludzie niepotrzebnie wydają tysiące dolarów na tokeny, mimo że prostsze rozwiązania przynoszą lepsze efekty.

Sub-agenty jako przełom w skalowaniu projektów

Fernando odkrył, że sub-agenty stanowią klucz do rozwiązania problemu kontekstu. Każdy pod-agent otrzymuje świeże okno 200k tokenów, zamiast dzielenia się ograniczonymi zasobami głównego agenta.

Podczas jednej z sesji Fernando doświadczył prawdziwego przełomu. Przekazał Claude Code szczegółowy PRD i pozwolił mu pracować przez 33 minuty bez przerwy. System automatycznie uruchomił cztery sub-agenty.

Rezultat przekroczył oczekiwania: kompletna aplikacja mobilna z uwierzytelnianiem, bazą danych i wszystkimi potrzebnymi funkcjami. Całość została wygenerowana w jednym przebiegu, bez konieczności interwencji.

Główne zalety sub-agentów obejmują:

  • Świeże okno kontekstu dla każdego zadania
  • Możliwość równoległej pracy nad różnymi częściami projektu
  • Specjalizację – jeden agent skupia się na jednej funkcjonalności
  • Oszczędność głównego okna kontekstu dla koordynacji

PRD – fundament skutecznego AI-kodowania

Fernando podkreśla znaczenie szczegółowych specyfikacji projektowych. Jego podejście do PRD wykracza znacznie poza standardowe opisy funkcjonalności.

Kluczowym elementem jest tworzenie UI/UX tree – strukturalnego opisu interfejsu. Jednak Fernando idzie o krok dalej, dodając informacje o konkretnych komponentach SHADCN dla każdej części drzewa.

Checklista skutecznego PRD według Fernando:

  • UI/UX tree – strukturalny opis całego interfejsu
  • Konkretne komponenty – określenie SHADCN dla każdej części
  • Instrukcje instalacji – komendy dla menedżera pakietów (np. BUN)
  • Szczegółowe opisy funkcji – co dokładnie ma robić każda sekcja
  • Specyfikacja bazy danych – jeśli aplikacja wymaga persistencji
  • Definicja stylów – Tailwind V4 i inne wymagania CSS

Ta metodologia eliminuje problem przestarzałego kodu. Dzięki temu agenty nie muszą zgadywać, czy używać Radix czy innych komponentów – wszystko jest jasno określone w specyfikacji.

Testowanie z AI – nowy wymiar jakości kodu

Fernando zaczyna eksplorować możliwości AI w testowaniu aplikacji. Jego podejście przypomina pracę z nowym członkiem zespołu.

Szczególnie interesuje go snapshotowanie wizualne – robienie zdjęć strony i analizowanie, które elementy są uszkodzone. To podejście ma potencjał wykrywania problemów UI, których tradycyjne testy mogą nie zauważyć.

Fernando planuje pogłębić wiedzę o frameworkach testowych jak Playwright, które potrafią analizować strukturę DOM i automatycznie wykrywać anomalie.

Claude Code vs Cursor – praktyczne koszty użytkowania

Fernando szczerze dzieli się swoimi doświadczeniami z kosztami. Płaci 200 dolarów miesięcznie za Claude Code i uważa, że każdy cent jest tego wart.

Analiza kosztów z rzeczywistej sesji:

  • Czas pracy: 33 minuty nieprzerwanej generacji kodu
  • Wykorzystane tokeny: około 3 milionów
  • Koszt całkowity: 33 dolary
  • Rezultat: kompletna aplikacja z bazą danych i uwierzytelnianiem

Fernando porównuje to do tradycyjnych kosztów zatrudnienia zespołu programistów. W czasie pracy w Apple musiał znajdować product managerów, przekonywać projektantów do koncepcji i budować konsensus w zespole – proces wielodniowy i bardzo kosztowny.

To znikomy wydatek w porównaniu z kosztem pracy menedżerów produktu, projektantów i deweloperów, którzy przez wiele dni próbowaliby osiągnąć ten sam efekt – argumentuje Fernando.

Plan za 20 dolarów miesięcznie w Cursor nadal ma sens dla podstawowego autocompletowania. Jednak Fernando przestrzega przed płaceniem za użytkowanie, gdy potrzebne są funkcje agentowe.

Kiedy wybrać który plan:

  • Cursor 20 dolarów + pay-per-use: głównie autocompletowanie, okazjonalne agenty
  • Claude Code 200 dolarów: intensywne sesje agentowe, długie generowanie kodu

Co z alternatywami? Lokalne modele na horyzoncie

Fernando testował również Qwen 3 Coder jako tańszą alternatywę. Odkrył jednak kilka problemów:

  • Koszt nie jest znacząco niższy – przy większych projektach (100k+ tokenów) może być nawet droższy niż Claude
  • Kwestie prywatności – dane przepływają przez serwery Alibaba w Chinach
  • Ograniczenia dostawców – większość hostów ogranicza output do 4K-64K tokenów
  • Konfiguracja – wymaga dodatkowej pracy z proxy i różnymi ustawieniami

Fernando przewiduje, że era tanich planów dobiegła końca. Wszyscy dostawcy będą zmuszeni pobierać opłaty za wykorzystanie tokenów ze względu na wysokie koszty inferencji.

Przyszłość programowania z AI

Fernando przedstawia wizję dwóch odrębnych ścieżek kariery w programowaniu. Pierwsza to praca na poziomie frameworków – tworzenie narzędzi, bibliotek i infrastruktury, którą AI będzie wykorzystywać.

Druga ścieżka to rozwój produktów z wykorzystaniem istniejących frameworków. Fernando uważa, że AI świetnie radzi sobie z tym drugim rodzajem pracy.

Obserwuje także dysonans w społeczności programistów. Część patrzy z perspektywy wysokiego szczebla, twierdząc że AI przejmie wszystko. Inni pracują przy kodzie i uważają, że AI nie jest jeszcze gotowe. W rzeczywistości prowadzone są dwie różne rozmowy, choć wszyscy udają, że dotyczą tego samego tematu.

Fernando dodaje kluczową obserwację: te dwie grupy często mają trudności w komunikacji, ponieważ patrzą na AI z zupełnie różnych perspektyw – jedni z poziomu „metalu”, drudzy z „lotu ptaka”. Zrozumienie obu światów stanie się zatem kluczową kompetencją przyszłości.

Co z GPT-5? Realistyczne oczekiwania

Fernando ma ciekawą perspektywę na nadchodzące wydanie GPT-5. Przewiduje, że może początkowo rozczarować użytkowników – nie z powodu braku inteligencji, ale przez zmianę paradygmatu.

Problem leży w orkiestracji. GPT-5 prawdopodobnie będzie miał wbudowane mechanizmy reasoning, które wymagają nowego podejścia do promptowania. Użytkownicy przyzwyczajeni do starych metod będą musieli się przekwalifikować.

Rewolucja dopiero się zaczyna – „iceberg effect”

Fernando używa metafory góry lodowej do opisania obecnego stanu AI. Jego zdaniem to, co widzimy teraz, to tylko wierzchołek masywnej struktury.

Przewiduje, że w ciągu najbliższych dekad będziemy stopniowo odkrywać prawdziwy potencjał AI. Porównuje to do budowania piramidy – obecnie jesteśmy przy fundamentach.

Obecny fokus na orkiestracji to dopiero pierwszy krok. Proste architektury będą lepiej wykorzystywać inteligencję modeli, eliminując potrzebę szczegółowych instrukcji typu „jeśli to, to tamto”.

Fernando zachęca studentów do skupienia się na warstwach orkiestracji. Ta umiejętność nigdy nie straci wartości. Nawet w największych korporacjach najwyżej opłacani są ci, którzy potrafią podejmować decyzje produktowe i realizować je w praktyce.

Filozofia context engineering vs debugging

Fernando cytuje mądrość jednego z uczestników streamu: „3 godziny context engineering może zaoszczędzić 6 godzin debugowania”.

To fundamentalna zmiana w podejściu do rozwoju oprogramowania. Zamiast naprawiać problemy post factum, Fernando koncentruje się na ich przewidywaniu i eliminowaniu u źródła.

Fernando używa również AI do analizy call stack, śledzenia zależności i przewidywania skutków zmian w kodzie.

Kluczowa obserwacja Fernando dotyczy przesunięcia „inteligencji” z polecenia do dokumentu. Zamiast tworzyć coraz bardziej złożone prompty, lepiej jest przygotować precyzyjny, techniczny plan (PRD), a samo polecenie pozostaje banalne: „Wykonaj to”. To zmienia rolę programisty z „inżyniera poleceń” na „architekta systemu”.

Rady dla początkujących: buduj publicznie

Fernando ma konkretne wskazówki dla studentów i początkujących programistów, szczególnie z rozwijających się krajów.

Jako przykład podaje Dravię i jego startup Super Memory – developera z Indii, który zbudował swoją pozycję poprzez konsekwentne dzielenie się projektami online.

Kluczowe porady Fernando obejmują:

  • Buduj aplikacje zamiast tylko uczenia się z kursów
  • Publikuj swoje projekty na platformach społecznościowych
  • Ucz się poprzez eksperymentowanie z AI tools
  • Nie martw się tym, że nie nadążasz – nikt nie nadąża w 100%

Potencjał AI na poziomie kernela

Fernando ma fascynującą wizję wykorzystania AI w optymalizacji systemów na najniższym poziomie.

Wyobraża sobie AI agent działający w komputerze, który:

  • Analizuje debugging output z kernela w czasie rzeczywistym
  • Koreluje go z rzeczywistymi zadaniami użytkownika
  • Optymalizuje cykle CPU i komponenty zewnętrzne
  • Przewiduje i eliminuje niepotrzebne „budzenie” układów

To podejście mogłoby zrewolucjonizować efektywność energetyczną, szczególnie w urządzeniach mobilnych i IoT.

Biblioteka promptów Fernando – sprawdzone wzorce

Na podstawie 4-godzinnego livestreamu Fernando ujawnił konkretne prompty, których używa w codziennej pracy. Oto najwartościowsze wzorce:

Prompt do generowania PRD

"To jest mój ogólny pomysł [opis projektu]. Chcę sprawdzić, czy możemy stworzyć PRD z tym i upewnij się, że utworzysz UI tree, UI UX tree, żebyśmy mogli zobaczyć, jakie komponenty będą rozmieszczone gdzie. Chcę też nałożyć, jakie komponenty SHADCN powinny być używane dla każdej części UI UX tree."

Kiedy stosować: Na początku każdego projektu, przed rozpoczęciem kodowania. Oszczędza godziny iteracji.

Prompt do analizy ryzyka

"Jeśli wprowadzimy tę zmianę [opis zmiany], jakie dokładnie jest ryzyko? Czy zmieniasz dużo frameworków? Kto jeszcze jest dotknięty tą zmianą? Jakie testowanie zostało przeprowadzone? Jaki będzie wpływ?"

Kiedy stosować: Przed deployment’em większych zmian, szczególnie w istniejących systemach.

Prompt do analizy zależności

"Zamierzam zmienić tę funkcję [nazwa/opis]. Kto jeszcze ją wywołuje i jak ta zmiana wpłynie na tych, którzy ją wywołują?"

Kiedy stosować: Przed refaktoringiem kluczowych funkcji w dużej bazie kodu.

Prompt do delegacji testowania

"Przetestuj ten login flow. Pokaż mi jak to testujesz - kliknij przyciski, zrób swoje rzeczy."

Kiedy stosować: Gdy potrzebujesz QA perspective, szczególnie dla nowych funkcjonalności.

Prompt do research z sub-agentami

"Myślę, że robię bardzo heavy UI thing i chcę dodać animacje. Użyj web research i sprawdź, co będzie dobrze działać z moją bazą kodu. Uruchom sub agentów i myśl ciężko nad tym zadaniem."

Kiedy stosować: Gdy eksplorujemy nowe technologie lub podejmujemy decyzje architektoniczne.

Prompt do uruchomienia sub-agentów

"Mam ten PRD, wygeneruj kod. Użyj sub agentów z tym PRD. Think harder. Idę na lunch, wrócę później."

Kiedy stosować: Dla długich sesji generowania kodu (20+ minut), gdy masz szczegółowy PRD.

Prompt do architektury bez implementacji

"Bądź architektem. Nie pisz kodu, ale zaprojektuj integrację API i [konkretne wymagania]."

Kiedy stosować: Gdy potrzebujesz najpierw przemyśleć architekturę przed implementacją.

Prompt do specyfikacji narzędzi

"Dodaj instrukcje dla BUN do instalacji SHADCN komponentów, żeby gdy agent wejdzie do tego pliku, wiedział jak to zainstalować."

Kiedy stosować: W PRD, gdy masz specyficzne wymagania dotyczące narzędzi i dependencies.

Praktyczne wskazówki na zakończenie

Na podstawie doświadczeń Fernando można wyciągnąć kluczowe wnioski:

Objawy przepełnionego context window:

  • Agent generuje gorszy kod niż wcześniej
  • Pojawiają się nowe, nieoczekiwane błędy
  • Model „zapomina” wcześniejsze ustalenia

Złote zasady efektywnego AI-kodowania:

  • Inwestuj czas w szczegółowy PRD zamiast iteracyjnych poprawek
  • Używaj sub-agentów dla kompleksowych zadań
  • Unikaj nadmiaru MCP tools – wybierz tylko niezbędne
  • Restartuj sesje gdy jakość odpowiedzi spada
  • Buduj i dziel się projektami publicznie

Kluczowy insight

Prostota bije skomplikowanie

Standardowo myślimy: Że lepsze rezultaty z AI wymagają więcej narzędzi, skomplikowanych konfiguracji i zaawansowanego prompt engineering. Im więcej MCP tools, tym potężniejszy system.

W praktyce okazuje się, że: Fernando osiąga najlepsze rezultaty używając prostych architektur i konwersacyjnych promptów. Ludzie z 80+ narzędziami „palą tysiące dolarów na tokenach”, podczas gdy on za 200 dolarów miesięcznie generuje całe aplikacje. Jego sekret to eliminacja zbędnej złożoności, nie dodawanie kolejnych warstw.

Dlaczego to jest istotne: Proste systemy nie potrzebują szczegółowych instrukcji człowieka – AI może lepiej wykorzystać swoją inteligencję bez „AI brain rot” spowodowanego nadmiarem narzędzi.

Test na jutro: Następnym razem gdy konfigurujesz AI workspace, zamiast instalować wszystkie dostępne narzędzia spróbuj wybrać maksymalnie 5 najważniejszych i sprawdź czy jakość odpowiedzi wzrasta przy mniejszej złożoności.


Ten wpis jest częścią mojej kolekcji notatek z ciekawych podcastów, webinarów i innych treści, które uważam za wartościowe i do których sam chcę wracać. Jeśli chcesz sprawdzić oryginalne źródło, znajdziesz je tutaj: Claude Code & Cursor AMA: The Secret to Smarter AI Agents

More from the blog