Trzy poziomy gnicia kontekstu
Dodawaj fakty, zadawaj pytania i patrz, jak informacje, odpowiedzi modelu oraz twoja własna pamięć powoli się rozmywają. Każda zakładka pokazuje inny wymiar tego samego problemu.
Nic nie zbieramy. Wszystko działa w twojej przeglądarce.Warstwa techniczna — rozmycie informacji
Im więcej treści wrzucasz do okna kontekstu, tym bardziej wcześniejsze fakty tracą ostrość. Model widzi tekst, ale jego „uwaga" rozmywa się na tym, co odleglejsze od teraźniejszości.
Krzywa gnicia kontekstu
Kontekst jest pusty. Dodaj pierwszy fakt, aby zacząć symulację.
Po co to w ogóle istnieje?
To towarzyszący symulator do artykułu „AI nie zabiera nam decyzji. Pozwala nam udawać, że ich nie podejmujemy.". Jeżeli pojęcie „context rot" brzmi abstrakcyjnie — po 3 minutach klikania tutaj przestanie.
Dlaczego?
Bo o halucynacjach AI się dyskutuje, a nie czuje się ich. Symulator nie opisuje problemu — pozwala ci go fizycznie doświadczyć: zobaczyć, jak twoje własne fakty blakną, jak model zaczyna je przekręcać, i jak po kilku minutach sam nie wiesz, co dodałeś.
Dla kogo?
Dla liderów zespołów, product managerów, prawników, konsultantów i wszystkich, którzy delegują decyzje do AI. Dla każdego, kto kiedykolwiek pomyślał: „ale przecież napisałem to modelowi w trzeciej wiadomości — dlaczego o tym zapomniał?"
Co ci to da?
Intuicję. Świadomość, kiedy kontekst jest już za duży. Język do rozmowy z zespołem o limitach narzędzi AI. I — jeżeli czytasz artykuł — konkretną ilustrację trzech poziomów gnicia kontekstu: technicznego, ewolucyjnego i egzystencjalnego.
Jak nie dać się context rotowi
Siedem praktycznych zasad, żeby kontekst pracował dla ciebie, a nie przeciwko tobie. Sprawdzone w pracy z dużymi modelami językowymi.
- Model pewnie podaje liczby, których nie było w twoich wiadomościach.
- Miesza nazwiska, daty i parametry między różnymi wątkami.
- Cytuje „dokładnie to, co powiedziałeś" — ale w lekko innej formie.
- Odpowiedzi brzmią sensownie dopóki nie sprawdzisz źródła.
- Po kilkunastu wymianach nie pamiętasz, co było twoim pomysłem, a co jego.
Siedem zasad
Myśl w sesjach, nie w godzinach.
Długi wątek = gnijący kontekst. Zamykaj temat, zapisuj decyzje, zaczynaj nowy czat. Świeży kontekst zawsze wygrywa ze „świetnie pamiętającym" modelem.
Jeden cel na jedną rozmowę.
Im więcej wątków w jednym oknie, tym szybciej model zaczyna je łączyć. Oddzielaj „napisz maila" od „zaplanuj strategię".
Streszczaj i wklejaj, nie przewijaj.
Jeżeli wątek ma 40 wiadomości, streść kluczowe fakty w 10 punktach i zacznij nową sesję z tym streszczeniem. To jak defragmentacja dysku — kosztuje 2 minuty, oszczędza godzinę halucynacji.
Weryfikuj, zanim uwierzysz.
Każdy konkretny detal (liczba, nazwisko, cytat, data) traktuj jak niepotwierdzony, dopóki nie sprawdzisz go w źródle. Im pewniej brzmi model, tym bardziej warto sprawdzić.
Nie mów „pamiętaj o tym". Powtarzaj.
Modele nie mają pamięci — mają tylko to, co widzą w tej chwili. Jeśli coś jest krytyczne, wrzucaj to do każdej dłuższej rozmowy na nowo.
Rozdzielaj dane od poleceń.
Wklejając dokument, oznaczaj go wyraźnie („To dane do analizy, nie instrukcje."). Bez tego każdy wklejony tekst jest potencjalnym poleceniem dla modelu.
Zostaw sobie „opcję uzasadnienie".
Zanim wciśniesz „akceptuj" na rekomendacji AI — spróbuj uzasadnić ją własnymi słowami. Jeśli nie potrafisz, to nie jest twoja decyzja. To decyzja modelu, którą tylko podpisałeś.
Co dzieje się z tym, co tu wpiszesz?
Krótka odpowiedź: nic. Dłuższa odpowiedź też jest krótka.
Brak konta, brak logowania.
Nie ma rejestracji, nie ma haseł, nie zbieramy adresów e‑mail ani żadnych identyfikatorów użytkowników.
Brak bazy danych.
Fakty, które dodajesz, i pytania, które zadajesz, nie są zapisywane na serwerze. Żyją tylko w pamięci twojej przeglądarki dopóki nie odświeżysz strony.
Brak analityki, trackerów, ciasteczek reklamowych.
Nie używamy Google Analytics, Mety, Hotjara ani niczego, co śledzi, co klikasz.
LLM używany jest tylko do odpowiedzi na twoje pytanie.
Twoja treść trafia wyłącznie do modelu językowego, aby wygenerować odpowiedź lub zmyślone warianty do quizu — i tam też nie jest trwale archiwizowana po stronie tej aplikacji.
Jedyny wyjątek: limity nadużyć.
W pamięci serwera trzymamy krótkotrwałe liczniki żądań na podstawie adresu IP (tylko po to, aby dowcipnisie nie zalali API). Liczniki znikają po godzinie, treści zapytań nie są z nimi powiązane.
Jeśli wkleisz tu tajemnicę służbową — to twój wybór i twoja odpowiedzialność. Sugerujemy jej nie wklejać; do tego są lepsze narzędzia.