Algorytmy AI do dostosowania złożoności gry
Kiedy i co dokładnie przystosować
Tempo i obciążenie: prędkość jest płaska, częstotliwość zdarzeń, liczba przeciwników, czas fali.
Złożoność taktyczna: dokładność botów, ich taktyka, „sprytność” ścieżki.
Zagadki i wskazówki: okno czasu, liczba kroków, obecność „wskazówek”.
Zasoby i gospodarka: łup, khil, punkty kontrolne, timeouts.
Interfejs i dostępność: automatyczny wzrok, kontrast, duże czcionki, „tryb wolny od ruchu”.
• Hazard: nie można zmienić RTP/prawdopodobieństwa/wypłaty/wagi znaków - tylko prezentacja, tempo animacji, wskazówki treningowe, prezentacje treści i numery RG są dostosowane.
Sygnały: co AI rozumie „poziom bólu”
Sygnały online
Czas segmentu, liczba przekładów, zgony, uszkodzenia/min, dokładność.
Wzorce behawioralne: ostry „rzuca”, zatrzymuje, przełączając się na tryb światła.
Biometria/paralingwistyka (jeśli gracz wyraźnie na to pozwala): prędkość mowy/oddechu, mikropause.
Urządzenie/telemetria sieciowa: krople fps, lags → złożoność
Offline/profil
Historia sukcesu według gatunku/trybu, poziomy treningu, wyniki testów kalibracyjnych.
Ustawienia dostępności (kontrast, TTS, automatyczny wzrok) - przestrzegaj domyślnego wyboru.
Modele i algorytmy
1) Kontrolery zwrotne (szybki start)
Kontroler PID: celem jest średni „poziom napięcia” (np. 60-70% wskaźnik sukcesu).
Wejście: błąd = cel − bieżący sukces (lub TTK/retire-rate).
Wyjście: krok zmian parametrów (prędkość jest równa, dokładność AI).
Plusy: prostota, przewidywalność. Wady: wymagane ręczne dostrajanie, lokalna optyma.
2) Bandyci kontekstowi (adaptacja „tutaj i teraz”)
LinUCB/Thompson Sampling z kontekstem: umiejętność, urządzenie, fps, typ segmentu.
Wybierana jest akcja (zestaw parametrów złożoności), maksymalizująca „nagrodę” (wynik przytrzymania/przepływu) z uwzględnieniem niepewności.
Plusy: forma szkolenia online bez ciężkiej infrastruktury, szybko zbiegać.
3) Bayesian modele umiejętności
• Umiejętności/Glicko-jak aktualizacje do oceny gracza i „oceny segmentu”.
Krótka i długa dynamika umiejętności jest szyta, podane są przedziały ufności.
Przydatne do dopasowania i podstawowej konfiguracji wstępnej trudności przed wejściem na poziom.
4) Sekwencje i prognoza (RNN/Transformer)
Przewiduje się prawdopodobieństwo frustracji/odejścia w horyzoncie N minut.
Wejście: sekwencje prób, uszkodzenia, błędy, mikro zdarzenia interfejs użytkownika.
Wyjście: „ryzyko przegrzania” → łagodna interwencja (podpowiedź, punkt kontrolny, pauza).
5) Kierowanie RL (dla dużych produkcji)
Odnowienie uczenia się jako „content director”: agent wybiera konfiguracje fal/puzzle.
Nagrody: Czas w przepływie, skrócone retracje, retencja, szacunek dla RG/dostępność.
Symulatory/odtwarzacze syntetyczne i szyny twarde są wymagane, aby nie „trenować” manipulacji.
Polityka i szyny ogrodnicze (domyślnie etyka)
Granice parametrów twardych: min/max dla dokładności bot, prędkości, liczby wrogów.
Gładkość zmian: nie więcej niż X% przesunięcie w sekundach Y; unikać „huśtawek”.
Przejrzystość i kontrola: gracz może naprawić trudności, wyłączyć DDA, włączyć „tryb historii”.
Dostępność> wyzwanie: opcje dostępności są zawsze silniejsze niż automatyczna złożoność.
Hazard: brak dostosowania kursów/wypłat; Tylko instrukcje treningowe, tempo i interwencje RG.
Anty-exploit: ochrona przed „workami piaskowymi” (sztuczne zrozumienie umiejętności w zakresie premii).
UX wzory „ostrożnej” adaptacji
Mikro opowieści po awarii N: „Naciśnij ⓘ za wskazówkę (bez grzywien)”.
Miękka przerwa: "Wygląda na to, że segment jest trudniejszy niż zwykle. Uproszczenie czasu? [Tak, nie]"
Poziom kalibracji: 1-2 minuty praktyki z szybkim określeniem profilu początkowego.
Centrum kontroli złożoności: widget z aktualnym poziomem, historia zmian, opcja „powrót jak było”.
Komunikacja bez piętna: Unikaj "Jesteś zbyt słaby. "Lepiej: "Podnieśmy wygodne tempo"
Wskaźniki sukcesu (KPI)
Przepływ/sukces: średni% segmentów przechodzących w próbach ≤ K; średni czas pomiędzy „mini-zwycięstwami”.
Retray/rzucić: zmniejszenie rzucenia wściekłości, zmniejszenie powtórzeń powyżej progu.
Wstrzymanie i sesje: DAU/WAU, czas przerywany, powrót do złożonych segmentów.
Dostępność: udział graczy, którzy objęli opcje pomocy; CSAT według dostępności.
Stabilność modelu: liczba „przekładni”, wielkość i częstotliwość regulacji.
Zaufanie: skargi na „skręcanie”, kliknięcia na „dlaczego dostosowane”.
Architektura wdrażania (zarys)
1. Telemetria: bitwa/puzzle wydarzenia, przekładki, uszkodzenia, dokładność, fps, pauzy; normalizacja i anonimizacja.
2. Funkcja Sklep: kruszywa toczenia według gracza i segmentu; funkcje urządzenia/sieci.
3. Warstwa wnioskowania: bandit/bayes/controllers; SLA <50-100 ms.
4. Silnik polityki: ograniczenia, gładkość, zakazy (zwłaszcza hazardu).
5. Orkiestra: zastosowanie parametrów, wskazówek, punktów kontrolnych, pauz.
6. Obserwowalność: internetowe deski rozdzielcze mierników, alerty dryfujące, eksperymenty A/B.
7. Prywatność i bezpieczeństwo: minimalizacja PII, wnioskowanie na urządzeniu dla wrażliwych, szyfrowanie dzienników.
Proces oceny: A/B i kalibracja online
A/B/C: stała złożoność vs PID vs bandit; mierniki docelowe - przepływ, rzucenia, satysfakcja.
Analiza wrażliwości: jak KPI reagują na granice parametrów.
Kalibracja według kohorty: urządzenie, doświadczenie, tryb (kampania/na żywo), dostępność.
Częste błędy i jak ich uniknąć
Trudności widoczne: zbyt agresywne kroki → dodać bezwładność/histereza.
Nie licząc żelaza: upadek fps jest „zamaskowany” jako wzrost umiejętności → oddzielić wydajność od umiejętności.
Manipulowanie nagrodą: opóźnienie zwycięstwa dla zachowania jest ciosem do zaufania.
Stealth: brak wyjaśnień i ręczne sterowanie → skargi „skręcania”.
Hazard: każdy wpływ na prawdopodobieństwo - ryzyko prawne/etyczne.
Plan działania 2025-2030
2025-2026 - Podstawa
Telemetria, sterowniki PID do tempa, centrum kontroli trudności, A/B na bandytów, wyjaśnienia dla gracza.
2026-2027 - Modele umiejętności
Umiejętności Bayesian (Umiejętności-like), prognoza frustracji (Transformer), osobiste „okna pomocy”.
2027-2028 - RL Kierowanie
Symulatory, bezpieczne zasady, agent RL do konfiguracji fal/układanek; model wspomagający urządzenie.
2028-2029 - Kompozycyjność i dostępność
Wtyczki DDA do edytora poziomu, kontroli automatycznej dostępności, raportów etyki publicznej.
2030 - Standard branżowy
Certyfikowane szyny ogrodnicze, ogólny format wyjaśnionych dzienników, „DDA-domyślnie” z widoczną kontrolą gracza.
Lista kontrolna pilota (30-60 dni)
1. Zdefiniuj korytarz przepływu docelowego (na przykład 60-70% sukcesu segmentu).
2. Włącz telemetrię sygnałów kluczowych i oddziel współczynniki wydajności (fps/lag).
3. Uruchom kontroler PID na 1-2 parametrach (tempo, okno czasowe) z miękkimi granicami.
4. Równolegle - kontekstowy bandyta do wyboru ustawień złożoności.
5. Dodaj sterowanie UX: przełącznik trybu, wiersze, „dlaczego się zmienił”.
6. Przeprowadzić A/B, zmierzyć przepływ, zrezygnować, CSAT, włączenie opcji pomocy.
7. Start policy-gardrails (oraz dla trybów hazardowych - zakazy zmiany prawdopodobieństwa).
8. Iteracje co tydzień: dostrajanie granic, poprawa wyjaśnień, rozszerzenie na nowe segmenty.
Mini skrzynki (jak to wygląda)
Shooter: po 3 śmierci na punkcie kontrolnym - dokładność wrogów zmniejsza się o 6% i rzadziej granaty; podpowiedź do przeglądarki.
Puzzle: po 120 sekundach stagnacji - „iskry” wokół aktywowanych elementów; timer zagadki + 10%.
Runner: jeśli fps sags, prędkość środowiska tymczasowo zmniejsza się, ale hitboxy nie zmieniają się.
Slot-like (zabawa, nie hazard): animacje między plecami są przyspieszone, pojawiają się wskazówki treningowe; zwycięska matematyka nie zmienia się.
AI adaptacja złożoności jest o szacunek dla gracza: utrzymać go w strumieniu, pomóc pokonać przeszkody i dać wolność wyboru. Technicznie, opiera się na wyraźnych sygnałów, przezroczystych algorytmów i twardych szyn ogrodniczych. W scenariuszach hazardowych - jeszcze bardziej - nie ma wpływu na prawdopodobieństwo wygranej: tylko tempo, serwowanie i troska o samopoczucie. Tak powstają gry, do których chcesz wrócić - ponieważ są uczciwe, dostępne i naprawdę ekscytujące.