Ինչպե՞ ս օգտագործել սիմուլյացիան համակարգերը ստուգելու համար
Սիմուլյացիան լավագույն միջոց է ստուգելու գաղափարը, երբ վերլուծական բանաձևը բարդ կամ անհասանելի է։ Դուք մոդելավորում եք նույն պատահականությունը, ինչ խաղի մեջ (RNG), գործարկում եք հազարավոր «վիրտուալ» նստարաններ ձեր համակարգով և դիտեք արդյունքների բաշխումը 'միջին (EV), քվանալի, «պլաստիկ» ելքերի հաճախականությունը, բացահայտման խորությունը և տևողությունը։ Ներքևում գործնական մեթոդ է։
1) Ի՞ նչ ենք մենք մոդելավորում
1. Խաղը 'մեկ մրցույթի (մեջքի/տոկոսադրույքի) - բազմապատկիչ (X) տոկոսադրույքի (0; 0. 2; 1; 5;...) կամ իրադարձական մոդել (հայտնվեց/չհաջողվեց բոնուսներ)։
2. Ռազմավարություն 'տոկոսադրույքի և ելքի չափի կանոն (ֆլեյտ, առաջընթաց, թեյկ-պրոֆիտ/stop-loss, «ընդմիջում L-streak» -ից հետո)։
3. Շվեյցարիա ՝ երկարությունը (N) քայլերի երկարությունը կամ կանգնելու պայմանները (bank wwww.stop-loss; հասնում են թեյք-պրոֆիտ; ժամանակի սահմանափակում)։
Ամենակարևորը 'ռազմավարությունը չի փոխում ելույթի հավանականությունը, այն փոխում է նստաշրջանի արդյունքի բաշխումը (ռիսկի պրոֆիլը)։
2) Սիմուլյացիայի հիմնական շրջանակը (ալգորիթմ)
1. Տվեք «բաշխման անձնագիր» մեկ տերմինալի համար 'արժեքներ (x _ 108) և դրանց հավանականությունը (p _ 108) (p _ 108 = 1)։
2. Նախաձեռնեք բանկը (B _ 0), տոկոսադրույքի չափը (b _ 1) և հաշվիչները։
3. Մրցույթի համար (t = 1... N)
Պատահականորեն ընտրեք արդյունքը (X _ t) համաձայն (p _ 108)։
Հաշվեք հաղթանակը (W _ t = b _ t/cdot X _ t), ոչ (R _ t = W _ t _ b _ t)։- Թարմացրեք բանկը (B _ t = B _ + + t)։
- Ռազմավարության կանոնների համաձայն հաշվարկեք հաջորդ (b _ + t + 1) և ստանդարտ պայմանները (stop-loss/taik-pupit/ընդմիջում)։
- 4. Պահպանեք նստաշրջանի մետրերը 'արդյունքը (B _ T-B _ 0), maks (max no awdown), նստաշրջանի երկարությունը, բոնուսների/նշանակալի հիթերի քանակը։
- 5. Կրկնեք M-ը (օրինակ ՝ 100,000 նստաշրջան)։ Կառուցեք արդյունքների բաշխումը։
3) Հիմնական մետրերը, որոնք արժե հավաքել
EV նստաշրջանները 'միջին արդյունքը տոկոսադրույքներում կամ բանկի տոկոսը։- Քվանալի արդյունքներ ՝ (Q _ _ + 50), (Q _ + 75 +), (Q _ + 90), (Q _ + 95 +)։
- Նպատակների հավանականությունը: (105 mathbb + P + (108 + արդյունք + 20%), (108 mathbb + P +)։
- Քայքայման ռիսկը ://mathbb + P + (B _ t/le 0 & dp.m.com; կամ sp.cle prom + stop-loss)։
- Max no awdown: Median և 90-րդ percentille խորությունը և շեղման տևողությունը։
- Սպասման ընդմիջումները մինչև շեմն (թիվ 10; բոնուս) 'բժիշկ և 75-րդ պերցենտիլ։
- Զգայունություն 'ինչպես են մետրիկները փոխվում, երբ դրույքաչափը/երկարությունը տարբերվում են։
4) Որքա՞ ն գռեհիկ է անհրաժեշտ
«Մարմնային» նկարի համար ՝ M = 10,000 N = 1 000 քայլ։
Ծանր պոչերի համար (հազվագյուտ մեծ հաղթանակներ) 'ավելացրեք M-ը մինչև 100,000 + կամ օգտագործեք ստրատիզացիա/ավելացված կետային սցենարներ (պայմանական սիմվոլներ «Եթե տեղի ունենաք թիվ 200»)։
Կանոնն այն է, որ դիտեք գնահատականների ցանկը, եթե EV/quanal- ը փոխվում է նկատելիորեն M-ի կրկնապատկման ժամանակ, ավելացրեք M.
5) Ինչպե՞ ս ճիշտ համեմատել ռազմավարությունը
Ընդհանուր պատահական թվերը (CRN) 'պաշտպանեք ռազմավարությունները նույն պատահական արդյունքների հաջորդականության վրա։ Այսպիսով, դուք կնվազեցնեք և համեմատեք հենց տրամաբանությունը, ոչ թե աղմուկը։
Կարևոր է, եթե խաղի ակնկալումը բացասական է (RTP <100%), «լավագույն» ռազմավարությունը տարբերվում է տարածման ձևից և ոչ թե սպասման նշանից։
6) Արագացուցիչներ և մոդելավորման մեթոդներ
Ընդհանուր թվերի տատանումը (CRN) - must-have համեմատության համար։- Անտիթետիկ նմուշներ 'օգտագործեք զույգեր (U) և (1-U), որպեսզի նվազեցնի գնահատականների ցրումը։
- Կուտակտիվների կատարումը 'պահեք CuMP-ը և երկուական որոնումը/որոնումը արագ մապինգի համար (U/to X)։
- Զամբյուղների համախմբումը 'ճշգրիտ (x _ 105) փոխարեն, միացրեք վճարումները 4-6 ընդմիջումներով' արագության կտրուկ աճը ռիսկի գրեթե անփոփոխ նկարում։
- Մարկովի վիճակը sticky-մեխանիկի և բոնուսային աստիճանների համար 'պահպանեք վիճակը, անցումները, ակնթարթային վարձատրությունները։
7) Ի՞ նչ կարելի է համարել ռազմավարության «հաջողությունը»
Նախօրոք ստուգեք, օրինակ- «Միջին արթնացումը 3,150 ռուբլու» և «ավարտի հնարավորությունը 240% 2440% -ը 1000 սպինով», կամ «90-րդ percentil 36300 ռուբլիներ EV-ում ոչ ավելի վատ, քան բանկի 355 տոկոսը»։
- Առանց քննադատության, ցանկացած ռազմավարություն կգտնի «գեղեցիկ պատուհան»։
8) Տիպիկ փորձարկումներ
Ֆլեթ vs առաջընթացը (մարտինգալ, d'Alamber, հիթից հետո ավելացում) 'համեմատել EV, (Q _ + 90), քայքայման վտանգը, անապատի երկարությունը։
Taik-popit/stop-loss: Գնահատել «վաղ ելքի» հաճախականությունը և բաց թողած պոչերի գինը։
Նստաշրջանի երկարությունը 'ինչպե՞ ս է փոխվում 200-ից 2 000 սպինինների հավանականությունը։
Բոնուսային գնումը: (EV _ _ codice _ net _ =/mathbb + E + (X] -C), ինչպես աճում է ցրումը և քայքայման վտանգը։
Տոկոսադրույքի չափը որպես բանկի մասնաբաժին, վերցրեք (f) '95-րդ առաջադրանքը սահմանափակելու համար։
9) Բնորոշ սխալներ և ինչպես խուսափել դրանցից
Հետֆակտում 'փոխել ռազմավարությունը «սիմուլյացիայի» ընթացքում։ Նախօրոք կանոններ դրեք։- Տարբեր RTP տարբերակների/փղերի խառնուրդը մեկ մոդելի մեջ։
- Փոքր M-ն, ծանր պոչերի ժամանակ, ռուսական պատրանքները «ռազմավարությունը քաշեց»։
- Համեմատությունը տարբեր «աղմուկների» վրա (առանց CRN) հաճախ ֆանտոմային տարբերությունն է։
- «Հաջողության» կանգառը '«մինչև առաջին պլյուսի» թեստը աղավաղում է բաշխումը։
- Ժամանակի/դադարի անտեսումը էքսպոզիայի իրական սահմանափակումներ չունի։
10) Մինի-կեղծ (հասկանալի է առանց լեզվի)
բանաձևը 'բաշխումը _ x _ 105, p _ 108 +, B0 բանկը, b0, N, S ռազմավարության կանոնները, S-ի ռազմավարության կանոնները, S-ի ռազմավարության կանոնները, B0 բանկը, B0, b0-ը,
M անգամ
B:= B0; b:= b0; peak:= B; DD: = 0 t = 1.. N։
x: = դեպքը _ x _ 108, p _ 108-ից
win:= b x
B:= B + (win - b)
peak:= max(peak, B); maxDD:= max(maxDD, peak - B)
Եթե S-ի պայմանները պահանջում են դադար/ոտք, ապա պետք է դուրս գալ b: = կանոն _ հաջորդ _ դրույքաչափը (B, պատմություն, S)
Եթե b = 0 մգ դուրս գալ (նստաշրջանը կանգ է առնում)
պահպանեք արդյունքը (B-B0), DD, երկարություն, այլ մետրիկներ հավաքել բաշխումը, EV, quanali, ռիսկը ռազմավարության համեմատությամբ 'օգտագործել նույն x (CRN)11) Ինչպե՞ ս կարելի է արդյունքներ կազմել (հաղորդագրության ձևանմուշներ)
Խաղը/տարբերակը RTP/կոդավորման բաշխումը 'ռուսական նկարագրություն կամ ռուսական զամբյուղ- Ռազմավարություններ ՝ A (ֆլեյտ), B (առաջընթացը k =...), ելքի կանոնները
- Սիմուլյացիայի պարամետրեր: N =..., M =..., CRN = այո, անտիթետիկ = այո/
- EV (մեդիա): A...% (IQR... -%); B …% (IQR …–…%)
- Ավարտի հնարավորություն 240 %/240 + 20%: A .../...; B …/…
- Max no awdown (մեդիա/90-րդ պերցենտիլ): A .../... 1942; B …/…
- «Անապատի» երկարությունը 2410 (մեդիա/75-րդ պերցենտիլ) ՝ A .../... մեջքը; B …/…
Տարբերությունը A 24B: (Winta) EV... p.p.; 95% DI [...]; (p =)...
Եզրակացություն, թե ինչ ռազմավարություն է տալիս ռիսկի ընդունելի պրոֆիլը ձեր նպատակների տակ։ սահմանափակումներ և առաջարկություններ։
12) Կարևոր հիշեցումներ
Սիմվոլը բացասական ակնկալիքներ չի տալիս դրական. նրանք ցույց են տալիս ռիսկի գինը և կանոնների կայունությունը։
Տեսեք քվանտներն ու ներարկումները, ոչ միայն միջինը 'խաղացողը ապրում է մեդիաներում և «վատ օրերին», այլ ոչ թե սպասելով։
Փորձի ազնվությունը ավելի կարևոր է, քան արդյունքը, գրանցեք չափանիշները նախապես, օգտագործեք CRN-ը և ցույց տվեք անորոշության ընդմիջումները։
Արդյունքն այն է, որ Մոնթե Կառլոյի ճիշտ տեղադրումը սիմուլյացիան «հավատը ռազմավարության» վերածում է ստուգված թվերի ՝ EV, նպատակների, արթնացման և քայքայման վտանգի։ Սա թույլ է տալիս համեմատել արդյունքների բաշխման որակը և որոշումներ կայացնել ռացիոնալ կերպով նախքան իրական փողը վտանգելը։
