使用AI對比賽參與者進行細分
1)為什麼要分割比賽球員
AI分段有助於:- 誠實地播種和比賽制作(MMR/聯賽,資格籃子)。
- 個性化任務和時間表(時間插槽、活動長度)。
- 管理獎項經濟學(目標範圍和獎項發行)。
- 降低風險和負擔(RG監護人,反擦傷)。
- 通過相關目標和感知元進展的復雜性來增強重建。
2)數據和信號
遊戲/錦標賽中的行為
節奏:旋轉/分鐘,中位數和方差。
參與的性質:活動頻率,排位賽長度,完成率。
內容多樣性:提供商/流派,新穎性。
Skill&競爭性
位置歷史(前X%,最後桌子),結果穩定性。
MMR/Elo,K因子,對聯賽晉升的反應。
經濟學
價值代理:存款的周轉/頻率(匯總),獎勵敏感性(在公告時轉換為參與)。
社會信號
聊天/剪輯/社區活動,報告和收聽帖子。
上下文和RG
每天的時間,設備,連續會話,限制和RG標誌(用於降低負載)。
3)Fichering(示例)
結果穩定性:位置變異系數,P75→P25增量。
Skill梯度:MMR在各部門之間過渡後的收益/下降。
時間參與:每周小時/日命中,自動相關。
內容多樣性:提供商/流派的熵。
經濟敏感性:uplift參與促銷/助推器。
RG負載:會話的平均持續時間和速度,警告。
4)細分模型堆棧
1.聚類(未解決):行為段的K-Means/HDBSCAN。
2.Embeddings:- User2Vec提供商/提供商序列(Skip-gram),Game2Vec內容接近→更好地分組「興趣」。
- 3.圖形分割:協作社區(Community Detection)-用於捕捉接線/pati遊戲。
- 4.Propensiti模型(supervised):輸球後參與/完成/回滾的可能性。
- 5.混合類型:最後的部分=× skill行為×經濟×風險的組合。
5)類型學示例(骨架)
S1「短跑預選賽」:短暫的激烈比賽,高峰,低穩定性。
S2 「Staer錦標賽選手」:長排位賽,穩定前25%,平均速度。
S3「內容收集器」:提供商的高熵性,喜歡「多樣性」任務。
S4「大師決賽」:高MMR,狹窄的供應商池,高比例的決賽桌。
S5「季節性獵人」:在增強期/增益期被海浪激活。
S6 「RG風險信號」:疲勞/漫長的擦拭會話的跡象-需要保留場景。
6)與聯賽和播種的捆綁在一起
片段不會取代MMR,而是豐富它:片段會影響預選賽的長度,問題類型,時間表,但不影響數學賠率/規則。
在細分市場與當前聯賽之間的明顯混戰中,Placement比賽+快速up/down。
公平性:VIP狀態不會影響MMR,也沒有給比賽帶來好處。
7)在實踐中使用細分
錦標賽格式:沖刺/馬拉松/S1/S2下混合。
微型任務:S3的提供商多樣性,S1的節奏控制。
日程安排:個人對熟悉活動的建議。
獎項:重點是化妝品/套裝;稀有-常見於所有人,無需付費。
通訊:文本/音調,策略提示(道德中立)。
RG監護人:對於S6-軟暫停,任務長度限制,降低難度。
8)反濫用和合規性
閉合/藍精靈:圖形提示和行為生物識別法;大師聯賽中的偶然KYC。
費率限制:嘗試/重新嘗試;在重復循環下冷卻。
正義:獎項價值的上限相同;分割改變了獲勝的路徑/UX而不是EV。
透明度:「細分如何工作」屏幕:一般原則,不透露內部權重。
9)成功指標
Uplift D7/D30細分市場vs控制。
參與率/完成率任務和資格賽。
SP分布(Gini)-季節性進展的均勻性。
P95獲獎時間-控制色散。
Complaint/Abuse rate, Smurf/Collusion flags.
RG指標:軟停頓的比例,超長會話的減少。
ROI 獎/GGR獎是促銷經濟的可持續性。
10) A/B模式
1.K-Means vs HDBSCAN分段(噪聲穩定性,簇穩定性)。
2.添加了embeddings vs沒有它們(格式建議的質量)。
3.微型任務:一對兩平行。
4.時間插槽:個人vs固定。
5.RG警衛隊門檻:溫和vs嚴格。
6.排位賽長度:短對S1/S2長。
11) JSON模板
玩家細分卡(聚合+標簽):json
{
"user_id": "u_87421", "segments": ["S1_sprinter", "S3_collector"], "mmr": 1420, "features": {
"pace_spm_med": 52, "pace_spm_cv": 0.31, "finish_top10_rate": 0.18, "provider_entropy": 1.92, "evening_participation_rate": 0.64
}, "rg_flags": {"long_sessions": true, "cooldown_suggested": true}, "updated_at": "2025-10-24T10:00:00Z"
}
關於錦標賽/任務格式的決定:
json
{
"decision_id": "d_s3_2025_10_24_1000", "user_id": "u_87421", "recommendation": {
"qualifier_format": "sprint_20min", "time_slot": "evening", "micro_tasks": [
{"type":"pace_control","max_spm":48,"duration_min":20}, {"type":"provider_diversity","providers":3}
], "reentry_cap": 1
}, "fairness": {"vip_neutral": true, "reward_cap_equivalent": true}, "rg": {"enforced_break_min": 10}
}
12)管道和生產
體系結構:- 事件→ Kafka/Redpanda → butchem/stream(1h/24h/7d窗口)。
- 帶有SLA交付功能商店(在線/離線)。
- 每1-7天進行一次聚類/積聚培訓;在登錄時在線分配段。
- 解決方案編排:Segmentation API → Matchmaking/Tasks/Comms服務。
python ctx = build_context(user_id)
x = feature_store.fetch(user_id)
z = user2vec.embed(x.sequence)
cluster = hdbscan.predict(z)
segment = postprocess(cluster, mmr=ctx.mmr, rg=ctx.rg_flags)
emit_segment(user_id, segment)
13) UX和通信
帶有「低於你」的大廳:格式,持續時間,時間插槽-在一個街區。
沒有操縱的語氣: 「我們建議晚上有一個簡短的預選賽-這就是你通常玩的方式。」
控制選項:更改格式/插槽,禁用個人建議。
安靜的VFX:在任務上整潔的進步標誌,沒有垃圾郵件。
14)誠實和RG支票
- 分割不會影響比賽中的RTP/賠率。
- 獎項價值的上限對所有人都是相同的。
- 透明的工作原則頁面。
- 包括Anti-Abuse(緊縮,藍精靈,rate限制)。
- RG監護人很活躍:暫停,持續時間限制,復雜性降低。
- 決策日誌和可解釋性審計(reason codes)。
15)實施計劃
1.MVP(3-5周):K-Means+基本拳擊;格式/插槽建議;透明度屏幕。
2.v0.9:embeddings User2Vec/Game2Vec;HDBSCAN;反圖信號。
3.v1.0:在線分段更新,與土匪一起執行任務;「誠實」報告和RG分析。
4.接下來:跨段配置RL任務鏈;交叉促銷,季節性模式。
AI分割是MMR之上的意義層:它不會改變賠率,而是根據玩家的風格選擇格式,持續時間,任務和通信。聚類,栓塞和螺旋體的結合提供了可持續的類型。防盜和RG監護人保持系統誠實;指標(Gini,P95,ROI發射)確認錦標賽生態系統已經變得既公平又有效。