使用AI对比赛参与者进行细分
1)为什么要分割比赛球员
AI分段有助于:- 诚实地播种和比赛制作(MMR/联赛,资格篮子)。
- 个性化任务和时间表(时间插槽、活动长度)。
- 管理奖项经济学(目标范围和奖项发行)。
- 降低风险和负担(RG监护人,反擦伤)。
- 通过相关目标和感知元进展的复杂性来增强重建。
2)数据和信号
游戏/锦标赛中的行为
节奏:旋转/分钟,中位数和方差。
参与的性质:活动频率,排位赛长度,完成率。
内容多样性:提供商/流派,新颖性。
Skill&竞争性
位置历史(前X%,最后桌子),结果稳定性。
MMR/Elo,K因子,对联赛晋升的反应。
经济学
价值代理:存款的周转/频率(汇总),奖励敏感性(在公告时转换为参与)。
社会信号
聊天/剪辑/社区活动,报告和收听帖子。
上下文和RG
每天的时间,设备,连续会话,限制和RG标志(用于降低负载)。
3)Fichering(示例)
结果稳定性:位置变异系数,P75→P25增量。
Skill梯度:MMR在各部门之间过渡后的收益/下降。
时间参与:每周小时/日命中,自动相关。
内容多样性:提供商/流派的熵。
经济敏感性:uplift参与促销/助推器。
RG负载:会话的平均持续时间和速度,警告。
4)细分模型堆栈
1.聚类(未解决):行为段的K-Means/HDBSCAN。
2.Embeddings:- User2Vec提供商/提供商序列(Skip-gram),Game2Vec内容接近→更好地分组"兴趣"。
- 3.图形分割:协作社区(Community Detection)-用于捕捉接线/pati游戏。
- 4.Propensiti模型(supervised):输球后参与/完成/回滚的可能性。
- 5.溷合类型:最后的部分=× skill行为×经济×风险的组合。
5)类型学示例(骨架)
S1"短跑预选赛":短暂的激烈比赛,高峰,低稳定性。
S2 "Staer锦标赛选手":长排位赛,稳定前25%,平均速度。
S3"内容收集器":提供商的高熵性,喜欢"多样性"任务。
S4"大师决赛":高MMR,狭窄的供应商池,高比例的决赛桌。
S5"季节性猎人":在增强期/增益期被海浪激活。
S6 "RG风险信号":疲劳/漫长的擦拭会话的迹象-需要保留场景。
6)与联赛和播种的捆绑在一起
片段不会取代MMR,而是丰富它:片段会影响预选赛的长度,问题类型,时间表,但不影响数学赔率/规则。
在细分市场与当前联赛之间的明显混战中,Placement比赛+快速up/down。
公平性:VIP状态不会影响MMR,也没有给比赛带来好处。
7)在实践中使用细分
锦标赛格式:冲刺/马拉松/S1/S2下混合。
微型任务:S3的提供商多样性,S1的节奏控制。
日程安排:个人对熟悉活动的建议。
奖项:重点是化妆品/套装;稀有-常见于所有人,无需付费。
通讯:文本/音调,策略提示(道德中立)。
RG监护人:对于S6-软暂停,任务长度限制,降低难度。
8)反滥用和合规性
闭合/蓝精灵:图形提示和行为生物识别法;大师联赛中的偶然KYC。
费率限制:尝试/重新尝试;在重复循环下冷却。
正义:奖项价值的上限相同;分割改变了获胜的路径/UX而不是EV。
透明度:"细分如何工作"屏幕:一般原则,不透露内部权重。
9)成功指标
Uplift D7/D30细分市场vs控制。
参与率/完成率任务和资格赛。
SP分布(Gini)-季节性进展的均匀性。
P95获奖时间-控制色散。
Complaint/Abuse rate, Smurf/Collusion flags.
RG指标:软停顿的比例,超长会话的减少。
ROI 奖/GGR奖是促销经济的可持续性。
10) A/B模式
1.K-Means vs HDBSCAN分段(噪声稳定性,簇稳定性)。
2.添加了embeddings vs没有它们(格式建议的质量)。
3.微型任务:一对两平行。
4.时间插槽:个人vs固定。
5.RG警卫队门槛:温和vs严格。
6.排位赛长度:短对S1/S2长。
11) JSON模板
玩家细分卡(聚合+标签):json
{
"user_id": "u_87421", "segments": ["S1_sprinter", "S3_collector"], "mmr": 1420, "features": {
"pace_spm_med": 52, "pace_spm_cv": 0.31, "finish_top10_rate": 0.18, "provider_entropy": 1.92, "evening_participation_rate": 0.64
}, "rg_flags": {"long_sessions": true, "cooldown_suggested": true}, "updated_at": "2025-10-24T10:00:00Z"
}
关于锦标赛/任务格式的决定:
json
{
"decision_id": "d_s3_2025_10_24_1000", "user_id": "u_87421", "recommendation": {
"qualifier_format": "sprint_20min", "time_slot": "evening", "micro_tasks": [
{"type":"pace_control","max_spm":48,"duration_min":20}, {"type":"provider_diversity","providers":3}
], "reentry_cap": 1
}, "fairness": {"vip_neutral": true, "reward_cap_equivalent": true}, "rg": {"enforced_break_min": 10}
}
12)管道和生产
体系结构:- 事件→ Kafka/Redpanda → butchem/stream(1h/24h/7d窗口)。
- 带有SLA交付功能商店(在线/离线)。
- 每1-7天进行一次聚类/积聚培训;在登录时在线分配段。
- 解决方桉编排:Segmentation API → Matchmaking/Tasks/Comms服务。
python ctx = build_context(user_id)
x = feature_store.fetch(user_id)
z = user2vec.embed(x.sequence)
cluster = hdbscan.predict(z)
segment = postprocess(cluster, mmr=ctx.mmr, rg=ctx.rg_flags)
emit_segment(user_id, segment)
13) UX和通信
带有"低于你"的大厅:格式,持续时间,时间插槽-在一个街区。
没有操纵的语气: "我们建议晚上有一个简短的预选赛-这就是你通常玩的方式。"
控制选项:更改格式/插槽,禁用个人建议。
安静的VFX:在任务上整洁的进步标志,没有垃圾邮件。
14)诚实和RG支票
- 分割不会影响比赛中的RTP/赔率。
- 奖项价值的上限对所有人都是相同的。
- 透明的工作原则页面。
- 包括Anti-Abuse(紧缩,蓝精灵,rate限制)。
- RG监护人很活跃:暂停,持续时间限制,复杂性降低。
- 决策日志和可解释性审计(reason codes)。
15)实施计划
1.MVP(3-5周):K-Means+基本拳击;格式/插槽建议;透明度屏幕。
2.v0.9:embeddings User2Vec/Game2Vec;HDBSCAN;反图信号。
3.v1.0:在线分段更新,与土匪一起执行任务;"诚实"报告和RG分析。
4.接下来:跨段配置RL任务链;交叉促销,季节性模式。
AI分割是MMR之上的意义层:它不会改变赔率,而是根据玩家的风格选择格式,持续时间,任务和通信。聚类,栓塞和螺旋体的结合提供了可持续的类型。防盗和RG监护人保持系统诚实;指标(Gini,P95,ROI发射)确认锦标赛生态系统已经变得既公平又有效。