Oyuncu davranış ve tercihlerinin AI modellemesi
Tam hikaye
Bir oyuncu mikro kararların bir dizisidir: içeri girin, bir oyun seçin, bir bahis koyun, durun, geri gelin. AI, bu sinyalleri tahminlere (tutma, çıkış, LTV), önerilere (oyunlar/görevler/bonuslar) ve önleyici tedbirlere (limitler, duraklamalar, RG uyarıları) dönüştürmenize olanak tanır. Amaç,'her ne pahasına olursa olsun metrikleri sıkmak'değil, istikrarlı bir denge bulmaktır: artan iş değeri ve oyuncu güvenliği.
1) Veri: ne toplanır ve nasıl yapılandırılır
Olaylar:- Oturumlar (giriş/çıkış zamanı, cihaz, trafik kanalı).
- İşlemler (para yatırma/çekme, ödeme yöntemleri, para birimleri, gecikmeler).
- Oyun eylemleri (bahisler/winrate, slot oynaklığı, sağlayıcıya göre RTP, oyun değişim sıklığı).
- Pazarlama (teklifler, kampanyalar, UTM, reaksiyon).
- Davranışsal RG sinyalleri (oran artış oranı, gece seansları, "kaybı kovalamak").
- Sosyal/topluluk sinyalleri (sohbet, turnuva/görev katılımı, UGC).
- Olay Akışı (Kafka/Kinesis) - soğuk depolama (Data Lake) + ekran kasaları (DWH).
- Gerçek zamanlı puanlama için çevrimiçi özellik mağazası.
- Tek tuşlar: player_id, session_id, campaign_id.
2) Fici: sinyal seti oluşturma
Birimler ve frekanslar:- RFM: Sonluk, Frekans, Parasal (1/7/30/90 gün için).
- Hız: Oyunda para yatırma/bahis/zaman Δ (MoM/DoD).
- Seansların ritmi: saat/gün döngüleri, mevsimsellik.
- Tat profili: sağlayıcılar, türler (yuvalar, canlı, çökme/havacı), volatilite oranları.
- "Bilişsel" karmaşıklık: karar verme hızı, ortalama seans uzunluğu ve yorgunluk.
- Oyunların N-gram (geçişler "igra ^ igra").
- Zaman zincirleri: geçer, "döngüler" (en sevdiğiniz oyuna geri dönün), promosyona tepki.
- Anormal mevduat büyümesi, kaybettikten sonra "Dogon", gece maratonları.
- Kendini dışlama/duraklatma tetikleyicileri (etkinse), bonus "seçim" hızı.
3) Görevler ve modeller
3. 1 Sınıflandırma/puanlama
Churn: lojistik regresyon/gradyan artırma/TabNet.
Dolandırıcılık/multi-acc: izolasyon ormanı, bağlantıların grafik modelleri, cihazlar/ödeme yöntemleri için GNN.
RG riski: anomali toplulukları + eşik kuralları, yasal kalibrasyon.
3. 2 Regresyon
LTV/CLV: Gamma-Gamma, BG/NBD, XGBoost/LightGBM, işlem dizisi transformatörleri.
ARPPU/ARPU tahmini: gradyan artırma + takvim mevsimsellik.
3. 3 Diziler
Oyun önerileri: Sequence2sequence (GRU/LSTM/Transformer), oturum item2vec/Prod2Vec.
Aktivitenin zaman tahmini: TCN/Transformer + takvim özellikleri.
3. 4 Online orkestrasyon
Bağlamsal haydutlar (LinUCB/Thompson): Bir oturumda bir teklif/görev seçmek.
Yenileme Öğrenme (RL): "Aşırı ısınma olmadan tutun" politikası (ödül = uzun vadeli değer, RG riski/yorgunluk cezaları).
ML üzerindeki kurallar: iş kısıtlamaları (bir satırda N kez teklif veremezsiniz, zorunlu "duraklamalar").
4) Kişiselleştirme: ne ve nasıl tavsiye edilir
Kişiselleştirme nesneleri:- Oyunlar/sağlayıcılar, bahis limitleri (konfor aralıkları).
- Görevler/görevler (beceri tabanlı, nakit ödül olmadan - puan/statüler).
- Bonuslar ("ham" para yerine freespins/cashback/missions).
- Zamanlama ve iletişim kanalı (push, e-posta, yerinde).
- "Karışık sayfa": %60 kişisel olarak alakalı, %20 yeni, %20 güvenli "araştırma" pozisyonları.
- Bir "tünel" olmadan: her zaman bir düğme "seçilen türlerden rastgele", bir blok "geri dön"....
- Yumuşak ipuçları: "Mola verme zamanı", "sınırları kontrol et".
- Uzun bir oturumdan sonra "sıcak" tekliflerin otomatik olarak gizlenmesi; Öncelik - bahissiz görevler/görevler.
5) Dolandırıcılıkla mücadele ve dürüstlük
Cihaz/ödeme grafiği: Ortak kalıplarla "çiftlikleri" tanımlamak.
Ödeme yöntemi/coğrafi/günün saati ile risk puanlaması.
Promosyon kodlarının A/B koruması: ağız koruyucuları, hız sınırları, "promo avcılık" dedektörü.
Sunucu yetkili: kritik ilerleme ve bonus hesaplamaları - sadece arka uçta.
6) Üretimde mimari
Çevrimiçi katman: olay akışı - fichestore - çevrimiçi puanlama (REST/gRPC) - tekliflerin/içeriğin orkestratörü.
Çevrimdışı katman: model eğitimi, yeniden eğitim, A/B, sürüklenme izleme.
Kurallar ve uyumluluk: politika motoru (özellik bayrakları), RG/AML için "kırmızı listeler".
Gözlemlenebilirlik: gecikme metrikleri, puanlama SLA'ları, izleme kararları (teklif verme nedenleri).
7) Gizlilik, etik, uyum
Veri minimizasyonu: sadece gerekli alanlar; PII - ayrı bir şifreli döngüde.
Açıklanabilirlik: SHAP/ayrıntılı nedenler: "Teklif X/Y nedeniyle gösterilir".
Adalet: yaş/bölge/cihaz önyargı kontrolü; RG müdahalelerinin eşit eşikleri.
Yasal gereklilikler: kişiselleştirme bildirimleri, vazgeçme seçeneği, karar günlüklerinin saklanması.
RG önceliği: Risk yüksekse, kişiselleştirme "uyarım'değil" kısıtlama "moduna geçer.
8) Başarı metrikleri
Ürün:- Tutma D1/D7/D30, ziyaret sıklığı, sağlıklı oturumun ortalama uzunluğu.
- Hedef faaliyetlere (görevler/görevler) dönüşüm, katalog derinliği.
- Kişiselleştirilmiş kohortlar tarafından LTV/ARPPU'yu yükseltin.
- Tekliflerin verimliliği (TO/CR), "boş" tekliflerin paylaşımı.
- RG olayları/1000 oturumları, gönüllü duraklamalar/sınırların oranı.
- Yanlış Pozitif/Negatif anti-dolandırıcılık, tespit zamanı.
- Şikayetler/itirazlar ve ortalama işlem süreleri.
- Sürüklenme özelliği/hedef, yeniden eğitim frekansı, çevrimdışı - çevrimiçi bozulma.
9) Uygulama Yol Haritası
Aşama 0 - Temel (2-4 hafta)
Olayların diyagramı, DWH'de vitrinler, temel fichester.
RFM segmentasyonu, basit RG/dolandırıcılık kuralları.
Faz 1 - Tahminler (4-8 hafta)
Churn/LTV modelleri, ilk öneriler (item2vec + popülerlik).
Metriklerin panoları, kontrol tutma.
Aşama 2 - Gerçek Zamanlı Kişiselleştirme (6-10 hafta)
Tekliflerin orkestratörü, bağlamsal haydutlar.
Çevrimiçi deneyler, RG tarafından uyarlanabilir ağızlıklar.
Aşama 3 - İleri Mantık (8-12 hafta)
Dizi modelleri (Transformer), eğim segmentleri (volatilite/türler).
"Güvenli" para cezaları ile RL politikası, grafik anti-dolandırıcılık.
Aşama 4 - Ölçek (12 + hafta)
Kanallar arası ilişkilendirme, misyon/turnuva kişiselleştirme.
Sorumlu oyuncu için özerk "kılavuzlar", oturumda pro-ipuçları.
10) En iyi uygulamalar
Varsayılan olarak önce güvenlik: kişiselleştirme riskleri artırmamalıdır.
"ML + kuralları" melezi: modeller üzerinde iş kısıtlamaları.
Mikro deneyler: hızlı A/B, küçük artışlar; Sabitleme korkulukları.
UX şeffaflığı: Oyuncuya yapılan açıklamalar "neden bu öneri".
Mevsimsellik: Tatil/etkinlikler için kataloğu yeniden eğitmek ve yeniden endekslemek.
Destek ile senkronizasyon: tırmanma senaryoları, CRM'de tekliflerin ve metriklerin görünürlüğü.
11) Tipik hatalar ve bunlardan nasıl kaçınılacağı
Sadece çevrimdışı puanlama: çevrimiçi kişiselleştirme olmadan "kör. Fichestore ve gerçek zamanlı çözümler ekleyin.
Tekliflerle aşırı ısınma: kısa yükselme, uzun zarar. - Frekans kapakları, seanslardan sonra "soğutma".
RG sinyallerini görmezden gelmek: düzenleyici ve itibar riskleri. Her çözümde RG bayrakları.
Monolitik modeller: bakımı zor. - Görevlere göre mikro hizmetler (churn, recsys, fraud).
Açıklama yok: şikayetler ve bloklar. - Nedenlerin günlükleri, SHAP dilimleri, uyumluluk raporları.
12) Kontrol listesini başlat
- Olay sözlüğü ve tek tip kimlikler.
- Fichestor (çevrimdışı/çevrimiçi) ve SLA puanlama.
- Churn/LTV Temel Modeller + Öneri Vitrin.
- Haydutlar ve korkuluklar RG ile teklifleri Orkestrası.
- Ürün/iş/RG/dolandırıcılık metriklerinin gösterge tabloları.
- Gizlilik, açıklanabilirlik, devre dışı bırakma politikaları.
- Yeniden eğitim süreci ve sürüklenme izleme.
- Runbooks olayları ve tırmanma.
Oyuncu davranış ve tercihlerinin AI modellemesi bir "sihirli kutu'değil, bir disiplindir: yüksek kaliteli veriler, düşünceli özellikler, uygun modeller, sıkı güvenlik kuralları ve sürekli deneyler. "Kişiselleştirme + sorumluluk" kombinasyonu kazanır: uzun vadeli değer artar ve oyuncular dürüst ve rahat bir deneyim kazanır.