В мобильном гейминге 70% органического трафика приходит из store listing'а. Повышение conversion rate листинга снижает acquisition cost, увеличивает ROAS платных кампаний. Custom Product Pages (CPP) и Play Experiments — это инженерная сторона этой оптимизации. Не предположения, а тесты; не мнения, а статистическая значимость. За 6-недельный цикл возможно достичь +%32 install-per-mille (IPM), но для этого нужно связать creative hypothesis с data architecture.

Custom Product Pages: Сегментация Store Listing'а

Custom Product Pages в Apple App Store позволяют предоставлять разные варианты store page для одного приложения. Каждый вариант может иметь разные комбинации иконки, набора скриншотов и превью-видео. Аналог в Google Play — Play Store Listing Experiments: похожая логика, другая терминология.

Мощь CPP в сегментации. Допустим, вы разрабатываете idle RPG: для casual player'ов — вариант с месседжем "relax & collect", для hardcore grinder'ов — вариант с упором на "competitive leaderboard". Эти варианты можно выбирать на уровне кампании в Apple Search Ads, предоставляя разный landing experience для разных групп ключевых слов.

Статистическая значимость здесь критична. Apple отчитывается по результатам CPP тестов при 90% confidence interval. То есть, когда говорит "Вариант B конвертирует на %25 лучше", на самом деле имеет в виду: "Вероятность того, что эта разница случайна, меньше %10". Если размер выборки недостаточен (обычно <1000 impression на вариант), результат недостоверен. 6-недельный период тестирования — это минимальное время для Tier-1 рынков среднего масштаба игры, чтобы пересечь этот threshold.

Фреймворк тестирования: Hypothesis → Variant → Metric

Чтобы CPP тестирование работало, нужно сначала сформулировать creative hypothesis. "Более яркие цвета работают лучше" — это не гипотеза, это мнение. Валидная гипотеза: "Пользователи Tier-1 показывают +%15 IPM на скриншотах, выделяющих character progression, потому что в dataset Search Ads ключевое слово 'level up' имеет %8.3 CTR — наивысший результат." На основе этой гипотезы вы разрабатываете 3 варианта:

  1. Control: текущий default listing
  2. Variant A: скриншоты с акцентом на character progression + loot system
  3. Variant B: скриншоты с акцентом на PvP + leaderboard

Для каждого варианта вы создаете отдельную кампанию Apple Search Ads (или привязываете ID store listing experiments в Google App Campaigns). На протяжении 6 недель распределяете трафик: %40 control, %30 Variant A, %30 Variant B. Этот split сохраняет baseline stability control'а, одновременно давая новым вариантам достаточный размер выборки.

Статистическая значимость: размер выборки и длительность теста

Самая частая ошибка в ASO тестировании — преждевременное завершение теста. Если на первых 1000 impression Variant A конвертирует на %18 лучше, сразу объявляют его победителем. Но эти 1000 impression могли попасть на случайный выходной, seasonal event или определенный time zone конкретного гео.

Расчет статистической значимости начинается с формулы:

n = (Z^2 * p * (1-p)) / E^2

n = требуемый размер выборки
Z = уровень доверия (1.645 для 90%)
p = ожидаемая conversion rate
E = margin of error (обычно 0.05)

Например, если текущий IPM составляет %3.2 (p=0.032), для 90% доверия с %5 допуском ошибки нужно ~1900 impression на вариант. Для игры с 500 ежедневных organic impression это 4 дня теста. Но в реальности трафик волатилен: выходные могут добавить %40, избранный день может создать spike. Поэтому минимум 4-недельный период тестирования рекомендуется — этот период охватит минимум 2 выходных, аномалии середины месяца и нормальные дни.

В Play Experiments Google автоматически вычисляет размер выборки и уведомляет, когда результат "statistically significant". Но этот threshold зависит от величины улучшения conversion rate. Обнаружить %5 улучшение требует гораздо большей выборки, чем %25. 6-недельный цикл — безопасный диапазон для effect size'ов среднего и выше (>%15 improvement).

Развертывание выигрышного варианта: итерация и rollout

Когда результаты теста готовы, возможны два сценария: либо явный победитель (>%20 improvement при 90% confidence), либо inconclusive результаты (разница между вариантами в пределах margin of error).

В сценарии победителя стратегия развертывания должна быть такой:

ШагВремяДействие
1. Валидация1 неделяОткройте winning variant на %100 трафика, наблюдайте baseline IPM
2. Синхронизация платных3 дняУстановите новый вариант как default в Apple Search Ads и UAC кампаниях
3. Secondary metrics2 неделиПроверьте D1 retention, D7 ARPU, churn rate на регрессии

Критический момент: рост IPM не всегда положителен. Если winning variant использует creative axis, который неправильно представляет core loop игры, качество установок может снизиться. Например, listing с акцентом на "puzzle" привлекает casual user'ов, но если игра — hardcore idle mechanic, D1 retention падает с %22 на %18. При IPM +%32 это может привести к отрицательному сетевому эффекту LTV.

Поэтому 2-недельный период "secondary metrics monitoring" обязателен. В этот период проводите cohort-based retention анализ: какова D7 retention пользователей из нового listing'а в сравнении со старыми когортами? Видите ли вы аномальное падение ARPU? Дает ли ваша churn модель (например, Cox proportional hazards) другие коэффициенты для этой новой когорты?

Цикл итерации: Creative backlog и A/A тест

ASO creative тестирование — не одноразовая активность, а непрерывный цикл итерации. После развертывания winning variant создается creative backlog для новых гипотез. Этот backlog питается из трех источников:

  1. User research: app review'ы, support ticket'ы, in-game survey'ы (например, "Почему вы установили игру?")
  2. Competitive intelligence: какие creative angle используют лидеры категории, какая hierarchy message'ей
  3. Performance data: какие ключевые слова дают высокий CVR, но низкую impression share (opportunity для расширения)

Каждые 6-8 недель запускается новый цикл тестирования. Но в каждом цикле также должен проводиться A/A тест: два идентичных варианта сравниваются, разница между ними не ожидается. Если A/A тест показывает >%10 divergence, в механизме traffic split или tracking setup'е есть проблема. В этом случае результатам нельзя доверять — сначала нужно исправить measurement integrity.

В работах App Store Optimization мы интегрируем CPP тестирование в attribution pipeline: отдельный postback URL для каждого варианта, cohort-level LTV modeling, churn prediction. Так цифра "IPM +%32" переводится в business outcome вроде "net LTV +%18".

Динамика Tier-1 vs Emerging market'ов

Наконец, стратегия creative тестирования должна быть geo-specific. На Tier-1 рынках (US, UK, JP, KR) пользователи детально изучают store listing — смотрят все 5 скриншотов, смотрят video preview, обращают внимание на review score. Поэтому creative hierarchy критична: первые 2 скриншота должны нести ключевой message, видео должно зацепить за первые 3 секунды.

На emerging market'ах (LATAM, SEA, MENA) data cost высок, пользователи не скачивают preview video, быстро свайпают скриншоты. Здесь визуальный impact иконки и первого скриншота важнее. Кроме того, если включить эти гео в тот же тест с Tier-1, результаты будут skewed — поведение user'ов отличается.

Рекомендация: запускайте отдельные тесты для каждого geo cluster, или проводите тест только на Tier-1 и адаптируйте winning insight (например, "акцент на progression повышает конверсию") для emerging market'ов (менее текста, более bold visual).


Успех в creative тестировании зависит от дисциплины hypothesis и rigor measurement'а. Рост IPM оценивается только вместе с secondary metrics (retention, LTV, churn). 6-недельный цикл итерации — минимальное время для такого глубокого анализа. Тесты, не достигшие threshold статистической значимости, должны повторяться, inconclusive результаты — отбраковываться. ASO — это версия growth engineering для app store: тесты вместо предположений, коэффициенты вместо мнений.