Jason Cohen 最近撰写了一篇关于 A/B 测试的文章,值得更广泛地了解和深入研究。在线营销界的大多数人都知道 A/B 测试能够提升点击率、注册率和转化率。让更高比例的访客访问页面并采取预期行动,这本身就是一项强大的能力。
然而,我们假设、设计、创建和运行测试的过程却充满风险。其中一个最不明显却最隐蔽的潜在陷阱,其实就是我们选择测试什么。
可视化“局部最小值”问题
测试落地页的个别元素确实很 电报数据库 有趣,有时也很值得,但在落地页或产品生命周期的初期进行测试通常并不合适。正如转化率专家指出的那样,“让我们把东西扔到墙上,看看哪些会粘住”这种做法效果可能不大。研究访客的问题并有效地解答它们,才能带来巨大的改变。
问题是,人们很容易被简单的答案所诱惑。
测试细节的诱人玩笑
你们中的许多人可能已经阅 改进你的网站 读过类似下面的案例研究:
- 将按钮颜色从红色改为绿色 =比 Dan McGrady提升 72%
- Conversion Voodoo 的“承诺复选框”功能将转化率提升了 11%
- Soosocial如何通过添加“免费”功能提高 28% 的转化率
- Carsonified 的人体照片转化率翻倍
- 达斯汀·柯蒂斯 (Dustin Curtis)臭名昭著的Twitter 关注命令测试
在所有这些案例中,一些简单的改变就带来了点击率或转化率的大幅提升,并引发了广泛的赞誉和分享。问题是——这些改变只是例外,而不是常态。事实上,这正是它们具有新闻价值并被如此频繁提及的原因。这并不是说你不应该阅读它们,或者不应该从这些例子中汲取价值(你绝对应该)。只是,这种对微小改变的执念可能会误导营销人员。
很少有网站能够通过更改按钮颜色、修改标题或修
一些简单、引人注目的数学知识,助你摆脱困境
假设你非常擅长转化率优化——A/B 测试 WhatsApp 电话列表 和多变量测试对你来说相对容易操作,而且你对它们有着扎实的直觉。假设你的落地页/测试页的流量相当可观——每天大概几千个。
即使在这些理想条件下,