A/B 测试,指的是针对页面或流程设计出两个版本(A 和 B)乃至多个版本(A/B/n),并随机安排一定比例的抽样客户进行访问,而后对各个版本的实际成效(转化率)加以比较,最终把效果最佳的版本正式推送给全体客户。
<
近些年来,A/B 测试在国内也逐步得到了广泛应用,拥有信息流投放经验的朋友想必都曾尝试过。在这个看重数据而非经验的时代,A/B 测试在素材、物料投放的抉择方面,发挥着至关重要的作用。
<
本文源自国外文章,详尽地阐释了 A/B 测试的概念及方法,颇具参考价值。
<
一、A/B 测试究竟是什么?
<
A/B 测试的核心要义在于:明确两个元素或版本(A 和 B)哪一个更优,需要同时对两个版本展开实验。最终,选取最优版本加以运用。
<
网络中的 A/B 测试,即您所设计的页面存在两个版本(A 和 B),A 为当下的设计(称作控制),B 则为新的设计。对比这两个版本中您所关注的数据(转化率、业绩、跳出率等等)。最终,您选择效果最佳的版本。
<
二、应当测试哪些内容?
<
您选择测试的对象取决于您的目标。举例来说,如果您的目标是增加顾客数量,那么您或许会测试以下内容:注册表单的数量、字段类型的要求、隐私政策等等。在这种情况下,A/B 测试的目的是弄清楚究竟是什么阻碍了游客进行注册。是需要填写的表单数量过多?还是用户隐私方面的问题?亦或是网站做了令游客不信任的事情?所有这些疑问都能够通过一次次的 A/B 测试找到答案。
<
每一个 A/B 测试的内容都是独一无二的,但通常会测试以下这些:
<
行动按钮的措辞、大小、颜色以及位置;标题或产品说明;表单的数量和字段类型;网站的布局与风格;产品的定价和促销活动;着陆和产品页面上的图片;页面上文字的长度(少与多)
<
一旦您决定了要测试的内容,接下来当然是要挑选一款适宜的测试工具。倘若您期望获得一款基础且免费的工具,能够使用 Google Website Optimizer。倘若您想要功能更为强大的工具,则可以选用 Visual Website Optimizer 。其他的一些选择也是可行的,在所有工具中建立试验的方式都较为相似,所以我们仅讨论其中一种即可。
<
您能够通过两种方式来建立 A/B 测试:
<
1. 在页面测试加载前替换元素
<
倘若您测试的是页面上的单个元素,例如注册按钮,那么就需要在测试工具中对按钮进行设置。在测试过程中,A/B 工具会在页面呈现给用户之前随机替换按钮。
<
2. 重定向到另一页面
<
倘若您想要通过 A/B 测试整个页面,比如说,一个绿色的主题和一个红色的主题,那么您就需要创建并上传新的页面。例如,如果您的主页是 http://www.example.com/index.html,那么您需要创建另外一个页面 http://www.example.com/index1.html。当测试运行时,您的测试工具会将一部分访问者重定向到第二个网址。
<
一旦您运用了上述的两种变换方式,下一步就是确立您的转换目标。通常而言,您会获取一个 JavaScript 代码,您能够复制并粘贴到一个需要游客抵达的目标网页。例如,如果您拥有一个电子商务网站,您正在测试“立即购买”按钮的颜色,那么您的转换目标将会是购买成功后的“谢谢您”页面。
<
在转换事件发生的同时,在 A/B 测试工具中,会记录向访问者展示的是哪种页面。经过足够数量的游客访问,您就能够确定哪个页面带来了最多的转化!建立和运行 A/B 测试,实际上是相当简单的。
<
三、应当做什么以及不应当做什么
<
尽管 A/B 测试是一个超级简单的概念,但请谨记,以下这些仅仅是我个人的经验之谈。
<
1. 注意事项
<
切勿将您的测试情况割裂开来。始终要同时对两个版本进行测试。如果您在第一周测试第一个版本,第二周测试第二个版本,那您就错了。有可能 B 版本带来的流量更差,但是业绩却更好,因为两个版本之间的流量始终存在差异。
<
不要过早结束测试。存在一个概念叫做“统计信心”,无论您的测试结果看起来多么显著。如果您只有少数的转换或游客,就无法确定最终的结果。大多数 A/B 测试工具都有统计报告,不过如果您是手动测试,可以使用在线计算器。
<
不要让常客感到惊讶。如果您正在测试网站的某一部分,包括新访客和常客,不要让他们感到震惊。尤其不要因为那些可能最终不会实施的变化。
<
不要让您的直觉推翻测试结果。在 A/B 测试中,结果往往是令人惊讶或者与直观感受不同的。在一个以绿色为主题的网站中,一个明显的红色按钮有可能成为赢家,即便红色按钮不容易吸引注意力。您测试的目标是获得更好的转化率,而非追求美学,所以在获取测试结果之前不要拒绝任何尝试。
![图片[1]-着陆页测试深度剖析-精准获客](https://cos.jingzhunhuoke.net/tu/suolue/7.jpg)
<
2. 需要做的
<
清楚运行测试的时长。
<
过早结束,可能会导致您花费了时间却未能获得有意义的结果。结束太晚也不好,因为效果不佳的页面可能会影响您的转化和业绩。使用一个计算器,来确定测试多久之后结束它。
<
向同一个访客展示相同的页面。
<
您的工具应当具备记忆访问者已经看到的页面的功能。这样能够避免向同一用户显示不同的价格或不同的促销优惠。
<
让您的 A/B 测试在整个网站保持一致。
<
如果您正在测试的登录按钮在多个位置出现,那么一个访问者应当在所有地方看到相同的变化。在页面 1 显示一种样子,在页面 2 显示另一种样子,会干扰试验结果。
<
进行大量的 A/B 测试。
<
让我们面对现实:您的第一个 A/B 测试可能会没有效果。但是不要灰心。一个 A/B 测试只会有三个结果:没有结果、不好的结果以及好的结果。优化转化率的关键在于进行大量的 A/B 测试,将所有好的结果整合起来,最终推动业绩提升。
<
四、经典 A/B 测试案例研究
<
以下是一些有关如何进行 A/B 测试的案例研究。
<
Writing Decisions: Headline Tests on the Highrise Sign-Up Page 37Signals 对他们的价格页面的标题进行了测试。最终发现,“30-Day Free Trial on All Accounts ”比原来的“Start a Highrise Account. ”多产生了 30%以上的订单。
<
“You Should Follow Me on Twitter Here” (Dustin Curtis) 这是一个用于测试召唤用户在 Twitter 上关注自己的试验。Dustin 发现提示文字是“You should follow me on Twitter here” 的效果是“I’m on Twitter.” 的 173%。
<
Human Photos Double Conversion Rates 从两个不同的 A/B 测试中发现,在网站上增加人的照片会提高转化率:一个令人惊讶的结论,A/B 测试两张图片,将真人照片放在网站上会使转化翻倍。研究表明,我们潜意识会被照片吸引。
<
Google Website Optimizer Case Study: Daily Burn, 20%+ Improvement (Tim Ferriss) 一个减少用户选择的变化使转化率提高了 20%,最终的版本在细节和文字上更能吸引目光。
<
Two Magical Words Increased Conversion Rate by 28% “It’s free” 这个单词使注册按钮的点击次数增加了 28%,测试结果显示,在行动召唤上的一些微小变化会带来令人惊讶的结果。
<
Changing the Sign-Up Button from Green to Red 依靠 A/B 测试,CareLogger 将注册按钮从绿色修改为红色,转化率增加了 34%!
<
Single page vs. multi-step checkout 如果您拥有一个在线商店,支付流程是很常见的。这个 A/B 测试发现,多个支付流程比单个支付流程完成的销售效果更好。
<
“Mad Libs” style form increases conversion 25-40% 颠覆传统智慧,此 A/B 测试发现一段风格形式的输入字段比传统形式的布局效果更优。
<
Complete redesign of product page increased sales by 20% 一家软件产品公司重新设计了他们的产品页面,赋予其现代的外观并增加信任模块。最终结果:他们成功地使总销售额增加了 20%。本案例研究证明了设计对销售的影响。
<
Marketing Experiments response capture case study – triple digit increase in conversions 通过优化邮件地址获取提高了 258%。重点在于消除所有干扰,并要求游客仅提供电子邮件地址。使用亚马逊礼品卡促使他/她完善个人资料。
<
下期预告:着陆页测用户体验详解
2 本站部分内容来源于网络,仅供学习与参考,如有侵权,请联系网站管理员删除
3 本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报
4 精准获客感谢您的访问!希望本站内容对您有所帮助!
暂无评论内容