第一图书网

精通Web Analytics

(美国)(Avinash Kaushik)卡希克 清华大学出版社
出版时间:

2008  

出版社:

清华大学出版社  

作者:

(美国)(Avinash Kaushik)卡希克  

页数:

349  

字数:

560000  

译者:

杨艳,王春楠  

Tag标签:

无  

前言

  本书作者要达成的3个简单目标:  与您分享我对Web和Web分析所抱以的极大热忱。我热爱Web及其运营所需作出的复杂决策,我认为您也和我一样对此着迷。  增进您对于Web分析的了解,清楚它的真正内涵,以及它怎样成为当前以客户为中心的伟大Web策略之基石,这种策略允许您尝试、学习和测量那些至今其他客户接触点(customer touch point)所无法企及的方法。Web分析远非那种只是查看点击率、转换率(Conversion Rate)以及只是和数字打交道的工作。  为您提供一些专业人士关于如何成功进行Web分析的见解。本书首次(当然不是最后一次)让您接触到业内人士的观点。您将获得的建议并非来自于那些顾问或者Web分析供应商,而是来自于那些真正“活”在这份工作中的人。这样,您就能将那些现实世界中涉及人、流程、组织结构、政策、目标以及操作严密性等的种种困难联系起来)。  本书将完全满足您的需求,使您获得非常广阔和深远的眼界,让您了解不论公司大小如何,要想成功地创建一套有效的Web分析程序到底需要什么。  小小书本的贡献  本书作者的收入将全部捐赠给如下两个慈善组织:  微笑列车(The Smile Train)组织为世界上最贫穷的63个国家提供兔唇修复手术和整形手术。他们的援助不仅仅是还微笑于孩子,他们的努力更消除了可能给孩子身心带来的极大伤害。  Medecins Sans Frontiers,即无国界医生组织 (Doctors Without Borders,简称MSF)为70多个国家处于危机中的人们提供紧急医疗救助。1999年,MSF由于为任何需要的地方提供医疗救助获得了诺贝尔和平奖。  购买这本书,您不仅会提升在Web分析方面的知识水平和专业水准,也帮助我支援了这两项伟大事业,它们深入我心,对我至关重要。只要是帮助那些需要帮助的人,多么微小的贡献都至关重要,非常感谢。  0.1 关注Web分析的原因  为了优化他们在Web宣传活动和Web站点上的开销,Web上的企业要在Web分析上花费上百万资金,以期取得数以十亿计的Web利润。不过在这些问卷调查、CMO(市场总监)决策分析、个案研究以及改进需求调查表(fix-it wish list)中一直位于第一位的挑战是如何能够准确评测数据并为公司成百上千万的资金投入作出优化决策。这个挑战一直存在,原因在于人们对它的解决方法有误。  而同时,一些事件的奇妙聚合反应正在悄然兴起,并给Web分析的世界投来一丝曙光:  在相当长的时间内,企业只是简单地投资于Web站点建设上,因为这毕竟是件必须要做的事情,而且很酷。最近几年,Web真正“成长”为大多数企业的营销渠道。一时间,对于Web渠道的深层要求出现了,它必须像其他渠道一样是可计算的。年轻人现在被要求解释其消费的正当性。这对年轻人来说可谓是既新奇又极富革新的体验,但是他们还缺乏帮助他们处理这些问题的工具。  即使是现在,人们还是把Web分析和点击率相提并论。这与真实情况相去甚远。虽然点击流(clickstream)构成了几乎所有决策的数据池,而大多数公司开始表示出了极大的挫折感,因为仅凭点击流数据他们无法获得可行的策略  随着Google Analytics的出现(微软的相应版本也将随后问世),整个市场被引爆了,因为现在如果有需要,任何人都可以轻松获得自己Web站点的任何数据,而且是免费的,并且这套相当成熟的分析工具能够大大提高工作效率。但当真正使用它后,您就会发现要从中得出自己的成功砝码以及如何正确进行Web分析是多么的困难了。  Web分析目前已成为财富1000强中大多数公司的致富渠道。人们当然非常关注自身Web站点到底能干什么,这股热情和关切的程度可想而知。  时光飞逝,越来越多的公司也开始意识到了Web就是最有效的无人售货机,是了解客户和获得反馈的最佳渠道,也是最有效的购货渠道。但是将这个梦想变成现实还需要一个坚实的平台,以进行数据测量、测试和侦听。Web分析正好提供了这种平台。  现在说Web其实还处在婴儿期可能听上去有些别扭,但这是事实,Web分析则更是如此。我们今天所掌握的一切会急速地变化,即便是在下一个十年也是如此。但是如果在这十年期间(或在这段时间末期)您都需要与该领域保持联系,您就要能成熟地应对Web上测量和侦听方面的挑战。本书即为这个成功之旅的入门之作。  0.2 本书读者对象  本书适合于每个人。  在我的职业生涯中,我已经开始意识到那些在决策上取得巨大成功的组织都在例行数据民主。企业的每个环节都可以及时获得相关数据解析,以作出有效决策,这就如同一种生活方式一样;而不是等某个特定的时间才接受被解析的数据。  这并不意味着那些日以继夜将数据历练成洞察力的优秀而强大的数据中心已经一无是处了。它们的存在还是很有意义的。但如果企业依赖于此,那么其数据利用的成功性与推行数据民主的公司相比就要大打折扣了。  所以,如果您是关注Web的人士,此书正是为您而作,因为您将学会如何快速入手Web分析。无论决策重大与否,它能告知您进行决策的时机,并能使您基于Web分析所采取的行动变得更加高效。  如果您是一位CEO,您将从中了解为何拥有一套有效的Web分析程序并将其作为公司策略的核心部分是如此的重要—— 不只是能通过Web站点盈利,还能为您的客户提供一种新奇而及时的体验,同时也具有了持久的竞争优势。  如果您是C级或者VP级或无级别人士,负责您公司的Web站点事宜,您将从中学到创建优化的Web分析组织的步骤、Web分析工作的归属、您需要担负的特殊责任,以及执行这些职务需做的事情。您将了解创建一个以数据为中心的决策文化所要付出的一切—— 鲜血、汗水和泪水。  如果您是一位商人,本书将帮助您了解那些利用Web分析来确定和执行有效的市场营销活动的方法,这些方法特殊却很有意义。该书还将帮您评测您在Web投入的现实效果(从搜索引擎营销到Web站点内容的创建和使用)。  如果您是一位推销员,本书将帮您挑选可使用的工具以及可执行的策略以极大地提高您的能力,这不仅是出售更多产品的能力,更是将适合的东西在适合的时间送到适合的人手上的能力。这将不仅能在短期内迅速提高您的Web页面转换率,还能使您与客户保持长期持久的关系。  如果您是一位Web站点设计师,本书将与您分享如何取舍那些可以用于Web站点的灵感的方法,有时候为提高Web站点效率,一些灵感必须被放弃。您可以将所有的灵感(即使是那些偏激的)放在Web站点中付诸实施,然后评测哪个能更有效地解决客户(或您企业自身)的问题。  如果您是一位用户体验工程师(user researcher),本书将使您的工作效率成几何级增长,而这是通过明确一个长期被您遗忘的方法来实现的:定量数据分析。将定量和定性数据结合起来,您将发现更丰富的洞察力,并能基于此做出更有效的反应。  如果您是一位全职或兼职的Web数据分析师,本书会渐渐决定并改变您的一生,这似乎有点儿虽不中,亦不远的感觉。本书将提供给您一种独特而清新的观点来看待Web分析内涵和分析师的职责,这可能就是强化您的组织使其取得巨大成功的关键所在。您当然要学习那些可以利用的工具和公制,但更重要的是本书给我们呈现了关于Web分析的一种全新独到的思维和方法。本书如同满是小提示、小窍门、种种思路和建议的魔棒,您可以马上将其付诸实现,不过他们真正要发挥作用还需要些时间。  0.3 本书主要内容  本书的核心部分是一个8个月的教学计划,并被细化到每天,以彻底、全面地提高您的Web分析水平。这几个月的学习被细分到周,然后再被细分到天,每天的学习以任务的形式呈现,每项任务预计应在一小时左右完成。根据您所处的环境、您对于所学内容的熟悉程度以及您对组织和工具的成熟程度,您完成特定任务的时间应该在这个范围内浮动。  本书可分为4个部分。  0.3.1 第Ⅰ部分:Web分析的基础  第Ⅰ部分包括第1~~~~3章。它从讲述Web分析的现在与将来入手,然后才展开论述其根本基础,这样的结构可以帮您更好地掌握Web分析的战略思维和方法。  其后您就要花费些时间理解一下多种数据收集机制的至关重要性,当然您可以自由决定所使用的时间(不过一定记得,种瓜得瓜, 种豆得豆)。  第Ⅰ部分以定性数据作结论依据—— 为什么它如此重要,可用的数据选项有哪些,以及如何能极大地提高自己与客户交流的能力。  0.3.2 第Ⅱ部分:三位一体法  第Ⅱ部分从第4章开始,本章涉及的是Web分析的“非核心”部分:一些相当重要但我们平时不是很在意的事情,如创建最佳组织结构(optimal organizational structure)、采用10/90法则,或在庞大Web分析中明确自己的查询对象。  第5章则涵盖了那些“核心”部分,如怎样选择最佳的Web分析工具、怎样处理Web的数据质量问题、如何确保分析工具工作于最佳状态,最后,采用那又怎样(So What)测试来检验所有选用的度量(metric)和关键绩效指标(KPI)的效果。  0.3.3 第Ⅲ部分:执行Web分析计划  第Ⅲ部分是本书最大的部分,它由细分到每天要执行的学习任务组成(只是每天花费一小时而已)。在第一个月,即第6章中,您将会深入钻研Web分析的核心理念,如URL和cookie,而这些会将您引入到对由任一分析工具所生成的Web分析报告的利与弊的学习进程中。  第7章用一个月展示了为3种不同行业所定制的不同Web分析计划。  如此就展开了第8章的内容,在这第3个月的学习中,我们将探讨搜索分析(站内搜索引擎、搜索引擎优化以及搜索引擎营销)。  第9章涉及第4个月的学习内容,我们将关注如何评测所选营销活动和多渠道营销策略的有效性。  第10章,第5个月,通过释放试验和测试的能量,将您的学习带入下一个层次。  在第11章中,通过第6个月的学习,您将学习如何在将您的Web分析付诸实践时克服那些难以应付的顽固问题。您将学到3个秘诀并学习如何利用它们,它们是:基准法及目标、执行“仪表板”,以及六西格玛标准和流程优化策略的引用。  第12章是第3部分的最后一章,其用第7个月消化竞争情报分析的超能量。您将学习如何使用分析结果将自己和大多数其他竞争者区分开来,使您获益的就在于您不只是了解自己Web站点的运行情况,还有整个Web生态系统环境下的运营情况(既包括那些已知竞争者的信息,也包括那些未知竞争者的信息)。  0.3.4 第Ⅳ部分:高级Web分析和“DNA中的数据”  第13章用一个月的时间,为您揭发Web分析上一些普遍流行的“神话”并指导您如何避免误入歧途,从而为您通往巨大成功的通途照亮道路。  第14章阐述了一些具体的高级分析学理念,这些理念能倍增您的Web分析程序效果。您将了解统计显著性和使用市场细分战略的强大能量。您还将学习如何通过对评测页面转换率的极好掌握使您的报告能够更贴近于客户的方法。对于测量复杂度量(如放弃率和购买访问天数和次数)的方法,以及根据这些度量的测量数据所采取的行动,本章提供许多具体的技巧。  本书的最后一章为第15章,该章将为您出谋划策,帮您创建一个称之为“数据含于DNA”中的真正以数据为中心的组织。您将学到非常实际的执行步骤,以及您能采取的最佳实践。  0.3.5 该书的配套站点资源  0.3.6 期待您的反馈  我要强调的是贯穿本书始终的客户中心论是十分重要的,因为这或许是确保任何企业获得长期成功的唯一方法。  因此我想要听到来自您的声音是毋庸置疑的。欢迎并不胜感激你所做的任何反馈。您认为本书中最具价值的是哪部分?给您带来巨大惊喜的是哪部分?我需要做出哪些改进、需要强化哪些部分的论述或是在哪里需要加入更多的细节?  我是希望能从您的反馈中学到东西,并给每位写来反馈的读者以回应,所以请您一定与我分享您对该书的观点、批判和称赞。

内容概要

本书作者要达成的3个简单目标:  与您分享我对Web和Web分析所抱以的极大热忱。我热爱Web及其运营所需作出的复杂决策,我认为您也和我一样对此着迷。  增进您对于Web分析的了解,清楚它的真正内涵,以及它怎样成为当前以客户为中心的伟大Web策略之基石,这种策略允许您尝试、学习和测量那些至今其他客户接触点(customer touch point)所无法企及的方法。Web分析远非那种只是查看点击率、转换率(Conversion Rate)以及只是和数字打交道的工作。  为您提供一些专业人士关于如何成功进行Web分析的见解。本书首次(当然不是最后一次)让您接触到业内人士的观点。您将获得的建议并非来自于那些顾问或者Web分析供应商,而是来自于那些真正“活”在这份工作中的人。这样,您就能将那些现实世界中涉及人、流程、组织结构、政策、目标以及操作严密性等的种种困难联系起来)。  本书将完全满足您的需求,使您获得非常广阔和深远的眼界,让您了解不论公司大小如何,要想成功地创建一套有效的Web分析程序到底需要什么。  本书适合于每个人。  本书的核心部分是一个8个月的教学计划,并被细化到每天,以彻底、全面地提高您的Web分析水平。这几个月的学习被细分到周,然后再被细分到天,每天的学习以任务的形式呈现,每项任务预计应在一小时左右完成。根据您所处的环境、您对于所学内容的熟悉程度以及您对组织和工具的成熟程度,您完成特定任务的时间应该在这个范围内浮动。

作者简介

Avinash Kaushik是备受赞誉的web分析博客0ccam’S Razor(www.kaushik.net,avinash)的版主。他是一位独立顾问,目前是Google的分析宣传师。这之前他曾经是Intuit公司的网络研究与分析主管,负责管理分析平台上的业务、技术和策略元素,该分析平台为Intuit的70多个Web站点

书籍目录

第1章 Web分析—— 现状与展望 1.1 Web分析的简史 1.2 现状和挑战 1.3 传统Web分析已经废弃 1.4 新的Web分析 1.4.1 测量定量和定性数据  1.4.2 三位一体:思路和战略方法第2章 数据收集——重要性和选择 2.1 了解数据前景 2.2 点击流数据  2.2.1 Web日志  2.2.2 Web Beacons  2.2.3 JavaScript标记  2.2.4 包嗅探器 2.3 结果数据  2.3.1 电子商务  2.3.2 导引生成  2.3.3 品牌/宣传和支持 2.4 研究数据  2.4.1 思路  2.4.2 组织结构  2.4.3 时机 2.5 竞争数据  2.5.1 基于专门小组的测量  2.5.2 基于ISP的测量  2.5.3 搜索引擎数据第3章 定量分析概述 3.1 以客户为中心的重要性 3.2 实验室可用性测试  3.2.1 实施测试  3.2.2 实验室可用性测试的好处  3.2.3 注意点 3.3 启发式评估  3.3.1 实施启发式评估  3.3.2 启发式评估的好处  3.3.3 注意点 3.4 实地考察  3.4.1 进行实地考察  3.4.2 实地考察的好处  3.4.3 注意点 3.5 调研(问卷调查)  3.5.1 站点调研  3.5.2 访问后调研  3.5.3 创建和执行调研  3.5.4 调研的好处  3.5.5 注意点  3.6 小结第4章 Web分析策略成功的关键要素 4.1 致力于以客户为中心 4.2 解决业务问题 4.3 遵循10/90原则 4.4 雇佣优秀的Web分析师 4.5 确定最佳组织结构和职能  4.5.1 集中式  4.5.2 分散式  4.5.3 集中分散式第5章 Web分析的原理 5.1 捕获数据:Web日志还是JavaScript标记  5.1.1 将数据服务和数据捕获分离  5.1.2 数据类型和大小  5.1.3 创新第6章 第1个月:对Web分析的核心概念进行深入挖掘第7章 第2个月:启动Web数据分析第8章 第3个月:搜索分析——站内搜索、SEO和PPC第9章 第4个月:对电子邮件和多渠道营销进行测量第10章 第5个月:Web站点实验和测试——转移力量到客户并实现有意义的结果第11章 第6个月:Web分析可行性背后的三个秘密第12章 第7个月:竞争情报与 Web 2.0分析第13章 第8个月及之后: 揭穿Web分析的神话第14章 高级分析概念——加速提升Web分析能力第15章 创建以数据为本的文化——实际步骤和最佳实践

章节摘录

  Web具有很多内在的复杂性。这一复杂性导致了在数据收集方面面临挑战,也使得在能够提供认识的能力方面缺乏信心。客户使用复杂性与使用什么数据、在哪里以及如何使用数据有关。机构复杂性则可以解释为报告数据、进行分析以及在公司中配置整体方案以帮助解决结构问题(网站、过程、人)。  5.1 捕获数据:Web日志还是JavaScript标记  第2章“数据收集—— 重要性和选择”介绍了收集Web点击流数据时所有可能的选择。我们可以利用Web日志、web beacons、JavaScript标记和包嗅探器。每一种方法都有它自身的优势和劣势。  目前大多数数据捕获是采用Web日志(以往通常如此)或者JavaScript标记(通常是因为目前的发展状况是大多数的供应商会抛弃其他所有方法,这种方法除外)。  目前的从业人员常常争论不休,上面两种方法哪种更好?他们该用哪种?现在有很多概括这两种方法优点的说法(比如在本书第2章中涉及的一些内容)。  现在缺少的是一个承担风险来建议选择Web日志还是JavaScript标记的人(假设您已经排除了其他人)。人人都可能会冒不必要的风险,对此我将提供以下建议:  当从站点收集数据时,您应当选择使用JavaScript作为武器。  唯一要假设的是您没有那种独一无二的站点,这种站点不和其他任何具有Web服务平台的站点相似。简言之,要假设的是您的站点没有特别之处。  如果您已经仔细地考虑过其他的数据收集方法,并且对于选择Web日志还是JavaScript标记一筹莫展,那么可以采纳我的建议。下面的部分详细地讨论了选用JavaScript标记的4个重要原因。  5.1.1 将数据服务和数据捕获分离  使用Web日志的时候,数据服务(携带数据的Web页面应用户的请求从Web服务器传出)是完全和数据捕获(随着页面被传送出去,服务器将Web日志文件中的信息进行日志记录)绑定在一起的。每次需要一个新的数据块时,就需要联系IT部门然后由它进行响应。对大多数公司来说,这不是一个很迅速的响应过程。  当使用JavaScript标记的时候,数据捕获就从数据服务中有效地分离出来了。Web页面可以从任何地方(从公司的Web服务器、访客的本地缓存、Akamai-type、ISP、缓存场)被传送,却仍然可以收集数据(页面加载、JavaScript标记被执行、数据流向服务器—— ASP或者内部的)。这一做法的好处在于公司的IT部门和网站开发人员可以做他们应当做的事情—— 提供页面,而“分析部门”也可以做他们应当做的事情—— 捕获数据。这也意味着双方在他们各自的工作中有极大的灵活性。自私一点说,这意味着分析人员可以独立地增强代码(无须更新页面的标记),更快地捕获更多数据。  对IT部门的依赖不会减少到零,大概会达到25%左右。然而,不会是100%,因为当进行数据捕获和处理的时候,它本身提供了很多的选择。  5.1.2 数据类型和大小  Web日志创建和存在的目的是为了收集服务器活动而不是商业数据。一直以来,我们利用Web日志收集越来越多的数据,并用合适的方式存储数据,以满足商业决策者的需要。Web日志不仅收集业务数据,还收集所有技术方面的数据(通常是通过支持一个站点的多个服务器,每个服务器都有日志文件,这些文件需要合并起来以提供对于每个用户的全面认识)。  JavaScript标记的开发是为了收集点击流数据用于商业分析。因此,它更多地关注所做的事,并且只收集需要的数据(必须承认不是所有的JavaScript标记都足够聪明,它们确实也会收集不需要的数据)。  这意味着利用JavaScript标记,每晚(分钟、小时或天)要捕获、存储和处理的数据量要小的多,并且从逻辑、运作和策略上来讲它都是一个更为健全的存在方式。  5.1.3 创新  不管好坏,大多数的供应商都已不再为使用Web日志作为数据源的产品版本提供支持。很多只提供他们产品的JavaScript标记(或者包嗅探器)版本。时间会说明这么做的结果会怎样,但实际的意义是更多的创新发生在数据捕获的复杂性、提供报告或分析数据的新的方式以及满足Web 2.0体验的需求等方面,和在JavaScript数据捕获的环境方面。  这使我们面临很苛刻的选择,是坚持我们自己定制的解决方案来捕获新数据,还是要挤入创新的大潮中,依赖外界的专业技术(不管选择哪一个供应商)利用供应商所做的投资来保持必要的创新呢?通常,对于任何将核心的竞争力集中在业务上而不是开发Web分析解决方案上的公司而言,这都是一个很简单的选择(必须承认,如果您足够强大,完全可以这样做—— 例如,Mal-Mart已经在它自己的数据库解决方案上进行了投资,因为世界上没有什么可以满足这个公司在规模上的需求)。  5.1.4 集成  渐渐地,我们超越点击流对客户体验做更多的测量和分析。两个很好的例子是实验和测试(尤其是多项选择测试)以及个性化/行为研究。在这两种情况下,额外的解决方案被附加到站点上,就开始了测试。通常这些解决方案在收集和分析数据以及测量成功方面都有它们自己的一套方法。  但是当致力于对于用户行为的整体的端到端的认识时,我们必须找到将来自于附加解决方案的数据和标准的点击流数据进行集成的方法以实现最优分析。否则,就要对每个附加解决方案做优化,不推荐这么做。和这些附加的解决方案进行集成—— 通常使用JavaScript标记、cookie和URL指示器,如果使用JavaScript标记的话,就会简单得多。很容易在Web日志中读取cookie,那么集成这些附加的解决方案就会快得多容易得多。    技巧:  总是要针对需求考虑可能的选择。这是一个劝诫,但更是一个请求,要给自己一个宽泛的选择范围。请仔细阅读第2章详尽了解每种数据捕获方法的优劣(因为JavaScript标记确实有一些需要考虑的缺陷,而另一方面Web日志也有一些优势)。  如果等着其他人来帮您做决定,那还不如自己做决定。这并不困难,不是吗?  5.2 选择最佳的Web分析工具  可以想象,挑选一个Web分析工具很关键。因为在一段时间内总是离不开它。我们往往过分强调历史Web数据的重要性,因此即使选择没什么进展,很可能也不会马上放弃它。  选择Web分析工具类似于选择一个配偶,您怎样选择配偶呢。不过这里的配偶是指Web分析工具—— 和谁在一起从此会生活得很幸福呢?  5.2.1 旧的方式  目前,选择Web分析工具最常见的过程从本质上来看是有缺陷的,是通过一个广泛而传统的9步法来选择工具,具体步骤如下:  (1) 收集所有的商业需求(目标、策略、KPI、报告、报告进度等),包含的内容越多越好。  (2) 收集所有的技术需求(站点架构、服务器、脚本、页面、IT需求等),还是要求包含的内容越多越好。  (3) 确保可以联系到每个要求以任何方式访问任何Web数据的任何人(在公司内部或外部),将他们的需求写入文档。  (4) 将所有前面的信息都放入建议需求(RFP)中;将供应商的财务稳定性、参考等都增加到需求中。  (5) 将RFP发送给诸多的供应商,并设置一个固定的回复时间。  (6) 接收RFP。  (7) 根据营销方案、美观程度和RFP的完成情况从中删除掉一些不重要的内容。  (8) 从公司里备受尊敬的跨越多部门的代表委员会中选择一个满足这些需求的供应商。  (9) 实现解决方案,然后进行庆祝。  整个过程会花费2~~~~4个月的时间,实现需要1~~~~2个月,而最后的结果是几乎总是挑选了(某个)最昂贵的Web分析解决方案。当您选择了一个不理想的工具后,就要经受3个、6个或12个月的压力,您还必须应付一些诸如此类的管理问题:“您使用了一个250 000美元的Web分析工具,但您还却提不出一些可行的建议,这是怎么回事?”  前述过程的致命弱点是它所依赖的是太多不切实际的需求(大多数的人甚至从来没有登录过这个工具),它严重脱离了Web、站点和Web分析的纷繁复杂的现实世界。而且这个过程太冗长、太耗费时间、太昂贵了(考虑一下公司的人员、过程和需要付出的时间),而您总是挑选最昂贵的工具。  5.2.2 新的方式  为了改变前面不理想的结果,可以忽略传统的9步法,不要将RFP发送出去(我相信您的供应商也会很高兴,因为不用再经受由RFP带来的痛苦了)。有一种替代的方法:一个基本的6步法,它将会让您找到合适的灵魂伴侣(我指的是Web分析工具),而且实现起来也更加迅速和廉价。  给重点用户以电子邮件的方式发送报告,报告内容包括流量(访客)、推荐URL、搜索关键字以及最多的浏览页面。重点用户是那些工作完全依赖于站点的人—— 所以是很少量的一些人。  一周以后,您亲自出面获得反馈和问题。  创建第2份修订的报告。  一周以后,您亲自去要求反馈信息。然后到第4步—— 因为在最佳的情况下,反馈会告诉您报告不够,或报告上有错误内容,或用户还需要更多的信息。而在最坏的情况下,您可以很快就了解到没人看报告,因此要做适当的决定并跟上行动。  只要在短短的3天之内,您公司就拥有了自己站点的数据,可以开始使用它审视它,并查看什么起作用什么不起作用。根据这些自己的数据,您就有足够的能力来作决策,这极大地加快了建立知识和专业技术的过程。  (4) 了解网站流量分析的局限性、标记、不匹配的数目,需要重做站点信息架构/URL/ID/参数/cookie和其他提供数据的设施(第17天)。  到此为止,您可以发现找不到答案的原因并不是Web分析工具的问题。为所有的问题列一张清单。您还需要一个具有一些技术能力的人。这个清单通常包括URL结构、丢失的数据(需要用于新的URL参数或cookie值),还可能包括升级的JavaScript标记、在服务器端由IT部门维护而在浏览器端需要的数据(对标记方法而言)。  借助于核心小组的帮助,为这些问题确定优先级,量化它们在业务上的作用。例如,没有参数=没有获得投资回报(RIO)方面的决策=在不理想的决策方面花费的1000 000美元。  (5) 着手行动(第27天)。  和IT部门或者站点技术部门合作,解决问题,使站点可以获得数据。  这通常是一个痛苦的过程。投入所有的资金(如果有必要的话可以借一些)。  切记保持报告的不断生成,让学习过程高速运转,当新的数据变得可用的时候增加报告和扩大分析范围。  逐渐扩大数据使用者的范围。  步骤5可能会花费时间的长短,这取决于规模、组织结构,—— 更重要的是—— 公司的思路。乐观地讲,我会说这需要一个月的时间。  如果您有高级领导层的支持,那么是时候告诉他们商业影响的事情,并在跨越组织机构界线更快地启动必要变化方面请求帮助。如果没有这方面的支持,那么现在是一个很好的时候寻找一个领导者,他从大量的Web数据中能获益最多,并且会惊叹于能够建立的东西是免费的,我要附加一句—— 在大约一个月以内。向他们展示对他们来说最有意义的分析,并花几分钟的时间来理解哪些类型的分析是和他们相关联的。即使在这个早期的阶段,也会在您免费的工具中发现一些可以“讲”给任何人听的东西。  (6) 对进展作一个真实深入的重要的自我回顾(两个月或者之后)。同样可能获得下述每个重要结论:  您会发现报告不等于分析,后者需要在公司中根据Web分析做一次大的升级。  您会发现数据或者工具并不是问题—— 问题事实上是在使用数据来驱动决策方面和在使站点技术部门更好地提供数据方面的公司文化。  您会发现Google Analytics或者ClickTracks完全符合公司的所有Web分析的需求。  您会发现对公司而言,当有独特的与所在的环境有关的高端需求时,Google Analytics或者ClickTracks并不是合适的Web分析工具。  您会意识到Web分析(点击流数据)并不足以获得Web认识,所以会抽出本来准备投资在Web分析供应商上的资金,转而投资在体验/研究分析上(见第1章“Web分析—— 当前和未来”中的三位一体思路)。  如果是除使用错误工具之外的其他因素带来局限性,那么要采取一系列特定于每个公司的复杂行动并花费很长的时间来实现它。好的方面是知道需要做什么,而管理部门也知道障碍是什么(并不是没有工具,也不是所拥有的工具存在问题)。  如果工具导致局限性,那么要对不同的工具做一个明智的选择。对此有一些建议:  您的RFP应当包含碰到的特定问题以及目前使用工具的局限性(Google Analytics、ClickTracks、StatCounter)。  RFP应当仅仅和工具有关。没有供应商会乐意解决您公司的问题,例如不能捕获数据、没有人选来做分析、不能确定站点元数据或者丢失了标记。这些是您要解决的问题。  选择不同的供应商。记住,最大的3家供应商提供大致相同的一套特征和优势(除了5%的特征可能是对特定的业务有价值的)。如果最后的选择清单上只有这3家最大的供应商,则可能遗漏了一个真正不同的选择。如果想要一个真实的比较,那么该引入一个有本质区别的供应商。可以考虑Coremetrics、Visual Sciences、IndexTools、Unica或者ClickTracks,其中每一家都能展现显著不同点。  对这些概念给出一个真正的证明:在您的现实站点上实现每套供应商的工具,将这些工具和您以前用过的免费工具进行比较,观察两者之间是否存在真正差别。任何想与您做生意的供应商都会让您有30天的试用期。  2. 新方式的优点  即使从花费在步骤5上的时间来看,也已经要比传统的9步法快得多了。在传统过程中,您需要花2~~~~4个月的时间来挑选工具以及更长的时间来确定所有非工具的问题,并获得所有知识。  仅仅使用6步,您就已经实现了一些似乎不可能实现的东西:  不需要通过感觉来首先确定公司存在的问题(比如数据捕获或者基本的智能升级)。如果您第一步是要挑选一个昂贵的可扩展的供应商,向他们支付报酬仅仅是为了确定面临的问题,那可以有其他免费的选择(因为确定问题的过程需要几个月,所以这可以省下大量的资金)。  您至少已经创建了一个核心的小组,这个小组成员了解Web分析的概念以及知道所有Web分析的酸甜苦辣。  IT:他们知道要安装一个Web分析工具是很简单的—— 选择JavaScript的话,只需复制、粘贴、保存和完成。  网站开发人员:他们了解所有在提供数据以采取行动方面的细微事情,这些数据对业务来说至关重要—— 添加到URL的参数、要更新的页面名称、复制页面中的链接使得可以进行追踪等。  报告创建者:他们知道Web分析目的更多的是分析而不是报告,并且将这个被建议的过程推进到下一个级别对他们来说是一个很方便的实践。  Web分析师:他们知道分析师的身份让他们可以使用任何工具来发现答案,当然他们负责最终的工作安全,所以我们喜欢他们。  营销人员:魔术并不存在。进行促销活动要有远见卓识,而且在实施之前需要和网站开发人员以及分析师进行协作,使得实施以后各种因素都可以被追踪。Web分析工具不会为他们每天烹制咖啡,也不会给他们传递信息。  业务领导者:他们学会对职员是否具有合适的技能以及在他们工作的过程中是否有一些主要的差距进行真实的评估。他们知道Web分析真正的成本不是在工具上—— 而是在人身上(记住10/90规则)。  您睁大眼睛为公司挑选了最好的工具,并且在这个过程中增强了公司的分析能力。  5.3 了解点击流数据的质量  第2章开头讲述了GIGO的原理:无用数据进出。根据需要选择合适的数据收集方法并确保它被正确地实现是很重要的。然而可能没有其他的活动比数据质量在站点分析方面更至关重要了。  对于数据收集来说,Web是一个独特的挑战,这部分是因为下述的原因:  站点体验总是在不断地演化。  技术总是在不断地变更。  第2章中概述的大部分点击流方法并不牢靠(例如,不是所有的用户都会打开JavaScript、Web日志并不提供数据缓存的页面、beacon只收集少量的数据,而且容易受到删除的cookie的干扰)。  每个供应商开发了他们自己“最优”的方法来捕获和处理数据。  用户使用很多不同的媒介来在Web上进行冲浪(浏览器、扩展物、附加工具等)。  数据在万维网上不断地变换,进行分割和聚合。  我们依赖“脆弱”的如cookie这样的工具来对个体进行跟踪,而cookie跟踪的仅仅是浏览器,如Microsoft的Windows Explorer、Mozilla的 Firefox或者Apple的Safari,而不是人。  个人防火墙、安全设置和反间谍软件总是从中作梗,使我们不能准确地收集数据。  所有的这些都导致了一个不标准的环境而难以收集数据。想象一下其他的领域,比如电信业或者零售业,没有多少可变性,数据质量控制更容易实施,而公司也可以和一些标准接轨。而在Web上不是这样的。数据质量方面的所有挑战带来了如下的问题:  任何事物之间似乎都是没有关联的。  每次返回报表,数字就会改变,尤其是对历史数据而言(即使是最近的历史)。  假设在隐私政策允许的范围内,要追踪用户就算不是不可能,也会很困难。  每次更换供应商,要让旧供应商的数据和新供应商的数据相兼容是很困难的。  根据实现方法,必须总是处在训练模式下,并努力地使解决方案能够正确地报告数据(不管是通过增加新的机器人程序、逻辑或者过滤器来过滤日志中“不好”的数据还是通过保持页面同站点URL结构和其他的变化同步的定义)  通常我们必须使用数据采集来获取数据(不是在站点一些显要的页面中放置标记的采样,而是用统计采样捕获会话数据以迅速地获得数据产生报告)。  新事物不断出现,使得已有的工具产生了测量的问题(考虑一下爬虫程序事先获取数据、Ajax、Adobe Flex或者RSS)。  所有这些已经足够让我们头疼了。即使我们像胆小的老鼠一样不断地徘徊并试图获得进展,但所有的事物之间仍然没有关联。  目前有一个事实在一段时间以内都不会有改变:Internet上的数据质量太糟糕了。  而您对此却无计可施—— 最起码目前是这样。  我们越快清楚这些,就能越快地克服这个问题并且向前推进。您所喜欢的供应商,不管他值10美元还是1 000 000美元,他说什么真的不重要。通常所有的供应商都用类似的方法来收集数据。是的,每个供应商也会有一些小的改进,但这并没有多大的作用,Internet这个奇怪的小生物总是在不断地演化和变更,不过它还是有其自身的魅力和内在美的,这也是Web总是让我们高兴的原因。  有公司在研发上花费了大量的预算,用于改进现状或者探索新的完全不同的方法来收集Web上的数据。但即使这些根本性的改变真的产生,数据质量仍然并不理想。我们必须要考虑到数据质量还会是个问题,而又必须要克服它。我们不能指望这种质量可以和ERP以及CRM系统(它们一直存在并被创建来捕获一部分Web所捕获的数据—— 即使这很小的一部分也是高度结构化的)的质量相媲美。  尽管上述这些事实都存在,但我可能还会相信您的决策者不会因为我这个数据质量糟糕的论调而让您逃过一劫。您需要不犯什么错误,需要花时间来赢得他们的信任,说服他们尽管数据质量不理想,但还是可以从收集和分析的数据中作出很好的决策。  要克服数据质量糟糕的问题,必须采取下面的步骤:  (1) 抑制自己,不要一头扎进数据中寻求数据差异的根本原因—— 尤其是当您在公司的地位只下降了10%的时候。  这是一个费时而琐碎的过程。另外,在您找到一些表面的解释时,对于数据不能奏效已经有更多的原因存在了(至少在宏观的层面上)。如果您的地位只是下降了10%或者更少,那您做得已经不错了,因为这是在您的领域中可以承受的压力。少于10%就已经很好了,很遗憾但确实如此。  (2) 对于数据要假设一定可宽容度。  当数据被显示出来时,要清楚地理解数据收集的方式,然后鼓励自己和您的决策者,假定这些数据在一定的宽容。比如看待某样事物,您可能会相信80%是真的,而业务领导可能会说75%,也有人只相信70%。这都不是问题。  人是很复杂的,每个人都有不同的生活经历,所以我们每个人的决定都不一样,这不是问题。要正确看待试验和其中的失败,要敏捷地随之变化,并给自己提供一个可接受的关于数据的基线。如果您能对它有了75%的信心。这就太棒了!它就成了您的朋友,这时深入其中,您可能会非常兴奋。  (3) 作出适当的决定。  这个步骤最需要勇气。它需要最大程度上的思想飞跃,因为人们天生就追求完美并寻求对事物100%的信任(事实上这在任何事物中都不存在)。但这一步之后,剩下的过程就比较轻松了。查看数据表格,然后在75%的信任度下作业务决策。  如果对数据有100%的信心,那您就具备让人类登月的能力了,对同样的数据有75%的信心,至少您可以去买一架望远镜来对月球进行研究。所以重要的是您做了决策,并且让实施工作有了进展。  例如,一个随机的重要的KPI变化了15%。在对于数据的100%的信心之下,您可能决定在下一步的营销活动中花费90 000美元,或者完全改变站点的架构,或者创建一个新的检验过程。而在对于15%的KPI变化只有75%的信心的时候,您还可以作出只花费60 000美元的决定,在改变站点架构之前先进行一个多项选择测试以获得更大的信心,或者还可能创建一个检验过程。当对数据有75%的信心时检验就显得非常重要了。  这是阐述在对于数据的信心低于100%时仍然可以作出决策的一个例子,我们鼓励这种行为。如果您比决策者更信任这些数据,那倒没什么问题,他们会随着时间而明白过来。  对这个行为进行建模非常重要。如果您发现要自己在思想上有这样的飞跃都很困难的话,要让您的决策者或者周围的人在思想上产生下一步所需要的飞跃就更困难了。  (4) 在特定的领域进行深入的钻研  在您处在进行决策的最佳状态,而不是被数据质量不好而搞得崩溃之后,我建议您对一些小的特定于环境的数据片断进行深入钻研。目的是了解为什么那一小片数据不是您所预期的。如果您喜欢数据探索的工作,就一定会喜欢上它。老实说,从1T字节的数据中摸索答案是非常有趣的一件事!  例如,您可以从一个特定的指向URL、一个特定的搜索关键字、一个星期内所有电子邮件的销售流量或者浏览某个特定页面的所有人中获取所有的流量,从而了解数据问题。通过缩小关注范围,可以减少分心的次数,增加隔离因果关系的可能性,并开始更好地了解复杂的站点环境。  (5) 坦然面对数据及其局限性  一段时间以来,当您对数据的理解越来越深入的时候(数据收集、存储、操作、处理和分析),对于Web认识的解释和要求也要做适当的调整。随之而来的是,您对数据的舒适度不断增加,从75%到78%到85%再到90%等。尽管不可能获得100%的信心,也可以开始为业务作更有信心、更加重要的决定。  我们的目的是稍稍增加自己对数据的信任度,而对于决策者来说将这个增加量要减去50%(这对他们来说更加困难)。  (6) 争取计算的一致性  在Web上,绝对的数字很少会起作用。趋势,尤其是分解了的趋势,才是真正重要的。记住这一点很重要。要求绝对正确的数字是没有意义的,原因我们已经讨论过了。即使您做错了,只要和这些趋势保持一致,了解这些趋势以及对业务来说比较重要的部分,虽然在数据质量上存在一些小的差别,也可以降低不理想的决策的可能性。  一定要记住,不管使用了什么数据收集方法—— 日志、标记或者嗅探器,或者使用了哪个供应商的工具—— Omniture、WebTrends或者ClickTracks,都可以发现可行性认识来推进业务。对站点来说没有完全正确的数字。当您为了获得认识而进行数据分解时,每种方法或工具存在的10%的差异就变得没那么重要了。  需要关注数据质量的两个特殊情况  每个规则都有例外。在以下两种情况下,数据质量是不确定的,但值得进行特别的关注以了解发生的情况。  从一个分析工具切换到另一个  当从一个分析工具切换到另一个时,有大量的数据是值得深入思考的,因为在进行切换的前后,数字可能大不相同,有时候相差巨大。我的建议是,与其对这两者进行调和,不如在4~~~~8个星期里同时运行这两种工具,并简单地标注这两者在关键的度量方面的差别。然后创建一个乘法器,当需要比较历史趋势的时候可以使用它。  例如,要把Omniture替换为WebTrends,或者把WebTrends替换为CoreMetrics,或者把Google Analytics替换为Omniture,或者……您想到了办法,那就是Omniture/ WebTrends/HBX/Coremetrics和ClickTracks/Google Analytics/WebTrends/Omniture。同时运行这两种工具,可以看到旧平台上的访客总是要比新平台上的访客多出大约15%。使用乘法器来进行旧的数据趋势的比较,针对最重要的3个或4个度量(页面浏览、不同的访客、站点上的停留时间)进行并不用对它们进行协调。  乘法器会帮助节省大量的资金和时间,也减少了很多的麻烦。  进行购物和结账过程的分析  在分析购物和结账过程的时候,需要高度的精确性,因为在电子商务站点上涉及到联机环境下的金钱问题。这时就要花时间来进行协调。JavaScript标记是收集数据的一个不太理想的方法。如果平台允许,那么使用一些ATG所使用的方法:事件日志。每次有人在进行结账时,事件日志从服务器(不是页面)精确地捕获连同业务上下文在内的数据,这为进行分析以获得关键的认识创建了强有力的数据集。  总之,点击流数据的质量可以是一个需要深入思考的问题,它会导致耗费的精力要比所需要的多得多。悲哀的是,对它的探索没有终点,也没有成功的结果出现。可能有一天这样的情况不再存在。到那时,遵循6步法(不管是作为思路还是方法)会有助于加快决策的过程以及从数据产生行动的时间(以及行动的规则!)。  5.4 最佳实践  我们已经多次强调了数据收集的重要性。确保和IT部门以及供应商团队进行合作,以保证在站点上正确实施Web分析,这是极其重要的。这一点对于除了Web日志以外的所有方法都尤其正确,因为在Web日志中,Web服务器会捕获出去的所有页面的一些信息。而对于其他的方法,如JavaScript标记,如果没有正确地实施,就捕获不到数据,并且没有办法重新获得它。  通常实现的工作是交给友好的IT人员和Web分析供应商的。而在实现的过程中需要作大量的业务决策,很多都具有海量数据的复杂性。因此很迫切的是Web分析师、站点拥有者和决策者要主动地参与实现过程。  这一部分涉及到从业务的角度来实现最佳实践。使用这些最佳实践的目标应当是提升认识力,这有助于业务人员问出正确的问题并完成一个成功的实现。Web分析供应商会是让独特的技术方针实现的最佳资源。  最佳实践如下所述:  (1) 标记所有的页面  (2) 将标记放在最后  (3) 内联放置标记  (4) 确定独特的页面定义  (5) 智能地使用cookie  (6) 考虑链接编码的问题  (7) 注意重定向  (8) 验证数据被正确地捕获了  (9) 对丰富的站点体验进行正确的编码  请注意最佳实践是被编号的,当实现它们的时候,可能在创建一个带有编号的清单,并在进行的过程中对这个清单的条目进行核对。  5.4.1 标记所有页面  这个步骤似乎非常简单。应当标记所有的页面,这仅仅是因为JavaScript不像其他的方法,使用它的时候,如果页面没有被标记,就无法获得数据,并且没有办法重新获得(除了访问Web日志文件,而这可能是一个不寻常的挑战)。  简单的工具,比如来自REL Software的Web Link Validator,在检查所有的页面是否被正确地标记方面是很有用的。它除了检查丢失的标记还可以做很多其他的事情,所以是一个很好的工具。您可以从网站上了解它所有的特点。运行Web Link Validator将花费95-795美元—— 物有所值。  一个最佳的实践是每周运行一次这个小工具或者类似的工具。然后将报告连同丢失了标记的页面清单一起递交给Web开发小组。  5.4.2 确保标记放在最后(客户优先)  在很多的Web分析中,您可以看到标记在正上方、头部或者在标记之前。这不是最好的状态。JavaScript标记应当放置在尽可能靠近标记的地方。这样做的原因很简单,因为标记是页面中最后被加载的东西。在分析服务器响应比较慢或者近乎崩溃(可能性更小一点)的情况下,这样做至少可以确保Web页面和正文迅速加载。  我们的站点首先是为了客户,然后才是为了我们收集数据。  5.4.3 标记应当内联  这往往会影响到很多工作的实施状况。记住这个金科玉律:JavaScript标记应当被内联。它们不应当被放置如表格、框架或者其他事物的内部这样的地方。标记的放置方式会很大程度上影响到准确捕获数据的能力。  5.4.4 确定独特的页面定义  站点在同客户交互、使内容个性化或者重新利用同样的.html(或者.jhtml、.asp、.jsp)页面来做不同事情的方式方面都越来越多地变得动态了。这意味着再也不能依靠product-name.html来定义一个独特的页面标识了。  JavaScript标记,也可能是所有的方法,都能收集整个URL和所有的参数。在完成过程中(如果经常改变站点),必须要确保“教会”了Web分析工具哪种文件名和参数的组合定义了一个页面。  5.4.5 智能地使用cookie  尽可能使用第一方而不是第三方的cookie。您可以收集到的信息有3种类型:  源属性:这表示了人们来自哪里(站点、活动、搜索引擎等)。  页面属性:这表示了人们可以看到什么、看到的频率以及在哪里可以看到、在所有内容中的页面分组等。  用户属性:这表示了这个“人”是谁(通过永久匿名ID、这个人是否有登录名、这个人是不是测试的一部分等)。  通常,源属性和页面属性通过URL和参数可以被很好地捕获。用户属性用cookie存储是最佳的。但当只捕获非PII(个体识别信息)时要仔细点,要在隐私政策中明白地说明捕获的内容。这些cookie会保持在浏览器中,并且不需要填充URL就可以很容易地由标记读取并扩充。  有时候用户属性—— 例如,一个匿名的cookie值或者在New York Times站点登录到TimesSelect,通常在会话开始之后由服务器端保存。要知道在这种情况下,JavaScript标记会对这些数据视而不见。  警告:  请注意Internet Explore 6和Internet Explore 7限制每个域cookie的数目为20。在这之后,它就清除第1个cookie,然后是第2个等。这不太友好。有解决这个问题的方法—— 比如,通过合并cookie或者使用子域。请检查一下在您可能设置了cookie的站点上的所有解决方案(Web分析应用、多项选择测试应用、调研等)中,总共设置了多少cookie,如果有的话,和开发人员进行协作来解决这个问题。  5.4.6 考虑链接编码问题  链接是Web标记的方式,我们通常在所有的页面中设置了大量的链接。但事实是,和标准的HTML标记相比,有很多种方法可以对一个链接进行编码。选择用怎样的方法对链接进行编码会影响到跟踪点击的关键能力。当实现Web分析工具的功能时,有一些问题需要意识到并进行考虑。  1. JavaScript包装器  在站点上链接通常是用JavaScript包装的。而且,通常这些是弹出的链接,但它们也可以作其他的用途。例如,下面这个链接:  JavaScript: var x=window.open  当访客点击这个链接时,站点会弹出一个新的窗口,其中列出了产品的价格。考虑到是否会用到诸如站点覆盖(site overlay,也就是点击密度)的报告是很重要的。因为JavaScript包装器的原因,这些链接可能不会显示点击的数量。这个问题并不是对所有的供应商都会存在,但只要有足够多的供应商,您都应当意识到这一点。  建议只有当绝对需要的时候才在链接中使用JavaScript包装器。记住,这不仅对于Web分析来说是个问题,对搜索引擎机器人程序来说也是个问题。它们不会跟随JavaScript链接(或者执行JavaScript),所以它们可能不会到达或者检索在JavaScript中包装的有价值的内容。  2. 锚  锚在链接的末尾,它只是一个访客在同一个页面之间跳转的的方法。  通过点击这个链接(其中#features是锚的一部分),访客会处在同一个页面中但会跳到了产品特征那部分。  在访客浏览特征内容的时候,大多数的Web分析程序不能捕获到这个点击。它们只会将它作为产品页面的重新加载来进行捕获。如果想捕获页面的哪个部分被浏览了,必须首先意识到这一点再和特定的供应商进行合作来进行特别的编码。  3. 页面上到达同一目标的多个源链接  在页面上不同的位置有多个链接指向同一个目标页面并不少见。例如,在Amazon.com的站点上,能到达Books部分的链接出现在头部、导航的左边、Web页面体以及页面右边的促销区域。这4个链接指向了同一个目标页面。  从追踪的角度来看,这可能是一个问题,因为对Web分析工具而言,它们看起来都是同一个链接。工具不会告诉您哪个链接被点击得更多,而且头部的链接其实是对空间的浪费。  大多数Web分析应用的解决方案是只增加一个参数使得每个链接不同。为了减少IT部门的工作量,可以创建一个标准化的规则,并将这些规则应用到站点上的全局元素中。  现在,对Web分析工具来说,它们中的每一个都是不同的链接,而又可以精确地计算出哪个链接的效果更好。通过使规则全局化,Web服务器可以为头部、页脚和导航元素的每个链接自动增加一个lid(链接ID)的参数,并且能够跨越站点提供很好的数据。  最好事先意识到这3个问题并且使编码在站点上被正确实施。那样的话,就可以精确地衡量生产出工具所需要的时间以及所需要的站点升级。另外,还可以避免启用工具之后的争议,因为这些问题的出现会使工具看起来很糟糕,而事实上不能跟踪其中的一些问题并不是工具的过错。


编辑推荐

  经久不衰的全球畅销书;好评如潮的5星级经典专著;独特的“每日一步”手把手实践指导。  开发成功的Web分析策略  Step-by-Step指南  使用这本优秀的现代指南正确学习当今Web分析领域中的机遇和挑战。本书由业内一线从业人员写成,它不仅仅是介绍了概念和定义,还挑战了关于该领域的一些根深蒂固的观念,并手把手地指导您如何执行成功的Web分析策略。  Web分析专家Avinash Kaushik,以其引人深思的写作方式,揭露了行业里一些主流神话的谬误,并指引您从分析结果中获得可行的认识。教您如何撇开点击流分析的方法、了解定性数据是关注的焦点的原因,以及介绍其他一些认识和技术,帮助您在不牺牲企业收益的情况下开发以客户为中心的思路。本书内容包括:  了解数据收集方法的利与弊  找出能够不通过计算统计页面浏览数却仍能深入了解客户的方法  学会使用“3层次问答”的方法来确定有价值的度量  优化组织结构,并选用合适的分析工具  理解和应用高级分析理念,包括SEM/PPC分析、细分的强大功能、转换率的最佳实践等  利用快速启动解决方案来解决博客和电子商务站点、客户支持站点和小型业务Web站点面临的问题  了解构成优秀实验与测试平台的关键因素  使用竞争情报分析来获得认识并激发行动  您还将发现:  快速提高Web分析能力的10个步骤  在组织中创建以数据为中心的文化的7个步骤  测量博客站点成功与否的6种方式  能通过Web 分析获得可行动认识的3个秘诀  优秀Web分析师的10大标志  本书丰富的学习资源通过支持网站http://www.tupwk.com.cn包提供,资源有:  3个多小时见解深刻的语音博客资料,包括6个专题:Website Compertitive Inteigence Anaysis,Conversion Rate Optimization-What、Why、How,Measuring Rich Internet Appications,Measuring RSS & Bogs,Traditiona Web Anaytics Is Dead,Web Anaytics & Hiring Taent;45分钟专题为Customer Centric Web Decision Making的视频资料,还提供了书中核心主题的PowerPoint演示文档,以及“Web Anaytics关键度量和KPI(关键业绩指标)”、“交互式广告术语表”等其他有用的分析资源。

图书封面

图书标签Tags

广告

下载页面


精通Web Analytics PDF格式下载



对于web分析来说是一本相当不错的书,并不像网上评论的那样翻译得不好,我估计是很多人对网站分析还不够了解,暂时还没法直接领会书中的一些专业名词,如果有一些日志分析工作经验的话应该很容易理解,而且深受启发。目前还没读完,不过真的感觉受益匪浅。在这里感谢本书的作者和译者!


如果你想了解网站分析,必须看!Avinash是网站分析的传教士。不过如果想原汁原味了解,建议也应该读读原版英文。


非常不错的一本书阐明的非常详细建议看看


好书,行业领域大师级的著作


这本书确实很好,不过翻译的不咋地,所以我准备英文版和中文版对照的看。。。打5分是给英文版的


内容是我需要的,比较满意的!


感觉书还可以,寄来的时间也很快


这本书总体来说还是介绍了很多关于WEB分析的方法、技巧!尤其是一些工具的使用。对于一定基础的人来说还是蛮实用的。不过就是中文翻译后觉得没有原版的好。


书收到了,还在看,感觉应该是有一些实用的东西值得借鉴的。也许本人更喜欢干实事吧,觉得此书还是有一定实践价值的。


中文翻译的实在差强人意,有些名词前后还不一致,一看就是不同的人翻译的,有些图表可能还有问题,不管怎样,这么快能看到中文版,已经不错了。


书到的挺快的,大概翻了下,貌似还行.....


我的wa启蒙书~~
++


不错,就是比较难懂


送货比较快。还不错!


翻译讲究“信达雅”,但现在很多人,会说几句ABC,就敢翻译国外的一些优秀资料,结果是“雅”根本不可能,“达”也几乎没有,就连最基本的“信”能做到的也不多。特别是看了一些翻译的书以后,这种感受就更强了。

买Web Analytics这本书前,已经在当当****豆瓣调研了一圈儿,整体评价也就是个“将就”,不过该书英文版的评价还是不错,国人给将就的原因也都在翻译不太好上,想了想,还是订了一本,放了几个月一直没空看,直到过年回家。

看了几章后,发现书评并不客观,所有的书评众口一词:译者不是业内人士,所以不懂WEB方面的语言,因此翻译质量差强人意。

我的感觉是:译者不是中国人,所以翻译质量惨不忍睹。为此,我特意多看了几眼译者,并牢牢记住姓名以免重蹈覆辙。为什么说译者不是中国人呢?原因很简单,英语和汉语有个很大的区别在于,英语,特别是偏学术的英语喜欢用从句套从句,三行没逗号很正常,五行没逗号也不稀罕。但汉语,除了没有标点符号的古文,可能出现这么长的句子吗?以前我认为不可能,看了这本书后,我不得不改变我的观点:一切皆有可能。

试看这句译文:高级决策者对调研的建议不采取行动的一个最大的原因可能是他们不了解背景。如果换成下面这句是不是更容易理解:针对调研后给出的建议,高级决策者往往并不采取行动,这其中最主要的原因可能是他们并不了解调研的背景。

再看这句:通过提供对于客户访问站点的原因以及他们遇到的挑战的很好理解,有助于转变站点拥有者的思路,使他们不仅仅停留在“让我们为了转换率而解决问题”这个层面上(不仅仅是单击购买按钮)。这句话,如果和Google翻译相比,当然是强太多了,问题是Google翻译是不用发工资的,几个大活人最后就翻译到这个水平,不找块砖把自己拍死,还真有脸活在这个世上,更可怕的是,还有脸把这种文字出版了???

“使得传统Web分析较长时期内存在的基石是预打包的关键绩效指标。”
先不说这句话有多拗口,啥是“预打包”? 多半是英文原词原翻,译者自己也根本没理解是什么意思。
  
“在这种情况下,来自于Google的任何人的点击不同于其它访问者的点击,如果有人从Google来到您的网站,也就可能把内容定得更好。”
  我想了半天,大概是说不同来源的用户,有不同的行为特点吧?
  这也太考验人了。。。

以上几句不是在全书中精挑细选出来的,而是随手翻几页,就看到几处不说人话的地方。更加不说人话的例子就不举了。现在看明白了,真不是隔行如隔山导致的,如果是那样,翻译出来的内容,应该是谁也看不懂才对,但你经过努力理解并在脑中重新排列组合后又勉强能看明白,只能是另外一个原因:译者的祖宗就不是中国人!

汉语不是不能用从句,而是将从句用标点符号和“的”进行了适当的拆分,而纵观上面这两句话,要么不会用逗号断句,要么一句话里能有N个“的”,不把你“的”晕绝不罢休。此外,语序也是一个问题,汉语和英语的语序有时是正好相反,用原文对比就能看出来。

现在有些家长重视孩子英语胜过母语,这样的教育方式培养出来的所谓翻译人才,连自己的母语都用不好,翻译出来的书,质量就可想而知了。

总结:书是好书,让翻译糟蹋了。但,总比Google翻译要靠谱一点儿,毕竟是人肉翻译的,所以如果E文实在不行,而中文理解能力超强的,还是可以买来看看的。


理论性太强,要有很深认识


这本书一般般,华而不实


翻译不专业,印刷质量差!


为领导买的书,无自用。


内容还可以,翻译非常业余,也许不是业内人士翻译的。很多专业术语看不懂,后来才知道,翻译的实在太烂。建议购买原版,原来以为看翻译版的可以省点时间,现在我承认我做出了错误的选择。


很多句子翻译的不通顺,太牵强,还是辛苦点读原版吧


相关图书