Phân tích trang web

Bách khoa toàn thư mở Wikipedia
Bước tới điều hướng Bước tới tìm kiếm


Phân tích website (Website analytics) là việc đo lường, thu thập, phân tích và báo cáo dữ liệu web nhằm mục đích hiểu và tối ưu hóa việc sử dụng web.[1] Tuy nhiên, phân tích trang web không chỉ là một quá trình đo lưu lượng truy cập web mà có thể được sử dụng như một công cụ để nghiên cứu thị trường và kinh doanh và để đánh giá và cải thiện hiệu quả của trang web. Các ứng dụng phân tích trang web cũng có thể giúp các công ty đo lường kết quả của các chiến dịch quảng cáo in hoặc quảng cáo truyền thống. Nó giúp người ta ước tính lưu lượng truy cập vào trang web thay đổi như thế nào sau khi ra mắt chiến dịch quảng cáo mới. Phân tích trang web cung cấp thông tin về số lượng khách truy cập vào một trang web và số lượt xem trang. Nó giúp đánh giá lưu lượng truy cập và xu hướng phổ biến hữu ích cho nghiên cứu thị trường.

Các dữ liệu thô thường có trong các báo cáo phân tích website:

  • Lưu lượng truy cập web (Web Traffic): Số lượng khách truy cập trang web đến và đi mà bạn nhận được trong một khoảng thời gian nhất định.
  • Lượt xem (Views): Số lần trang được xem.
  • Số lần nhấp (Clicks): Số lần liên kết đã được nhấp.
  • Khách truy cập duy nhất (Unique visitors): Khách truy cập lần đầu đến trang web mỗi ngày, mỗi tuần hoặc tháng.
  • Tỷ lệ thoát (Bounce rate): Thường thấy trong Google Analytics, tỷ lệ khách truy cập rời khỏi trang web một cách nhanh chóng mà không tương tác góp phần vào tỷ lệ thoát.
  • Tỷ lệ chuyển đổi (Conversion rate): Tỷ lệ khách truy cập mua hàng từ trang web của bạn, đăng ký nhận bản tin hoặc đăng ký một dịch vụ.
  • Lưu lượng truy cập không phải trả tiền (Organic traffic): Khách truy cập đến trang web của bạn trực tiếp từ công cụ tìm kiếm chứ không phải từ phương tiện truyền thông xã hội hoặc blog khác.
  • Lưu lượng truy cập trực tiếp (Direct traffic): Khách truy cập đến trang web của bạn bằng cách truy cập trực tiếp vào địa chỉ của bạn chứ không phải từ công cụ tìm kiếm.

Quy trình phân tích website[sửa | sửa mã nguồn]

Hầu hết các quy trình phân tích website các giai đoạn chủ yếu,[2] đó là:

  1. Thu thập dữ liệu: Giai đoạn này là tập hợp các dữ liệu cơ bản, cơ bản. Thông thường, những dữ liệu này là đếm số. Mục tiêu của giai đoạn này là thu thập dữ liệu.  
  2. Xử lý dữ liệu thành thông tin: Giai đoạn này thường lấy số liệu và biến chúng thành tỷ lệ, mặc dù vẫn có thể có một số số đếm. Mục tiêu của giai đoạn này là lấy dữ liệu và chuyển nó thành thông tin, cụ thể là các số liệu.  
  3. Phát triển KPI: Giai đoạn này tập trung vào việc sử dụng các tỷ lệ (và số lượng) và áp chúng vào các chiến lược kinh doanh, được gọi là các chỉ số hiệu suất chính (KPI). KPIs thường xử lý các khía cạnh chuyển đổi, nhưng không phải lúc nào cũng vậy. Nó phụ thuộc vào tổ chức tạo ra.
  4. Xây dựng chiến lược trực tuyến: Giai đoạn này liên quan đến các mục tiêu, mục tiêu và tiêu chuẩn trực tuyến cho tổ chức hoặc doanh nghiệp. Những chiến lược này thường liên quan đến việc kiếm tiền, tiết kiệm tiền hoặc tăng thị trường.  

Một chức năng thiết yếu khác được các nhà phân tích phát triển để tối ưu hóa các trang web là thử nghiệm.

  • Thử nghiệm và thử nghiệm: Thử nghiệm A / B là thử nghiệm có kiểm soát với hai biến thể, trong cài đặt trực tuyến, chẳng hạn như phát triển web.  

Mục tiêu của thử nghiệm A / B là xác định và đề xuất các thay đổi đối với các trang web làm tăng hoặc tối đa hóa hiệu quả của kết quả quan tâm được kiểm tra theo thống kê.  

Mỗi giai đoạn tác động hoặc có thể tác động (tức là, các ổ đĩa) giai đoạn trước hoặc sau đó. Vì vậy, đôi khi dữ liệu có sẵn để thu thập ảnh hưởng đến chiến lược trực tuyến. Những lần khác, chiến lược trực tuyến ảnh hưởng đến dữ liệu được thu thập.

Bước 1: Thu thập dữ liệu[sửa | sửa mã nguồn]

Phân tích tệp nhật ký máy chủ website (Log file analysis)[sửa | sửa mã nguồn]

Máy chủ web ghi lại một số giao dịch của họ trong một tệp nhật ký. Nó đã sớm nhận ra rằng các tệp nhật ký này có thể được đọc bởi một chương trình để cung cấp dữ liệu về mức độ phổ biến của trang web. Do đó phát sinh phần mềm phân tích nhật ký web.  

Đầu những năm 1990, số liệu thống kê trang web chủ yếu bao gồm việc đếm số lượng yêu cầu của khách hàng (hoặc lượt truy cập) được thực hiện cho máy chủ web. Đây là một phương pháp hợp lý ban đầu, vì mỗi trang web thường bao gồm một tệp HTML duy nhất.  Tuy nhiên, với việc giới thiệu hình ảnh trong HTML và các trang web kéo dài nhiều tệp HTML, số lượng này trở nên ít hữu ích hơn. Trình phân tích log thương mại thực sự đầu tiên được IPRO phát hành vào năm 1994.

Hai đơn vị đo lường đã được giới thiệu vào giữa những năm 1990 để đánh giá chính xác hơn lượng hoạt động của con người trên các máy chủ web.  Đây là lượt xem trang và lượt truy cập (hoặc phiên). Một lượt xem trang được định nghĩa là một yêu cầu được gửi đến máy chủ web cho một trang, trái ngược với đồ họa, trong khi lượt truy cập được xác định là một chuỗi các yêu cầu từ một khách hàng được xác định duy nhất đã hết hạn sau một thời gian không hoạt động nhất định, thường là 30 phút. Lượt xem trang và lượt truy cập vẫn thường được hiển thị theo số liệu, nhưng khá thô sơ.  

Sự xuất hiện của nhện và robot công cụ tìm kiếm vào cuối những năm 1990, cùng với các proxy web và địa chỉ IP được gán động cho các công ty lớn và ISP, khiến việc xác định khách truy cập của con người vào trang web trở nên khó khăn hơn. Các trình phân tích nhật ký đã phản hồi bằng cách theo dõi các lượt truy cập bằng cookie và bỏ qua các yêu cầu từ các con nhện đã biết.

Việc sử dụng rộng rãi bộ đệm web cũng gây ra sự cố cho phân tích tệp nhật ký. Nếu một người truy cập lại một trang, yêu cầu thứ hai thường sẽ được truy xuất từ ​​bộ đệm của trình duyệt và do đó, máy chủ web sẽ không nhận được yêu cầu nào. Điều này có nghĩa là đường dẫn của người đó thông qua trang web bị mất. Bộ nhớ đệm có thể bị đánh bại bằng cách định cấu hình máy chủ web, nhưng điều này có thể dẫn đến hiệu suất bị giảm cho khách truy cập và tải lớn hơn trên các máy chủ.[3]

Ưu điểm của phân tích tệp nhật ký máy chủ website (Log file analysis)[sửa | sửa mã nguồn]

Những ưu điểm chính của phân tích tệp nhật ký qua việc gắn thẻ trang như sau:

  • Máy chủ web thường tạo các tệp nhật ký, vì vậy dữ liệu thô đã có sẵn. Không có thay đổi cho trang web được yêu cầu.
  • Dữ liệu nằm trên các máy chủ của công ty và ở dạng chuẩn chứ không phải là định dạng độc quyền. Điều này giúp công ty dễ dàng chuyển đổi các chương trình sau này, sử dụng một số chương trình khác nhau và phân tích dữ liệu lịch sử với một chương trình mới.
  • Logfiles chứa thông tin về các lượt truy cập từ các công cụ tìm kiếm, thường được loại trừ khỏi các công cụ phân tích bằng cách sử dụng gắn thẻ JavaScript. (Một số công cụ tìm kiếm thậm chí có thể không thực thi JavaScript trên một trang.) Mặc dù những điều này không nên được báo cáo như là một phần của hoạt động của con người, đó là thông tin hữu ích để tối ưu hóa công cụ tìm kiếm.
  • Logfiles không yêu cầu tra cứu DNS bổ sung hoặc TCP khởi động chậm. Do đó, không có cuộc gọi máy chủ bên ngoài nào có thể làm chậm tốc độ tải trang hoặc dẫn đến lượt xem trang không đếm được.
  • Máy chủ web ghi lại một cách đáng tin cậy mọi giao dịch mà nó thực hiện, ví dụ: phục vụ các tài liệu và nội dung PDF được tạo bởi các tập lệnh và không phụ thuộc vào trình duyệt của khách truy cập hợp tác.
Nhược điểm của phân tích tệp nhật ký máy chủ website (Log file analysis)[sửa | sửa mã nguồn]
  • Chỉ có thể thu thập các tương tác cùng với web server.
  • Máy chủ phải gán cookie cho khách truy cập.
  • Chỉ có sẵn đối với các công ty sở hữu web server.
  • Không thể thu thập định vị khách hàng,.

Gắn thẻ trang (Page tagging)[sửa | sửa mã nguồn]

Những lo ngại về tính chính xác của phân tích tệp nhật ký khi có bộ nhớ đệm và mong muốn có thể thực hiện phân tích trang web dưới dạng dịch vụ thuê ngoài, dẫn đến phương pháp thu thập dữ liệu thứ hai, gắn thẻ trang hoặc 'Lỗi web'.

Vào giữa những năm 1990, các bộ đếm Web thường được nhìn thấy - đây là những hình ảnh được đưa vào một trang web cho thấy số lần hình ảnh được yêu cầu, đó là ước tính về số lượt truy cập vào trang đó.  Vào cuối những năm 1990, khái niệm này đã phát triển để bao gồm một hình ảnh nhỏ vô hình thay vì hình ảnh hiển thị và bằng cách sử dụng JavaScript để chuyển cùng với yêu cầu hình ảnh một số thông tin nhất định về trang và khách truy cập.  Thông tin này sau đó có thể được xử lý từ xa bởi một công ty phân tích trang web và số liệu thống kê được tạo ra.

Dịch vụ phân tích trang web cũng quản lý quá trình gán cookie cho người dùng, có thể xác định duy nhất chúng trong lần truy cập và trong các lần truy cập tiếp theo.  Tỷ lệ chấp nhận cookie khác nhau đáng kể giữa các trang web và có thể ảnh hưởng đến chất lượng dữ liệu được thu thập và báo cáo.

Thu thập dữ liệu trang web bằng máy chủ thu thập dữ liệu của bên thứ ba (hoặc thậm chí máy chủ thu thập dữ liệu nội bộ) yêu cầu máy tính của người dùng tra cứu thêm DNS để xác định địa chỉ IP của máy chủ thu thập. Đôi khi, sự chậm trễ trong việc hoàn thành tra cứu DNS thành công hoặc thất bại có thể dẫn đến dữ liệu không được thu thập.

Với sự phổ biến ngày càng tăng của các giải pháp dựa trên Ajax, một giải pháp thay thế cho việc sử dụng hình ảnh vô hình là thực hiện cuộc gọi trở lại máy chủ từ trang được kết xuất.  Trong trường hợp này, khi trang được hiển thị trên trình duyệt web, một đoạn mã Ajax sẽ gọi lại cho máy chủ và chuyển thông tin về ứng dụng khách có thể được tổng hợp bởi một công ty phân tích web. Đây là một số cách bị thiếu sót bởi các hạn chế của trình duyệt trên các máy chủ có thể được liên hệ với các đối tượng XmlHttpRequest. Ngoài ra, phương pháp này có thể dẫn đến mức lưu lượng được báo cáo thấp hơn một chút, vì khách truy cập có thể ngăn trang tải xuống trong phản hồi giữa trước khi cuộc gọi Ajax được thực hiện.

Ưu điểm của việc gắn thẻ trang (page tagging)[sửa | sửa mã nguồn]

Những ưu điểm chính của việc gắn thẻ trang qua phân tích tệp nhật ký như sau:

  • Đếm được kích hoạt bằng cách mở trang (cho rằng máy khách web chạy các tập lệnh thẻ), không yêu cầu nó từ máy chủ. Nếu một trang được lưu trữ, nó sẽ không được tính bằng phân tích nhật ký dựa trên máy chủ. Các trang được lưu trong bộ nhớ cache có thể chiếm tới một phần ba tổng số lượt xem trang. Không tính các trang được lưu trữ nghiêm trọng làm lệch nhiều số liệu trang web. Vì lý do này, phân tích nhật ký dựa trên máy chủ không được coi là phù hợp để phân tích hoạt động của con người trên các trang web.
  • Dữ liệu được thu thập thông qua một thành phần ("thẻ") trong trang, thường được viết bằng JavaScript, mặc dù Java hoặc Flash cũng có thể được sử dụng. Ajax cũng có thể được sử dụng cùng với ngôn ngữ kịch bản phía máy chủ (như PHP) để thao tác và (thường) lưu trữ nó trong cơ sở dữ liệu, về cơ bản cho phép kiểm soát hoàn toàn cách trình bày dữ liệu.
  • Tập lệnh có thể có quyền truy cập vào thông tin bổ sung trên máy khách web hoặc người dùng, không được gửi trong truy vấn, chẳng hạn như kích thước màn hình của khách truy cập và giá của hàng hóa họ đã mua.
  • Việc gắn thẻ trang có thể báo cáo về các sự kiện không liên quan đến yêu cầu đến máy chủ web, chẳng hạn như tương tác trong phim Flash, hoàn thành một phần biểu mẫu, các sự kiện chuột như onClick, onMouseOver, onF Focus, onBlur, v.v.
  • Dịch vụ gắn thẻ trang quản lý quá trình gán cookie cho khách truy cập; với phân tích tệp nhật ký, máy chủ phải được cấu hình để thực hiện việc này.
  • Gắn thẻ trang có sẵn cho các công ty không có quyền truy cập vào máy chủ web của riêng họ.
  • Gần đây, việc gắn thẻ trang đã trở thành một tiêu chuẩn trong phân tích trang web.[4]
Nhược điểm của gắn thẻ trang (page tagging)[sửa | sửa mã nguồn]
  • Yêu cầu mã phụ.
  • Sử dụng thêm băng thông mỗi lần tải trang.
  • Chỉ có thể ghi lại trang được tải thành công, không bao gồm cá trang tải thất bại.
  • Khó để thay thế công cụ phân tích.

Yếu tố kinh tế đối với logfile analysis và page tagging[sửa | sửa mã nguồn]

Phân tích logfile hầu như luôn được thực hiện trong nhà. Việc gắn thẻ trang có thể được thực hiện trong nhà, nhưng nó thường được cung cấp dưới dạng dịch vụ của bên thứ ba. Sự khác biệt kinh tế giữa hai mô hình này cũng có thể là một sự cân nhắc cho một công ty quyết định mua.

  • Phân tích logfile thường liên quan đến việc mua phần mềm một lần; tuy nhiên, một số nhà cung cấp đang giới thiệu lượt xem trang tối đa hàng năm với chi phí bổ sung để xử lý thông tin bổ sung. Ngoài các dịch vụ thương mại, một số công cụ phân tích logfile nguồn mở có sẵn miễn phí.
  • Đối với dữ liệu phân tích Logfile phải được lưu trữ và lưu trữ, thường phát triển lớn nhanh chóng. Mặc dù chi phí phần cứng để làm việc này là tối thiểu, chi phí cho một bộ phận CNTT có thể là đáng kể.
  • Đối với phần mềm phân tích Logfile cần được bảo trì, bao gồm các bản cập nhật và bản vá bảo mật.
  • Các nhà cung cấp gắn thẻ trang phức tạp tính phí hàng tháng dựa trên khối lượng, tức là số lượt xem trang mỗi tháng được thu thập.

Giải pháp nào rẻ hơn để thực hiện tùy thuộc vào số lượng chuyên môn kỹ thuật trong công ty, nhà cung cấp được chọn, số lượng hoạt động được xem trên trang web, độ sâu và loại thông tin cần tìm và số lượng trang web riêng biệt cần thống kê.

Bất kể giải pháp nhà cung cấp hoặc phương pháp thu thập dữ liệu được sử dụng, chi phí phân tích và giải thích khách truy cập web cũng nên được đưa vào. Đó là, chi phí biến dữ liệu thô thành thông tin hành động. Điều này có thể là từ việc sử dụng các chuyên gia tư vấn bên thứ ba, thuê một nhà phân tích web có kinh nghiệm hoặc đào tạo một người trong nhà phù hợp. Một phân tích lợi ích chi phí sau đó có thể được thực hiện. Ví dụ: những gì tăng doanh thu hoặc tiết kiệm chi phí có thể đạt được bằng cách phân tích dữ liệu khách truy cập web?

Bước 2: Xử lý dữ liệu thành thông tin[sửa | sửa mã nguồn]

Sử dụng dữ liệu đã thu thập được để chuyển hóa thành các thông tin hữu ích, phục vụ cho việc thực hiện các mục tiêu, chiến lược sau đó. Dữ liệu ban đầu có thể được chọn lọc, phân tích đánh giá để tham gia vào các phân tích điểm mạnh/ yếu, đánh giá đối thủ cạnh tranh, khách hàng tiềm năng, xác định các trang/mặt hàng được quan tâm, xu hướng tìm kiếm nội bộ trang web,... Một số ví dụ:

Định vị trí của khách hàng

Với định vị địa lý IP, có thể theo dõi vị trí của khách truy cập. Sử dụng cơ sở dữ liệu định vị địa lý IP hoặc API, khách truy cập có thể được định vị địa lý ở cấp thành phố, khu vực hoặc quốc gia.[5]

IP Intelligence là công nghệ ánh xạ Internet và phân loại địa chỉ IP theo các tham số như vị trí địa lý (quốc gia, vùng, bang, thành phố và mã bưu điện). Thế hệ đầu tiên của IP Intelligence được gọi là công nghệ nhắm mục tiêu theo địa lý hoặc định vị địa lý. Thông tin này được các doanh nghiệp sử dụng để phân khúc khách hàng trực tuyến trong các ứng dụng như quảng cáo trực tuyến, nhắm mục tiêu theo hành vi, nội địa hóa (hoặc nội địa hóa trang web), cá nhân hóa,...

Phân tích nhấp chuột

Phân tích nhấp chuột là một loại phân tích web đặc biệt chú ý đến các lần nhấp chuột.

Thông thường, phân tích nhấp chuột tập trung vào phân tích trên trang web. Biên tập viên của một trang web sử dụng phân tích nhấp chuột để xác định hiệu suất của trang web, quan sát nơi người dùng của trang web đang nhấp vào.

Ngoài ra, phân tích nhấp chuột có thể xảy ra theo thời gian thực hoặc "không thực", tùy thuộc vào loại thông tin được tìm kiếm. Thông thường, các biên tập viên trang nhất trên các trang truyền thông tin tức có lưu lượng truy cập cao sẽ muốn theo dõi trong thời gian thực để tối ưu hóa nội dung. Biên tập viên, nhà thiết kế hoặc các loại bên liên quan khác có thể phân tích các nhấp chuột trên khung thời gian rộng hơn để giúp họ đánh giá hiệu suất của các tác giả, các yếu tố thiết kế hoặc quảng cáo, v.v

Dữ liệu về các nhấp chuột có thể được thu thập theo ít nhất hai cách. Lý tưởng nhất là một lần nhấp chuột được "ghi lại" khi nó xảy ra và phương pháp này yêu cầu một số chức năng thu thập thông tin liên quan khi sự kiện xảy ra. Ngoài ra, người ta có thể đưa ra giả định rằng một lượt xem trang là kết quả của một lần nhấp.

Phân tích vòng đời khách hàng

Phân tích vòng đời khách hàng là một cách tiếp cận lấy khách hàng làm trung tâm để đo lường nằm trong phạm vi tiếp thị vòng đời. Lượt xem trang, lần nhấp và các sự kiện khác (như cuộc gọi API, quyền truy cập vào dịch vụ của bên thứ ba, v.v.) đều được gắn với một khách truy cập riêng lẻ thay vì được lưu trữ dưới dạng các điểm dữ liệu riêng biệt. Phân tích vòng đời khách hàng cố gắng kết nối tất cả các điểm dữ liệu vào kênh tiếp thị có thể cung cấp thông tin chuyên sâu về hành vi của khách truy cập và tối ưu hóa trang web.

Bước 3: Phát triển KPI[sửa | sửa mã nguồn]

Nhận biết mục tiêu doanh nghiệp: Mỗi công ty đều có những mục tiêu riêng, các bộ phận của doanh nghiệp đều hoạt động để đạt được mục tiêu đó, việc sử dụng website cũng vậy. Dữ liệu thu thập được không chỉ nói về các số liệu trong quá khứ mà còn nhìn được cách cải thiện website trong tương lai. Mục tiêu của doanh nghiệp cần: rõ ràng; công nghệ, phân tích và doanh nghiệp phải được căn chỉnh; vòng phản hồi phải được hoàn thành.

Xác định KPI dựa trên loại website: Không giống như số liệu, KPI được gắn với chiến lược kinh doanh và thường được đo bằng tỷ lệ của hai số liệu. Bằng cách chọn KPI dựa trên loại Trang web, doanh nghiệp có thể tiết kiệm cả thời gian và tiền bạc. Mặc dù các trang web có thể có nhiều hơn một chức năng, mỗi trang web thuộc về ít nhất một trong bốn loại chính - thương mại, tạo khách hàng tiềm năng, nội dung / phương tiện và dịch vụ hỗ trợ / tự phục vụ (McFadden, 2005):

Website type KPIs
Thương mại (Commerce)
  • Tỷ lệ chuyển đổi (conversion rate)
  • Giá trị đặt hàng trung bình (average order value)
  • Giá trị truy cập trung bình (average visit value)
  • Lòng trung thành của khách hàng (customer loyalty)
  • Tỷ lệ thoát (bounce rate)
Tăng khách hàng tiềm năng (Lead generation)
  • Tỷ lệ chuyển đổi (conversion rate)
  • Chi phí trên lead (cost per lead)
  • Tỷ lệ thoát (bounce rate)
Nội dung/ phương tiện truyền thông (Content/Media)
  • Độ sâu truy cập (visit depth)
  • Tỷ lệ quay lại (returning visitor ratio)
  • Tỷ lệ khách truy cập mới
  • Độ sâu của trang (page depth)
Ủng hộ/dịch vụ tự thân (Support/self-service)
  • Độ sâu của trang (page depth)
  • Tỷ lệ thoát (bounce rate)
  • Sự hài lòng của khách hàng (customer satisfaction)
  • Từ khóa được search nhiều (top internal search phrases)

Bước 4: Xây dựng chiến lược trực tuyến[sửa | sửa mã nguồn]

Dựa vào mục tiêu doanh nghiệp và các KPIs để tạo ra chiến lược cho website.

Các loại phân tích website[sửa | sửa mã nguồn]

Mỗi tổ chức có nhu cầu hoạt động và điểm chuẩn khác nhau để thành công, vì vậy các phân tích web hiệu quả nhất thường là những mục tiêu ưu tiên các mục tiêu cụ thể trên cơ sở từng trường hợp cụ thể.  Các phép đo mà một tổ chức thấy hữu ích, do đó, phần lớn phụ thuộc vào kết quả mong muốn của nó - các công ty phi lợi nhuận quan tâm đến việc truyền bá nhận thức hơn là tạo doanh thu quảng cáo.  Cách đơn giản nhất để hiểu các loại phân tích web khác nhau là sắp xếp chúng thành các loại trường hợp sử dụng rộng rãi, bao gồm:

Dữ liệu đối tượng (Audience data)[sửa | sửa mã nguồn]

Dùng để phân tích thông tin về khách hàng mục tiêu, giúp doanh nghiệp hiểu rõ hơn về tập khách hàng này, đồng thời xây dựng chiến lược truyền thông trực tuyến hiệu quả. Bằng cách thu thập dữ liệu nhân khẩu học như tuổi tác, giới tính, vị trí địa lý, nghề nghiệp, v.v., các tổ chức có thể xác định mức độ đáp ứng nhu cầu của cơ sở người dùng của họ.  Một số số liệu phổ biến liên quan đến phân tích dữ liệu đối tượng bao gồm:

  • New visitors: Số lược khách truy cập mới.
  • Returning visitors: Số lượng người dùng quay lại website một cách lặp lại.
  • User location: Vị trí của người dùng đã truy cập trang web.
  • Device info: Thiết bị được sử dụng để truy cập vào trang web.

Hành vi người dùng (User behavior)[sửa | sửa mã nguồn]

Kiểu phân tích này dùng để đánh giá cách người dùng tương tác với trang web, giao diện, điều hướng và các tính năng nội dung của trang web có thể giúp các tổ chức hợp lý hóa trải nghiệm người dùng và xác định các cơ hội cải tiến. Danh mục phân tích trang web này chủ yếu liên quan đến khối lượng lưu lượng truy cập của trang web và chất lượng của khách truy cập Trải nghiệm duyệt web. Các công ty muốn hiểu trang web nào nhận được lưu lượng truy cập nhiều nhất và giữ cho người dùng được đầu tư trong thời gian dài nhất. Một số số liệu phổ biến liên quan đến phân tích hành vi người dùng bao gồm:

  • Bounce rate: Tỷ lệ người dùng thoát web sau lần truy cập vào trang đầu tiên.
  • Conversion: Tần suất một trang web mà các CTA tạo ra một kết quả mong muốn.
  • Clicks: Liên kết nào được nhấp vào nhiều nhất / ít nhất.
  • Time on page: Liên kết nào được nhấp vào nhiều nhất / ít nhất.

Hiệu suất trang web (Website performance)[sửa | sửa mã nguồn]

Loại phân tích kiểm soát theo dõi hiệu suất tổng thể có thể giúp các tổ chức xác định các lỗi kỹ thuật và loại bỏ các rào cản đối với trải nghiệm duyệt web của người dùng của họ. Khách truy cập ít có khả năng dành thời gian trên một trang web có vấn đề về điều hướng và hiển thị, dẫn đến bỏ lỡ các cơ hội tiếp thị và bán hàng. Một số số liệu phổ biến liên quan đến phân tích hiệu suất trang web bao gồm:

  • Load time: Mất bao lâu để một trang web tải.
  • Uptime: Khoảng thời gian mà một trang web có thể xem và sử dụng được.
  • Impressions: Số lần một trang web hoặc một phần nội dung được người dùng nhìn thấy.
  • Keywords: Các từ / cụm từ được sử dụng trên một trang web mô tả nội dung của nó tốt như thế nào.

Mặc dù hệ thống phân loại này giúp dễ dàng khái niệm hóa các loại phân tích web khác nhau và cách sử dụng của chúng, nhưng điều quan trọng cần lưu ý là hầu hết các chiến lược đều yêu cầu gói một số số liệu web khác nhau. Nhiều công cụ phân tích trang web phổ biến cho phép doanh nghiệp tổng hợp tất cả các loại dữ liệu trên một loạt các danh mục. Bí quyết là có thể nhận ra thông tin nào có liên quan đến nhu cầu duy nhất của một tổ chức.

Một số công cụ phân tích website[sửa | sửa mã nguồn]

Off-site web analytics[sửa | sửa mã nguồn]

Các công cụ phân tích trang web ngoài trang web đo lường đối tượng trang web tiềm năng của bạn. Chúng là các công cụ vĩ mô cho phép bạn nhìn thấy bức tranh lớn hơn về cách trang web của bạn so sánh với những người khác. Có hai loại kỹ thuật đạt được điều này:

  1. Sử dụng dữ liệu bảng
  2. Sử dụng dữ liệu của Nhà cung cấp dịch vụ Internet (ISP)

On-site web analytics[sửa | sửa mã nguồn]

Các công cụ phân tích trang web tại chỗ đo lưu lượng khách truy cập thực tế đến trên trang web của bạn. Họ có khả năng theo dõi các cam kết và tương tác mà khách truy cập của bạn có. Nó yêu cầu đặt một đoạn mã nhỏ (còn gọi là ‘thẻ ') mã JavaScript trên các trang web của bạn hoạt động như một đèn hiệu - nắm bắt thông tin khách truy cập, lưu trữ chúng dưới dạng cookie, sau đó truyền phát này đến các máy chủ thu thập dữ liệu trong thời gian thực.

  • Google Analytics: Một trong những công cụ phân tích tốt nhất và được ưa thích để tiếp thị và nó miễn phí. Google Analytics theo dõi lưu lượng truy cập web đến trang web của bạn và thu thập dữ liệu, chẳng hạn như từ khóa, có thể được sử dụng để cải thiện trải nghiệm trực tuyến của khách truy cập của bạn. Tìm ra những từ khóa đang mang lại nhiều khách truy cập nhất vào trang web của bạn.  Nhận báo cáo và thông tin về khách truy cập và chuyển đổi của bạn.  Tìm ra nơi bạn có thể mất khách truy cập và tại sao, để bạn có thể cải thiện các trang đó và ngăn không cho họ rời khỏi.
  • Adobe Analytics được sử dụng rất rõ ràng như một dịch vụ cấp độ doanh nghiệp - và từ các tính năng mà bạn truy cập vào, bạn sẽ dễ dàng thấy lý do tại sao. Một trong những khó khăn với một số hệ thống là các thẻ tùy chỉnh quản lý. Ví dụ, bạn có thể sẽ muốn tinh chỉnh mã phân tích để bạn có thể tag người dùng đã đăng ký. Các tính năng: Phân tích thời gian thực, Phân khúc nâng cao. Phân tích xã hội, Phân tích video, Phân tích điện thoại di động, Quản lý thẻ năng động, Tích hợp dữ liệu của bên thứ ba (ví dụ như Experian, Facebook, mục tiêu chính xác).
  • Foxmetrics là một thay thế vững chắc, tập trung nhiều vào các hoạt động và hành vi của khách truy cập của bạn hơn là lượt xem trang mang tính cá nhân. Foxmetrics được khuyến nghị như là sự bổ sung cho nền tảng kiểu Google Analytics. Các tính năng: Phân tích thời gian thực, Theo dõi mức người dùng, API có sẵn,...
  • Clicky: ngoài các tính năng tương tự mà các dịch vụ phân tích khác làm – như đếm lượt truy cập, mô hình ưu lượng, điểm đặc biệt nổi tiếng của Clicky là phân tích thời gian thực và “heatmaps” – sơ đồ cho bạn biết nơi mọi người thường click để truy cập vào website của bạn và những trang trên website mà họ truy cập vào.
  • Piwik: công cụ mã nguồn mở, nó cũng được nhiều người dùng sử dụng để thay thế Google Analytics trong một số trường hợp. Piwik phù hợp với nhiều loại hình website, bao gồm thương mại điện tử, nội dung, hệ thống mạng nội bộ, website chính phủ, v.v… Công cụ này sẽ miễn phí nếu lưu trữ trên máy chủ của riêng bạn.

Nguồn dữ liệu phân tích website[sửa | sửa mã nguồn]

Mục tiêu cơ bản của phân tích trang web là thu thập và phân tích dữ liệu liên quan đến lưu lượng truy cập web và các mẫu sử dụng.  Dữ liệu chủ yếu đến từ bốn nguồn:[6]

  1. Direct HTTP request data: đến trực tiếp từ HTTP request messages (HTTP request headers).
  2. Cấp độ mạng và dữ liệu được tạo bởi máy chủ được liên kết với các yêu cầu HTTP: không phải là một phần của yêu cầu HTTP, nhưng nó được yêu cầu để truyền yêu cầu thành công - ví dụ: địa chỉ IP của người yêu cầu.
  3. Dữ liệu cấp ứng dụng được gửi với các yêu cầu HTTP: được tạo và xử lý bởi các chương trình cấp ứng dụng (như JavaScript, PHP và ASP.Net), bao gồm cả phiên và các lượt giới thiệu. Chúng thường được ghi lại bởi nhật ký nội bộ thay vì các dịch vụ phân tích trang web công cộng.
  4. Dữ liệu ngoài: có thể được kết hợp với dữ liệu tại chỗ để giúp tăng dữ liệu hành vi trang web được mô tả ở trên và diễn giải việc sử dụng web. Ví dụ: địa chỉ IP thường được liên kết với các khu vực Địa lý và nhà cung cấp dịch vụ internet, tỷ lệ mở và nhấp qua e-mail, dữ liệu chiến dịch thư trực tiếp, lịch sử bán hàng và khách hàng tiềm năng hoặc các loại dữ liệu khác nếu cần.

Các vấn đề phổ biến trong phân tích trang web[sửa | sửa mã nguồn]

Sự cố về cookie[sửa | sửa mã nguồn]

Trong lịch sử, các nhà cung cấp giải pháp phân tích gắn thẻ trang đã sử dụng cookie của bên thứ ba được gửi từ tên miền của nhà cung cấp thay vì tên miền của trang web được duyệt. Cookie của bên thứ ba có thể xử lý khách truy cập vượt qua nhiều tên miền không liên quan trong trang web của công ty, vì cookie luôn được xử lý bởi các máy chủ của nhà cung cấp.

Tuy nhiên, về nguyên tắc, cookie của bên thứ ba cho phép theo dõi một người dùng cá nhân trên các trang web của các công ty khác nhau, cho phép nhà cung cấp phân tích đối chiếu hoạt động của người dùng trên các trang web nơi anh ta cung cấp thông tin cá nhân với hoạt động của mình trên các trang web khác mà anh ta cho rằng mình ẩn danh. Mặc dù các công ty phân tích trang web từ chối làm điều này, các công ty khác như các công ty cung cấp quảng cáo biểu ngữ đã làm như vậy.  Do đó, những lo ngại về quyền riêng tư về cookie đã khiến một nhóm người dùng đáng chú ý chặn hoặc xóa cookie của bên thứ ba. Năm 2005, một số báo cáo cho thấy khoảng 28% người dùng Internet đã chặn cookie của bên thứ ba và 22% đã xóa chúng ít nhất mỗi tháng một lần.[7]  Hầu hết các nhà cung cấp giải pháp gắn thẻ trang hiện đã chuyển sang cung cấp ít nhất tùy chọn sử dụng cookie của bên thứ nhất (cookie được gán từ tên miền phụ của máy khách).

Một vấn đề khác là xóa cookie. Khi phân tích trang web phụ thuộc vào cookie để xác định khách truy cập duy nhất, số liệu thống kê phụ thuộc vào cookie liên tục để giữ ID khách truy cập duy nhất.  Khi người dùng xóa cookie, họ thường xóa cả cookie của bên thứ nhất và bên thứ ba.  Nếu điều này được thực hiện giữa các tương tác với trang web, người dùng sẽ xuất hiện với tư cách là khách truy cập lần đầu tại điểm tương tác tiếp theo của họ.  Nếu không có id khách truy cập liên tục và duy nhất, chuyển đổi, phân tích nhấp chuột và các số liệu khác phụ thuộc vào hoạt động của khách truy cập duy nhất theo thời gian, không thể chính xác.

Cookies được sử dụng vì địa chỉ IP không phải lúc nào cũng là duy nhất cho người dùng và có thể được chia sẻ bởi các nhóm lớn hoặc proxy.  Trong một số trường hợp, địa chỉ IP được kết hợp với tác nhân người dùng để xác định chính xác hơn một khách truy cập nếu không có cookie.  Tuy nhiên, điều này chỉ giải quyết được một phần vấn đề vì thường người dùng đằng sau máy chủ proxy có cùng tác nhân người dùng.  Các phương pháp khác để xác định duy nhất một người dùng là thách thức về mặt kỹ thuật và sẽ giới hạn đối tượng có thể theo dõi hoặc sẽ bị coi là đáng ngờ.  Cookies là tùy chọn được chọn [ai?] Vì chúng đạt mẫu số chung thấp nhất mà không sử dụng các công nghệ được coi là phần mềm gián điệp.

Vấn đề phòng khách sạn[sửa | sửa mã nguồn]

Vấn đề phòng khách sạn thường được xem là vấn đề đầu tiên thường gặp bởi những người dùng công cụ phân tích trang web. Vấn đề ở đây là người truy cập duy nhất trong mỗi ngày trong một tháng cộng lại không bằng với tổng số người truy cập duy nhất trong tháng đó. Đây là một vấn đề số học mà những người thiếu kinh nghiệm thường gặp. Hãy tưởng tượng một khách sạn với 2 căn phòng A và B:

Day 01 Day 02 Day 03 Total
Room A John John Mark 2 Unique Users
Room B Mark Anne Anne 2 Unique Users
Total 2 2 2 ?

Như bảng trên cho thấy, khách sạn này có hai người dùng duy nhất mỗi ngày trong 3 ngày. Tổng số người dùng duy nhất tính theo ngày sẽ là 6.

Mỗi phòng của khách sạn trong thời gian này có hai người dùng duy nhất, Tổng số người dùng duy nhất tính theo phòng sẽ là 4.

Thật ra chỉ có 3 vị khách đã ở trong khách sạn này. Vấn đề ở đây là một người ở 1 phòng trong 2 đêm sẽ được đếm 2 lần nếu tính theo từng ngày, nhưng sẽ chỉ tính 1 lần nếu nhìn vào toàn bộ khoảng thời gian. Bất kỳ phần mềm phân tích web nào cũng sẽ cộng lại đúng theo khoảng thời gian đã chọn, vì vậy có thể dẫn đến việc người dùng cố gắng so sánh các kết quả.

Các phương pháp phân tích trang web[sửa | sửa mã nguồn]

Phương pháp phân tích bảo mật (đo sáng)[sửa | sửa mã nguồn]

Có thể tốt khi biết rằng việc thu thập thông tin của bên thứ ba phải chịu bất kỳ giới hạn mạng và bảo mật nào được áp dụng. Các quốc gia, Nhà cung cấp dịch vụ và mạng riêng có thể ngăn dữ liệu truy cập trang web đến bên thứ ba. Tất cả các phương pháp được mô tả ở trên có vấn đề chính là dễ bị thao túng. Điều này có nghĩa là các phương thức này không chính xác và không an toàn (trong bất kỳ mô hình hợp lý nào về bảo mật). Vấn đề này đã được giải quyết trong một số bài báo, nhưng cho đến nay, các giải pháp được đề xuất trong các bài viết này vẫn chỉ là lý thuyết, có thể là do sự thiếu quan tâm của cộng đồng kỹ thuật hoặc vì lợi ích tài chính mà tình hình hiện tại cung cấp cho chủ sở hữu của các trang web lớn.

Các thuật ngữ trong Phân tích website[sửa | sửa mã nguồn]

Có nhiều thuật ngữ được sử dùng thường xuyên trong các công cụ phân web:

  • Tỷ lệ thoát (Bounce Rate): Đại diện cho tỷ lệ khách truy cập vào trang web và sau đó rời đi thay vì tiếp tục xem các trang khác trong cùng một trang.
  • Đường dẫn nhấp (Click path): Là chuỗi các siêu liên kết mà một hoặc nhiều khách truy cập trang web theo dõi trên một trang web nhất định, được trình bày theo thứ tự được xem.
  • Tương tác (Hit): Mọi hành động bạn làm trên website, là yêu cầu cho một tệp từ máy chủ web. Chỉ có trong phân tích nhật ký. Số lượng tương tác trên website thường sẽ được gắn với độ phổ biến của nó, tuy nhiên con số này rất dễ gây hiểu lầm và thường thổi phồng độ phổ biến lên. Một trang web thường bao gồm nhiều tệp riêng biệt, mỗi một tệp tính là một tương tác khi trang đó được tải về. Vì vậy con số này thể hiện mức độ phức tạp của các trang nhỏ trên website hơn là thể hiện cả website đó. Lượt tải trang và lượt truy cập trang web thể hiện độ phổ biến một cách thực tế và chính xác hơn.
  • Lượt tải trang (page view): Là một lượt yêu cầu tải một trang web đơn lẻ trong một trang web lớn. Một lượt yêu cầu tải trang có thể xuất phát từ việc nhấn vào một đường dẫn trên một trang web khác tới trang được yêu cầu. Khái niệm này khác với "hit", liên quan đến việc yêu cầu tải bất kì một tệp nào từ hệ thống máy chủ của trang web. Bởi vậy có thể xảy ra trường hợp có nhiều hit trên mỗi lượt tải trang bởi trang web có thể được tạo nên từ nhiều tệp khác nhau. Lượt tải trang là một số được ghi lại trong hệ thống phân tích website.
  • Khách truy cập / Khách truy cập duy nhất / Người dùng duy nhất (Visitor / Unique Visitor / Unique User): Khách hàng được xác định là độc nhất đang tạo ra lượt tải trang hoặc lượt tương tác trong một khoảng thời gian xác định. Khách truy cập duy nhất tính theo WAN IP (địa chỉ IP trên mạng, mỗi moderm mạng có 1 IP duy nhất do nhà mạng cung cấp).
  • Số lượt xem trang duy nhất (Unique pageviews): tập hợp các lần xem trang được tạo ra bởi một người dùng trên cùng một phiên.
  • Lượt truy cập / Phiên truy cập (Visit / Session): Số phiên duy nhất mà khách truy cập truy cập vào website (hay nói ngắn gọi là số lượt truy cập website).  Được tính từ lúc người dùng mở trang trên website của bạn đến khi tắt đi. Google Analytics tính số lượt truy cập này theo thời gian hoạt động trên trang web. Mỗi lượt truy cập tương đương với 30 phút hoạt động trên trang web.
  • New Visitor: Người dùng lần đầu truy cập vào website.
  • Returning Visitor: Người dùng truy cập vào website lần thứ 2 trở đi.
  • Traffic: mô tả lưu lượng truy cập của một website, hay còn gọi là số lượng người truy cập website.
  • Paid Search Traffic: Hay còn gọi là CPC (cost per click) là những traffic phải trả tiền thông qua các công cụ tìm kiếm.
  • Non-paid Search Traffic: Hay còn gọi là Organic Search Traffic là những traffic tự nhiên, người dùng search và vào website thông qua các công cụ tìm kiếm.
  • Search Traffic: là tổng thể của Paid Search Traffic và Non-paid Search Traffic.
  • Direct Traffic: Traffic trực tiếp thông qua việc bạn đánh URL trên trình duyệt hoặc nhấp bookmark hoặc đường dẫn trong email.
  • Referral Traffic: Traffic từ những trang khác có đặt link website. Ví dụ bạn đăng video lên Youtube và có kèm theo đường dẫn website, những lượt nhấp lên đường dẫn này và vào website của bạn được xem là những Referral Traffic.
  • Tỷ lệ nhấp (CTR): Tỷ lệ thể hiện tần suất những người thấy quảng cáo của bạn kết thúc bằng cách nhấp vào quảng cáo đó. Tỷ lệ nhấp (CTR) có thể được sử dụng để đánh giá hiệu suất của từ khóa và quảng cáo của bạn.
  • Chuyển đổi (Conversions): Khách truy cập trang web chuyển đổi thành khách mua hàng.
  • Tỷ lệ chuyển đổi (Conversion Rate): Dùng để so sánh tổng số khách truy cập vào một trang web với số người trong số đó trở thành khách hàng trả tiền, người đăng ký hoặc người dùng.

Tham khảo[sửa | sửa mã nguồn]

  1. ^ Ủy ban Tiêu chuẩn WAA. "Định nghĩa phân tích trang web." Washington DC: Hiệp hội phân tích trang web (2008)
  2. ^ Jansen, Bj (2009). Hiểu các tương tác giữa người dùng và web thông qua phân tích trang web. Các bài giảng tổng hợp về các khái niệm thông tin, truy xuất và dịch vụ, 1 (1), 1-102.
  3. ^ Quản lý tiếp thị: Một quá trình tạo giá trị (phiên bản 2) của Alain Jolibert, Pierre-Louis Dubois, Hans Mühlbacher, Laurent Flores, Pierre-Louis Jolibert Dubois, 2012, tr. 359.
  4. ^ Xem xét lại phân tích tệp nhật ký so với gắn thẻ trang": Bài viết blog của McGill University Web Analytics (CMIS 530) Lưu trữ ngày 6 tháng 7 năm 2011, tại Wayback Machine
  5. ^ IPInfoDB (2009-07-10). "Cơ sở dữ liệu định vị địa lý IP". IPInfoDB. Truy cập 2009-07-19
  6. ^ Zheng, G. & Peltsverger S. (2015) Tổng quan về phân tích trang web, Trong cuốn sách: Bách khoa toàn thư về khoa học và công nghệ thông tin, Ấn bản thứ ba, Nhà xuất bản: IGI Global, Biên tập viên: Mehdi Khosrow-Pour
  7. ^ McGann, Rob. "Nghiên cứu: Người tiêu dùng Xóa Cookies với tốc độ đáng ngạc nhiên". Truy cập ngày 3 tháng 4 năm 2014.

Tham khảo[sửa | sửa mã nguồn]

  • Clifton, Brian (2010) Số liệu web nâng cao với Google Analytics, phiên bản 2, Sybex (Bìa mềm.)
  • Kaushik, Avinash (2009) Phân tích trang web 2.0 - Nghệ thuật trách nhiệm trực tuyến và khoa học về tính trung tâm của khách hàng. Sybex, Wiley.
  • Mortensen, Dennis R. (2009) Yahoo! Phân tích trang web. Sybex.
  • Farris, P., Bendle, NT, Pfeifer, PE Reibstein, DJ (2009) Các số liệu tiếp thị chính 50+ Số liệu mà mỗi người quản lý cần biết, Prentice Hall, London.
  • Plaza, B (2009) Theo dõi hiệu quả nguồn lưu lượng truy cập web với Google Analytics: Một thử nghiệm với chuỗi thời gian. Kỷ yếu ASLIB, 61 (5): 474 Từ482.
  • Arikan, Akin (2008) Tiếp thị đa kênh. Số liệu và phương pháp để thành công trên và ngoại tuyến. Sybex.
  • Tullis, Tom & Albert, Bill (2008) Đo lường trải nghiệm người dùng. Thu thập, phân tích và trình bày các số liệu khả dụng. Morgan Kaufmann, Elsevier, Burlington MA.
  • [1] Phân tích trang web của Kaushik, Avinash (2007): Một giờ mỗi ngày, Sybex, Wiley.
  • Bradley N (2007) Nghiên cứu tiếp thị. Công cụ và kỹ thuật. Nhà xuất bản Đại học Oxford, Oxford.
  • Phân tích trang web có thể hành động của Burby, Jason và Atchison, Shane (2007): Sử dụng dữ liệu để đưa ra quyết định kinh doanh thông minh.
  • Davis, J. (2006) 'Số liệu tiếp thị: Cách tạo các kế hoạch tiếp thị có trách nhiệm thực sự hiệu quả' John Wiley & Sons (Châu Á).
  • Peterson Eric T (2005) Trang web đo lường hack. Sách điện tử O'Reilly.
  • Peterson Eric T (2004) Phân tích trang web bị làm sáng tỏ: Hướng dẫn của nhà tiếp thị để hiểu cách trang web của bạn ảnh hưởng đến doanh nghiệp của bạn. Tập đoàn truyền thông Celilo
  • Lenskold, J. (2003) 'ROI tiếp thị: cách lập kế hoạch, đo lường và tối ưu hóa các chiến lược cho lợi nhuận' London: McGraw Hill Đương đại
  • Sterne, J. (2002) Số liệu web, Phương pháp đã được chứng minh để đo lường thành công trang web, London: John Wiley & Sons.
  • Srinivasan, J. (2001) Số liệu thương mại điện tử, mô hình và ví dụ, London: Prentice Hall.
  • Zheng, JG và Peltsverger, S. (2015) Tổng quan về phân tích trang web, Trong cuốn sách: Bách khoa toàn thư về khoa học và công nghệ thông tin, Ấn bản thứ ba, Nhà xuất bản: IGI Global, Biên tập viên: Mehdi Khosrow-Pour