Khác biệt giữa bản sửa đổi của “Trợ giúp:Chỗ thử”

Bách khoa toàn thư mở Wikipedia
Nội dung được xóa Nội dung được thêm vào
Kenlnk (thảo luận | đóng góp)
Kenlnk (thảo luận | đóng góp)
Không có tóm lược sửa đổi
Dòng 18: Dòng 18:
Mỗi giai đoạn tác động hoặc có thể tác động (tức là, các ổ đĩa) giai đoạn trước hoặc sau đó.  Vì vậy, đôi khi dữ liệu có sẵn để thu thập ảnh hưởng đến chiến lược trực tuyến.  Những lần khác, chiến lược trực tuyến ảnh hưởng đến dữ liệu được thu thập.
Mỗi giai đoạn tác động hoặc có thể tác động (tức là, các ổ đĩa) giai đoạn trước hoặc sau đó.  Vì vậy, đôi khi dữ liệu có sẵn để thu thập ảnh hưởng đến chiến lược trực tuyến.  Những lần khác, chiến lược trực tuyến ảnh hưởng đến dữ liệu được thu thập.


=== '''Web analytics technologies (Công nghệ phân tích trang web)''' ===
=== Web analytics technologies (Công nghệ phân tích trang web) ===
Có ít nhất hai loại phân tích trang web, phân tích trang web ngoài trang web và tại chỗ .
Có ít nhất hai loại phân tích trang web, phân tích trang web ngoài trang web và tại chỗ .


Dòng 24: Dòng 24:
* Phân tích trang web tại chỗ: phổ biến hơn, đo lường hành vi của khách truy cập một lần trên trang web của bạn. Các công cụ để đo lường như Google Analytics, Adobe Sitecatalyst, WebTrends,... Chúng có khả năng theo dõi các tương tác mà khách truy cập của trên trang web của bạn, ví dụ: Liệu họ có chuyển đổi thành khách hàng hay khách hàng tiềm năng hay không, làm thế nào họ đến điểm đó, họ đã mua gì và chi bao nhiêu, họ đã xem và nhấp vào chiến dịch nào,...
* Phân tích trang web tại chỗ: phổ biến hơn, đo lường hành vi của khách truy cập một lần trên trang web của bạn. Các công cụ để đo lường như Google Analytics, Adobe Sitecatalyst, WebTrends,... Chúng có khả năng theo dõi các tương tác mà khách truy cập của trên trang web của bạn, ví dụ: Liệu họ có chuyển đổi thành khách hàng hay khách hàng tiềm năng hay không, làm thế nào họ đến điểm đó, họ đã mua gì và chi bao nhiêu, họ đã xem và nhấp vào chiến dịch nào,...


=== '''Web analytics data sources (Nguồn dữ liệu phân tích trang web)''' ===
=== Web analytics data sources (Nguồn dữ liệu phân tích trang web) ===
Mục tiêu cơ bản của phân tích trang web là thu thập và phân tích dữ liệu liên quan đến lưu lượng truy cập web và các mẫu sử dụng.  Dữ liệu chủ yếu đến từ bốn nguồn:
Mục tiêu cơ bản của phân tích trang web là thu thập và phân tích dữ liệu liên quan đến lưu lượng truy cập web và các mẫu sử dụng.  Dữ liệu chủ yếu đến từ bốn nguồn:


Dòng 32: Dòng 32:
# Dữ liệu ngoài: có thể được kết hợp với dữ liệu tại chỗ để giúp tăng dữ liệu hành vi trang web được mô tả ở trên và diễn giải việc sử dụng web.  Ví dụ: địa chỉ IP thường được liên kết với các khu vực Địa lý và nhà cung cấp dịch vụ internet, tỷ lệ mở và nhấp qua e-mail, dữ liệu chiến dịch thư trực tiếp, lịch sử bán hàng và khách hàng tiềm năng hoặc các loại dữ liệu khác nếu cần.
# Dữ liệu ngoài: có thể được kết hợp với dữ liệu tại chỗ để giúp tăng dữ liệu hành vi trang web được mô tả ở trên và diễn giải việc sử dụng web.  Ví dụ: địa chỉ IP thường được liên kết với các khu vực Địa lý và nhà cung cấp dịch vụ internet, tỷ lệ mở và nhấp qua e-mail, dữ liệu chiến dịch thư trực tiếp, lịch sử bán hàng và khách hàng tiềm năng hoặc các loại dữ liệu khác nếu cần.


=== '''Web server log file analysis''' ===
=== Web server log file analysis ===
Máy chủ web ghi lại một số giao dịch của họ trong một tệp nhật ký. Nó đã sớm nhận ra rằng các tệp nhật ký này có thể được đọc bởi một chương trình để cung cấp dữ liệu về mức độ phổ biến của trang web. Do đó phát sinh phần mềm phân tích nhật ký web.  
Máy chủ web ghi lại một số giao dịch của họ trong một tệp nhật ký. Nó đã sớm nhận ra rằng các tệp nhật ký này có thể được đọc bởi một chương trình để cung cấp dữ liệu về mức độ phổ biến của trang web. Do đó phát sinh phần mềm phân tích nhật ký web.  



Phiên bản lúc 14:55, ngày 28 tháng 5 năm 2020

Phân Tích Website

Phân tích trang web là việc đo lường, thu thập, phân tích và báo cáo dữ liệu web nhằm mục đích hiểu và tối ưu hóa việc sử dụng web. Tuy nhiên, phân tích trang web không chỉ là một quá trình đo lưu lượng truy cập web mà có thể được sử dụng như một công cụ để nghiên cứu thị trường và kinh doanh và để đánh giá và cải thiện hiệu quả của trang web. Các ứng dụng phân tích trang web cũng có thể giúp các công ty đo lường kết quả của các chiến dịch quảng cáo in hoặc quảng cáo truyền thống. Nó giúp người ta ước tính lưu lượng truy cập vào trang web thay đổi như thế nào sau khi ra mắt chiến dịch quảng cáo mới. Phân tích trang web cung cấp thông tin về số lượng khách truy cập vào một trang web và số lượt xem trang. Nó giúp đánh giá lưu lượng truy cập và xu hướng phổ biến hữu ích cho nghiên cứu thị trường.

Basic steps of web analytics process

Hầu hết các quy trình phân tích trang web gồm 4 giai đoạn chủ yếu, đó là:

  • Thu thập dữ liệu: Giai đoạn này là tập hợp các dữ liệu cơ bản, cơ bản. Thông thường, những dữ liệu này là đếm số. Mục tiêu của giai đoạn này là thu thập dữ liệu.  
  • Xử lý dữ liệu thành thông tin: Giai đoạn này thường lấy số liệu và biến chúng thành tỷ lệ, mặc dù vẫn có thể có một số số đếm. Mục tiêu của giai đoạn này là lấy dữ liệu và chuyển nó thành thông tin, cụ thể là các số liệu.  
  • Phát triển KPI: Giai đoạn này tập trung vào việc sử dụng các tỷ lệ (và số lượng) và áp chúng vào các chiến lược kinh doanh, được gọi là các chỉ số hiệu suất chính (KPI). KPIs thường xử lý các khía cạnh chuyển đổi, nhưng không phải lúc nào cũng vậy.  Nó phụ thuộc vào tổ chức tạo ra.
  • Xây dựng chiến lược trực tuyến: Giai đoạn này liên quan đến các mục tiêu, mục tiêu và tiêu chuẩn trực tuyến cho tổ chức hoặc doanh nghiệp. Những chiến lược này thường liên quan đến việc kiếm tiền, tiết kiệm tiền hoặc tăng thị trường.  

Một chức năng thiết yếu khác được các nhà phân tích phát triển để tối ưu hóa các trang web là thử nghiệm

  • Thử nghiệm và thử nghiệm: Thử nghiệm A / B là thử nghiệm có kiểm soát với hai biến thể, trong cài đặt trực tuyến, chẳng hạn như phát triển web.  

Mục tiêu của thử nghiệm A / B là xác định và đề xuất các thay đổi đối với các trang web làm tăng hoặc tối đa hóa hiệu quả của kết quả quan tâm được kiểm tra theo thống kê.  

Mỗi giai đoạn tác động hoặc có thể tác động (tức là, các ổ đĩa) giai đoạn trước hoặc sau đó.  Vì vậy, đôi khi dữ liệu có sẵn để thu thập ảnh hưởng đến chiến lược trực tuyến.  Những lần khác, chiến lược trực tuyến ảnh hưởng đến dữ liệu được thu thập.

Web analytics technologies (Công nghệ phân tích trang web)

Có ít nhất hai loại phân tích trang web, phân tích trang web ngoài trang web và tại chỗ .

  • Phân tích trang web ngoài trang web đề cập đến đo lường và phân tích trang web mà bạn không sở hữu hay duy trì một trang web. Nó bao gồm việc đo lường khách hàng tiềm năng của một trang web (cơ hội), tương quan truyền thông (khả năng hiển thị) và buzz (bình luận) đang diễn ra trên Internet nói chung.
  • Phân tích trang web tại chỗ: phổ biến hơn, đo lường hành vi của khách truy cập một lần trên trang web của bạn. Các công cụ để đo lường như Google Analytics, Adobe Sitecatalyst, WebTrends,... Chúng có khả năng theo dõi các tương tác mà khách truy cập của trên trang web của bạn, ví dụ: Liệu họ có chuyển đổi thành khách hàng hay khách hàng tiềm năng hay không, làm thế nào họ đến điểm đó, họ đã mua gì và chi bao nhiêu, họ đã xem và nhấp vào chiến dịch nào,...

Web analytics data sources (Nguồn dữ liệu phân tích trang web)

Mục tiêu cơ bản của phân tích trang web là thu thập và phân tích dữ liệu liên quan đến lưu lượng truy cập web và các mẫu sử dụng.  Dữ liệu chủ yếu đến từ bốn nguồn:

  1. Direct HTTP request data: directly comes from HTTP request messages (HTTP request headers).
  2. Cấp độ mạng và dữ liệu được tạo bởi máy chủ được liên kết với các yêu cầu HTTP: không phải là một phần của yêu cầu HTTP, nhưng nó được yêu cầu để truyền yêu cầu thành công - ví dụ: địa chỉ IP của người yêu cầu.
  3. Dữ liệu cấp ứng dụng được gửi với các yêu cầu HTTP: được tạo và xử lý bởi các chương trình cấp ứng dụng (như JavaScript, PHP và ASP.Net), bao gồm cả phiên và các lượt giới thiệu. Chúng thường được ghi lại bởi nhật ký nội bộ thay vì các dịch vụ phân tích trang web công cộng.
  4. Dữ liệu ngoài: có thể được kết hợp với dữ liệu tại chỗ để giúp tăng dữ liệu hành vi trang web được mô tả ở trên và diễn giải việc sử dụng web.  Ví dụ: địa chỉ IP thường được liên kết với các khu vực Địa lý và nhà cung cấp dịch vụ internet, tỷ lệ mở và nhấp qua e-mail, dữ liệu chiến dịch thư trực tiếp, lịch sử bán hàng và khách hàng tiềm năng hoặc các loại dữ liệu khác nếu cần.

Web server log file analysis

Máy chủ web ghi lại một số giao dịch của họ trong một tệp nhật ký. Nó đã sớm nhận ra rằng các tệp nhật ký này có thể được đọc bởi một chương trình để cung cấp dữ liệu về mức độ phổ biến của trang web. Do đó phát sinh phần mềm phân tích nhật ký web.  

Đầu những năm 1990, số liệu thống kê trang web chủ yếu bao gồm việc đếm số lượng yêu cầu của khách hàng (hoặc lượt truy cập) được thực hiện cho máy chủ web. Đây là một phương pháp hợp lý ban đầu, vì mỗi trang web thường bao gồm một tệp HTML duy nhất.  Tuy nhiên, với việc giới thiệu hình ảnh trong HTML và các trang web kéo dài nhiều tệp HTML, số lượng này trở nên ít hữu ích hơn. Trình phân tích log thương mại thực sự đầu tiên được IPRO phát hành vào năm 1994.

Hai đơn vị đo lường đã được giới thiệu vào giữa những năm 1990 để đánh giá chính xác hơn lượng hoạt động của con người trên các máy chủ web.  Đây là lượt xem trang và lượt truy cập (hoặc phiên). Một lượt xem trang được định nghĩa là một yêu cầu được gửi đến máy chủ web cho một trang, trái ngược với đồ họa, trong khi lượt truy cập được xác định là một chuỗi các yêu cầu từ một khách hàng được xác định duy nhất đã hết hạn sau một thời gian không hoạt động nhất định, thường là 30 phút. Lượt xem trang và lượt truy cập vẫn thường được hiển thị theo số liệu, nhưng khá thô sơ.  

Sự xuất hiện của nhện và robot công cụ tìm kiếm vào cuối những năm 1990, cùng với các proxy web và địa chỉ IP được gán động cho các công ty lớn và ISP, khiến việc xác định khách truy cập của con người vào trang web trở nên khó khăn hơn. Các trình phân tích nhật ký đã phản hồi bằng cách theo dõi các lượt truy cập bằng cookie và bỏ qua các yêu cầu từ các con nhện đã biết.

Việc sử dụng rộng rãi bộ đệm web cũng gây ra sự cố cho phân tích tệp nhật ký. Nếu một người truy cập lại một trang, yêu cầu thứ hai thường sẽ được truy xuất từ ​​bộ đệm của trình duyệt và do đó, máy chủ web sẽ không nhận được yêu cầu nào. Điều này có nghĩa là đường dẫn của người đó thông qua trang web bị mất. Bộ nhớ đệm có thể bị đánh bại bằng cách định cấu hình máy chủ web, nhưng điều này có thể dẫn đến hiệu suất bị giảm cho khách truy cập và tải lớn hơn trên các máy chủ.

Page tagging

Những lo ngại về tính chính xác của phân tích tệp nhật ký khi có bộ nhớ đệm và mong muốn có thể thực hiện phân tích trang web dưới dạng dịch vụ thuê ngoài, dẫn đến phương pháp thu thập dữ liệu thứ hai, gắn thẻ trang hoặc 'Lỗi web'.

Vào giữa những năm 1990, các bộ đếm Web thường được nhìn thấy - đây là những hình ảnh được đưa vào một trang web cho thấy số lần hình ảnh được yêu cầu, đó là ước tính về số lượt truy cập vào trang đó.  Vào cuối những năm 1990, khái niệm này đã phát triển để bao gồm một hình ảnh nhỏ vô hình thay vì hình ảnh hiển thị và bằng cách sử dụng JavaScript để chuyển cùng với yêu cầu hình ảnh một số thông tin nhất định về trang và khách truy cập.  Thông tin này sau đó có thể được xử lý từ xa bởi một công ty phân tích trang web và số liệu thống kê được tạo ra.

Dịch vụ phân tích trang web cũng quản lý quá trình gán cookie cho người dùng, có thể xác định duy nhất chúng trong lần truy cập và trong các lần truy cập tiếp theo.  Tỷ lệ chấp nhận cookie khác nhau đáng kể giữa các trang web và có thể ảnh hưởng đến chất lượng dữ liệu được thu thập và báo cáo.

Thu thập dữ liệu trang web bằng máy chủ thu thập dữ liệu của bên thứ ba (hoặc thậm chí máy chủ thu thập dữ liệu nội bộ) yêu cầu máy tính của người dùng tra cứu thêm DNS để xác định địa chỉ IP của máy chủ thu thập. Đôi khi, sự chậm trễ trong việc hoàn thành tra cứu DNS thành công hoặc thất bại có thể dẫn đến dữ liệu không được thu thập.

Với sự phổ biến ngày càng tăng của các giải pháp dựa trên Ajax, một giải pháp thay thế cho việc sử dụng hình ảnh vô hình là thực hiện cuộc gọi trở lại máy chủ từ trang được kết xuất.  Trong trường hợp này, khi trang được hiển thị trên trình duyệt web, một đoạn mã Ajax sẽ gọi lại cho máy chủ và chuyển thông tin về ứng dụng khách có thể được tổng hợp bởi một công ty phân tích web. Đây là một số cách bị thiếu sót bởi các hạn chế của trình duyệt trên các máy chủ có thể được liên hệ với các đối tượng XmlHttpRequest. Ngoài ra, phương pháp này có thể dẫn đến mức lưu lượng được báo cáo thấp hơn một chút, vì khách truy cập có thể ngăn trang tải xuống trong phản hồi giữa trước khi cuộc gọi Ajax được thực hiện.

Logfile analysis vs page tagging

Cả hai chương trình phân tích logfile và giải pháp gắn thẻ trang đều có sẵn cho các công ty muốn thực hiện phân tích trang web. Trong một số trường hợp, cùng một công ty phân tích web sẽ cung cấp cả hai cách tiếp cận. Sau đó, câu hỏi đặt ra là công ty nên chọn phương pháp nào.  Có những ưu điểm và nhược điểm đối với từng phương pháp.

Ưu điểm của phân tích logfile

Những ưu điểm chính của phân tích tệp nhật ký qua việc gắn thẻ trang như sau:

  • Máy chủ web thường tạo các tệp nhật ký, vì vậy dữ liệu thô đã có sẵn. Không có thay đổi cho trang web được yêu cầu.
  • Dữ liệu nằm trên các máy chủ của công ty và ở dạng chuẩn chứ không phải là định dạng độc quyền. Điều này giúp công ty dễ dàng chuyển đổi các chương trình sau này, sử dụng một số chương trình khác nhau và phân tích dữ liệu lịch sử với một chương trình mới.
  • Logfiles chứa thông tin về các lượt truy cập từ các công cụ tìm kiếm, thường được loại trừ khỏi các công cụ phân tích bằng cách sử dụng gắn thẻ JavaScript. (Một số công cụ tìm kiếm thậm chí có thể không thực thi JavaScript trên một trang.) Mặc dù những điều này không nên được báo cáo như là một phần của hoạt động của con người, đó là thông tin hữu ích để tối ưu hóa công cụ tìm kiếm .
  • Logfiles không yêu cầu tra cứu DNS bổ sung hoặc TCP khởi động chậm . Do đó, không có cuộc gọi máy chủ bên ngoài nào có thể làm chậm tốc độ tải trang hoặc dẫn đến lượt xem trang không đếm được.
  • Máy chủ web ghi lại một cách đáng tin cậy mọi giao dịch mà nó thực hiện, ví dụ: phục vụ các tài liệu và nội dung PDF được tạo bởi các tập lệnh và không phụ thuộc vào trình duyệt của khách truy cập hợp tác.

Ưu điểm của việc gắn thẻ trang

Những ưu điểm chính của việc gắn thẻ trang qua phân tích tệp nhật ký như sau:

  • Đếm được kích hoạt bằng cách mở trang (cho rằng máy khách web chạy các tập lệnh thẻ), không yêu cầu nó từ máy chủ. Nếu một trang được lưu trữ, nó sẽ không được tính bằng phân tích nhật ký dựa trên máy chủ. Các trang được lưu trong bộ nhớ cache có thể chiếm tới một phần ba tổng số lượt xem trang. Không tính các trang được lưu trữ nghiêm trọng làm lệch nhiều số liệu trang web. Vì lý do này, phân tích nhật ký dựa trên máy chủ không được coi là phù hợp để phân tích hoạt động của con người trên các trang web.
  • Dữ liệu được thu thập thông qua một thành phần ("thẻ") trong trang, thường được viết bằng JavaScript, mặc dù Java hoặc Flash cũng có thể được sử dụng. Ajax cũng có thể được sử dụng cùng với ngôn ngữ kịch bản phía máy chủ (như PHP ) để thao tác và (thường) lưu trữ nó trong cơ sở dữ liệu, về cơ bản cho phép kiểm soát hoàn toàn cách trình bày dữ liệu.
  • Tập lệnh có thể có quyền truy cập vào thông tin bổ sung trên máy khách web hoặc người dùng, không được gửi trong truy vấn, chẳng hạn như kích thước màn hình của khách truy cập và giá của hàng hóa họ đã mua.
  • Việc gắn thẻ trang có thể báo cáo về các sự kiện không liên quan đến yêu cầu đến máy chủ web, chẳng hạn như tương tác trong phim Flash , hoàn thành một phần biểu mẫu, các sự kiện chuột như onClick, onMouseOver, onF Focus, onBlur, v.v.
  • Dịch vụ gắn thẻ trang quản lý quá trình gán cookie cho khách truy cập; với phân tích tệp nhật ký, máy chủ phải được cấu hình để thực hiện việc này.
  • Gắn thẻ trang có sẵn cho các công ty không có quyền truy cập vào máy chủ web của riêng họ.
  • Gần đây, việc gắn thẻ trang đã trở thành một tiêu chuẩn trong phân tích trang web.

Yếu tố kinh tế

Phân tích logfile hầu như luôn được thực hiện trong nhà. Việc gắn thẻ trang có thể được thực hiện trong nhà, nhưng nó thường được cung cấp dưới dạng dịch vụ của bên thứ ba. Sự khác biệt kinh tế giữa hai mô hình này cũng có thể là một sự cân nhắc cho một công ty quyết định mua.

  • Phân tích logfile thường liên quan đến việc mua phần mềm một lần; tuy nhiên, một số nhà cung cấp đang giới thiệu lượt xem trang tối đa hàng năm với chi phí bổ sung để xử lý thông tin bổ sung. Ngoài các dịch vụ thương mại, một số công cụ phân tích logfile nguồn mở có sẵn miễn phí.
  • Đối với dữ liệu phân tích Logfile phải được lưu trữ và lưu trữ, thường phát triển lớn nhanh chóng. Mặc dù chi phí phần cứng để làm việc này là tối thiểu, chi phí cho một bộ phận CNTT có thể là đáng kể.
  • Đối với phần mềm phân tích Logfile cần được bảo trì, bao gồm các bản cập nhật và bản vá bảo mật.
  • Các nhà cung cấp gắn thẻ trang phức tạp tính phí hàng tháng dựa trên khối lượng, tức là số lượt xem trang mỗi tháng được thu thập.

Giải pháp nào rẻ hơn để thực hiện tùy thuộc vào số lượng chuyên môn kỹ thuật trong công ty, nhà cung cấp được chọn, số lượng hoạt động được xem trên trang web, độ sâu và loại thông tin cần tìm và số lượng trang web riêng biệt cần thống kê.

Bất kể giải pháp nhà cung cấp hoặc phương pháp thu thập dữ liệu được sử dụng, chi phí phân tích và giải thích khách truy cập web cũng nên được đưa vào. Đó là, chi phí biến dữ liệu thô thành thông tin hành động. Điều này có thể là từ việc sử dụng các chuyên gia tư vấn bên thứ ba, thuê một nhà phân tích web có kinh nghiệm hoặc đào tạo một người trong nhà phù hợp. Một phân tích lợi ích chi phí sau đó có thể được thực hiện. Ví dụ: những gì tăng doanh thu hoặc tiết kiệm chi phí có thể đạt được bằng cách phân tích dữ liệu khách truy cập web?

Hybrid methods

Một số công ty sản xuất các giải pháp thu thập dữ liệu thông qua cả tệp nhật ký và gắn thẻ trang và có thể phân tích cả hai loại. Bằng cách sử dụng một phương pháp hỗn hợp, nhằm mục đích tạo ra số liệu thống kê chính xác hơn so với chính phương pháp đó. Một giải pháp hỗn hợp được sản xuất vào năm 1998 bởi Rufus Evison.

Geolocation of visitors

Với định vị địa lý IP , có thể theo dõi vị trí của khách truy cập. Sử dụng cơ sở dữ liệu định vị địa lý IP hoặc API, khách truy cập có thể được định vị địa lý ở cấp thành phố, khu vực hoặc quốc gia.

IP Intelligence là công nghệ ánh xạ Internet và phân loại địa chỉ IP theo các tham số như vị trí địa lý (quốc gia, vùng, bang, thành phố và mã bưu điện). Thế hệ đầu tiên của IP Intelligence được gọi là công nghệ nhắm mục tiêu theo địa lý hoặc định vị địa lý . Thông tin này được các doanh nghiệp sử dụng để phân khúc khách hàng trực tuyến trong các ứng dụng như quảng cáo trực tuyến , nhắm mục tiêu theo hành vi , nội địa hóa (hoặc nội địa hóa trang web ), cá nhân hóa,...

Click analytics

Phân tích nhấp chuột là một loại phân tích web đặc biệt chú ý đến các lần nhấp chuột .

Thông thường, phân tích nhấp chuột tập trung vào phân tích trên trang web. Biên tập viên của một trang web sử dụng phân tích nhấp chuột để xác định hiệu suất của trang web, quan sát nơi người dùng của trang web đang nhấp vào.

Ngoài ra, phân tích nhấp chuột có thể xảy ra theo thời gian thực hoặc "không thực", tùy thuộc vào loại thông tin được tìm kiếm. Thông thường, các biên tập viên trang nhất trên các trang truyền thông tin tức có lưu lượng truy cập cao sẽ muốn theo dõi trong thời gian thực để tối ưu hóa nội dung. Biên tập viên, nhà thiết kế hoặc các loại bên liên quan khác có thể phân tích các nhấp chuột trên khung thời gian rộng hơn để giúp họ đánh giá hiệu suất của các tác giả, các yếu tố thiết kế hoặc quảng cáo, v.v

Dữ liệu về các nhấp chuột có thể được thu thập theo ít nhất hai cách. Lý tưởng nhất là một lần nhấp chuột được "ghi lại" khi nó xảy ra và phương pháp này yêu cầu một số chức năng thu thập thông tin liên quan khi sự kiện xảy ra. Ngoài ra, người ta có thể đưa ra giả định rằng một lượt xem trang là kết quả của một lần nhấp.

Customer lifecycle analytics

Phân tích vòng đời khách hàng là một cách tiếp cận lấy khách hàng làm trung tâm để đo lường nằm trong phạm vi tiếp thị vòng đời. Lượt xem trang, lần nhấp và các sự kiện khác (như cuộc gọi API, quyền truy cập vào dịch vụ của bên thứ ba, v.v.) đều được gắn với một khách truy cập riêng lẻ thay vì được lưu trữ dưới dạng các điểm dữ liệu riêng biệt. Phân tích vòng đời khách hàng cố gắng kết nối tất cả các điểm dữ liệu vào kênh tiếp thị có thể cung cấp thông tin chuyên sâu về hành vi của khách truy cập và tối ưu hóa trang web .

On-website analytics - definitions

-

Off-website analytics

-

Common sources of confusion in web analytics

-

Web analytics methods

Problems with cookies

Trong lịch sử, các nhà cung cấp giải pháp phân tích gắn thẻ trang đã sử dụng cookie của bên thứ ba được gửi từ tên miền của nhà cung cấp thay vì tên miền của trang web được duyệt.  Cookie của bên thứ ba có thể xử lý khách truy cập vượt qua nhiều tên miền không liên quan trong trang web của công ty, vì cookie luôn được xử lý bởi các máy chủ của nhà cung cấp.

Tuy nhiên, về nguyên tắc, cookie của bên thứ ba cho phép theo dõi một người dùng cá nhân trên các trang web của các công ty khác nhau, cho phép nhà cung cấp phân tích đối chiếu hoạt động của người dùng trên các trang web nơi anh ta cung cấp thông tin cá nhân với hoạt động của mình trên các trang web khác mà anh ta cho rằng mình ẩn danh.  Mặc dù các công ty phân tích trang web từ chối làm điều này, các công ty khác như các công ty cung cấp quảng cáo biểu ngữ đã làm như vậy.  Do đó, những lo ngại về quyền riêng tư về cookie đã khiến một nhóm người dùng đáng chú ý chặn hoặc xóa cookie của bên thứ ba.  Năm 2005, một số báo cáo cho thấy khoảng 28% người dùng Internet đã chặn cookie của bên thứ ba và 22% đã xóa chúng ít nhất mỗi tháng một lần. [10]  Hầu hết các nhà cung cấp giải pháp gắn thẻ trang hiện đã chuyển sang cung cấp ít nhất tùy chọn sử dụng cookie của bên thứ nhất (cookie được gán từ tên miền phụ của máy khách).

Một vấn đề khác là xóa cookie.  Khi phân tích trang web phụ thuộc vào cookie để xác định khách truy cập duy nhất, số liệu thống kê phụ thuộc vào cookie liên tục để giữ ID khách truy cập duy nhất.  Khi người dùng xóa cookie, họ thường xóa cả cookie của bên thứ nhất và bên thứ ba.  Nếu điều này được thực hiện giữa các tương tác với trang web, người dùng sẽ xuất hiện với tư cách là khách truy cập lần đầu tại điểm tương tác tiếp theo của họ.  Nếu không có id khách truy cập liên tục và duy nhất, chuyển đổi, phân tích nhấp chuột và các số liệu khác phụ thuộc vào hoạt động của khách truy cập duy nhất theo thời gian, không thể chính xác.

Cookies được sử dụng vì địa chỉ IP không phải lúc nào cũng là duy nhất cho người dùng và có thể được chia sẻ bởi các nhóm lớn hoặc proxy.  Trong một số trường hợp, địa chỉ IP được kết hợp với tác nhân người dùng để xác định chính xác hơn một khách truy cập nếu không có cookie.  Tuy nhiên, điều này chỉ giải quyết được một phần vấn đề vì thường người dùng đằng sau máy chủ proxy có cùng tác nhân người dùng.  Các phương pháp khác để xác định duy nhất một người dùng là thách thức về mặt kỹ thuật và sẽ giới hạn đối tượng có thể theo dõi hoặc sẽ bị coi là đáng ngờ.  Cookies là tùy chọn được chọn [ai?] Vì chúng đạt mẫu số chung thấp nhất mà không sử dụng các công nghệ được coi là phần mềm gián điệp.

Secure analytics (metering) method

Có thể tốt khi biết rằng việc thu thập thông tin của bên thứ ba phải chịu bất kỳ giới hạn mạng và bảo mật nào được áp dụng. Các quốc gia, Nhà cung cấp dịch vụ và mạng riêng có thể ngăn dữ liệu truy cập trang web đến bên thứ ba. Tất cả các phương pháp được mô tả ở trên có vấn đề chính là dễ bị thao túng. Điều này có nghĩa là các phương thức này không chính xác và không an toàn (trong bất kỳ mô hình hợp lý nào về bảo mật). Vấn đề này đã được giải quyết trong một số bài báo, nhưng cho đến nay, các giải pháp được đề xuất trong các bài viết này vẫn chỉ là lý thuyết, có thể là do sự thiếu quan tâm của cộng đồng kỹ thuật hoặc vì lợi ích tài chính mà tình hình hiện tại cung cấp cho chủ sở hữu của các trang web lớn.