Banyak vendor yang berbeda memberikan on-site perangkat lunak analisis
Web dan layanan. Ada dua pendekatan teknologi utama untuk mengumpulkan
data. Metode pertama, analisis logfile, membaca logfiles di mana server
web catatan semua transaksi. Metode kedua, tag halaman, menggunakan
JavaScript pada setiap halaman untuk memberitahukan pihak ketiga server
jika suatu halaman yang diberikan oleh browser web. Keduanya
mengumpulkan data yang dapat diolah untuk menghasilkan laporan lalu
lintas Web.
Selain itu sumber data lain juga dapat ditambahkan untuk menambah data.
Misalnya e-mail tingkat respons, data kampanye surat langsung, penjualan
dan memimpin informasi, kinerja pengguna data seperti panas klik
pemetaan, atau metrik kustom lainnya yang diperlukan.
Web server logfile analisis
Web server mencatat beberapa transaksi mereka dalam sebuah logfile. Itu
segera menyadari bahwa logfiles ini dapat dibaca oleh program untuk
menyediakan data tentang popularitas website. Dengan demikian muncul
perangkat lunak analisis web log.
Pada awal 1990-an, statistik situs web terdiri terutama dari menghitung
jumlah permintaan klien (atau hits) dibuat ke web server. Ini adalah
metode yang masuk akal pada awalnya, karena setiap situs web biasanya
terdiri dari satu file HTML. Namun, dengan pengenalan gambar dalam HTML,
dan situs web yang membentang beberapa file HTML, menghitung ini
menjadi kurang bermanfaat. Komersial yang pertama Log Analyzer dirilis
oleh IPRO pada tahun 1994.
Dua unit pengukuran diperkenalkan pada pertengahan tahun 1990-an untuk
mengukur secara lebih akurat jumlah aktivitas manusia pada web server.
Ini adalah tampilan halaman dan dilihat (atau sesi). Sebuah tampilan
halaman didefinisikan sebagai permintaan yang dibuat ke web server untuk
sebuah halaman, sebagai lawan dari grafis, sedangkan kunjungan
didefinisikan sebagai urutan permintaan dari klien yang diidentifikasi
secara unik kedaluwarsa setelah jumlah tertentu tidak aktif, biasanya 30
menit . Halaman pandangan dan kunjungan umumnya masih ditampilkan
metrik, namun sekarang dianggap lebih canggih pengukuran.
Munculnya search engine spider dan robot pada akhir tahun 1990-an,
bersama dengan web proxy dan alamat IP yang ditetapkan secara dinamis
untuk perusahaan besar dan ISP, membuatnya lebih sulit untuk
mengidentifikasi manusia unik pengunjung ke sebuah website. Log analyzer
menanggapi dengan melacak kunjungan oleh cookie, dan dengan mengabaikan
permintaan dari laba-laba dikenal.
Ekstensif menggunakan web cache juga disajikan masalah bagi analisis
logfile. Jika seseorang mengunjungi kembali halaman, permintaan kedua
biasanya akan diambil dari cache browser, jadi tak ada permintaan akan
diterima oleh server web. Ini berarti bahwa orang jalan melalui situs
tersebut hilang. Caching bisa dikalahkan dengan mengkonfigurasi server
web, tetapi hal ini dapat mengakibatkan kinerja yang rusak pengunjung ke
situs web.
Sumber : http://permass.blogspot.sg/2010/01/web-analytics.html#.V0or0-a3600
Tidak ada komentar:
Posting Komentar