07 November 2013
By : jasa pembuatan website perusahaan
Ketika Google dan mesin pencari lainnya mengindeks suatu situs, mereka tidak mengeksekusi JavaScript. Hal ini nampaknya akan menempatkan situs single page yang dibuat oleh penyedia jasa web desain - situs single page banyak yang bergantung pada JavaScript - pada kerugian yang luar biasa dibandingkan dengan web tradisional.Tidak berada di Google, bisa dengan mudah berarti kematian bisnis, dan perangkap yang membingungkan ini bisa menggoda bagi yang kekurangan informasi untuk meninggalkan situs single page sama sekali.
Namun, situs single page memiliki keunggulan daripada website tradisional dalam optimasi mesin pencari (SEO), karena Google dan lain-lain telah mengenali tantangannya. Mereka telah menciptakan sebuah mekanisme untuk situs single page sehingga tidak hanya halaman dinamis mereka yang diindeks, tetapi juga mengoptimalkan halaman mereka khusus untuk crawler. Berikut ini adalah tips bagi penyedia design web surabaya bagaimana cara mengoptimalkan single pages sites pada mesin pencari (search engine), khususnya pada Google.
Bagaimana Google menelusuri singel page sites ?
Ketika Google mengindeks situs web tradisional, web crawler (disebut Googlebot) pertama-tama akan melakukan scan dan mengindeks content atau isi dari top level URL ( misalnya , www.myhome.com). Setelah ini selesai , maka ia mengikuti semua link pada halaman dan mengindeks halaman tersebut juga. Setelah itu web crawler mengikuti link pada halaman berikutnya , dan seterusnya. Pada akhirnya web crawler akan mengindeks semua konten dan domain terkait di situs .
Ketika Googlebot mencoba untuk mengindeks single page sites, semua yang dilihat di HTML adalah satu wadah kosong (biasanya div kosong atau tag body), jadi tidak ada yang diindeks dan tidak ada link untuk ditelusuri. Jika itu akhir cerita, itu akan menjadi akhir dari single page sites untuk banyak aplikasi web dan situs. Untungnya, Google dan mesin pencari lainnya telah mengakui pentingnya single page sites dan menyediakan alat yang memungkinkan pengembang untuk memberikan search information untuk crawler yang lebih baik daripada website tradisional.
Bagaimana cara membuat single page sites dapat ditelusuri (crawlable) ?
Kunci pertama untuk membuat single page sites agar dapat ditelusuri adalah dengan menyadari bahwa server dapat memberitahu jika permintaan sedang dibuat oleh crawler atau oleh orang yang menggunakan web browser, dan memberikan tanggapan yang sesuai. Bila pengunjung adalah orang yang menggunakan web browser, respon dilakukan seperti biasa. Akan tetapi untuk crawler, optimalkan kembali halaman untuk menampilkan pada crawler persis seperti apa yang kita inginkan, dalam format yang dapat dengan mudah dibaca crawler.
Untuk home page dari situs yang dibuat oleh penyedia design web surabaya, seperti apa halaman yang dioptimalkan untuk crawler ? Mungkin saja logo atau gambar utama lain yang kita ingin munculkan dalam hasil pencarian, beberapa SEO mengoptimalkan teks yang menjelaskan apa situs tersebut atau apa yang dilakukan situs tersebut, serta daftar link HTML untuk halaman kita inginkan diindeks oleh Google. Apa tidak dimiliki halaman adalah setiap styling CSS atau struktur HTML yang kompleks. Juga tidak memiliki JavaScript, atau link ke tempat- tempat dari situs yang kita tidak ingin diindeks Google(seperti halaman disclaimer atau halaman lain yang kita tidak ingin orang-orang masuk melalui pencarian Google).
Menyesuaikan konten untuk crawler
Biasanya, single page sites terhubung ke konten yang berbeda menggunakan hash bang(#!). Link ini diikuti secara berbeda oleh orang-orang maupun crawler.
Misalnya, jika link single page sites ke halaman pengguna tampak seperti / index.htm halaman # = user: id, 123, crawler akan melihat #! dan tahu untuk mencari halaman web dengan URI / index.htm _escaped_fragment_ = page = pengguna:? id, 123. Dengan Mengetahui bahwa crawler akan mengikuti pola dan mencari URI ini, kita dapat memprogram server untuk merespon permintaan itu dengan snapshot HTML dari halaman yang biasanya akan diberikan oleh JavaScript di browser.
Snapshot yang akan diindeks oleh Google, tapi siapa pun yang mengklik pada daftar dalam hasil pencarian Google akan dibawa ke / index.htm halaman # = user: id, 123. JavaScript single page sites akan mengambil alih dari sana dan membuat halaman seperti yang diharapkan.
Hal ini memberikan jasa web desain kesempatan untuk menyesuaikan single page sites mereka khusus untuk Google dan khusus untuk pengguna. Daripada harus menulis teks yang dapat dibaca dengan baik dan menarik bagi orang - orang dan dipahami oleh crawler, halaman dapat dioptimalkan untuk masing -masing tanpa khawatir tentang yang lain. Jalan crawler melalui situs dapat dikontrol, memungkinkan penyedia jasa web desain untuk mengarahkan orang-orang dari hasil pencarian Google untuk satu set tertentu halaman masuk.