1. Website Pendidikan (www.academia.edu)
a. Berdasarkan Ukuran
- GTMetrixBisa kita lihat berdasarkan gambar diatas benchmark menggunakan website GTmetrik, dan website academia.edu ini mendapatkan grade A dan B dengan :
Page load time 4.83s
Ukuran pagenya 0.99 MB
Dan ada sebanyak 34 konten yang harus di request untuk membuka halaman web ini
- Alexa Rank
Gambar ketiga didapatkan dari site alexa, terlihat web ini berada di peringkat 706 pada alexa global rank dan 64 di Indonesia.
b. Berdasarkan Web Archiving
Gambar diatas diambil dari website http://archive.org/web/ yang mana merupakan web pelacak halaman arsip dari awal pembuatan web sampai sekarang.
Dan berdasarkan gambar di atas web academia.edu ini dibuat pada tahun 2007 dan page pertamanya dibuat pada tanggal 12 Januari 2007.
2. Website Sosial Media (www.tumblr.com)
a. Berdasarkan Ukuran
- GTMetrix
Pada website Tumblr bisa kita lihat berdasarkan gambar diatas benchmark menggunakan website GTmetrik, website ini mendapatkan grade B dan C dengan :
Page load time 7.98s, lebih lambat dari website academia.edu dan website jakarta
Ukuran pagenya mencapai 3.56 MB
Dan ada banyak request yaitu 80 kontent yang harus di request untuk membuka halaman web ini.
- Alexa Rank
Alexa Rank, pada gambar di atas terlihat web tumblr.com ini berada di peringkat 41 pada alexa global rank. dan baru saja turun peringkat sebanyak 11.
c. Berdasarkan Web Archiving
Dan berdasarkan gambar di atas web tumblr ini dibuat pada tahun 2007 dan page pertamanya dibuat pada tanggal 5 Januari 2007.
Terlihat dari gambar di atas tumblr ini sangat padat dalam hal archivingnya, ini tidak lepas dari kategorinya sebagai web media sosial.
3. Web Pemerintahan

Pada kesempatan kali ini, saya akan menganalisa web pemerintahan yaitu http://www.jakarta.go.id. Pada kali ini saya akan menganalisa kelebihan dan kekurangan web, ukuran, layanan web dan kunjungan terhadap web tersebut dll.
Fungsi Web Pemerintahan
Penggunaan website untuk menunjang kinerja pemerintahan di Indonesia sudah mulai digalakkan sejak beberapa tahun lalu. Baik di nasional atau di daerah lembaga-lembaga pemerintah sudah mulai melakukan pembenahan terhadap website mereka dan berusaha untuk memaksimalkannya untuk layanan publik, ya meski memang masih perlu pembenahan.
Di sisi lain, masyarakat juga semakin paham dan mulai tergantung dengan fasilitas internet, tentu saja yang saya maksud adalah masyarakat ‘melek’ internet yang menurut data Asosiasi Penyelenggara Jasa Internet sudah mencapai angka 63 juta orang di tahun 2012. Oleh karena itu, tuntutan untuk memaksimalkan fungsi dan guna website pemerintah semakin gencar. Website pemerintah bukan lagi sekedar profil statis pemerintah yang go online namun harus sudah menjadi sekumpulan informasi/dokumen/data yang dinamis dan aktual sehingga bisa berguna bagi masyarakat. Terlebih lagi jika mengacu ke UU No. 14 Tahun 2008 tentang Keterbukaan Informasi Publik (UU KIP) yang mewajibkan setiap badan publik untuk proaktif melakukan keterbukaan informasi publik, maka website pemerintah semestinya mulai membiasakan diri menampilkan informasi publik yang dikuasainya, terutama website di pemerintah daerah (pemda) kita yang bertindak sebagai ujung tombak pelayanan publik pemerintah di daerah. Dalam hal ini masyarakat dapat terbantu tentang layanan pemerintahan terhadap fasilitas yang diberikan oleh instansi yang terkait guna mensejahterakan rakyat dan pemerintah dapat melakukan pembenahan terhadap layanan dan web mereka sendiri.
Pengukuran
Dari pengukuran seperti gambar diatas menurut http://www.alexa.com jakarta.go.id(pemprov dki) secara global menempati peringkat 34,895 dan secara nasional menempati 384. Secara global web jakarta.go.id belum cukup untuk menarik perhatian dalam segi kunjungan akan tetapi web ini memungkinkan bersaing dengan web lain mengingat jumlah pelayanan dan masyarakat pemprov DKI yang terus ditingkatkan dalam pembaharuan web dan layanan kepada masyarakat. Di dalam Negeri menempati peringkat 384 walau peringkatnya yang ratusan akan tetapi web tersebut sudah cukup diketahui oleh masyarakat indonesia khususnya warga DKI jakarta itu sendiri
Search Engine
Mesin pencari web (bahasa Inggris: web search engine) adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan danbasisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothordan OpenFTS.[1]
Untuk search engine saya menggunakan google.com dan hasilnya web dari www.jakarta.go.id menempati urutan pertama dengan keyword "pemprov dki". Web tersebut menempati urutan pertama pada pencharian utama, hal ini dikarenakan web tersebut adalah web pemerintah sebagai pelayanan public dan banyak dikunjungi oleh masyarakat sehingga menempati kyword dalam pencaharian di google.
Mesin pencari web bekerja dengan cara menyimpan informasi tentang banyak halaman web, yang diambil langsung dari WWW. Halaman-halaman ini diambil dengan web crawler — browser web otomatis yang mengikuti setiap pranala/link yang dilihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara indeks-nya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data tentang halaman web disimpan dalam sebuah databaseindeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.
Selain halaman web, Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian berupa pranala yang merujuk pada file, seperti file audio, file video, gambar, foto dan sebagainya, serta informasi tentang seseorang, suatu produk, layanan, dan informasi beragam lainnya yang semakin terus berkembang sesuai dengan perkembanganteknologi informasi.
Web Archiving
Web pengarsipan adalah proses pengumpulan bagian dari World Wide Web untuk memastikan informasi tersebut diawetkan dalam arsip bagi para peneliti di masa depan, sejarawan, dan masyarakat. Arsiparis web biasanya menggunakan web crawler untuk menangkap otomatis karena ukuran besar dan jumlah informasi di Web. Terbesar organisasi web pengarsipan berdasarkan pendekatan massal merangkak adalah Internet
Archive yang berusaha untuk mempertahankan arsip seluruh Web. The International Web Pengarsipan Workshop (IWAW), dimulai pada tahun 2001, telah memberikan platform untuk berbagi pengalaman dan bertukar pikiran. Pendirian kemudian dari International Internet Pelestarian Konsorsium (IIPC), pada tahun 2003, telah sangat difasilitasi kerjasama internasional dalam mengembangkan standar dan alat open source untuk pembuatan web arsip. Perkembangan ini, dan bagian tumbuh dari budaya manusia diciptakan dan dicatat di web, menggabungkan untuk membuatnya tak terelakkan bahwa semakin banyak perpustakaan dan arsip harus menghadapi tantangan dari web pengarsipan. Perpustakaan nasional, arsip nasional dan berbagai konsorsium organisasi juga terlibat dalam pengarsipan konten Web budaya penting. Web komersial pengarsipan perangkat lunak dan layanan juga tersedia untuk organisasi yang perlu mengarsipkan konten web mereka sendiri untuk warisan perusahaan, peraturan, atau tujuan hukum.
Cara Kerja Web Archiving
Yang paling umum web pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama dengan yang dilakukan user yang menggunakan web browser untuk menemukan website yang ingin dicari.
Contoh-contoh Web Archiving Berikut Ini adalah Beberapa Contoh Layanan yg melayani jasa Web Archiving:
• Archive-it : Sebuah Layanan Pengarsipan Web Berlangganan yang memperbolehkan sebuah institusi Untuk Membangun, Me-Manage, dan Mecari Arsip web Institusi itu sendiri
• Archive.is : Sebuah Layanan Pengarsipan Web Gratis Untuk menyimpan Halaman dan berikut juga Gambar dari sebuah website tertentu. Dan bias menyimpan halaman dari Web 2.0.
• Iterasi : Sebuah Layanan Pengarsipan Web yang khusus untuk agensi pemerintahan, organisasi Finansial, brand heritage Dll.
SUMBER
http://id.wikipedia.org/wiki/Mesin_pencari_web
http://www.jakarta.go.id/v2/index.php
http://clickforgamers.blogspot.com/2013/04/pengukuran-web-crawler-search-engine.html
http://karaengmonga.net/website-pemda-dan-keterbukaan-informasi/
http://reyrizousky.blogspot.com/2015/06/v-behaviorurldefaultvmlo_25.html
0 komentar:
Posting Komentar