Entri Populer

Sabtu, 03 Desember 2011

makalah tik web browser dan search engine

Web Browser adalah suatu program yang digunakan untuk menjelajahi dunia Internet atau untuk mencari informasi tentang suatu halaman web yang tersimpan di komputer. Awalnya, web browser hanya berorientasi pada teks dan belum dapat menampilkan gambar.

Namun, web browser sekarang tidak hanya menampilkan gambar dan teks saja, tetapi juga memutar file multimedia. Browser juga dapat mengirim dan menerima email, mengolah bahasa HTML sebahai input dan menjadikan halaman web sebagai output yang informatif.

Contoh web browser antara lain : Internet Explorer, Mozilla Firefox, Opera, netscape, dll.

Hal yang perlu diketahui dalam penjelajahan internet adalah pemahaman struktur alamat web, misalkan http://www.google.com maka alamat tersebut dapat diartikan :

~ http : service transfer web (protokol)
~ www : jaringan situs web terbesar sebagai pengelola pengalamatan situs web
~ google : nama wilayah (domain) , yaitu nama sebagai institusi sebuah web
~ com : nama akhir domain, biasanya menunjukkan bidang situs tersebut

beberapa domain name :
- co, com : perusahaan komersial
- net : perusahaan networking
- org, or : organisasi nonprofit atau yayasan
- edu, ac, sch : lembaga pendidikan

Fungsi Web Browser

Untuk membuat aplikasi Web, dalam hal ini kita menggunakan HTML. Di sini kita membutuhkan suatu editor yang berguna untuk mengetik, mengedit atau menyimpan dokumen-dokumen HTML Editor untuk mendesain suatu Web dibagi 2 yaitu WYSIWYG (Graphic) Editor, antara lain Notepad dan Ultra Edit, dan Editor WYSIWYG, antara lain Netscape dan Front Page.
Struktur Dasar HTML

Fungsi utama dari web browser adalah untuk menampilkan halaman-halaman web yang terdapat di internet, selain itu kita dapat menyimpan website tersebut dan dapat kita panggil lagi kemudian (Bookmark), website juga dapat disimpan (save) hingga informasi-informasi di dalamnya dapat kita ambil.
Internet Expoler

Di sini saya mengambil Internet Expoler sebagai web browser nya. Microsoft Internet Expoler, merupakan software yang Built-in dengan sistem operasi Windows. Versi dari Internet Expoler berbeda-beda sesuai dengan sistem operasi Windows yang digunakan (IE 4.0 uNTUK wINDOWS 98/ME, IE 5/6 untuk Windows XP). Untuk memulai Internet Expoler dapat dilakukan dengan cara berikut :
1. Pilih program Internet Expoler, dapat melalui start atau melalui icon internet expoler.
2. Lakukan koneksi ke internet terlebih dahulu, bila diperlukan.
3. Ketik alamat website yang akan dituju, jika koneksi berjalan maka akan tampil halaman web yang Anda inginkan

Untuk membuka suatu website terdapat dua cara yang dilakukan yaitu :
• Pertama. Memilih menu File, kemudian Open maka akan ditampilkan jendela Open. Lalu masukkan alamat website yang Anda inginkan. Misalnya http://www.unikom.ac.id, kemudian tekan tombol OK atau Enter, maka akan dimunculkan website tersebut.
• Kedua. Dengan memasukkan langsung alamat websitenya ke kotak address yang terdapat di jendela Internet Expoler.
Tombol-tombol lain yang biasa digunakan adalah sebagai berikut :
Nama Keterangan
Back Untuk kembali ke halaman sebelumnya
Stop Untuk menghentikan proses loading website
Forward Untuk ke halaman berikutnya
Refresh Untuk mengulang loading website
Save As Untuk menyimpan website yang sedang dibuka yang dapat dilakukan dengan memilih menu File, kemudian Save As
Save As Picture Untuk menyimpangambar pada website dengan cara mengklik kanan mouse pada gambar yang
diinginkan kemudian pilh Save As Pictu
  1. Pengertian Search Engine
    Mesin pencari web atau yang lebih dikenal dengan istilah web search engine merupakan program komputer yang dirancang untuk mencari informasi yang tersedia didalam dunia maya. Berbeda halnya dengan direktori web (seperti dmoz.org) yang dikerjakan oleh manusia untuk mengelompokkan suatu halaman informasi berdasarkan kriteria yang ada, web search engine mengumpulkan informasi yang tersedia secara otomatis.
  2. Cara Kerja Search Engine
    Mesin pencari web bekerja dengan cara menyimpan hampir semua informasi halaman web, yang diambil langsung dari www. Halaman-halaman ini diambil secara otomatis. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data
    tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.

    Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.

    Mesin pencari lain yang menggunakan proses real-time, seperti Orase, tidak menggunakan indeks dalam cara kerjanya. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal seperti informasi selalu mutakhir, (hampir) tak ada broken link, dan lebih sedikit sumberdaya sistem yang diperlukan (Google menggunakan hampir 100.000 komputer, Orase hanya satu.). Tetapi, ada juga kelemahannya yaitu pencarian lebih lama rampungnya.
  3. Komponen utama dalam Search Engine
    Sebuah search engine memiliki beberapa komponen agar dapat menyediakan layanan utamanya sebagai sebuah mesin pencari informasi. Komponen tersebut antara lain :
    1. Web Crawler
      Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka dia akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu.

      Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.

      Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya.

      Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :
      • Halaman mana yang harus dikunjungi terlebih dahulu.
      • Aturan dalam proses mengunjungi kembali sebuah halaman.
      • Performansi, mencakup banyaknya halaman yang harus dikunjungi.
      • Aturan dalam setiap kunjungan agar server yang dikunjungi tidak kelebihan beban.
      • Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster.
      • Seberapa jauh kedalaman sebuah website yang akan dikunjungi.
      • Hal yang tak kalah pentingnya adalah kemampuan web crawler untuk mengikuti
        perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut.

        Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (<a>). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru.

    2. Indexing system
      Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.

      Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer.

      Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan.

    3. Search system
      Search system inilah yang berhubungan langsung dengan pengguna, meyediakan hasil pencarian informasi yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.
    4. Pengertian Search Engine
      Mesin pencari web atau yang lebih dikenal dengan istilah web search engine merupakan program komputer yang dirancang untuk mencari informasi yang tersedia didalam dunia maya. Berbeda halnya dengan direktori web (seperti dmoz.org) yang dikerjakan oleh manusia untuk mengelompokkan suatu halaman informasi berdasarkan kriteria yang ada, web search engine mengumpulkan informasi yang tersedia secara otomatis.
    5. Cara Kerja Search Engine
      Mesin pencari web bekerja dengan cara menyimpan hampir semua informasi halaman web, yang diambil langsung dari www. Halaman-halaman ini diambil secara otomatis. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data
      tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.

      Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.

      Mesin pencari lain yang menggunakan proses real-time, seperti Orase, tidak menggunakan indeks dalam cara kerjanya. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal seperti informasi selalu mutakhir, (hampir) tak ada broken link, dan lebih sedikit sumberdaya sistem yang diperlukan (Google menggunakan hampir 100.000 komputer, Orase hanya satu.). Tetapi, ada juga kelemahannya yaitu pencarian lebih lama rampungnya.
    6. Komponen utama dalam Search Engine
      Sebuah search engine memiliki beberapa komponen agar dapat menyediakan layanan utamanya sebagai sebuah mesin pencari informasi. Komponen tersebut antara lain :
      1. Web Crawler
        Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka dia akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu.

        Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.

        Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya.

        Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :
        • Halaman mana yang harus dikunjungi terlebih dahulu.
        • Aturan dalam proses mengunjungi kembali sebuah halaman.
        • Performansi, mencakup banyaknya halaman yang harus dikunjungi.
        • Aturan dalam setiap kunjungan agar server yang dikunjungi tidak kelebihan beban.
        • Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster.
        • Seberapa jauh kedalaman sebuah website yang akan dikunjungi.
        • Hal yang tak kalah pentingnya adalah kemampuan web crawler untuk mengikuti
          perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut.

          Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (<a>). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru.

      2. Indexing system
        Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.

        Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer.

        Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan.

      3. Search system
        Search system inilah yang berhubungan langsung dengan pengguna, meyediakan hasil pencarian informasi yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.
re

makalah tentang e-mail

Pengertian E-mail

E-mail adalah surat melalui media elektronik.Sebenarnya email merupakan singkatan dari “Electronic mail”. Melalui email kita dapat mengirim surat elektronik baik berupa teks maupun gabungan dengan gambar, yang dikirimkan dari satu alamat email ke alamat lain di jaringan internet. Apabila kita mengirim surat melalui email kita dapat memperoleh beberapa manfaat .Antara lain, dengan menggunakan email surat (informasi) yang kita kirim ke alamat email lain akan secara langsung diterima, selain itu biaya yang kita keluarkan cukup murah. Kita juga bisa membaca berbagai berita dan pengetahuan tapi asalkan kalian harus mampu menguasai Bahasa Inggris. Oleh karena itu, berita itu yang selalu ditampilkan dengan menggunakan Bahasa Inggris.  Sebuah alamat email biasanya memiliki format semacam username@host.domain.Saat ini ISP yang menyediakan layanan pembuatan email secara gratis adalah yahoo, plasa, hotmail. .Sebagai contoh kita membuat email melalui yahoo.com. Langkah-lagkahnya sebagai berikut : 1. Kita buka program intertnet explorer 2. Kita tulis www.yahoo.com di URL dari internet 3. Untuk membuat email baru secara gratis kita klik “Sign Up” 4. Setelah muncul formulir pendaftaran email, kita isi formulir tersebut secara lengkap 5. Jangan lupa kita harus menuliskan yahoo id dan password untuk pengamanan email kita 6. Selain itu kita harus menuliskan verifikasi email 7. Beri tanda centang pada pernyataan ” I Agree” 8. Klik “Submit” 9. Tunggu beberapa saat kita akan mendapat pesan selamat datang dari yahoo. Melalui langkah-langkah di atas kita sudah dapat memiliki sebuah email secara gratis dan mudah.Dalam mengirim email kita dapat melampirkan file-file yang kita butuhkan. Dengan cara : 1. Buka email kita 2. Klik compose atau tulis 3. Sebelumnya kita tulis subject dan untuk siapa email itu akan dikirim. Dalam tampilan compose terdapat “CC” yang berarti alamat tambahan 4. Klik attachment file bila kita ingin melampirkan file 5. Setelah muncul tampilan attachment file, kita pilih file mana yang akan kita lampirkan 6. Klik attach file 7. Klik continue message 8. Klik Send beberapa email yang terkumpul dalam suatu group disebut mailing list.