Ada tiga komponen yang saling bergantung utama untuk mengoptimalkan bandwidth WAN.Mereka adalah:
1. Traffic Management / QoS
2. Caching
3. Kompresi
disini saya akan membahas masing-masing teknik secara rinci, dan akan menciptakan suatu kerangka kerja dimana user bisa menyesuaikan untuk situasi mereka yang unik.Kerangka ini akan membahas jenis situasi di mana penggunaan
teknik yang diberikan bisa mendapatkan manfaat bisa juga tidak mendapatkan manfaat dari teknik ini.Kerangka kerja ini juga akan menyoroti ketergantungan antara teknik manajemen.
1. Traffic Management / QoS
Manajemen Lalu Lintas mengacu pada kemampuan jaringan untuk memberikan perlakuan istimewa untuk kelas lalu lintas tertentu. Hal ini diperlukan dalam situasi di mana bandwidth yang langka, dan ada satu atau lebih keterlambatan sensitif, aplikasi bisnis penting.Perhatikan bahwa dalam konteks ini, perlakuan istimewa bisa berarti membatasi bandwidth aplikasi tertentu (misalnya, email) menerima sementara secara bersamaan memastikan keadilan bagi semua pengguna dari beberapa bisnis penting, aplikasi delay sensitif.Salah satu cara untuk menjamin keadilan adalah memastikan bahwa semua pengguna aplikasi tertentu menerima setidaknya jumlah yang diberikan (misalnya, 20 Kbps) dari bandwidth.
untuk memastikan bahwa aplikasi menerima jumlah yang diperlukan bandwidth – atau sebaliknya tidak menerima terlalu banyak bandwidth, solusi manajemen lalu lintas harus memiliki kesadaran aplikasi.Hal ini sering berarti rinci Layer 7 pengetahuan tentang aplikasi, karena banyak aplikasi berbagi hop port yang sama (yaitu, Layer 4), atau bahkan antara port.Salah satu contoh umum dari suatu port yang populer adalah port 80, yang sering digunakan oleh aplikasi bisnis berbasis web, web browsing, Pointcast, media streaming dan aplikasi lain.Banyak aplikasi peer-to-peer seperti Gnutella atau iMesh menggunakan hop antara port dan membuat aturan bandwidth port berbasis manajemen efektif.Secara khusus, solusi yang tidak dapat membedakan antara mereka tidak dapat secara efektif mengelola bandwidth.
Faktor lain yang penting dalam manajemen lalu lintas adalah kemampuan untuk secara efektif mengontrol lalu lintas inbound dan outbound.mekanisme kontrol meninggalkan antrian bandwidth jaringan, tetapi tidak mengatasi lalu lintas yang masuk ke dalam jaringan, di mana kemacetan biasanya terjadi.Teknologi seperti TCP Rate Control memberitahu server remote seberapa cepat mereka dapat mengirim konten menyediakan manajemen bi-directional benar.
Satu kelas aplikasi yang telah menjadi baik meresap dan bisnis penting selama beberapa tahun terakhir adalah Enterprise Resource Planning (ERP) aplikasi, seperti SAP R / 3.Beberapa SAP R / 3 modul yang terutama sensitif terhadap delay.Contoh dari ini adalah Penjualan dan Distribusi (SD) modul dari SAP yang digunakan untuk entri order penjualan.Jika komponen SD sedang berjalan perlahan perusahaan dapat menghitung kehilangan produktivitas organisasi penjualan perusahaan saat mereka membuang waktu menunggu untuk modul SD untuk merespon.Selain itu, jika modul SD sudah habis waktunya, ini bisa mengganggu pelanggan ke titik di mana mereka menutup telepon, mengambil bisnis mereka di tempat lain.
Untuk menghitung kebutuhan bandwidth dari SAP R / 3, Netigy baru-baru ini diuji SAP Membuat Transaksi Order Penjualan.Di antara pengamatan yang dibuat Netigy adalah bahwa SAP R / 3 Release 4.6C SAP GUI untuk HTML memproduksi lebih dari 30 kali volume lalu lintas jika dibandingkan dengan klien Release 3.x untuk Pembuatan Penjualan pemesanan transaksi yang sama.Netigy juga mencatat bahwa dalam jaringan padat, melaksanakan fungsi QoS mengurangi waktu transaksi SAP sekitar 75%.Perusahaan yang ingin menyebarkan Traffic Management / QoS memerlukan:
1. Instrumen jaringan sedemikian rupa sehingga mereka dapat memantau dan mengklasifikasikan lalu lintas WAN.
2. Menganalisis lalu lintas WAN untuk memahami pola lalu lintas dari aplikasi kunci
3. Mengimplementasikan tingkat yang sesuai kebijakan
4. Menyediakan pemantauan tingkat layanan dan pelaporan untuk secara aktif mengelola lalu lintas jaringan pergeseran pola
manajemen lalu lintas merupakan komponen yang paling penting dari mengoptimalkan bandwidth WAN.Caching dan kompresi memberikan manfaat tambahan, namun tanpa manajemen lalu lintas, manfaat secara efektif bertindak sebagai perangkat tambahan bandwidth satu kali.Hasil akhirnya adalah bahwa aplikasi yang sama agresif akan mengkonsumsi bandwidth yang baru dibuat , karena mereka mengkonsumsi bandwidth yang ada
2. Caching
Motivasi saat ini menggunakan cache adalah mempercepat pengiriman konten, serta untuk mengoptimalkan penggunaan bandwidth WAN.Dilihat dari fungsinya, ini memungkinkan untuk caching sebagai teknik di mana sumber daya penyimpanan dikerahkan sedemikian rupa untuk menyebabkan WAN melakukan seolah-olah telah menerima upgrade bandwidth.Namun, menambah jumlah yang relatif kecil bandwidth tidak akan memecahkan masalah kinerja aplikasi yang buruk dengan sendirinya. Hal berikut karena bandwidth akan tetap langka dan masih ada kebutuhan untuk melindungi menunda aplikasi bisnis yang sensitif, kritis. Solusinya adalah dengan menerapkan teknik peningkatan bandwidth, seperti cache, dalam hubungannya dengan Traffic Management / QoS.Caching sering hadir dalam beberapa bentuk dalam lingkungan perusahaan. Kebanyakan browser berisi cache lokal untuk halaman web mereka telah diakses. Sebuah cache proxy bertindak mirip dengan cache browser, tapi duduk di tepi cache WAN dan permintaan dari banyak pengguna, bukan hanya satu. Akhirnya, pusat data (atau reverse proxy) offload cache server dan konten bantuan kecepatan keluar dari pusat data. Bila merujuk secara aktif mengelola bandwidth WAN, cache proxy adalah jenis cache yang digunakan.
Berikut ini menggambarkan salah satu cara di mana cache proxy dapat diterapkan :
#permintaan pengguna halaman WEB
#Jaringan menganalisis permintaan dan memutuskan untuk mengirim permintaan ke cache proxy lokal
#Jika cache proxy dapat memenuhi permintaan, itu bisa. Jika tidak bisa, ia akan mengirimkan permintaan ke server web asli
#Web server yang asli memberikan halaman ke cache proxy, dan keduanya menyimpan halaman, dan memberikan kepada pengguna meminta
3. Kompresi
Fungsi dasar dari kompresi yaitu untuk mengurangi ukuran file data yang akan dikirimkan melalui WAN. Dilihat dari fungsinya, ini memungkinkan untuk melihat kompresi dalam cara yang sangat mirip dengan caching. Secara khusus, kompresi kadang-kadang dapat digunakan untuk menyebabkan WAN untuk melakukan seolah-olah menerima upgrade bandwidth satu kali. Namun, seperti yang terjadi dengan caching, menyebarkan kompresi tidak memecahkan masalah kinerja aplikasi yang buruk. Seperti yang dinyatakan sebelumnya, solusi untuk masalah itu adalah dengan menerapkan teknik peningkatan bandwidth, seperti kompresi, dalam hubungannya dengan Traffic Management / QoS. Sebuah artikel terbaru dari CISCO menunjukkan masalah untuk menganalisis ketika mempertimbangkan menyebarkan kompresi. Isu itu menyebutkan bahwa :
#Kenaikan latency sebagai produk sampingan dari kompresi
#Kemacetan Management
#persyaratan Memori
#Kecepatan sebagai fungsi siklus CPU dan instruksi algoritma kompresi
#Rasio Kompresi
Dokumen Cisco menjelaskan masing-masing isu sebelumnya secara rinci. Dokumen ini tidak akan mengulangi diskusi itu, tetapi akan fokus pada beberapa konsep kunci. Salah satu konsep ini adalah rasio kompresi, yang merupakan ukuran keuntungan yang menawarkan kompresi. Rasio kompresi dinyatakan sebagai perbandingan, x: 1, dimana “x” adalah jumlah input byte dibagi dengan jumlah byte output. Jelas semakin besar rasio kompresi, keuntungan lebih yang ada untuk menyebarkan kompresi. Artikel Cisco membahas tes yang dilakukan melalui berbagai jenis file yang berbeda. Berdasarkan tes ini, artikel itu menunjukkan bahwa dalam kasus-kasus di mana kompresi menambah nilai, bahwa pembaca harus berharap rasio kompresi pada rentang 1.7:1 sampai 2:1.
dikutip dari : “Ashton, Metzler & Associates”
Read Full Post »