Lompat ke konten Lompat ke sidebar Lompat ke footer

Latency Jaringan: Pengertian, Penyebab, dan Cara Mengatasinya

Pernahkah Anda merasa jengkel karena mengalami masalah buffering ketika sedang menikmati konten streaming online atau bermain game?

Masalah yang Anda alami bisa jadi merupakan dampak dari latency atau keterlambatan dalam transmisi data. Dalam konteks telekomunikasi, pengalaman pengguna yang baik (UX) seringkali terkait dengan latency yang rendah, sedangkan pengalaman pengguna yang tidak memuaskan biasanya dikaitkan dengan latency yang tinggi.

Tapi tahukah Anda, apa sih itu latency?

Latency Jaringan: Pengertian, Penyebab, dan Cara Mengatasinya

Di artikel ini, kita akan membahas konsep latency pada jaringan, yang sering kali diabaikan namun memiliki peran penting dalam teknologi modern khususnya ketika menikmati konten secara online. Yuk, simak!

Daftar Isi

Apa itu Latency?

Dalam dunia jaringan komputer, latency adalah istilah untuk mengukur seberapa lama paket berisi data untuk melakukan perjalanan dari satu tempat ke tempat lain. Idealnya, semakin cepat, semakin baik. Kita bisa mengukur latency jaringan dengan melihat berapa lama waktu yang dibutuhkan oleh sebuah paket data untuk pergi ke lokasi tujuannya dan kembali lagi.

Ilustrasi latency
Sumber: geekflare.com

Latency jaringan yang tinggi bisa membuat situs web lama dimuat (lambat loading). Selain itu, latency juga menyebabkan video dan audio streaming menjadi putus-putus, dan bahkan bisa membuat aplikasi tidak bisa digunakan. Seringkali peningkatan latency bisa mengganggu pengalaman pengguna, khususnya ketika bermain game kompetitif.

Untuk memudahkan penjelasan mengenai latency, bayangkan sebuah Server A di New York mengirimkan sebuah paket data ke Server B di Jakarta. Server A mengirimkan paket ini tepat pada pukul 04:38:00.000 GMT, dan Server B menerima paket tersebut pada pukul 04:38:00.145 GMT. Nah, latency pada jalur jaringan ini dapat dihitung sebagai selisih waktu antara kedua peristiwa tersebut, yang berjumlah 0,145 detik atau 145 milidetik.

Dalam sebagian besar kasus, latency diukur antara perangkat pengguna, yang sering disebut sebagai perangkat "klien," dan data center. Pengukuran ini penting bagi developer untuk menilai seberapa cepat sebuah halaman web atau aplikasi akan dimuat bagi pengguna.

Meskipun data di internet bergerak dengan kecepatan cahaya, namun ada beberapa faktor yang membuat latency tidak pernah bisa sepenuhnya dihilangkan. Faktor-faktor tersebut seperti jarak dan peralatan infrastruktur internet.

Meskipun tidak dapat dihilangkan sepenuhnya, latency bisa diminimalkan sebanyak mungkin. Latency yang berlebihan dapat menyebabkan kinerja situs web yang buruk, berdampak negatif pada optimasi mesin pencari (SEO), dan bahkan membuat pengguna meninggalkan situs web atau aplikasi tersebut.

Salah satu penyebab utama latency yang buruk adalah jarak geografis. Jaringan Protokol Internet (IP) yang tersebar luas bisa membuat jalur untuk mentransmisikan semakin jauh, yang membuat aplikasi menjadi terhambat.

Dalam situasi di mana kita butuh respon yang sangat cepat - misalnya, dalam autonomous driving (mobil kemudi otomatis)- maka akan lebih baik jika komputer yang memproses data ditempatkan sedekat mungkin dengan sumber data itu sendiri. Konsep ini dikenal sebagai edge computing.

Penyebab Latency dalam Jaringan

Latency dapat disebabkan oleh banyak hal, di antaranya:

1. Media transmisi

Latency dapat dipengaruhi oleh jenis media yang digunakan untuk mengirim data, suara, atau video. Sebagai contoh, jika paket data melewati jalur T1, latency biasanya akan lebih rendah dibandingkan dengan paket data yang melalui kabel Cat5. Ini dikarenakan karakteristik teknis dan fisik dari media tersebut memengaruhi kecepatan transmisi.

2. Ukuran paket data

Ukuran paket data juga berperan dalam menentukan latency. Paket data yang besar akan memerlukan lebih banyak waktu untuk dikirimkan bolak-balik dibandingkan dengan paket data yang lebih kecil. Ini disebabkan oleh kompleksitas proses pengiriman yang lebih tinggi untuk paket data yang lebih besar.

3. Packet loss dan jitter

Keterlambatan (latency) dapat timbul akibat kegagalan sebagian paket data untuk mencapai tujuan (packet loss) atau variasi yang tidak konsisten mengenai waktu yang diperlukan oleh beberapa paket data untuk sampai dari satu sistem ke sistem lainnya (jitter).

4. Kekuatan sinyal

Ketika sinyal lemah dan perlu diperkuat dengan penguat sinyal, proses tersebut dapat menambahkan waktu delay dalam transmisi data.

5. Keterlambatan propagasi

Keterlambatan ini bisa muncul ketika setiap node gateway dalam jaringan perlu memeriksa dan mengubah header dalam paket data. Misalnya, mengubah jumlah hop dalam bidang time-to-live (TTL) dapat memengaruhi latency, karena melibatkan proses tambahan di setiap node.

6. Keterlambatan pada komputer dan perangkat penyimpanan

Apabila suatu paket data mengalami keterlambatan karena harus menunggu akses penyimpanan dan hard disk pada perangkat perantara seperti switch, maka latency akan meningkat. Hal ini terjadi ketika ada penundaan dalam pemrosesan di perangkat tersebut sebelum paket data dapat melanjutkan perjalanan ke tujuannya.

Jenis-jenis Latency

Selain latency yang umum pada telekomunikasi, ada beberapa jenis lain dari latency, diantaranya:

  • Interrupt Latency: Waktu yang diperlukan oleh komputer untuk merespons sinyal yang memerintahkan sistem operasi (OS) host untuk berhenti sejenak, sampai OS dapat memutuskan tindakan yang harus diambil sebagai respons terhadap suatu peristiwa.
  • Fiber Optic Latency: Waktu yang dibutuhkan oleh cahaya untuk menempuh jarak tertentu melalui kabel serat optik. Untuk setiap kilometer yang ditempuh oleh cahaya, terdapat latency sekitar 3.33 mikrodetik (μs) berdasarkan kecepatan cahaya. Namun, dalam kenyataannya, latency per kilometer dari kabel serat optik sekitar 4.9 μs karena cahaya bergerak lebih lambat dalam kabel. Latensi juga dapat meningkat jika terdapat belokan atau ketidaksempurnaan dalam kabel.
  • Internet Latency: Waktu latency internet sangat tergantung pada jarak. Semakin jauh paket data harus melakukan perjalanan melintasi jaringan area luas (WAN) global, semakin tinggi latensinya.
  • WAN Latency: Latensi WAN dapat menjadi faktor penting dalam menentukan latency internet. Sebuah WAN yang sibuk mengarahkan lalu lintas lain akan menghasilkan keterlambatan, baik sumber daya tersebut diminta dari server di jaringan area lokal (LAN), komputer lain dalam jaringan tersebut, atau tempat lain di internet.
  • Audio Latency: Jeda antara suara yang dibuat dan suara yang terdengar. Dalam dunia fisik, jeda ini ditentukan oleh kecepatan suara, yang bervariasi tergantung pada medium yang dilalui gelombang suara. Latensi audio yang dapat diterima biasanya berada dalam kisaran 8 hingga 12 mikrodetik (μs). Latensi sekitar 30 milidetik (ms) biasanya akan terasa oleh pendengar.
  • Operational Latency: Total waktu operasi jika operasi-operasi tersebut dilakukan dalam alur kerja linear. Dalam alur kerja paralel, latency ditentukan oleh operasi paling lambat yang dilakukan oleh seorang pekerja tugas tunggal.
  • Mechanical Latency: Jeda dari masukan ke dalam suatu sistem atau perangkat mekanis hingga keluaran yang diinginkan. Jeda ini ditentukan oleh batasan fisika mekanisme (kecuali mekanika kuantum).
  • Computer and OS Latency: Gabungan jeda antara masukan atau perintah dan keluaran yang diinginkan. Faktor-faktor yang berkontribusi pada peningkatan latency komputer termasuk buffer data yang tidak mencukupi dan ketidakcocokan dalam kecepatan data antara mikroprosesor dan perangkat masukan/keluaran (I/O).

Cara Mengukur Latency

1. Menggunakan Metrik Time to First Byte (TTFB)

TTFB digunakan untuk mencatat waktu yang dibutuhkan oleh byte pertama data untuk mencapai klien dari server setelah koneksi terhubung. TTFB bergantung pada dua faktor: waktu pemrosesan permintaan oleh server web dan waktu respons kembali ke klien. TTFB dapat mengukur baik waktu pemrosesan server maupun keterlambatan jaringan. Kita juga dapat mengukur latensi sebagai TTFB yang dirasakan, yang mungkin lebih lama karena pemrosesan respons oleh mesin klien.

2. Menggunakan Metrik Round Trip Time (RTT)

RTT adalah waktu yang diperlukan oleh klien untuk mengirim permintaan dan menerima respons dari server. Latensi jaringan dapat menyebabkan penundaan dalam perjalanan pulang-pergi dan meningkatkan RTT. Penting untuk dicatat bahwa semua pengukuran RTT oleh alat pemantauan jaringan adalah indikator parsial karena data dapat melalui jalur jaringan yang berbeda saat pergi dari klien ke server dan ketika kembali lagi.

3. Menggunakan Perintah Ping

Administrator jaringan dapat menggunakan perintah ping untuk menentukan waktu yang dibutuhkan oleh 32 byte data untuk mencapai tujuannya dan menerima respons balik. Ini dapat digunakan untuk mengidentifikasi keandalan suatu koneksi. Namun, perintah ping tidak dapat digunakan untuk memeriksa jalur ganda dari konsol yang sama atau mengatasi masalah latensi.

Cara Mengurangi Latency pada Jaringan

Berikut ini adalah beberapa tips yang dapat digunakan untuk mengurangi latency pada jaringan:

  • Tingkatkan Kecepatan dan Kapasitas Internet: Untuk menjalankan internet dengan lancar, pastikan koneksi internet Anda memiliki kecepatan setidaknya 15mbps. Kapasitas internet juga penting, terutama jika ada orang lain yang menggunakan internet untuk bermain game online, streaming, atau video call.
  • Menggunakan HTTP/2: Ini adalah cara untuk membuat sinyal internet bergerak lebih cepat antara pengirim dan penerima dengan mempersingkat jalur yang harus ditempuh oleh sinyal tersebut.
  • Menggunakan CDN: Jika Anda menggunakan CDN, data dan sumber daya akan disimpan di lokasi terdekat dengan pengguna di seluruh dunia. Hal ini memungkinkan sinyal internet untuk mengambil data dari lokasi yang lebih dekat, daripada harus pergi jauh ke sumber aslinya.
  • Posisikan Perangkat Dekat Router: Sinyal internet bergerak dari satu router ke router lainnya secara nirkabel, namun bisa terganggu oleh benda-benda seperti dinding atau perabotan. Pastikan perangkat Anda ditempatkan di area rumah yang memiliki konektivitas yang baik.
  • Upgrade Paket Broadband: Kadang-kadang, penyedia layanan internet dapat menjadi penyebab masalah latency. Jika Anda menemukan penawaran yang lebih baik dari penyedia lain, pertimbangkan untuk beralih.
  • Restart Router: Jika router Anda telah digunakan dalam waktu yang lama, melakukan restart dapat membantu menyegarkan kinerjanya dan mengurangi beban yang terus menerus.
  • Tutup Aplikasi yang Tidak Digunakan: Aplikasi seperti Amazon Prime, Netflix, Hotstar, YouTube, atau layanan streaming lainnya dapat memperlambat koneksi internet Anda. Pastikan untuk menutup aplikasi-aplikasi ini jika Anda tidak menggunakannya.
  • Mainkan Game di Server Lokal: Untuk mendapatkan koneksi yang lebih baik saat bermain game online, cobalah untuk bermain di server yang berlokasi lebih dekat dengan Anda.
  • Gunakan Kabel Ethernet: Menggunakan koneksi kabel untuk internet selalu merupakan opsi yang baik. Ini karena sinyal internet dapat bergerak langsung melalui kabel tanpa harus melalui rintangan-rintangan lainnya, yang dapat mengurangi latency dan meningkatkan stabilitas koneksi Anda.

Penutup

Demikianlah artikel mengenai latency. Dapat disimpulkan bahwa latency adalah faktor kunci dalam kinerja jaringan dan aplikasi. Memahami jenis-jenis latency dan cara mengukur serta menguranginya adalah langkah penting untuk meningkatkan pengalaman pengguna dalam penggunaan teknologi dan internet. Semakin kita memahami dan mengelola latency, semakin baik kualitas koneksi dan layanan yang dapat kita nikmati.

Semoga informasi yang kami sajikan dapat bermanfaat dan menambah khazanah pengetahuan kita.

Salam!

Referensi:

Trivusi
Trivusi Ikatlah ilmu dengan menulis. Menebar manfaat dengan berbagi :)

Posting Komentar untuk "Latency Jaringan: Pengertian, Penyebab, dan Cara Mengatasinya"