KOMPRESI FILE
Kompresi file adalah suatu cara
untuk mengkodekan informasi dengan menggunakan bit yang lebih rendah yang
digunakan untuk memperkecil ukuran data agar dapat disimpan dengan ruang
penyimpanan yang kecil dan juga dapat mempersingkat waktu dalam transfer data.
Kompresi data merupakan cabang ilmu
komputer yang bersumber dari teori informasi. Dalam tulisannyanya di tahun 1948,
“A Mathematical Theory of Communication”, Claude E. Shannon merumuskan teori
kompresi data. Teori informas difokuskan pada berbagai metode penyimpanan dan
pemrosesan data. Dalam teori ini juga disebutkan bahwa semakin banyak redudancy
data (data yang tidak berguna) semakin besar pula ukuran penyimpanan data
tersebut. Oleh sebab itu, untuk mengurangi redudancy data, maka dibuatlah teori
informasi tentang kompresi data (kompresi file).
Tenik
kompresi file dibedakan menjadi dua,
yaitu lossy data-compression dan lossless data-compression.
1. Lossy Data-Compression
2. Lossless Data-Compression
Teknik ini mempunyai derajat
kompresi yang rendah, tetapi dalam proses ini data yang telah dikompresi tidak
berubah dibandingkan dengan data yang sebelumnya. Teknik ini sangat bagus
digunakan untuk proses kompresi basis data, dokumen, database, ataupun
spreadsheet. Contoh: ZIP, RAR, GZIP, dan 7-ZIP.
Secara
umum kompresi file terdiri dari dua kegiatan, yaitu modeling dan coding. Proses
dasar dari suatu kompresi file adalah menentukan bagian dari data (stream of
symbols) dan mengubahnya menjadi bagian dari kode (stream of codes). Hasil
kompresi menjadi efekti jika hasil dari stream of codes lebih kecil daripada
stream of symbols.
1. Coding
Melakukan proses pengkodean dengan
menggunakan ASCII dan EBDIC memberikan kelemahan mendasar jika dilihat dari
paradigma kompresi file. Salah satu cara untuk mengatasinya adalah dengan
menggunakan Huffman-coding yang dibuat oleh David A. Huffman dari MIT tahun
1952. Huffman-coding merupakan teknik terbaik untuk pengkodean pesan yang
panjangnya tetap, tetapi hanya bisa menggunakan bilangan bulat untuk jumlah bit
dari setiap kode. Pada awal era 90-an Huffman-coding dianggap teknik yang
sangat rasional untuk diaplikasikan terhadap kompresi data. Setelah
perkembangan prosesor yang mampu mengoperasikan bilangan pecahan, munculah
algoritma coding, yang salah satunya adalah arithmatic-coding.
2. Modeling
Coding dengan menggunakan algoritma
tidak akan bisa terwujud tanpa adanya model yang baik. Kompresi data lossless
biasanya diimplementasikan dengan salah satu dari dua modeling, yaitu
Statistical-modeling (menggunakan probabilitas kemunculan dari sebuah simbol)
dan Dictionary-based modeling (menggunakan kode untuk menggantikan simbol).
Aplikasi Kompresi
1. Algoritma Lempel-Ziv-Welch
Menggunakan teknik adaptif dan
berbasiskan kamus. LZW merupakan pengembangan dari LZ77 dan LZ78 oleh Jacob Ziv
dan Abraham Lempel tahun 1977 dan 1978 dan dikembangkan juga oleh Terry Welch
pada 1984.
2. Zip File Format
Ditemukan oleh Phil Katz untuk
program PKZIP yang kemudian juga dikembangkan untuk WinZip, WinRAR, dan 7-ZIP.
Merupakan
singkatan dari Roshal Archive, ditemukan oleh Eugene
Roshal
10 Maret 1972 di Rusia.
Referensi:
teori kompresi data



Tidak ada komentar:
Posting Komentar