Pengertian DBMS
DBMS adalah singkatan dari “Database
Management System” yaitu
sistem penorganisasian dan sistem pengolahan Database pada komputer. DBMS ini
merupakan perangkat lunak (software) yang dipakai untuk membangun basis
data yang berbasis komputerisasi.
DBMS juga
dapat membantu dalam memelihara serta pengolahan data dalam jumlah yang besar,
dengan menggunakan DBMS bertujuan agar tidak dapat menimbulkan kekacauan
dan dapat dipakai oleh user sesuai dengan kebutuhan.
DBMS ialah perantara untuk
user dengan basis data, untuk dapat berinteraksi dengan DBMS dapat memakai
bahasa basis data yang sudah di tentukan oleh perusahaan DBMS. Bahasa basis
data umumnya terdiri dari berbagai macam instruksi yang diformulasikan sehingga
instruksi tersebut dapat di proses oleh DBMS.
Sejarah
Basis Data
Menurut sejarah, sistem pemrosesan basis data terbentuk
setelah masa sistem pemrosesan manual dan sistem pemrosesan berkas.
Sistem pemrosesan manual (berbasis kertas) merupakan
bentuk pemrosesan yang menggunakan dasar berupa setumpuk rekaman yang disimpan
pada rak-rak berkas. Jika suatu berkas diperlukan, berkas tersebut harus dicari
pada rak-rak tersebut. Bentuk seperti ini masih banyak dijumpai dalam kehidupan
sehari-hari.
Pada saat penerapan sistem komputer, sekelompok rekaman
disimpan pada sejumlah berkas secara terpisah. Sistem yang menggunakan
pendekatan seperti ini biasa disebut sistem pemrosesan berkas.
Perkembangan DBMS
Generasi
pertama DBMS didesain oleh Charles Bachman di perusahaan General Electric pada
awal tahun 1960, disebut sebagai penyimpanan data terintegrasi (Integrated Data
Store). Dibentuk dasar untuk model data jaringan yang kemudian
distandardisasi oleh Conference on Data System Languages (CODASYL).Bachman
kemudian menerima ACM Turing Award (Penghargaan semacam Nobel pada ilmu komputer) di tahun 1973. Dan pada
akhir 1960, IBM mengembangkan sistem manajemen informasi (Information
Management System) DBMS. IMS dibentuk dari representasi data pada kerangka
kerja yang disebut dengan model data hirarki. Dalam waktu yang sama, dikembangkan
sistem SABRE sebagai hasil kerjasama antara IBM dengan perusahaan penerbangan
Amerika. Sistem ini memungkinkan user untuk mengakses data yang sama pada
jaringan komputer.
Kemudian
pada tahun 1970, Edgar Codd, di Laboratorium Penelitian di San Jose, mengusulkan
model data relasional. Di tahun 1980, model relasional menjadi paradigma DBMS
yang paling dominan. Bahasa query SQL dikembangkan untuk basis data relasional
sebagai bagian dari proyek Sistem R dari IBM. SQL distandardisasi di akhir
tahun 1980, dan SQL-92 diadopsi oleh American National Standards Institute
(ANSI) dan International Standards Organization (ISO). Program yang digunakan
untuk eksekusi bersamaan dalam basis data disebut transaksi. User menulis
programnya, dan bertanggung jawab untuk menjalankan program tersebut secara
bersamaan terhadap DBMS.
Pada
akhir tahun 1980 dan permulaan 1990, banyak bidang sistem basis data yang
dikembangkan. Penelitian pada bidang basis data meliputi bahasa query yang
powerful, model data yang lengkap, dan penekanan pada dukungan analisis data
yang kompleks dari semua bagian organisasi. Beberapa vendor memperluas
sistemnya dengan kemampuan penyimpanan tipe data baru semisal image dan text,
dan kemampuan query yang kompleks. Sistem khusus/spesial dikembangkan oleh
banyak vendor untuk membuat data warehouse, mengkonsolidasi data dari beberapa
basis data. Pada tahun 1999, James Gray memenangkan Turing Award untuk
kontribusinya pada manajemen transaksi dalam DBMS.
DBMS Bionik
DBMS Bionik adalah anatomi buatan yang dapat dikontrol oleh otak
penggunanya. Secara garis besar dbms bionik adalah bagian - bagian pada sistem
manajemen basis data yang dapat dikontrol oleh otak penggunanya yaitu manusia. Bionik diprediksi merupakan mesin database yang menerapkan
hampir semua fungsi tombol langsung di hardware dan membuang software untuk
peran sebagian besar manajerial.
Tren cloud-base “big
data” dirintis oleh google, facebook, amazon, dan microsoft, dan komunitas
seperti IBM Netezza dan Oracle Exadata telah merespon tren ini, untuk
meningkatkan operasi managemen data dengan kustom atau semi-kustom hardware.
Pengerjaannya terfokus pada gaya perhitungan dataflow dan streaming domain,
contohnya Online Transaction Processing (OLTP).
kita dapat
memperkirakan system masa depan akan seluruhnya menggunakan software untuk
koordinasi penggunaan dan interaksi unit hardware.
- Dark Silikon
Efek yang ditimbulkan
oleh dark silikon : Penolakan skala power untuk beberapa saat desain multicore
menyebabkan paralellisme dari software, akibatnya task mengalami ketidak
seimbangan karena data dibagi ke banyak core. Akibat desakan power akan memaksa
pertumbuhan fraction pada hardware offline walau pernah digunakan software.
- Latensitas dan Kontrol Aliran
Pemrosessan query khususnya dalam bentuk
colomnar menghasilkan dataflow yang signifikan dan relative mudah mengatur
Aliran Kontrol yang memetakan hardware dengan baik. Transaction OLTP
diuntungkan dari skala frekuensi Clock dalam beberapa dekade bahkan lebih
diuntungkan dari paralelisme yang berderajat tinggi untuk penawaran multicore
hardware akibat dark silikon dan dapat sangat merugikan: frekuensi clock dan
jumlah clock yang tetap melewati ancaman generasi untuk menutupi OLTP
Throughput.
- Aliran Kontrol pada Hardware
Hardware Kustom kemampuannya kurang dalam
Aliran Kontrol sering gagal dalam mengekstrak Aliran Kontrol Dinamis dari
Aplikasi Programing. Sebenarnya hardware unggul dalam Aliran kontrol global
‘Finite State Automaton(FSA)’, ‘khusunya Non-deterministic Finite State
Automaton(NFSA)’, dengan mempekerjakan paralelisme dari hardware untuk efek
yang lebih baik. Dari gaya aliran kontrol Neuman: low-dimensional projection
dari bagian pokok mesin memberikan beberapa keuntungan. Akselerasi efektif dari
Aliran kontrol butuh identifikasi proses abstrak dan memetakan high-dimensional
projection ke hardware. Pencarian OLTP(Online Transaction Processing) seperti
B+Tree Probe dan logging tersugesti banyaknya pelekatan yang kurang efektif
dari pengangkatan OLTP akibat kurangnya pemetaan ke software.
- ”BIONIC” Transaction Processing
Target system konkret, berdasar pemberian
mesin HC-2 yang mengkombin Field-Programable Gate Array(FPGA) dengan intel
prosessor modern sistem arsitekturnya seperti Figure2. Performa tinggi FPGA
dengan direct akses ke disk dan ke tampungan lokal memori maka sisi memori FPGA
tidak tercache, tapi terurai berai, memori kontroler mengirim bandwidth 80GBps
untuk request random 64-bit, sangat membantu dalam beban dengan lokalitas
rendah. FPGA dan sisi host memori saling melekat dan mudah diakses oleh CPU
atau FPGA lain, melalui PCI bus menyebabkan efek NUMA yang parah(2µs
bolak-balik). Karakteristik ini memerintah FPGA menangani banyak manipulasi
data dan bahwa komunikasi CPU/FPGA haruslah tidak sinkron. PCI bus menyediakan
bandwidth yang cukup untuk suport beban OLTP dan gaya penyaringan Netezza
memudahkan masalah bandwidth untuk queri-queri, tujuannya untuk mengikat
segudang sumber latensi yang kecil dan dibongkar ke power efisien.
Sumber
Tidak ada komentar:
Posting Komentar