Sabtu, 15 Oktober 2016

Analisis DBMS Bionik

Pengertian DBMS

DBMS adalah singkatan dari Database Management System yaitu sistem penorganisasian dan sistem pengolahan Database pada komputer. DBMS ini merupakan perangkat lunak (software) yang dipakai untuk membangun basis data yang berbasis komputerisasi.
DBMS juga dapat membantu dalam memelihara serta pengolahan data dalam jumlah yang besar, dengan menggunakan DBMS bertujuan agar tidak dapat menimbulkan kekacauan dan dapat dipakai oleh user sesuai dengan kebutuhan.

DBMS ialah perantara untuk user dengan basis data, untuk dapat berinteraksi dengan DBMS dapat memakai bahasa basis data yang sudah di tentukan oleh perusahaan DBMS. Bahasa basis data umumnya terdiri dari berbagai macam instruksi yang diformulasikan sehingga instruksi tersebut dapat di proses oleh DBMS.
Sejarah Basis Data

Menurut sejarah, sistem pemrosesan basis data terbentuk setelah masa sistem pemrosesan manual dan sistem pemrosesan berkas.

Sistem pemrosesan manual (berbasis kertas) merupakan bentuk pemrosesan yang menggunakan dasar berupa setumpuk rekaman yang disimpan pada rak-rak berkas. Jika suatu berkas diperlukan, berkas tersebut harus dicari pada rak-rak tersebut. Bentuk seperti ini masih banyak dijumpai dalam kehidupan sehari-hari.
Pada saat penerapan sistem komputer, sekelompok rekaman disimpan pada sejumlah berkas secara terpisah. Sistem yang menggunakan pendekatan seperti ini biasa disebut sistem pemrosesan berkas.

Perkembangan DBMS

Generasi pertama DBMS didesain oleh Charles Bachman di perusahaan General Electric pada awal tahun 1960, disebut sebagai penyimpanan data terintegrasi (Integrated Data Store). Dibentuk dasar untuk model data jaringan yang kemudian distandardisasi oleh Conference on Data System Languages (CODASYL).Bachman kemudian menerima ACM Turing Award (Penghargaan semacam Nobel pada ilmu komputer) di tahun 1973. Dan pada akhir 1960, IBM mengembangkan sistem manajemen informasi (Information Management System) DBMS. IMS dibentuk dari representasi data pada kerangka kerja yang disebut dengan model data hirarki. Dalam waktu yang sama, dikembangkan sistem SABRE sebagai hasil kerjasama antara IBM dengan perusahaan penerbangan Amerika. Sistem ini memungkinkan user untuk mengakses data yang sama pada jaringan komputer.

Kemudian pada tahun 1970, Edgar Codd, di Laboratorium Penelitian di San Jose, mengusulkan model data relasional. Di tahun 1980, model relasional menjadi paradigma DBMS yang paling dominan. Bahasa query SQL dikembangkan untuk basis data relasional sebagai bagian dari proyek Sistem R dari IBM. SQL distandardisasi di akhir tahun 1980, dan SQL-92 diadopsi oleh American National Standards Institute (ANSI) dan International Standards Organization (ISO). Program yang digunakan untuk eksekusi bersamaan dalam basis data disebut transaksi. User menulis programnya, dan bertanggung jawab untuk menjalankan program tersebut secara bersamaan terhadap DBMS.

Pada akhir tahun 1980 dan permulaan 1990, banyak bidang sistem basis data yang dikembangkan. Penelitian pada bidang basis data meliputi bahasa query yang powerful, model data yang lengkap, dan penekanan pada dukungan analisis data yang kompleks dari semua bagian organisasi. Beberapa vendor memperluas sistemnya dengan kemampuan penyimpanan tipe data baru semisal image dan text, dan kemampuan query yang kompleks. Sistem khusus/spesial dikembangkan oleh banyak vendor untuk membuat data warehouse, mengkonsolidasi data dari beberapa basis data. Pada tahun 1999, James Gray memenangkan Turing Award untuk kontribusinya pada manajemen transaksi dalam DBMS.

DBMS Bionik

DBMS Bionik adalah anatomi buatan yang dapat dikontrol oleh otak penggunanya. Secara garis besar dbms bionik adalah bagian - bagian pada sistem manajemen basis data yang dapat dikontrol oleh otak penggunanya yaitu manusia. Bionik diprediksi merupakan mesin database yang menerapkan hampir semua fungsi tombol langsung di hardware dan membuang software untuk peran sebagian besar manajerial.

Tren cloud-base “big data” dirintis oleh google, facebook, amazon, dan microsoft, dan komunitas seperti IBM Netezza dan Oracle Exadata telah merespon tren ini, untuk meningkatkan operasi managemen data dengan kustom atau semi-kustom hardware. Pengerjaannya terfokus pada gaya perhitungan dataflow dan streaming domain, contohnya Online Transaction Processing (OLTP).

kita dapat memperkirakan system masa depan akan seluruhnya menggunakan software untuk koordinasi penggunaan dan interaksi unit hardware.

  •      Dark Silikon


Efek yang ditimbulkan oleh dark silikon : Penolakan skala power untuk beberapa saat desain multicore menyebabkan paralellisme dari software, akibatnya task mengalami ketidak seimbangan karena data dibagi ke banyak core. Akibat desakan power akan memaksa pertumbuhan fraction pada hardware offline walau pernah digunakan software.
  •        Latensitas dan Kontrol Aliran

 Pemrosessan query khususnya dalam bentuk colomnar menghasilkan dataflow yang signifikan dan relative mudah mengatur Aliran Kontrol yang memetakan hardware dengan baik. Transaction OLTP diuntungkan dari skala frekuensi Clock dalam beberapa dekade bahkan lebih diuntungkan dari paralelisme yang berderajat tinggi untuk penawaran multicore hardware akibat dark silikon dan dapat sangat merugikan: frekuensi clock dan jumlah clock yang tetap melewati ancaman generasi untuk menutupi OLTP Throughput. 
  •         Aliran Kontrol pada Hardware


 Hardware Kustom kemampuannya kurang dalam Aliran Kontrol sering gagal dalam mengekstrak Aliran Kontrol Dinamis dari Aplikasi Programing. Sebenarnya hardware unggul dalam Aliran kontrol global ‘Finite State Automaton(FSA)’, ‘khusunya Non-deterministic Finite State Automaton(NFSA)’, dengan mempekerjakan paralelisme dari hardware untuk efek yang lebih baik. Dari gaya aliran kontrol Neuman: low-dimensional projection dari bagian pokok mesin memberikan beberapa keuntungan. Akselerasi efektif dari Aliran kontrol butuh identifikasi proses abstrak dan memetakan high-dimensional projection ke hardware. Pencarian OLTP(Online Transaction Processing) seperti B+Tree Probe dan logging tersugesti banyaknya pelekatan yang kurang efektif dari pengangkatan OLTP akibat kurangnya pemetaan ke software.

  •              ”BIONIC” Transaction Processing


Target system konkret, berdasar pemberian mesin HC-2 yang mengkombin Field-Programable Gate Array(FPGA) dengan intel prosessor modern sistem arsitekturnya seperti Figure2. Performa tinggi FPGA dengan direct akses ke disk dan ke tampungan lokal memori maka sisi memori FPGA tidak tercache, tapi terurai berai, memori kontroler mengirim bandwidth 80GBps untuk request random 64-bit, sangat membantu dalam beban dengan lokalitas rendah. FPGA dan sisi host memori saling melekat dan mudah diakses oleh CPU atau FPGA lain, melalui PCI bus menyebabkan efek NUMA yang parah(2µs bolak-balik). Karakteristik ini memerintah FPGA menangani banyak manipulasi data dan bahwa komunikasi CPU/FPGA haruslah tidak sinkron. PCI bus menyediakan bandwidth yang cukup untuk suport beban OLTP dan gaya penyaringan Netezza memudahkan masalah bandwidth untuk queri-queri, tujuannya untuk mengikat segudang sumber latensi yang kecil dan dibongkar ke power efisien.




Sumber





Tidak ada komentar:

Posting Komentar