Virtualisasi Data Besar

Pengarang: Judy Howell
Tanggal Pembuatan: 6 Juli 2021
Tanggal Pembaruan: 23 Juni 2024
Anonim
Big Data Virtualization & Open Source Software | vSphere
Video: Big Data Virtualization & Open Source Software | vSphere

Isi

Definisi - Apa yang dimaksud dengan Virtualisasi Big Data?

Virtualisasi big data adalah proses yang berfokus pada pembuatan struktur virtual untuk sistem big data. Perusahaan dan pihak lain dapat mengambil manfaat dari virtualisasi data besar karena memungkinkan mereka untuk menggunakan semua aset data yang mereka kumpulkan untuk mencapai berbagai tujuan dan sasaran. Dalam industri TI, ada panggilan untuk alat virtualisasi data besar untuk membantu menangani analisis data besar. Dalam industri TI, ada panggilan untuk alat virtualisasi data besar untuk membantu menangani analisis data besar.

Pengantar Microsoft Azure dan Microsoft Cloud | Sepanjang panduan ini, Anda akan mempelajari tentang apa itu cloud computing dan bagaimana Microsoft Azure dapat membantu Anda untuk bermigrasi dan menjalankan bisnis Anda dari cloud.

Techopedia menjelaskan Virtualisasi Big Data

Menjelaskan virtualisasi big data membutuhkan pemahaman prinsip-prinsip umum virtualisasi secara keseluruhan. Ide penting dengan virtualisasi adalah bahwa sistem heterogen atau terdistribusi direpresentasikan sebagai sistem yang kompleks melalui antarmuka spesifik yang menggantikan perangkat keras fisik atau peruntukan penyimpanan data dengan komponen virtual. Misalnya, dalam virtualisasi perangkat keras, perangkat lunak membuat sistem komputer fisik menjadi sistem komputer "logis," atau virtual. Sistem virtualisasi ini dapat menyajikan bagian dari dua atau lebih drive penyimpanan yang berbeda pada dua atau lebih komputer sebagai "Drive A" tunggal yang diakses pengguna sebagai satu kesatuan. Dalam virtualisasi jaringan, sistem dapat mewakili sekumpulan node fisik dan sumber daya sebagai sekumpulan komponen virtual yang berbeda.

Salah satu cara untuk memikirkan sumber daya virtualisasi data besar adalah sebagai antarmuka yang dibuat untuk membuat analitik data besar lebih ramah pengguna bagi pengguna akhir. Beberapa profesional juga menjelaskan ini sebagai menciptakan "lapisan abstraksi" antara sistem data besar fisik, yaitu di mana setiap bit data secara individual ditempatkan di komputer atau server, dan menciptakan lingkungan virtual yang jauh lebih mudah untuk dipahami dan dinavigasi. Virtualisasi big data bertujuan untuk menggabungkan semua lokasi terdistribusi ini menjadi satu elemen virtual yang mudah.

Dunia bisnis telah mengembangkan seperangkat alat analisis data besar yang canggih, tetapi tidak semuanya mendukung prinsip virtualisasi data besar, dan jenis pekerjaan ini memiliki tantangannya sendiri. Beberapa mengklaim bahwa perusahaan lambat untuk menangani virtualisasi data besar, karena implementasinya dianggap membosankan dan sulit. Namun, ini dapat berubah karena penyedia layanan terus membuat produk dan layanan yang diinginkan perusahaan, dan profesional TI yang terampil mencari cara terbaik untuk membuat perubahan antara bagaimana suatu sistem diatur secara fisik, dan bagaimana itu digunakan melalui keseluruhan arsitektur perangkat lunak.