Dữ liệu lớn là gì?
Dữ liệu lớn (Big data) là các tập dữ liệu có khối lượng lớn và phức tạp đến mức các phần mềm xử lí dữ liệu truyền thống không có khả năng thu thập, quản lí và xử lí dữ liệu trong một khoảng thời gian hợp lí. Tương tự như blockchain và trí tuệ nhân tạo, cũng không có định nghĩa chính thức về dữ liệu lớn. Các nhà khoa học Andrea Mauro, Marco Greco và Michel Grimaldi(15) đã nhấn mạnh rằng do không có định nghĩa được chấp nhận chung về dữ liệu lớn nên các chuyên gia buộc chấp nhận những định nghĩa ngầm định từ các đặc trưng, các yếu tố công nghệ hay tác động của nó. Tuy nhiên, dù khác nhau trong cách tiếp cận, các định nghĩa hiện có cho phép xác định hạt nhân của khái niệm dữ liệu lớn. Theo đó, dữ liệu lớn là tài sản thông tin được đặc trưng bởi dung lượng lớn, tốc độ và sự đa dạng, đòi hỏi một công nghệ và phương pháp phân tích đặc thù nhằm chuyển hoá nó thành giá trị.