Home Career Tuyển tập câu hỏi phỏng vấn Data Engineer mới nhất

Tuyển tập câu hỏi phỏng vấn Data Engineer mới nhất

Tuyển tập câu hỏi phỏng vấn Data Engineer mới nhất

Thời kỳ công nghiệp 4.0 với sự phát triển của BigData, AI, Machine Learning,… tất cả các công nghệ mới hiện nay có một đặc điểm chung là cần phải xử lý dữ liệu ở một tổ chức và quy mô lớn. Cũng vì đó mà ngành kỹ sư dữ liệu trở nên hot hơn bao giờ hết. Data Engineer được rất nhiều công ty tuyển dụng với mức đãi ngộ cao cũng như định hướng tốt trong tương lai. Để chuẩn bị cho buổi phỏng vấn vị trí này, chúng ta cùng nhau tìm hiểu về những câu hỏi phỏng vấn Data Engineer thường gặp nhé.

Vai trò của một Data Engineer

Data Engineer / Kỹ sư dữ liệu là có nhiệm vụ chính là thu thập, chuẩn bị các dữ liệu và cùng những nhà khoa học, phân tích dữ liệu sử dụng. 3 vai trò của một Data Engineer bao gồm:

  • Generalist – Đảm nhận các công việc tổng quát: thu thập, tải lên, nhập, đồng thời xử lý dữ liệu đầu cuối. Đây là công việc cơ bản của một Data Engineer.
  • Pipeline-centric – Phụ trách mảng Data Pipeline: Data Pipeline hay đường ống dữ liệu là một chuỗi các bước thực hiện theo một trình tự cụ thể để xử lý dữ liệu và chuyển dữ liệu từ hệ thống này sang hệ thống khác. Vai trò này đòi hỏi các kỹ sư dữ liệu cần biết chuyên sâu về hệ thống khoa học máy tính và phân tán.
  • Database-centric – Chuyên về cơ sở dữ liệu: vai trò thiết lập, triển khai, đồng thời duy trì và đưa cơ sở dữ liệu đã phân tích vào hệ thống. Thông thường các hệ thống nơi dữ liệu được phân bố rộng tại nhiều kho Database thì vai trò này phải được đảm nhiệm bởi một kỹ sư, chuyên gia dữ liệu có kinh nghiệm.
Kỹ năng của Data Engineer

Ngôn ngữ lập trình thường sử dụng để xử lý dữ liệu

Data Engineer làm việc với các loại dữ liệu khác nhau thu thập từ nhiều nguồn khác nhau. Điều kiện tiên quyết để trở thành một kỹ sư dữ liệu là biết cách làm việc, thao tác, truy vấn hay quản lý các hệ thống cơ sở dữ liệu. SQL hay ngôn ngữ truy vấn có cấu trúc (Structured Query Language) phục vụ cho công việc này.

Để phục vụ cho quá trình xử lý dữ liệu, cụ thể là viết các ETL scripts trích xuất, chuyển đổi và tải dữ liệu từ hệ thống này sang hệ thống khác, ngôn ngữ lập trình thường được sử dụng là Python. Ưu điểm của Python là khả năng tối ưu hóa các script hỗ trợ thao tác dữ liệu, vì thế rất được ưa chuộng trong ngành xử lý dữ liệu nói riêng và BigData, AI nói chung.

Một ngôn ngữ lập trình thường được sử dụng trong việc phân tích thống kê và trực quan hóa dữ liệu là R, ưu điểm của ngôn ngữ lập trình này là thư viện có sẵn các thuật toán học máy, hồi quy tuyến tính, chuỗi thời gian, suy luận thống kê,… giúp lập trình viên xử lý dữ liệu tối ưu hóa xử lý của mình. 

So sánh SQL và NoSQL

SQL và NoSQL là 2 loại hình cơ sở dữ liệu phổ biến nhất hiện nay. SQL (Structured Query Language) là ngôn ngữ truy vấn có cấu trúc. Nó được dùng để xử lý cơ sở dữ liệu quan hệ như MySQL, Oracle, MS SQL,… NoSQL (Non-Relational SQL) có mục đích sử dụng như SQL nhưng được dành cho các cơ sở dữ liệu không quan hệ, không yêu cầu một lược đồ cố định và có thể dễ dàng mở rộng. NoSQL thường được sử dụng cho các kho dữ liệu phân tán với nhu cầu lưu trữ dữ liệu khổng lồ vì vậy nó thích hợp với các ứng dụng Web thời gian thực hay BigData.

Về loại hình, SQL databases có cấu trúc dựa trên các bảng, các bảng có quan hệ với nhau. NoSQL thì dựa trên cặp tài liệu, cặp khóa giá trị hay cơ sở dữ liệu biểu đồ. NoSQL không có ngôn ngữ Query như cái tên của nó, NoSQL databases cũng dễ dàng mở rộng theo chiều ngang và phù hợp với những bài toán mà dữ liệu ban đầu chưa xác định rõ.

So sánh về hiệu suất thì NoSQL thường được cho là nhanh hơn SQL do không mất nhiều chi phí join hay các đoạn câu lệnh SQL phức tạp cần tối ưu. Ngược lại, SQL sẽ hỗ trợ ràng buộc tốt hơn cho những thao tác update nhiều records trong cùng một transaction, NoSQL có options tương tự nhưng bạn sẽ cần xử lý thủ công hơn trong khi viết code.

Tham khảo việc làm Data Engineer hấp dẫn trên TopDev

Sự khác biệt giữa DataLake và DataWarehouse?

DataLake và DataWarehouse đều là những kho lưu trữ dữ liệu dành cho các doanh nghiệp. Điểm khác nhau cơ bản giữa 2 loại kho dữ liệu trên là trong khi DataLake chủ yếu chứa các dữ liệu thô, nguyên gốc; còn dữ liệu trong DataWarehouse cần trải qua bước biến đổi và phân loại dữ liệu từ các nguồn khác nhau trước khi nhập vào kho lưu trữ.

Dữ liệu trong DataLake được giữ nguyên gốc đầu vào vì thế doanh nghiệp cũng tiết kiệm chi phí cho việc biến đổi, phân loại dữ liệu. Ngược lại dữ liệu trong DataWarehouse sẽ trải qua quy trình ETL: Extract – Transform – Load trước khi được nhập kho, sau đó những dữ liệu này được các Data Analyst, Business Analyst hoặc Data Scientist,… sử dụng trực tiếp để báo cáo, phân tích và khai thác dữ liệu; vì vậy doanh nghiệp sử dụng DataWarehouse sẽ cần tốn chi phí cho công việc trên.

Giải thích về kỹ thuật ETL / ELT trong xử lý dữ liệu

ETL viết tắt của Extract, Transform và Load, là một kỹ thuật trích xuất dữ liệu từ các hệ thống nguồn khác nhau sau đó chuyển đổi dữ liệu áp dụng các logic tính toán để tải chúng vào hệ thống kho dữ liệu DataWarehouse.

Flow của ETL có 3 bước:

  1. Extract – trích xuất: thu thập dữ liệu từ các nguồn
  2. Transform  – biến đổi: dựa vào các quy tắc, bảng tra cứu,… kết hợp các dữ liệu khác nhau để biểu dữ liệu thu được từ bước Extract về một dạng biểu mẫu phù hợp vơi cơ sở dữ liệu xây dựng sẵn
  3. Load – tải: quá trình ghi dữ liệu vào đích

ELT là một kỹ thuật khác về luồng xử lý so với ETL. Vẫn giữ 3 bước như trên nhưng bước Load sẽ được thực hiện ngay sau khi trích xuất dữ liệu. Dữ liệu sẽ được sao chép và chuyển đến đích ngay, xong sau đó mới thực hiện bước biến đổi (Transform). Để thực hiện việc này thì ETL chỉ phù hợp với các database NoSQL, với những dữ liệu lớn và việc lưu trữ không yêu cầu phải đúng theo template sẵn có.

Ưu điểm của ELT chính là việc không phụ thuộc tốc độ xử lý dữ liệu ở bước Transform (thường chiếm nhiều thời gian nhất trong phương thức ETL), dữ liệu sau khi được tải có thể được xử lý sau đó mà không lo việc mất mát hay bị ngừng lại trong quá trình biến đổi. Mặc dù vậy nhược điểm của nó chính là độ phức tạp đòi hỏi kiến thức chuyên sâu về các tools sử dụng cũng như kỹ năng chuyên môn.

Có những giai đoạn nào trong quá trình phân tích dữ liệu

Nguồn: https://www.enablerspace.com/digitalmarketingtips/understanding-the-different-types-of-data-analysis/

Có 4 giai đoạn chính trong quá trình phân tích dữ liệu:

  • Phân tích mô tả (Descriptive Analytics)

Giai đoạn đầu tiên này giúp tìm hiểu thông tin về quá khứ, hiện tại và xu hướng của dữ liệu. Một số phương pháp phân tích áp dụng trong giai đoạn này gồm: Định lượng hóa dữ liệu, Phân tích biểu đồ và bảng biểu, Tóm tắt thống kê, Đồ thị thời gian và phân tích nhân tố.

  • Phân tích chẩn đoán (Diagnostic Analytics)

Giai đoạn này sử dụng các phương pháp phân tích để giải thích các nguyên nhân hoặc đặc điểm của các hiện tượng hoặc sự kiện trong dữ liệu. Phương pháp phân tích chẩn đoán bao gồm phân tích tương quan, phân tích đa biến, phân tích thành phần chính và phân tích nhân tố.

  • Phân tích tiên đoán (Predictive Analytics)

Phân tích tiên đoán là việc sử dụng các mô hình dữ liệu để dự đoán các sự kiện hoặc xu hướng trong tương lai. Phương pháp sử dụng bao gồm mô hình hồi quy, mô hình chuỗi thời gian, mạng nơ ron và máy học.

  • Phân tích chỉ đạo (Prescriptive Analytics)

Là giai đoạn cuối cùng của phân tích dữ liệu, sử dụng kết quả từ phân tích tiên đoán để đưa ra các quyết định chỉ đạo và lập kế hoạch. Phương pháp sử dụng là tối ưu hóa và mô phỏng.

Nêu một số công cụ biểu diễn trực quan hóa dữ liệu

Kỹ sư dữ liệu cần biết đến các công cụ phân tích và trực quan hóa dữ liệu Bussiness Intelligence nhằm phục vụ việc thiết lập kết nối giữa các DataWarehouse, DataLake cùng với các nguồn dữ liệu đầu vào hay đầu ra khác. Ngoài ra còn để phục vụ cho việc lập báo cáo, lên kế hoạch; một số công cụ biểu diễn trực quan hóa dữ liệu dành cho Data Engineer:

  • Microsoft Power BI
  • Microsoft Excel
  • SAP Business Objects
  • Datapine
  • Oracle BI
  • SAS Business Intelligence
  • MicroStrategy

Kết bài

Trên đây là list những câu hỏi mà bạn sẽ có thể gặp trong buổi phỏng vấn của mình ở vị trí kỹ sư dữ liệu Data Engineer. Hy vọng bài viết hữu ích dành cho các bạn đang muốn tìm một công việc tốt trong ngành này. Hẹn gặp lại các bạn trong các bài viết tiếp theo của mình.

Tác giả: Phạm Minh Khoa

Có thể bạn quan tâm:

Xem thêm Top Việc làm IT trên TopDev

Exit mobile version