Yang akan kamu lakukan
- Bekerja sama dengan tim rekayasa data untuk merancang dan mengembangkan pipeline data.
- Membantu dalam proses ekstraksi, transformasi, dan pemuatan (ETL) data dari berbagai sumber.
- Mengelola dan menyimpan data secara efisien menggunakan database SQL dan NoSQL.
- Menggunakan teknologi big data seperti Apache Hive, Spark, dan platform big data cloud.
- Mengoperasikan Apache Airflow untuk mengatur dan menjadwalkan alur kerja data skala besar.
- Mendukung upaya pemodelan data untuk memastikan kualitas dan kegunaan data.
- Berkontribusi dalam pengembangan solusi data warehousing.
- Mengeksplorasi platform komputasi awan untuk data stack.
- Memecahkan masalah dan mengoptimalkan pipeline data untuk kinerja.
- Bekerja sama dengan tim lintas fungsi dalam proyek data.
Tentang Kamu
- Sedang menempuh atau baru saja menyelesaikan gelar di bidang Ilmu Komputer, Teknologi Informasi, atau bidang terkait.
- Memiliki keterampilan dasar pemrograman dalam bahasa seperti Python, Scala, atau Golang.
- Pengetahuan dasar tentang SQL dan database.
- Kemampuan mengoperasikan perintah Linux.
- Familiaritas dengan teknologi kontainerisasi (misalnya, Docker, Kubernetes) akan menjadi nilai tambah.
- Semangat untuk belajar dan beradaptasi dengan teknologi dan alat baru.
- Kemampuan pemecahan masalah dan berpikir kritis yang baik.
- Keterampilan komunikasi dan kerja tim yang efektif.
- Detail-oriented dengan komitmen terhadap akurasi data.
- Mandiri dan mampu bekerja secara independen.
Cara melamar
Kirimkan aplikasimu sesuai dengan instruksi yang diberikan oleh perusahaan.
Laporkan lowongan ini