
توضیحات
نیازمندیهای تخصصی:
• تسلط بر مفاهیم و ابزارهای کلانداده مانند Hadoop، Spark، Hive
• آشنایی با مفاهیم طراحی، پیادهسازی، مدیریت و نگهداری دریاچه داده (Data Lack)
• تسلط به زبان برنامهنویسی Python و توانایی نوشتن کدهای مقیاسپذیر و بهینه در Python
• تجربه کار با پایگاهدادههای NoSQL مانند MongoDB, Redis, PostgreSQL, Cassandra,
• آشنایی با مفاهیم پایگاهدادههای مبتنی بر گراف (Graph Database) نظیر Neo4j
• آشنایی با ابزارهای Apache مانند Flink و Airflow
• آشنایی با محیطهای مبتنی بر Unix
• تسلط بر سیستمهای کنترل نسخه مانند GitLab
• آشنایی با مفاهیم و ابزارهای امنیتی در پردازش و انتقال دادهها
• آشنایی با مفاهیم یادگیری ماشینی
وظایف شغلی:
• طراحی، ساخت و نگهداری فریمورک دادههای بزرگ مانند Hadoop، Hive، Spark، Kafka
• تولید کدهای مؤثر و مقیاسپذیر بر اساس طراحیها
• مدیریت، نگهداری و عیبیابی کلاسترهای داده
• ایجاد زیرساختهایی برای دسترسی و تحلیل دادههای بزرگ
• بهینهسازی و بازنگری فریمورکها و توابع برای افزایش کارایی
• تضمین کیفیت دادهها و دقت در پردازش آنها
• تضمین امنیت دادهها در تمام فرآیندهای پردازش و انتقال
• انتقال دانش به اعضای تیم و ارائه مستندات و دموهای کاربردی
الزامات شغلی:
• حداقل 3 سال تجربه کاری مرتبط در زمینه کلان داده
• تجربه عملی با تکنولوژیهای حوزه کلانداده
• تسلط به SQL و کار با پایگاهدادههای رابطهای و NoSQL
• آشنایی با مفاهیم معماری زیرساختهای داده و مدلسازی داده
• آشنایی با ابزارهای علم داده مانند Pandas، Numpy، Scikit-learn
• توانایی حل مسئله، ارتباط مؤثر و تصمیمگیری دقیق
• آشنایی با ابزارهای امنیتی در زمینه پردازش دادههای بزرگ (مزیت محسوب میشود)
مهارتهای فردی:
• توانایی بالای کار تیمی و همکاری مؤثر با تیمهای مختلف
• نظم و تعهد به زمانبندی و تحویل کار
• توجه به جزئیات و دقت در انجام وظایف
• مهارتهای ارتباطی قوی برای انتقال اطلاعات و همکاری با اعضای تیم و سایر بخشها
• توانایی مدیریت زمان و اولویتبندی درست کارها در پروژههای پیچیده
نوع استخدام
رده سازمانی
جزییات
نوع استخدام
رده سازمانی
