توضیحات

نیازمندی‌های تخصصی:
• تسلط بر مفاهیم و ابزارهای کلان‌داده مانند Hadoop، Spark، Hive
• آشنایی با مفاهیم طراحی، پیاده‌سازی، مدیریت و نگهداری دریاچه داده (Data Lack)
• تسلط به زبان برنامه‌نویسی Python و توانایی نوشتن کدهای مقیاس‌پذیر و بهینه در Python
• تجربه کار با پایگاه‌داده‌های NoSQL مانند MongoDB, Redis, PostgreSQL, Cassandra,
• آشنایی با مفاهیم پایگاه‌داده‌های مبتنی بر گراف (Graph Database) نظیر Neo4j
• آشنایی با ابزارهای Apache مانند Flink و Airflow
• آشنایی با محیط‌های مبتنی بر Unix
• تسلط بر سیستم‌های کنترل نسخه مانند GitLab
• آشنایی با مفاهیم و ابزارهای امنیتی در پردازش و انتقال داده‌ها
• آشنایی با مفاهیم یادگیری ماشینی
وظایف شغلی:
• طراحی، ساخت و نگهداری فریم‌ورک داده‌های بزرگ مانند Hadoop، Hive، Spark، Kafka
• تولید کدهای مؤثر و مقیاس‌پذیر بر اساس طراحی‌ها
• مدیریت، نگهداری و عیب‌یابی کلاسترهای داده
• ایجاد زیرساخت‌هایی برای دسترسی و تحلیل داده‌های بزرگ
• بهینه‌سازی و بازنگری فریم‌ورک‌ها و توابع برای افزایش کارایی
• تضمین کیفیت داده‌ها و دقت در پردازش آنها
• تضمین امنیت داده‌ها در تمام فرآیندهای پردازش و انتقال
• انتقال دانش به اعضای تیم و ارائه مستندات و دموهای کاربردی
الزامات شغلی:
• حداقل 3 سال تجربه کاری مرتبط در زمینه کلان داده
• تجربه عملی با تکنولوژی‌های حوزه کلان‌داده
• تسلط به SQL و کار با پایگاه‌داده‌های رابطه‌ای و NoSQL
• آشنایی با مفاهیم معماری زیرساخت‌های داده و مدل‌سازی داده
• آشنایی با ابزارهای علم داده مانند Pandas، Numpy، Scikit-learn
• توانایی حل مسئله، ارتباط مؤثر و تصمیم‌گیری دقیق
• آشنایی با ابزارهای امنیتی در زمینه پردازش داده‌های بزرگ (مزیت محسوب می‌شود)
مهارت‌های فردی:
• توانایی بالای کار تیمی و همکاری مؤثر با تیم‌های مختلف
• نظم و تعهد به زمان‌بندی و تحویل کار
• توجه به جزئیات و دقت در انجام وظایف
• مهارت‌های ارتباطی قوی برای انتقال اطلاعات و همکاری با اعضای تیم و سایر بخش‌ها
• توانایی مدیریت زمان و اولویت‌بندی درست کارها در پروژه‌های پیچیده

To see more jobs that fit your career