توضیحات

معرفی شرکت:

ما از تیم‌هایی تشکیل شده‌ایم که با روش‌های چابک و فناوری‌های به‌روز محصولات مختلفی را در حوزه فضای مجازی توسعه می‌دهیم. تیم مهندسی داده‌ها، به عنوان ورودی و تأمین‌کننده داده‌های مورد نیاز محصولات، از اهمیت بسیار بالایی برخوردار است و از آنجایی که داده‌ها در سطح فضای مجازی از حجم بسیار بالایی برخوردار هستند، مقیاس کاری ما در سطح کلان داده‌ها قرار دارد. اگر آماده هستید، پس ما هم امید این را داریم که باهم ماجراجویی را شروع کنیم.

شرح شغ/مسئولیت‌ها:

  • طراحی، پیاده‌سازی و نگهداری خطوط ترابری داده در لحظه با مقیاس کلان‌داده (Big Data Stream Messaging).
  •  طراحی، پیاده‌سازی و نگهداری جریان داده پردازشی در لحظه با مقیاس کلان‌داده (Big Data Stream Processing).
  • طراحی، پیاده‌سازی و نگهداری پایگاه داده، انبار داده و دریاچه داده با مقیاس کلان‌داده (Big Data Storing).
  •  پیاده‌سازی و بهبود فرآیند ETL/ELT (Big Data Transformation).
  •  بررسی داده و ارائه ساختار داده (Data Modeling).
  • پایش وضعیت عملکرد سرویس‌ها (Metric and Health Monitoring).
  • تعامل با مهندسین نرم‌افزار و محققین داده‌ها.

پیش‌نیازها

مهارت‌های تخصصی:

  • تجربه کاری در زمینه ترابری داده‌ها (Kafka ،NiFi ،RabbitMQ).
  • تجربه کاری در زمینه پردازش جریان داده‌ها (Spark و Storm).
  • آشنا به پایگاه‌های داده NoSQL به خصوص Elasticsearch.
  • آشنا به مفاهیم (Docker و Kubernetes).
  • آشنا به سامانه‌های مانیتورینگ (Prometheus ،Kibana ،APM).
  • تجربه کاری در زبان برنامه‌نویسی Python یا Java.
  • تجربه کاری در زمینه مدیریت پایگاه داده (DBA).

مهارت‌های امتیازی:

  • تجربه کاری در زمینه چارچوب کلان داده (Hadoop).
  • توانایی ارائه معماری جدید و بهبود روش‌های فعلی.

مهارت‌های عمومی:

  • متعهد و مسئولیت‌پذیر.
  • توانایی تحلیل و حل مسلئه.
  • روحیه کار تیمی.
  • خلاق و دارای انگیزه.
  • آشنا با متدلوژی‌های چابک (به خصوص Scrum).

نوع استخدام

  • تمام وقت

رده سازمانی

جزییات

To see more jobs that fit your career