توضیحات شغل
نوع همکاری: تمام وقت
حداقل مدرک تحصیلی مورد نیاز: کارشناسی مهندسی کامپیوتر، علوم کامپیوتر، فناوری اطلاعات یا سایر رشتههای مرتبط
شرح شغل/ مسئولیتها:
· طراحی، پیادهسازی و نگهداری خطوط ترابری داده در لحظه با مقیاس کلانداده (Big Data Stream Messaging)
· طراحی، پیادهسازی و نگهداری جریان داده پردازشی در لحظه با مقیاس کلانداده (Big Data Stream Processing)
· طراحی، پیادهسازی و نگهداری پایگاه داده، انبار داده و دریاچه داده با مقیاس کلانداده (Big Data Storing)
· توانایی پیادهسازی و بهبود فرآیند ETL/ELT (Big Data Transformation)
· توانایی بررسی داده و ارائه ساختار داده (Data Modeling)
· پایش وضعیت عملکرد سرویسها (Metric and Health Monitoring)
· توانایی تعامل با مهندسین نرمافزار و محققین دادهها (Collaborating closely with cross-functional teams, including Data Scientists and Software Engineers)
مهارتهای تخصصی:
· تجربه کاری در زمینه ترابری دادهها (Message Brokers like Kafka, NiFi and RabbitMQ)
· تجربه کاری در زمینه پردازش جریان دادهها (Stream Processing like Spark and Storm)
· آشنا به پایگاههای داده NoSQL به خصوص Elasticsearch
· آشنا به مفاهیم Containers & Orchestrations (Docker, Kubernetes)
· آشنا به سامانههای مانیتورینگ (Prometheus, Kibana, APM)
· تجربه کاری در زبان برنامهنویسی Python یا Java
· تجربه کاری در زمینه مدیریت پایگاه داده (DBA)
· طراحی و کار با پایگاه داده و دادههای گراف (OrientDB, Neo4J)
مهارتهای امتیازی:
· تجربه کاری در زمینه چارچوب کلان داده (Big Data Frameworks like Hadoop)
· توانایی ارائه معماری جدید و بهبود روشهای فعلی
· مطالعه و آشنایی با روندهای فناوری، بهروشها در حوزه مهندسی دادهها
مهارتهای عمومی:
· متعهد و مسئولیتپذیر
· توانایی تحلیل و حل مساله
· داشتن روحیه کار تیمی
· خلاق و دارای انگیزه
· آشنا با متدلوژیهای چابک (به خصوص Scrum)