فودافون تطلب مهندس بيانات


الوصف الوظيفي

دمج البيانات الضرورية من عدة مصادر في برنامج البيانات الضخمة اللازمة لتحليل التكنولوجيا وإجراءاتها ؛
قم بإنشاء تطبيقات تستخدم كميات كبيرة من البيانات وتنتج مخرجات تسمح بإجراءات تجارية تولد قيمة إضافية
توفير وتنفيذ القدرات الأساسية (الأُطر ، والنظام الأساسي ، والبنية التحتية للتطوير ، والوثائق ، والإرشادات والدعم) لتسريع تسليم الأسواق المحلية والمستأجرين في برنامج البيانات الضخمة ، وضمان الجودة والأداء والمواءمة مع مخطط تقنية المجموعة من إصدارات المكونات في برنامج
دعم الأسواق المحلية والمستأجرين ووظائف المجموعة في الحصول على قيمة الأعمال المستفيدة من البيانات التشغيليه

المسؤوليات الرئيسية وملكية القرار:
• تصميم وإنتاج تطبيقات مستقرة عالية الأداء من طرف إلى طرف لأداء معالجة معقدة للدُفعات وتدفق كميات هائلة من البيانات في منصة بيانات كبيرة متعددة الاستئجار ، على حد سواء Hadoop في أماكن العمل وفي السحابة ، وإخراج رؤى تعود إلى العمل النظم وفقا لمتطلباتها.
• تصميم وتنفيذ قدرات النظام الأساسي الأساسي ، والأدوات ، والعمليات ، وطرق العمل والاتفاقيات في ظل التطوير السريع لدعم تكامل LM وتوظيف بيانات المستأجر واستخدام الحالات ، نحو إعادة الاستخدام ، لتسهيل التسليم وضمان التوحيد عبر نواتج الأسواق المحلية في المنصة.
• دعم فرق هندسة البيانات الموزعة ، بما في ذلك الدعم الفني والتدريب في أطر برنامج البيانات الكبيرة وطرق العمل ، ومراجعة وتكامل شفرة المصدر ، ودعم تحرير ومراقبة جودة شفرة المصدر
• العمل مع فريق هندسة المجموعة لتحديد استراتيجية تطوير قدرة البيانات الكبيرة ، بما في ذلك القرارات المعمارية للحلول المتوافقة مع بنية النظام الأساسي
• تحديد التقنيات التي سيتم استخدامها على منصة البيانات الكبيرة والتحقيق في التقنيات الجديدة لتحديد أين يمكن أن تجلب فوائد
الكفاءات الأساسية والمعرفة والخبرة:
• خبرة على مستوى الخبراء في تصميم وبناء وإدارة التطبيقات لمعالجة كميات كبيرة من البيانات في النظام الإيكولوجي Hadoop أو أطر أطر البيانات الكبيرة
• خبرة واسعة مع تطبيقات ضبط الأداء على Hadoop وتكوين أنظمة Hadoop لتحقيق أقصى قدر من الأداء أو أطر البيانات الكبيرة الأخرى ؛
• تجربة بناء أنظمة لأداء معالجة البيانات في الوقت الحقيقي باستخدام أطر معالجة Spark Streaming أو Flink أو Storm أو Heron وأطر عمل Kafka أو Beam أو Dataflow أو Kinesis أو ما شابهها من إطارات دفق البيانات ؛؛
• تجربة مع SDLC المشتركة ، بما في ذلك SCM ، وأدوات البناء ، والوحدة ، والتكامل ، ومنظور التشغيل الآلي واختبار الأداء من وجهة نظر ، TDD / BDD ، CI والتسليم المستمر ، في ظل الممارسات رشيقة
• خبرة في العمل في بيئات البيانات الضخمة متعددة الاستئجار

مؤشرات الأداء الرئيسية:
• تطوير الأطر الأساسية لتسريع وتسهيل دمج تطورات الأسواق المحلية في BDP
• سرعة مصادر البيانات على متن الطائرة واستخدام الحالات لأسواق محور الاتحاد الأوروبي والمستأجرين الجدد
• تسليم حالات الاستخدام المتكاملة من الأسواق المحلية والمستأجرين لإضافة قيمة إلى الأعمال التجارية باستخدام برنامج البيانات الكبيرة

يجب أن يكون لديك مؤهلات فنية / مهنية:

• خبرة على مستوى الخبراء في النظام الإيكولوجي Hadoop (Spark ، Hive / Impala ، HBase ، الغزل) ؛ تجربة مرغوبة مع توزيع كلودرا ؛ تجربة مع حلول مزوّد السحابة المماثلة أيضًا (AWS ، GCP ، Azure)
• خبرة قوية في تطوير البرمجيات بلغة برمجة Scala و Python ؛ جافا واللغات الوظيفية مرغوب فيه.
• تجربة مع الأنظمة المستندة إلى يونيكس ، بما في ذلك البرمجة النصية باش
• تجربة مع تنسيقات البيانات عمودي

• تجربة مع غيرها من التقنيات الموزعة مثل كاساندرا ، Splunk ، Solr / ElasticSearch ، Flink ، Heron ، Bean ،

للتقديم علي الوظيفة اضغط هنـــــــــــــــــا

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *