كلما زادت طلبات التقديم التي ترسلينها، زادت فرصك في الحصول على وظيفة!
إليك لمحة عن معدل نشاط الباحثات عن عمل خلال الشهر الماضي:
عدد الفرص التي تم تصفحها
عدد الطلبات التي تم تقديمها
استمري في التصفح والتقديم لزيادة فرصك في الحصول على وظيفة!
هل تبحثين عن جهات توظيف لها سجل مثبت في دعم وتمكين النساء؟
اضغطي هنا لاكتشاف الفرص المتاحة الآن!ندعوكِ للمشاركة في استطلاع مصمّم لمساعدة الباحثين على فهم أفضل الطرق لربط الباحثات عن عمل بالوظائف التي يبحثن عنها.
هل ترغبين في المشاركة؟
في حال تم اختياركِ، سنتواصل معكِ عبر البريد الإلكتروني لتزويدكِ بالتفاصيل والتعليمات الخاصة بالمشاركة.
ستحصلين على مبلغ 7 دولارات مقابل إجابتك على الاستطلاع.
Project description We are seeking a Senior Data Engineer with 7-8 years of experience designing and delivering large-scale, cloud-native data integration solutions. The role focuses on building and optimizing PySpark and Informatica-based ETL pipelines, integrating enterprise MDM systems, and enabling reliable, high-performance data platforms to support analytics and operational use cases across the organization. Responsibilities Design and implement end-to-end PySpark ETL pipelines to extract, transform, and load large-scale MDM datasets into AWS S3 and cloud platforms. Optimize pipeline performance using Spark SQL tuning, caching strategies, and efficient cluster utilization to ensure scalable and cost-effective processing. Develop reusable, standardized PySpark components aligned with internal engineering frameworks and best practices. Build, maintain, and support Informatica BDM and PowerCenter mappings, workflows, and sessions for business-critical ETL processes feeding Oracle MDM and cloud destinations. Integrate data from multiple heterogeneous sources, including legacy SQL databases, Oracle MDM, and Kafka streams. Automate and orchestrate batch workflows using Autosys and Apache Airflow. Collaborate with architects, data stewards, analysts, and cross-functional stakeholders to deliver cloud migration and data modernization initiatives. Ensure proper unit testing, SIT/UAT support, documentation, and production deployments for all data engineering deliverables. Skills Must have 7-8 years of hands-on experience in data engineering, ETL development, and large-scale data integration within enterprise environments. Strong expertise in PySpark, Spark SQL, and distributed data processing. Hands-on experience with AWS, particularly S3 and cloud-based data platforms. Solid experience with Informatica BDM and PowerCenter. Experience integrating data from Oracle MDM, relational databases, and Kafka. Proficiency with workflow orchestration tools such as Autosys and Apache Airflow. Strong understanding of ETL design patterns, data quality frameworks, and MDM concepts. Nice to have N/A Other Languages English: C1 Advanced Seniority Senior
لن يتم النظر في طلبك لهذة الوظيفة، وسيتم إزالته من البريد الوارد الخاص بصاحب العمل.