كلما زادت طلبات التقديم التي ترسلينها، زادت فرصك في الحصول على وظيفة!

إليك لمحة عن معدل نشاط الباحثات عن عمل خلال الشهر الماضي:

عدد الفرص التي تم تصفحها

عدد الطلبات التي تم تقديمها

استمري في التصفح والتقديم لزيادة فرصك في الحصول على وظيفة!

هل تبحثين عن جهات توظيف لها سجل مثبت في دعم وتمكين النساء؟

اضغطي هنا لاكتشاف الفرص المتاحة الآن!
نُقدّر رأيكِ

ندعوكِ للمشاركة في استطلاع مصمّم لمساعدة الباحثين على فهم أفضل الطرق لربط الباحثات عن عمل بالوظائف التي يبحثن عنها.

هل ترغبين في المشاركة؟

في حال تم اختياركِ، سنتواصل معكِ عبر البريد الإلكتروني لتزويدكِ بالتفاصيل والتعليمات الخاصة بالمشاركة.

ستحصلين على مبلغ 7 دولارات مقابل إجابتك على الاستطلاع.


تم إلغاء حظر المستخدم بنجاح
https://bayt.page.link/S1eZuYS4FkA6Hxz28
العودة إلى نتائج البحث‎
خدمات الدعم التجاري الأخرى
أنشئ تنبيهًا وظيفيًا لوظائف مشابهة
تم إيقاف هذا التنبيه الوظيفي. لن تصلك إشعارات لهذا البحث بعد الآن.

الوصف الوظيفي

Job Summary We are seeking a skilled Databricks Data Engineer to design, build, and optimize scalable data pipelines and analytics solutions on modern cloud platforms.
The ideal candidate should have strong experience with Apache Spark, Databricks, and cloud-based data engineering, along with a solid understanding of data warehousing and ETL processes.
Key Responsibilities Design and develop scalable data pipelines using Databricks (Delta Lake, Spark, Notebooks) Build and maintain ETL/ELT workflows for structured and unstructured data Implement data ingestion frameworks from multiple sources (APIs, databases, streaming) Optimize Spark jobs for performance, scalability, and cost efficiency Work with Azure/AWS/GCP cloud services for data storage and processing Develop and manage data models and data lakes/lakehouse architectures Ensure data quality, governance, and security across pipelines Collaborate with data scientists, analysts, and business stakeholders Automate deployments using CI/CD pipelines Monitor and troubleshoot production data pipelines Required Skills & Qualifications Bachelor’s degree in Computer Science, Engineering, or related field 3+ years of experience in data engineering Hands-on experience with Databricks Strong programming skills in Python / Scala / SQL Expertise in Apache Spark (PySpark preferred) Experience with Delta Lake, Data Lake, Lakehouse architecture Knowledge of Azure Data Factory, AWS Glue, or similar tools Strong SQL and database skills (RDBMS, NoSQL) Familiarity with data warehousing concepts (Star/Snowflake schema) Experience with version control tools like Git Preferred Skills Experience with streaming technologies (Kafka, Structured Streaming) Knowledge of Azure Synapse Analytics or Snowflake Exposure to DevOps tools (Jenkins, Terraform, Docker) Understanding of data governance and security frameworks Certification in Databricks or Cloud platforms Key Competencies Strong problem-solving and analytical skills Ability to work in Agile/Scrum environments Excellent communication and collaboration skills Attention to detail and commitment to data quality
لقد تمت ترجمة هذا الإعلان الوظيفي بواسطة الذكاء الاصطناعي وقد يحتوي على بعض الاختلافات أو الأخطاء البسيطة.

لقد تجاوزت الحد الأقصى المسموح به للتنبيهات الوظيفية (15). يرجى حذف أحد التنبيهات الحالية لإضافة تنبيه جديد.
تم إنشاء تنبيه وظيفي لهذا البحث. ستصلك إشعارات فور الإعلان عن وظائف جديدة مطابقة.
هل أنت متأكد أنك تريد سحب طلب التقديم إلى هذه الوظيفة؟

لن يتم النظر في طلبك لهذة الوظيفة، وسيتم إزالته من البريد الوارد الخاص بصاحب العمل.