كلما زادت طلبات التقديم التي ترسلينها، زادت فرصك في الحصول على وظيفة!

إليك لمحة عن معدل نشاط الباحثات عن عمل خلال الشهر الماضي:

عدد الفرص التي تم تصفحها

عدد الطلبات التي تم تقديمها

استمري في التصفح والتقديم لزيادة فرصك في الحصول على وظيفة!

هل تبحثين عن جهات توظيف لها سجل مثبت في دعم وتمكين النساء؟

اضغطي هنا لاكتشاف الفرص المتاحة الآن!
نُقدّر رأيكِ

ندعوكِ للمشاركة في استطلاع مصمّم لمساعدة الباحثين على فهم أفضل الطرق لربط الباحثات عن عمل بالوظائف التي يبحثن عنها.

هل ترغبين في المشاركة؟

في حال تم اختياركِ، سنتواصل معكِ عبر البريد الإلكتروني لتزويدكِ بالتفاصيل والتعليمات الخاصة بالمشاركة.

ستحصلين على مبلغ 7 دولارات مقابل إجابتك على الاستطلاع.


تم إلغاء حظر المستخدم بنجاح
https://bayt.page.link/iE9fqGUDJCjwNBTh7
العودة إلى نتائج البحث‎
خدمات الدعم التجاري الأخرى
أنشئ تنبيهًا وظيفيًا لوظائف مشابهة
تم إيقاف هذا التنبيه الوظيفي. لن تصلك إشعارات لهذا البحث بعد الآن.

الوصف الوظيفي

Project Role : Custom Application Architect
Project Role Description : Provide functional and/or technical expertise to plan, analyze, define and support the delivery of future functional and technical capabilities for an application or group of applications. Assist in facilitating impact assessment efforts and in producing and reviewing estimates for client work requests.
Must have skills : Databricks Unified Data Analytics Platform
Good to have skills : Cloud Data Architecture
Minimum 3 year(s) of experience is required
Educational Qualification : 15 years full time education
Summary:
As an Application Architect, you will provide functional and technical expertise to plan, analyze, define, and support the delivery of future functional and technical capabilities for an application or group of applications. Your typical day will involve collaborating with various teams to assess impacts, producing estimates for client work requests, and ensuring that the applications meet the evolving needs of the organization. You will engage in discussions to identify potential improvements and innovations, while also guiding the team in implementing best practices and methodologies to enhance application performance and user experience.

Roles & Responsibilities:
Work as part of the data engineering team to build, maintain, and optimize scalable data pipelines for large-scale data processing.
Develop and implement ETL/ELT processes using PySpark, Spark, and other relevant tools to move and transform data from various sources.
Assist in designing and deploying solutions in major cloud platforms such as AWS, Azure, or GCP.
Support the development and maintenance of Big Data processing frameworks and data lakes to handle structured and unstructured data.
Collaborate with data scientists, analysts, and other engineers to ensure data accuracy and availability.
Implement data ingestion strategies, ensuring the secure and efficient movement of data across different storage solutions.
Work on real-time streaming data pipelines and batch data processing to handle high-volume workloads.
Develop and maintain reusable code for data extraction, transformation, and loading (ETL) operations.
Contribute to performance tuning of Spark jobs and data pipelines to ensure scalability and efficiency.
Assist in maintaining governance and data security practices across cloud platforms
Professional & Technical Skills:
- Experience with AWS, Azure, or GCP for data engineering workflows.
Strong proficiency in PySpark, Spark, or similar frameworks for building scalable data pipelines.
Understanding of Big Data architectures, data storage, and data processing concepts.
Familiarity with cloud-native data storage solutions such as S3, Blob Storage, BigQuery, or Redshift.
Experience with data orchestration tools like Apache Airflow or similar.
Knowledge of data formats like Parquet, Avro, or JSON.
Strong coding skills in Python for building data pipelines.
Good understanding of SQL and database technologies.
Excellent troubleshooting, debugging, and performance optimization skills

Additional Information:
- Experience with real-time data processing and Kafka or similar tools.
Exposure to CI/CD pipelines and DevOps practices in cloud environments.
Familiarity with dbt (Data Build Tool) for data transformation workflows.
Experience with other ETL tools like Informatica, Talend, or Matillion.
Education Qualification:
- A 15 years full time education is required.

لقد تمت ترجمة هذا الإعلان الوظيفي بواسطة الذكاء الاصطناعي وقد يحتوي على بعض الاختلافات أو الأخطاء البسيطة.

لقد تجاوزت الحد الأقصى المسموح به للتنبيهات الوظيفية (15). يرجى حذف أحد التنبيهات الحالية لإضافة تنبيه جديد.
تم إنشاء تنبيه وظيفي لهذا البحث. ستصلك إشعارات فور الإعلان عن وظائف جديدة مطابقة.
هل أنت متأكد أنك تريد سحب طلب التقديم إلى هذه الوظيفة؟

لن يتم النظر في طلبك لهذة الوظيفة، وسيتم إزالته من البريد الوارد الخاص بصاحب العمل.