كلما زادت طلبات التقديم التي ترسلينها، زادت فرصك في الحصول على وظيفة!

إليك لمحة عن معدل نشاط الباحثات عن عمل خلال الشهر الماضي:

عدد الفرص التي تم تصفحها

عدد الطلبات التي تم تقديمها

استمري في التصفح والتقديم لزيادة فرصك في الحصول على وظيفة!

هل تبحثين عن جهات توظيف لها سجل مثبت في دعم وتمكين النساء؟

اضغطي هنا لاكتشاف الفرص المتاحة الآن!
نُقدّر رأيكِ

ندعوكِ للمشاركة في استطلاع مصمّم لمساعدة الباحثين على فهم أفضل الطرق لربط الباحثات عن عمل بالوظائف التي يبحثن عنها.

هل ترغبين في المشاركة؟

في حال تم اختياركِ، سنتواصل معكِ عبر البريد الإلكتروني لتزويدكِ بالتفاصيل والتعليمات الخاصة بالمشاركة.

ستحصلين على مبلغ 7 دولارات مقابل إجابتك على الاستطلاع.


تم إلغاء حظر المستخدم بنجاح
https://bayt.page.link/FbQoVWXQphSE7msU8
أنشئ تنبيهًا وظيفيًا لوظائف مشابهة
تم إيقاف هذا التنبيه الوظيفي. لن تصلك إشعارات لهذا البحث بعد الآن.

الوصف الوظيفي

AWS Data Engineer (AI, Data Lake, Snowflake, Python, Spark, Copilot & Claude)Job Summary

As a Software Engineer II at JPMorgan Chase within  CCB, you will design, build, and optimize scalable data pipelines and architectures on AWS, leveraging Data Lake, Snowflake, and distributed processing technologies.


Job Responsibilities
  • Design, develop, and maintain scalable data pipelines and ETL processes on AWS (S3, Glue, Lambda, Redshift, etc.) using Python and Spark.
  • Architect and implement Data Lake solutions, ensuring efficient data ingestion, storage, and retrieval.
  • Integrate and manage Snowflake environments for data warehousing and analytics.
  • Develop and optimize distributed data processing workflows using Apache Spark (PySpark).
  • Collaborate with AI/ML teams to enable data-driven models and solutions, supporting feature engineering and model deployment.
  • Leverage AI coding assistants such as Copilot and Claude to accelerate development, improve code quality, and automate repetitive tasks.
  • Optimize data workflows for performance, reliability, and cost efficiency.
  • Ensure data quality, governance, and security across all platforms.
  • Automate data processing tasks using Python, Spark, and AWS-native tools.
  • Monitor, troubleshoot, and resolve issues in data pipelines and infrastructure.
  • Document technical solutions and provide knowledge transfer to team members.
Required qualifications, capabilities and skills
  • Bachelor’s or Master’s degree in Computer Science, Engineering, or related field.
  • 5+ years of experience in data engineering, with hands-on AWS experience.
  • Strong proficiency in AWS services: S3, Glue, Lambda, Redshift, IAM, etc.
  • Experience with Data Lake architecture and implementation.
  • Expertise in Snowflake data warehousing, including schema design, performance tuning, and security.
  • Advanced programming skills in Python and SQL.
  • Hands-on experience with Apache Spark (preferably PySpark) for large-scale data processing.
  • Familiarity with AI/ML concepts and workflows; experience supporting data science teams.
  • Experience using AI coding assistants such as GitHub Copilot and Claude to enhance productivity and code quality.
  • Knowledge of data governance, security, and compliance best practices.
  • Excellent problem-solving and communication skills.
Preferred qualifications, skills, and capabilities
  • Experience with workflow/orchestration tools such as Apache Airflow.
  • Exposure to DevOps practices and CI/CD pipelines.
  • AWS certification (e.g., AWS Certified Data Analytics, Solutions Architect).
  • Experience with real-time data processing and streaming (e.g., Kinesis, Kafka).
  • Familiarity with BI tools (e.g., Tableau, Power BI).

لقد تمت ترجمة هذا الإعلان الوظيفي بواسطة الذكاء الاصطناعي وقد يحتوي على بعض الاختلافات أو الأخطاء البسيطة.

لقد تجاوزت الحد الأقصى المسموح به للتنبيهات الوظيفية (15). يرجى حذف أحد التنبيهات الحالية لإضافة تنبيه جديد.
تم إنشاء تنبيه وظيفي لهذا البحث. ستصلك إشعارات فور الإعلان عن وظائف جديدة مطابقة.
هل أنت متأكد أنك تريد سحب طلب التقديم إلى هذه الوظيفة؟

لن يتم النظر في طلبك لهذة الوظيفة، وسيتم إزالته من البريد الوارد الخاص بصاحب العمل.