كلما زادت طلبات التقديم التي ترسلينها، زادت فرصك في الحصول على وظيفة!

إليك لمحة عن معدل نشاط الباحثات عن عمل خلال الشهر الماضي:

عدد الفرص التي تم تصفحها

عدد الطلبات التي تم تقديمها

استمري في التصفح والتقديم لزيادة فرصك في الحصول على وظيفة!

هل تبحثين عن جهات توظيف لها سجل مثبت في دعم وتمكين النساء؟

اضغطي هنا لاكتشاف الفرص المتاحة الآن!
نُقدّر رأيكِ

ندعوكِ للمشاركة في استطلاع مصمّم لمساعدة الباحثين على فهم أفضل الطرق لربط الباحثات عن عمل بالوظائف التي يبحثن عنها.

هل ترغبين في المشاركة؟

في حال تم اختياركِ، سنتواصل معكِ عبر البريد الإلكتروني لتزويدكِ بالتفاصيل والتعليمات الخاصة بالمشاركة.

ستحصلين على مبلغ 7 دولارات مقابل إجابتك على الاستطلاع.


تم إلغاء حظر المستخدم بنجاح
https://bayt.page.link/BgPXx88eDt5wM6hB9
العودة إلى نتائج البحث‎
خدمات الدعم التجاري الأخرى
أنشئ تنبيهًا وظيفيًا لوظائف مشابهة
تم إيقاف هذا التنبيه الوظيفي. لن تصلك إشعارات لهذا البحث بعد الآن.

الوصف الوظيفي

Integrant is looking for game changers to join our team as " Lead AI Platform".
The Lead AI Platform Engineer is responsible for bridging AI workloads with production-grade infrastructure, with a strong focus on NVIDIA AI stack, enabling high-performance, scalable, and optimized AI systems.
This role focuses on model optimization, runtime efficiency, and GPU utilization, ensuring that AI workloads are production-ready, cost-efficient, and performant across enterprise environments.
Roles and Responsibilities: Translate AI/ML workloads into optimized infrastructure and deployment strategies Optimize model performance across GPU environments (latency, throughput, memory utilization) Design and implement inference and training pipelines using NVIDIA stack tools (TensorRT, Triton, NIM) Convert and optimize models across frameworks (PyTorch → ONNX → TensorRT) Analyze and resolve performance bottlenecks using profiling tools (GPU, memory, network) Improve GPU utilization and scheduling efficiency across clusters Design scalable distributed training and inference architectures Work closely with customers to define AI infrastructure strategies and deployment models Support production deployments including monitoring, rollback, and performance validation Conduct applied research to improve model efficiency and infrastructure utilization Mentor team members on AI infrastructure, optimization, and GPU systems Experiment tracking tools (MLflow, W&B, Neptune) log parameters, metrics, and artifacts for comparison Find the Model degradation happens post-deployment: concept drift, data pipeline changes, traffic pattern shifts Root cause analysis (RCA) applies to ML systems: isolating variables, reproducing issues Salary paid in USD Six-month career advancing opportunities Supportive and friendly work environment Premium medical insurance [employee +family] English language development courses Interest-free loans paid over 2.
5 years Technical development courses Planned overtime program (POP) Employment referral program Premium location in Maadi Social insurance 8+ years of experience in AI systems 8+ years of experience in ML systems, HPC and AI infrastructure Strong proficiency in Python Strong experience with GPU-based AI workloads and performance optimization Deep understanding of model optimization techniques (quantization, pruning, batching) Hands-on experience with: PyTorch ONNX / ONNX Runtime TensorRT / TensorRT-LLM Triton Inference Server Knowledge of CUDA, cuDNN, and GPU architecture fundamentals Experience with distributed systems (multi-GPU / multi-node) Familiarity with: NCCL communication NVLink / InfiniBand Kubernetes or Slurm for orchestration Experience deploying AI models into production environments Ability to analyze system bottlenecks (compute, memory, network) Experience with profiling tools (Nsight, TensorRT profiler, etc.
) Knowledge of cost optimization strategies for GPU workloads Experiment tracking tools (MLflow, W&B, Neptune) log parameters, metrics, and artifacts for comparison Find the Model degradation happens post-deployment: concept drift, data pipeline changes, traffic pattern shifts Root cause analysis (RCA) applies to ML systems: isolating variables, reproducing issues Nice to Have Experience with NVIDIA NIM and NGC ecosystem Exposure to Megatron-LM, NeMo, or large-scale LLM training/inference Experience with LLM optimization techniques (KV cache, batching strategies) Familiarity with MLOps practices and CI/CD for AI systems Experience in customer-facing architecture or consulting roles Familiarity with hybrid cloud / on-prem HPC environments
لقد تمت ترجمة هذا الإعلان الوظيفي بواسطة الذكاء الاصطناعي وقد يحتوي على بعض الاختلافات أو الأخطاء البسيطة.

لقد تجاوزت الحد الأقصى المسموح به للتنبيهات الوظيفية (15). يرجى حذف أحد التنبيهات الحالية لإضافة تنبيه جديد.
تم إنشاء تنبيه وظيفي لهذا البحث. ستصلك إشعارات فور الإعلان عن وظائف جديدة مطابقة.
هل أنت متأكد أنك تريد سحب طلب التقديم إلى هذه الوظيفة؟

لن يتم النظر في طلبك لهذة الوظيفة، وسيتم إزالته من البريد الوارد الخاص بصاحب العمل.