كلما زادت طلبات التقديم التي ترسلينها، زادت فرصك في الحصول على وظيفة!

إليك لمحة عن معدل نشاط الباحثات عن عمل خلال الشهر الماضي:

عدد الفرص التي تم تصفحها

عدد الطلبات التي تم تقديمها

استمري في التصفح والتقديم لزيادة فرصك في الحصول على وظيفة!

هل تبحثين عن جهات توظيف لها سجل مثبت في دعم وتمكين النساء؟

اضغطي هنا لاكتشاف الفرص المتاحة الآن!
نُقدّر رأيكِ

ندعوكِ للمشاركة في استطلاع مصمّم لمساعدة الباحثين على فهم أفضل الطرق لربط الباحثات عن عمل بالوظائف التي يبحثن عنها.

هل ترغبين في المشاركة؟

في حال تم اختياركِ، سنتواصل معكِ عبر البريد الإلكتروني لتزويدكِ بالتفاصيل والتعليمات الخاصة بالمشاركة.

ستحصلين على مبلغ 7 دولارات مقابل إجابتك على الاستطلاع.


تم إلغاء حظر المستخدم بنجاح
https://bayt.page.link/SHK8JXWPBp63W9BH6
العودة إلى نتائج البحث‎

Senior Kafka DevOps Engineer – Streaming Platform & SRE (8–12 Years)

في الامس 2026/08/28
خدمات الدعم التجاري الأخرى
أنشئ تنبيهًا وظيفيًا لوظائف مشابهة
تم إيقاف هذا التنبيه الوظيفي. لن تصلك إشعارات لهذا البحث بعد الآن.

الوصف الوظيفي

Meet the Team

We are the Webex Persistence Team within the Webex Service Engineering & SRE organization.



Our team designs, builds, and operates highly scalable persistence services powering Webex Teams, Webex Meetings, and the broader Webex Suite. We work across Webex Data Centers and AWS Cloud environments, ensuring high availability, reliability, and performance at a global scale.



As part of this team, you will work on mission-critical infrastructure and platform systems, including data, streaming, and persistence layers, with a strong focus on automation, scalability, and cloud-native engineering.



Your Impact

We are seeking a Senior Kafka DevOps Engineer with strong hands-on experience in Apache Kafka, MirrorMaker, and Kafka Schema Registry, plus 2+ years of DevOps experience.



As a Senior Kafka / DevOps Engineer, you will play a critical role in designing, operating, and optimizing large-scale Kafka supporting Webex services.



You will contribute to the development of robust, high-performing systems and promote technical excellence in infrastructure operations and Kafka.



Key Responsibilities
  • Design, build, and manage scalable Kafka-based streaming platforms.
  • Configure and operate Kafka MirrorMaker for cross-cluster and cross-region replication.
  • Administer and govern Kafka Schema Registry (schema lifecycle, compatibility, versioning).
  • Monitor and optimize Kafka clusters for performance, reliability, and throughput.
  • Troubleshoot broker, producer, consumer, replication, and latency issues.
  • Implement security controls (ACLs, encryption, authentication, authorization).
  • Collaborate with application teams for event-driven architecture and best practices.
  • Define DR/failover strategies and ensure high availability.
  • Establish backup, recovery, and disaster recovery proces ses
  • Monitor system health and reliability using tools like Prometheus and Grafana
  • Contribute to infrastructure automation using Terraform , Automation by Ansible, and Python.
Minimum Qualifications
  • 8+ years of experience in Kafka design, administration, and cluster management.
  • Strong knowledge of Kafka architecture,internals, data distribution, partitioning,
  • Administer and govern Kafka Schema Registry (schema lifecycle, compatibility, versioning).
  • Monitor and optimize Kafka clusters for performance, reliability, and throughput.
  • Troubleshoot broker, producer, consumer, replication, and latency issues.
  • Implement security controls (ACLs, encryption, authentication, authorization).
  • Collaborate with application teams for event-driven architecture and best practices.
  • Define DR/failover strategies and ensure high availability.
  • Experience with performance tuning, capacity planning, and incident handling.
  • Hands-on experience with AWS EC2, VPC, S3, IAM, CloudWatch, EKS/ECS,
  • Experience with infrastructure automation and DevOps practices, including CI/CD tools (Jenkins, GitHub Actions, GitLab CI) and Infrastructure as Code tools (Terraform, Ansible), Python
Preferred Qualifications
  • Experience working with relational and search databases such as PostgreSQL, OpenSearch, or Elasticsearch
  • Hands-on experience with containerization and orchestration technologies such as Docker and Kubernetes
  • Exposure to modern data platforms, including data pipelines, streaming systems, or AI/ML and GenAI workloads

Why Cisco? 

At Cisco, we’re revolutionizing how data and infrastructure connect and protect organizations in the AI era – and beyond. We’ve been innovating fearlessly for 40 years to create solutions that power how humans and technology work together across the physical and digital worlds. These solutions provide customers with unparalleled security, visibility, and insights across the entire digital footprint.



Fueled by the depth and breadth of our technology, we experiment and create meaningful solutions. Add to that our worldwide network of doers and experts, and you’ll see that the opportunities to grow and build are limitless. We work as a team, collaborating with empathy to make really big things happen on a global scale. Because our solutions are everywhere, our impact is everywhere. 



We are Cisco, and our power starts with you. 





لقد تمت ترجمة هذا الإعلان الوظيفي بواسطة الذكاء الاصطناعي وقد يحتوي على بعض الاختلافات أو الأخطاء البسيطة.

لقد تجاوزت الحد الأقصى المسموح به للتنبيهات الوظيفية (15). يرجى حذف أحد التنبيهات الحالية لإضافة تنبيه جديد.
تم إنشاء تنبيه وظيفي لهذا البحث. ستصلك إشعارات فور الإعلان عن وظائف جديدة مطابقة.
هل أنت متأكد أنك تريد سحب طلب التقديم إلى هذه الوظيفة؟

لن يتم النظر في طلبك لهذة الوظيفة، وسيتم إزالته من البريد الوارد الخاص بصاحب العمل.