Deine Aufgaben:
- Du konzipierst, entwickelst und betreibst Go-Microservices für KI-Modell-Inferenz, Datenverarbeitungspipelines und Echtzeit-Streaming-Workflows
- Du architekturierst skalierbare APIs (gRPC/REST), die als Brücke zwischen KI-Modellen und produktiven Anwendungen dienen
- Du verantwortest die Kubernetes-Infrastruktur (EKS), einschließlich Deployments, Autoscaling-Strategien, Service Mesh und Cluster-Monitoring
- Du implementierst Service-zu-Service-Kommunikation mittels gRPC und Message Queues (RabbitMQ/SQS) für asynchrone Verarbeitung
- Du integrierst Cloud-KI-Services (AWS Bedrock, OpenAI, Anthropic) und verwaltest die Model-Serving-Infrastruktur
- Du entwickelst Multi-Tenant-Funktionalitäten wie Authentifizierung (JWT/JWKS), Rate Limiting, Usage Tracking und Mandantentrennung
- Du arbeitest eng mit dem Data & AI Team zusammen, um Machine-Learning-Modelle produktionsreif zu machen – einschließlich Health Checks, Circuit Breakern und Graceful Degradation
- Du etablierst umfassende Observability-Konzepte: strukturiertes Logging, Metriken (Prometheus), Distributed Tracing (Jaeger/Tempo) und Alerting
- Du implementierst CI/CD-Pipelines und Infrastructure-as-Code (Terraform) für automatisierte Deployments und Disaster-Recovery-Szenarien
- Du stellst hohe Verfügbarkeit durch Monitoring, Incident Response und strukturierte Post-Mortem-Analysen sicher
- Du optimierst die Ressourcennutzung für GPU-Workloads und entwickelst kosteneffiziente Skalierungsstrategien
