Prisma Cloud Calcul : erreur de retour en boucle de crash sur la console
11461
Created On 11/11/19 23:31 PM - Last Modified 03/02/23 02:32 AM
Symptom
Messages d’erreur
- Vérifiez la nacelle twistlock à l’intérieur de votre environnement Kubernetes/Openshift
$ kubectl obtenir des gousses -n twistlock
Lorsque 'twistlock' est l’espace nominatif dans lequel les pods Twistlock sont déployés.
- Si vous UI utilisez une telle plate-forme Openshift, un message d’erreur de back-off Crash Loop ressemblerait à ceci :
Environment
- Auto-hébergé 19.11 ou version ultérieure
Cause
Le message d’erreur « Crash Loop Back-off » est plus pertinent pour le déploiement de type orchestrateur tel que Kubernetes ou Openshift. Il peut y avoir de nombreuses raisons pour qu’un pod aboutit à cet état. Dans cet article, nous couvrons l’une des raisons pour lesquelles ce message d’erreur apparaît sur le déploiement de la console - réglage des limites inférieures cgroup/cpu. Lorsque moins de 100 défenseurs sont connectés, console nécessite 1 Go RAM de stockage et 10 Go. Notre recommandation est de répondre aux exigences du système par défaut et de ne pas fixer de limites supplémentaires de processeur ou de cgroup sur console. Des API requêtes fréquentes et un traitement par ensemble de données importants peuvent ralentir la console et, dans certains cas, entraîner OOM l’application de limites plus faibles.
Resolution
Mesures pour confirmer le problème
- oc / kubectl journaux sur le pod afficherait des messages d’erreur comme ceci:
Code de sortie 137: OOM tué
- Exemple de configuration yaml qui fixe des limites sur cpu:
$ kubectl décrire pods -n twistlock
Recherchez la section « limites » dans le yaml:
limites:
- type: « Conteneur »
par
défaut: cpu: « 500m »
mémoire: « 1024Mi »
defaultRequest:
cpu: « 500m »
mémoire: « 1024Mi »
Étapes de dépannage
Supprimez les limites personnalisées sur le déploiement de la Console. Supprimez complètement la section « limites » de Twistlock Console yaml.
ressources: # Voir: https://kubernetes.io/docs/concepts/configuration/manage-compute-resources-container/#how-pods-with-resource-requests-are-scheduled
limites:
mémoire: « 512Mi »
cpu: « 900m »
demandes:
cpu: « 256m »
Additional Information
Dans Openshift, les limites de ressources peuvent être étendues aux projets. Pour plus d’informations, reportez-vous à cet article d’Openshift : https://docs.openshift.com/container-platform/3.10/dev_guide/compute_resources.html
S’il s’agit d’un paramètre universel pour tous les conteneurs, vous pouvez vérifier auprès de votre administrateur système avant d’y apporter des modifications.