Collecte de logs

Comme décrit dans la page solution, notre stack ne collecte pour le moment pas de logs. Pour des raisons d’utilité, de simplicité, …

Néanmoins, la collecte de logs peut être facilement mise en place. Il suffit de reprendre le docker filebeat, de le configurer comme le docker metricbeat, et de le lancer sur les machines à monitorer. Le docker proposé dans le dossier de la TX permet déja de récupèrer tous les logs de tous les docker tournant sur l’hôte, et de les envoyer vers elasticsearch (ES). Il suffit de modifier la sortie dans le fichier ./config/filebeat.yml pour l’envoyer vers l’adresse effective d’elasticsearch, ou de Logstash.

Le choix entre une sortie sur elasticsearch et une sortie sur logstash, dépend de l’utilisation voulue. Logstash permet d’analyser les logs, et de remplir automatiquement des champs de la base de donnée ES. Cela permet d’avoir une base de donnée plus propre, avec des requêtes plus rapides. le problème est qu’il est complexe de définir ces règles, et qu’elle ne fonctionne souvent que pour les logs d’un seul service (cf documentation de la TX elasticsearch précédente). Envoyer les logs directement à ES permet de passer outre cette procédure, au détriment de l’efficcacité et de la lisibilité de la BDD.

  • txs/infra/monitoring_p20/monitoring_es/utilisation/collecte.txt
  • de qduchemi