jump to navigation

Prêt pour l’analyse et le diagnostic 10 Gigabit Ethernet ? 18 juin 2010

Posted by frnetworker in Diagnostic Réseau, OmniPeek.
Tags: , , , , , , , ,
trackback

Avec la baisse du coût d’acquisition des équipements 10 GbE, son adoption est de plus en plus fréquente … mais le challenge de l’analyse des flux sur réseaux 10 GbE reste entier, probablement parce que l’industrie n’a pas encore défini de méthodologie pour l’analyse de tels segments. La capture et l’analyse 10 GbE sont pourtant déjà possibles avec OmniPeek et l’OmniAdapter 10 GbE …

OmniAdapter 10 gigabits ethernet

Carte de capture 10 GbE 2 ports PCI-E

Voici les six questions à vous poser pour savoir si vous êtes déjà prêt à réaliser des diagnostics sur vos réseaux 10 Gigabits ethernet.

1. Êtes-vous assez précis ?

Il est crucial de savoir précisément ce que vous souhaitez capturer et quelles informations vont vous fournir les détails essentiels pour votre diagnostic.

La meilleure stratégie d’analyse des segments 10 GbE, surtout si le trafic est conséquent, est d’avoir recours à l’analyse post-capture et de ne réaliser que la capture et l’enregistrement sur disque en temps-réel.

Essayer de capturer et d’analyser en même temps sur des segments chargés sollicitera bien d’avantage votre système que si vous réalisez l’analyse en deux étapes.

2. Connaissez-vous avec précision votre réseau ?

Savoir ce que vous êtes en droit d’attendre de votre réseau est essentiel pour l’analyse des segments 10 GbE chargés.

Si vous êtes déjà lancé dans une analyse complexe d’un problème qui ne l’est pas moins, par exemple extinction d’incendie à la Red Adair (le pompier volant) … il est déjà bien trop tard pour déterminer quelles sont les conditions de fonctionnement ‘normale’ de votre réseau.

Comment établir un référentiel du fonctionnement standard de votre réseau ?

Nous vous conseillons d’enregistrer, d’analyser et d’archiver des mesures sur un protocole spécifique comme HTTP sur des périodes d’une heure, d’un jour et d’une semaine et ce pour l’ensemble de votre réseau.

Faites de même pour les protocoles de vos applications critiques pendant des opérations typiques

Les autres paramètres qui entrent en considération au fil du temps sont :

  • la répartition des tailles de paquets,
  • l’utilisation par protocole,
  • l’utilisation par poste

La connaissance de ces cycles vous fournira un solide référentiel de votre utilisation standard. Ce sera en quelque sorte la marque de fabrique de votre réseau.

De la sorte, vous disposerez toujours d’une comparaison pertinente lorsque des problèmes surviendront.

Et c’est seulement en possession de ces données que vous pourrez vous lancer dans une analyse détaillée et plonger jusqu’aux arcanes des paquets.

3. Restez-vous concentré sur l’essentiel ?

La tentation est forte de capturer et d’analyser l’ensemble du trafic, surtout dans la mesure où l’origine du problème est inconnue.

Mais le plus souvent certaines causes peuvent être immédiatement écartées ce qui permet de se limiter à la capture et l’analyse de l’essentiel.

Vous avez aussi la possibilité de désactiver certains modules sans grand intérêt pour le diagnostic en cours.

Par exemple, le module d’analyse du Wifi peut être désactivé sans hésiter lors de l’analyse du 10 GbE. Vous devez personnaliser les réglages en fonction de vos buts et de votre activité du moment.

4. Connaissez-vous vos limites ?

Même si l’analyse 10 GbE est limitée à quelques segments de votre infrastructure, capturer des données sur ces réseaux produit très rapidement des quantités énormes de données à analyser.

Ce qui deviendra rapidement une tâche Herculéenne même si l’on écarte les problèmes de performances de la station de capture des paquets et que l’on utilise la méthode Capture puis Post-Analyse.

En fait, il faut trouver le juste équilibre entre 2 problématiques antinomiques :

  • La taille des fichiers de données,
  • La fréquence de sauvegarde sur les disques.

L’intuition pourrait vous laisser penser que plus les fichiers sont volumineux mieux c’est … ce qui n’est pourtant pas le cas !

De gros fichiers réclament bien plus de mémoire lors de leur manipulation. Si les fichiers sont énormes, ils vont être inutilisables car votre pc va littéralement ramer faute de mémoire vive.

A l’opposé, de plus petits fichiers qui demandent des accès (en écriture) plus fréquents aux disques durs peuvent consommer d’avantage de ressources pendant la capture.

Les performances optimales sont donc obtenues par un compromis entre ces 2 contraintes qui dépendent en grande partie des ressources (mémoire, disque dur, processeur) du poste d’analyse.

Une règle simple à conserver en mémoire : si des fichiers sont créés toutes les 30 secondes (ou moins) cela va impacter l’efficacité du taux de capture de manière significative.

Utiliser des tailles de buffers et de fichiers adaptés peut faire toute la différence.

Nous recommandons de démarrer avec 256 Mb de buffers de capture et de fixer la taille des fichiers à 128 Mb.

Après quelques captures vous allez rapidement déterminer quel paramètre doit être ajusté en fonction des capacités de votre matériel.

Essayez également d’utiliser le moins grand nombre possible de captures simultanées. Bien sûr les logiciels d’analyse vous permettent pour la plupart un nombre illimité de captures mais vous devez garder en mémoire que chaque capture supplémentaire consomme des ressources supplémentaires.

5. Filtrez-vous ?

Le filtrage basé sur des critères spécifiques de l’utilisateur est un moyen efficace de limiter le nombre de paquets capturés et archivés.

Tronquer les paquets (Slicing) vous permet aussi de minimiser la quantité de données à traiter mais cela n’est valable que si vous vous intéressez uniquement aux entêtes de paquets car toute reconstruction de transaction est alors rendue impossible.

Ces deux techniques permettent de réduire le volume de données à traiter et stocker ce qui libère d’autant la puissance de l’ordinateur pour la capture et l’espace disque.

6. Êtes-vous raisonnable ?

OmniPeek permet la connexion distante de multiples utilisateurs à l’appliance qui réalise les captures critiques et l’analyse temps-réel.

Fixez une limite au nombre d’utilisateurs concurrents.

Nommez un responsable pour chaque système de capture qui supervisera les filtres et les captures avec éventuellement la possibilité de stopper certaines captures en cas de nécessité.

Trop d’utilisateurs avec trop de prérogatives n’apportera que des inconvénients.

Vous pourrez toujours assouplir les règles en cas de besoin.

•    •

Librement inspiré du blog de l’éditeur WildPackets par NetWalker, distributeur pour la France.

Publicités

Commentaires»

No comments yet — be the first.

Laisser un commentaire

Choisissez une méthode de connexion pour poster votre commentaire:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :