jump to navigation

Prêt pour l’analyse et le diagnostic 10 Gigabit Ethernet ? 18 juin 2010

Posted by frnetworker in Diagnostic Réseau, OmniPeek.
Tags: , , , , , , , ,
add a comment

Avec la baisse du coût d’acquisition des équipements 10 GbE, son adoption est de plus en plus fréquente … mais le challenge de l’analyse des flux sur réseaux 10 GbE reste entier, probablement parce que l’industrie n’a pas encore défini de méthodologie pour l’analyse de tels segments. La capture et l’analyse 10 GbE sont pourtant déjà possibles avec OmniPeek et l’OmniAdapter 10 GbE …

OmniAdapter 10 gigabits ethernet

Carte de capture 10 GbE 2 ports PCI-E

Voici les six questions à vous poser pour savoir si vous êtes déjà prêt à réaliser des diagnostics sur vos réseaux 10 Gigabits ethernet.

1. Êtes-vous assez précis ?

Il est crucial de savoir précisément ce que vous souhaitez capturer et quelles informations vont vous fournir les détails essentiels pour votre diagnostic.

La meilleure stratégie d’analyse des segments 10 GbE, surtout si le trafic est conséquent, est d’avoir recours à l’analyse post-capture et de ne réaliser que la capture et l’enregistrement sur disque en temps-réel.

Essayer de capturer et d’analyser en même temps sur des segments chargés sollicitera bien d’avantage votre système que si vous réalisez l’analyse en deux étapes.

2. Connaissez-vous avec précision votre réseau ?

Savoir ce que vous êtes en droit d’attendre de votre réseau est essentiel pour l’analyse des segments 10 GbE chargés.

Si vous êtes déjà lancé dans une analyse complexe d’un problème qui ne l’est pas moins, par exemple extinction d’incendie à la Red Adair (le pompier volant) … il est déjà bien trop tard pour déterminer quelles sont les conditions de fonctionnement ‘normale’ de votre réseau.

Comment établir un référentiel du fonctionnement standard de votre réseau ?

Nous vous conseillons d’enregistrer, d’analyser et d’archiver des mesures sur un protocole spécifique comme HTTP sur des périodes d’une heure, d’un jour et d’une semaine et ce pour l’ensemble de votre réseau.

Faites de même pour les protocoles de vos applications critiques pendant des opérations typiques

Les autres paramètres qui entrent en considération au fil du temps sont :

  • la répartition des tailles de paquets,
  • l’utilisation par protocole,
  • l’utilisation par poste

La connaissance de ces cycles vous fournira un solide référentiel de votre utilisation standard. Ce sera en quelque sorte la marque de fabrique de votre réseau.

De la sorte, vous disposerez toujours d’une comparaison pertinente lorsque des problèmes surviendront.

Et c’est seulement en possession de ces données que vous pourrez vous lancer dans une analyse détaillée et plonger jusqu’aux arcanes des paquets.

3. Restez-vous concentré sur l’essentiel ?

La tentation est forte de capturer et d’analyser l’ensemble du trafic, surtout dans la mesure où l’origine du problème est inconnue.

Mais le plus souvent certaines causes peuvent être immédiatement écartées ce qui permet de se limiter à la capture et l’analyse de l’essentiel.

Vous avez aussi la possibilité de désactiver certains modules sans grand intérêt pour le diagnostic en cours.

Par exemple, le module d’analyse du Wifi peut être désactivé sans hésiter lors de l’analyse du 10 GbE. Vous devez personnaliser les réglages en fonction de vos buts et de votre activité du moment.

4. Connaissez-vous vos limites ?

Même si l’analyse 10 GbE est limitée à quelques segments de votre infrastructure, capturer des données sur ces réseaux produit très rapidement des quantités énormes de données à analyser.

Ce qui deviendra rapidement une tâche Herculéenne même si l’on écarte les problèmes de performances de la station de capture des paquets et que l’on utilise la méthode Capture puis Post-Analyse.

En fait, il faut trouver le juste équilibre entre 2 problématiques antinomiques :

  • La taille des fichiers de données,
  • La fréquence de sauvegarde sur les disques.

L’intuition pourrait vous laisser penser que plus les fichiers sont volumineux mieux c’est … ce qui n’est pourtant pas le cas !

De gros fichiers réclament bien plus de mémoire lors de leur manipulation. Si les fichiers sont énormes, ils vont être inutilisables car votre pc va littéralement ramer faute de mémoire vive.

A l’opposé, de plus petits fichiers qui demandent des accès (en écriture) plus fréquents aux disques durs peuvent consommer d’avantage de ressources pendant la capture.

Les performances optimales sont donc obtenues par un compromis entre ces 2 contraintes qui dépendent en grande partie des ressources (mémoire, disque dur, processeur) du poste d’analyse.

Une règle simple à conserver en mémoire : si des fichiers sont créés toutes les 30 secondes (ou moins) cela va impacter l’efficacité du taux de capture de manière significative.

Utiliser des tailles de buffers et de fichiers adaptés peut faire toute la différence.

Nous recommandons de démarrer avec 256 Mb de buffers de capture et de fixer la taille des fichiers à 128 Mb.

Après quelques captures vous allez rapidement déterminer quel paramètre doit être ajusté en fonction des capacités de votre matériel.

Essayez également d’utiliser le moins grand nombre possible de captures simultanées. Bien sûr les logiciels d’analyse vous permettent pour la plupart un nombre illimité de captures mais vous devez garder en mémoire que chaque capture supplémentaire consomme des ressources supplémentaires.

5. Filtrez-vous ?

Le filtrage basé sur des critères spécifiques de l’utilisateur est un moyen efficace de limiter le nombre de paquets capturés et archivés.

Tronquer les paquets (Slicing) vous permet aussi de minimiser la quantité de données à traiter mais cela n’est valable que si vous vous intéressez uniquement aux entêtes de paquets car toute reconstruction de transaction est alors rendue impossible.

Ces deux techniques permettent de réduire le volume de données à traiter et stocker ce qui libère d’autant la puissance de l’ordinateur pour la capture et l’espace disque.

6. Êtes-vous raisonnable ?

OmniPeek permet la connexion distante de multiples utilisateurs à l’appliance qui réalise les captures critiques et l’analyse temps-réel.

Fixez une limite au nombre d’utilisateurs concurrents.

Nommez un responsable pour chaque système de capture qui supervisera les filtres et les captures avec éventuellement la possibilité de stopper certaines captures en cas de nécessité.

Trop d’utilisateurs avec trop de prérogatives n’apportera que des inconvénients.

Vous pourrez toujours assouplir les règles en cas de besoin.

•    •

Librement inspiré du blog de l’éditeur WildPackets par NetWalker, distributeur pour la France.

Publicités

L’itinérance Wifi et ses effets sur la qualité du réseau 30 mai 2010

Posted by frnetworker in Diagnostic Réseau, OmniPeek.
Tags: , , , , , , , , ,
1 comment so far

Le roaming (ou itinérance) c’est lorsqu’un utilisateur du réseau wifi se déplace hors du champ couvert par un des points d’accès pour entrer dans celui d’un autre. Le roaming permet donc à l’utilisateur de se déplacer sur un site tout en restant connecté au réseau. Cependant le roaming est l’une des principales causes de problèmes que rencontrent les utilisateurs sur les réseaux sans fils. Des temps de roaming trop élevés entrainent une mauvaise qualité réseau pour les utilisateurs de voix ou de vidéo sur IP et provoquent des pertes de connexions ou de données.

Le roaming  provoque le plus souvent un changement de canal, mais cela dépend de la technologie utilisée. Dans le cas d’une architecture multi-canal, la plus fréquente, un changement de canal est nécessaire. Dans un tel cas, le poste client (ordinateur, téléphone …) doit être ré-authentifié et ré-associé avec le nouveau point d’accès, ce qui prend le plus souvent de l’ordre de 150 millisecondes surtout si des fonctions avancées comme le WPA2 et WMM sont actives. La plupart des réseaux sans fils sont constitués de plusieurs points d’accès (AP) et les utilisateurs font l’expérience d’un signal de faible puissance malgré une couverture wifi convenable lorsque  le ‘client’ est/reste connecté à la mauvaise AP. Même dans les architectures les plus récentes, les systèmes de gestion centralisée, le ‘client’ wifi décide seul quand il bascule d’un AP à l’autre. Cette décision est basée sur l’évaluation de la force du signal et est réalisée par le pilote qui contrôle l’accès radio. Ce pilote logiciel est différent d’un constructeur à l’autre et d’un matériel à l’autre, de sorte que la décision de faire appel au roaming se fait de manière extrêmement variable. Le plus souvent, le client sans fil va attendre trop longtemps l’affaiblissement du signal avant de basculer sur une autre AP avec un meilleur signal.

De nouveaux standards sont disponibles et définissent les conditions pour un roaming rapide (fast roaming) permettant des basculements qui prennent seulement 5 à 10 millisecondes. Ces spécifications incluent :

  • 802.11i – Mécanisme de caching de clé ne nécessitant pas de ré-authentification (plus connu sous le sigle WPA2)
  • 802.11r – Défini un mode d’itinérance pour les communications VoIP permettant de passer d’un point d’accès à un autre de manière très rapide.
  • 802.11k – Permet l’optimisation d’allocation des ressources du réseau sans fil selon la qualité de chaque liaison.

Ces nouveaux standards (le 802.11i n’est pas nouveau mais fait partie intégrante des améliorations pour le roaming) permettent aux AP un meilleur contrôle pour déterminer quand un basculement doit être effectué et les autorisent à tenir compte des performances actuelles et des demandes des réseaux wifi.

Le problème vient d’une adoption très lente des normes 11k et 11r principalement sur les  clients Wifi … et tant que ces normes n’auront pas été adoptées en masse, les clients continueront à souffrir des transitions trop lentes provoquant de piètres performances en VoIP et Video over IP.

Dans l’intervalle, la meilleure approche est de superviser et d’analyser l’activité liée à l’itinérance sur le réseau. Disposer d’une vision complète et pertinente nécessite l’agrégation temps-réel des données de multiples canaux et AP avec une analyse détaillée (automatique) qui fournit des rapports détaillés. Qui se déplace ? Combien de temps prend chaque évènement ? et quelle est l’efficacité de chacune des AP ? Si le rapport donne une vue claire de la situation, son établissement est un processus complexe qui démontre que des outils d’analyse pertinents de réseau sont essentiels pour rester productifs.

OmniPeek Network Analyzer est l’un des outils qui permet aux administrateurs de mener leur tâche critique.

Librement inspiré du blog de l’éditeur WildPackets par NetWalker, distributeur pour la France.

%d blogueurs aiment cette page :