jump to navigation

L’itinérance Wifi et ses effets sur la qualité du réseau 30 mai 2010

Posted by frnetworker in Diagnostic Réseau, OmniPeek.
Tags: , , , , , , , , ,
1 comment so far

Le roaming (ou itinérance) c’est lorsqu’un utilisateur du réseau wifi se déplace hors du champ couvert par un des points d’accès pour entrer dans celui d’un autre. Le roaming permet donc à l’utilisateur de se déplacer sur un site tout en restant connecté au réseau. Cependant le roaming est l’une des principales causes de problèmes que rencontrent les utilisateurs sur les réseaux sans fils. Des temps de roaming trop élevés entrainent une mauvaise qualité réseau pour les utilisateurs de voix ou de vidéo sur IP et provoquent des pertes de connexions ou de données.

Le roaming  provoque le plus souvent un changement de canal, mais cela dépend de la technologie utilisée. Dans le cas d’une architecture multi-canal, la plus fréquente, un changement de canal est nécessaire. Dans un tel cas, le poste client (ordinateur, téléphone …) doit être ré-authentifié et ré-associé avec le nouveau point d’accès, ce qui prend le plus souvent de l’ordre de 150 millisecondes surtout si des fonctions avancées comme le WPA2 et WMM sont actives. La plupart des réseaux sans fils sont constitués de plusieurs points d’accès (AP) et les utilisateurs font l’expérience d’un signal de faible puissance malgré une couverture wifi convenable lorsque  le ‘client’ est/reste connecté à la mauvaise AP. Même dans les architectures les plus récentes, les systèmes de gestion centralisée, le ‘client’ wifi décide seul quand il bascule d’un AP à l’autre. Cette décision est basée sur l’évaluation de la force du signal et est réalisée par le pilote qui contrôle l’accès radio. Ce pilote logiciel est différent d’un constructeur à l’autre et d’un matériel à l’autre, de sorte que la décision de faire appel au roaming se fait de manière extrêmement variable. Le plus souvent, le client sans fil va attendre trop longtemps l’affaiblissement du signal avant de basculer sur une autre AP avec un meilleur signal.

De nouveaux standards sont disponibles et définissent les conditions pour un roaming rapide (fast roaming) permettant des basculements qui prennent seulement 5 à 10 millisecondes. Ces spécifications incluent :

  • 802.11i – Mécanisme de caching de clé ne nécessitant pas de ré-authentification (plus connu sous le sigle WPA2)
  • 802.11r – Défini un mode d’itinérance pour les communications VoIP permettant de passer d’un point d’accès à un autre de manière très rapide.
  • 802.11k – Permet l’optimisation d’allocation des ressources du réseau sans fil selon la qualité de chaque liaison.

Ces nouveaux standards (le 802.11i n’est pas nouveau mais fait partie intégrante des améliorations pour le roaming) permettent aux AP un meilleur contrôle pour déterminer quand un basculement doit être effectué et les autorisent à tenir compte des performances actuelles et des demandes des réseaux wifi.

Le problème vient d’une adoption très lente des normes 11k et 11r principalement sur les  clients Wifi … et tant que ces normes n’auront pas été adoptées en masse, les clients continueront à souffrir des transitions trop lentes provoquant de piètres performances en VoIP et Video over IP.

Dans l’intervalle, la meilleure approche est de superviser et d’analyser l’activité liée à l’itinérance sur le réseau. Disposer d’une vision complète et pertinente nécessite l’agrégation temps-réel des données de multiples canaux et AP avec une analyse détaillée (automatique) qui fournit des rapports détaillés. Qui se déplace ? Combien de temps prend chaque évènement ? et quelle est l’efficacité de chacune des AP ? Si le rapport donne une vue claire de la situation, son établissement est un processus complexe qui démontre que des outils d’analyse pertinents de réseau sont essentiels pour rester productifs.

OmniPeek Network Analyzer est l’un des outils qui permet aux administrateurs de mener leur tâche critique.

Librement inspiré du blog de l’éditeur WildPackets par NetWalker, distributeur pour la France.

YouTube assassine t’il votre bande passante ? 26 mai 2010

Posted by frnetworker in Diagnostic Réseau, OmniPeek.
Tags: , , ,
add a comment

Avec des services tels YouTube, Facebook, iTunes ou la VoIP parmi tant d’autres, nos réseaux sont la proie de fortes hausses de trafic. S’assurer que le réseau reste efficace et en bonne santé n’est pas une tâche subalterne pour les administrateurs réseau, c’est un devoir basic pour la productivité et l’efficacité de l’entreprise !

La gestion et le contrôle de la bande passante sont essentiels pour éviter des performances déplorables qui pèsent directement sur la productivité de l’entreprise !

Comment éviter les écueils ? Voici quelques conseils pour une mise en œuvre réussie :

1 – Focalisez sur les segments critiques du réseau

A tout moment, sachez qui utilise quoi, quand, et pourquoi sur ces segments réseau. C’est la seule manière efficace pour une entreprise d’optimiser la gestion de la bande passante et de connaitre avec précision la situation actuelle. Ces mesures de référence sont la pierre angulaire d’une gestion performante de la bande passante. En premier lieu, vous pouvez démarrer en contrôlant les connexions internet, les liens WAN, l’utilisation du Wifi et l’accès aux serveurs. Un logiciel d’analyse de réseau est un outil essentiel pour déterminer ces valeurs de référence et permet la mise en forme de rapports des principaux indicateurs au format PDF ou web. Ces compte-rendus ne serviront pas seulement à résoudre et contrôler les problèmes existants mais permettront également aux Entreprises de remonter dans le temps pour valider les performances actuelles et futures.

2 – Privilégiez les applications critiques pour le business

Chaque Entreprise a des priorités différentes ! En fait, chaque segment de réseau a des priorités différentes au regard des applications spécifiques qui y transitent. Il est évident que les principales applications consommatrices de bande passante seront différentes entre le service commercial et le service R&D. Les protocoles applicatifs doivent être gérés par ordre d’importance sur chaque segment réseau. Mais lorsque ces flux convergent et transitent sur les mêmes segments il est essentiel de tenir compte des besoins spécifiques de chacun d’entre eux.

3 – Analysez les interactions Applications/Protocoles.

Il est essentiel de comprendre les besoins spécifiques de chaque application et la/les manière(s) dont elles utilisent les protocoles sur le réseau. La mauvaise gestion d’un seul protocole peut mettre à terre les performances de l’application dans son ensemble. C’est un second point pour lequel un analyseur de réseau pourra mettre en évidence rapidement chacun des flux et ses performances propres. Il permet aux entreprises de disposer d’une vue temps-réel du fonctionnement du réseau et de classer les flux selon différents critères.

4 – Supprimez trafics et protocoles inutiles

Chacun de nos réseaux véhicule une part de trafic totalement inutile. Certains périphériques, en particulier les imprimantes, supportent des protocoles dont vous n’avez aucune utilité. Le Wifi ne fait pas exception est n’est malheureusement pas souvent filtré : Il arrive que des protocoles de management comme les protocoles de routage, SNMP …  soient présents sur des WLANs sans aucune raison si ce n’est de consommer de la bande passante.

5 – Rendez les applications critiques prioritaires grâce à la QoS

La plupart du temps les Entreprises mettent en œuvre les mécanismes de gestion de la priorité incluse dans leurs routeurs et commutateurs. Il est parfois nécessaire de recourir à des matériels ou logiciels spécifiques (compression de trafic …) qui optimisent encore la gestion de la bande passante.

6 – Contrôlez et gérez au quotidien

Il est essentiel pour les Entreprises de comprendre que le réseau est dynamique et que l’utilisation qu’en font les utilisateurs varie au cours du temps. Les administrateurs réseau doivent contrôler le bon fonctionnement des applicatifs en permanence et s’assurer que l’état de santé du réseau reste stable.  Il est primordial de suivre et de comprendre les tendances pour réaliser les changements nécessaires afin de parer aux évolutions des comportements de vos utilisateurs.

Cet article est librement inspiré du blog de l’éditeur WildPackets et par les expériences clients de NetWalker.

Résorber les trous noirs réseau des environnements virtualisés 18 mai 2010

Posted by frnetworker in Diagnostic Réseau, OmniPeek.
Tags: , , , , , , ,
add a comment

L’adoption de la virtualisation continue à augmenter. Selon l’analyste Cindy Borovick d’IDC, l’année 2010 verra pour la première fois le nombre de serveurs virtuels dépasser celui des serveurs ‘réels’.

Un nombre croissant d’entreprises se tourne vers la virtualisation pour simplifier le déploiement d’applications et les opérations de maintenance, mais aussi pour répondre plus rapidement aux évolutions constantes des besoins du business.

A ce jour, même de petites structures ont recourt à la virtualisation grâce à la baisse des coûts et à la simplification des outils d’administration.

Il est important de mémoriser que l’analyse réseau [des environnements virtualisés] diffère quelque peu de celle en environnements ‘traditionnels’ puisque les ressources sont partagées.

Dans un environnement ‘traditionnel’ vous allez mettre en place du port mirroring sur un commutateur ou un routeur et les données proviendront directement du serveur.

Dans le cas d’un environnement virtuel, les données arrivent d’un adaptateur réseau virtuel sans nécessairement passer par le port du commutateur : D’où la présence de trous noirs !

La communication entre les serveurs virtuels reste invisible aux outils traditionnels … ainsi que les statistiques et les problèmes de communication inter-serveurs.

Pour résorber ces trous noirs et déployer une supervision réseau efficace en environnement virtuel, il est important de se fixer des objectifs : Du point de vue des objectifs, l’analyse en réseaux traditionnels ou en environnement virtuel est similaire ! Seule la mise en oeuvre des outils d’analyse diffère. Au lieu de capturer des données au niveau de la couche physique, vous devez réaliser la capture au niveau de ces commutateurs virtuels.

Omnivirtual permet aux entreprises d’accéder simplement à ce trafic virtuel et d’éliminer tous les points d’ombre du réseau.

Les sociétés qui ont recours à la virtualisation devraient prendre en compte les 5 considérations suivantes :

  • Être précis : Sachez ce que vous souhaitez analyser et concentrez vous sur ces points uniquement.
  • Tenir compte de l’environnement : ajustez les options aux seules machines ou applications nécessaires, les réglages ne sont pas là par hasard et vous permettent de tirer la quintessence de vos outils d’analyse.
  • Analysez seulement l’essentiel : N’analysez que le nécessaire et n’hésitez pas à exclure avec des règles le superflu.
  • Connaitre les limites : Vous devez prendre en compte des éléments comme la puissance processeur, l’espace disque, la charge CPU.
  • Anticipez les besoins : Si vous devez réaliser de la post-capture ou de la post-analyse, il est essentiel d’être certain de disposer de l’espace disque nécessaire et restez dans les limites du raisonnable.

Les bénéfices de la virtualisation sont indéniables pour les entreprises. Mais n’oubliez pas de mettre en oeuvre une solution efficace d’analyse réseau pour garantir la bonne santé de votre infrastructure et en tirer le meilleur.

Cet article est librement inspiré du blog de l’éditeur WildPackets par NetWalker

%d blogueurs aiment cette page :