Les commutateurs sont parfois qualifiés de «ponts multi ports». Un pont classique comporte seulement deux ports qui relient deux segments du réseau. Un commutateur peut avoir plusieurs ports, selon le nombre de segments à relier. À l’instar des ponts, les commutateurs recherchent des informations sur les trames de données qu’ils reçoivent de la part des ordinateurs du réseau. Ils se servent ensuite de ces informations pour créer des tables et déterminer la destination des données que s’envoient les ordinateurs sur le réseau.
Bien que ces deux équipements présentent des points communs, un commutateur est plus sophistiqué qu’un pont. Un pont s’appuie sur l’adresse MAC de destination pour déterminer si la trame doit être transmise à un autre segment du réseau. Un commutateur possède plusieurs ports auxquels sont reliés plusieurs segments du réseau. Il sélectionne le port auquel est connecté(e) la station de travail ou l’équipement de destination. Les commutateurs Ethernet représentent des solutions de connectivité populaires car ils optimisent la vitesse, la bande passante et les performances du réseau.
La commutation est une technologie qui permet d’atténuer la congestion dans les LAN Ethernet en réduisant le trafic et en augmentant la bande passante. Les commutateurs peuvent facilement remplacer les concentrateurs car ils fonctionnent via les infrastructures de câblage existantes. Ceci permet d’améliorer les performances et ne nécessite que des modifications minimes du réseau.
Une unité de commutation exécute deux fonctions de base : la première est la commutation des trames de données. Il s’agit du processus par lequel une trame arrive sur un média d’entrée pour être ensuite transmise à un média de sortie. La seconde est la gestion des fonctions de commutation : les commutateurs créent et gèrent des tables de commutation et recherchent des boucles.
Les commutateurs fonctionnent à des débits beaucoup plus élevés que les ponts et peuvent accepter de nouvelles fonctionnalités, telles que les LAN virtuels (VLAN).
Les commutateurs Ethernet présentent de nombreux avantages. Ils permettent notamment à de nombreux utilisateurs de communiquer en parallèle via l’utilisation de circuits virtuels et de segments réseau dédiés, dans un environnement exempt de toute collision. La bande passante disponible sur le média partagé s’en trouve optimisée. Par ailleurs, un environnement LAN commuté s’avère très économique car il permet de réutiliser le matériel et le câblage existants.
Réseaux d’égal à égal
Dans le cas des technologies LAN et WAN, plusieurs ordinateurs sont reliés entre eux pour proposer des services à leurs utilisateurs. Pour cela, les ordinateurs du réseau assument différents rôles ou fonctions les uns par rapport aux autres. Certains types d’applications exigent que les ordinateurs agissent comme des partenaires égaux. D’autres répartissent leur travail de façon à ce qu’un seul ordinateur en desserve plusieurs dans le cadre d’une relation inégale.
En règle générale, deux ordinateurs communiquent à l’aide de protocoles de requête et de réponse. L’un envoie une requête de service, et l’autre reçoit cette requête et y répond. Le demandeur agit comme un client et son destinataire comme un serveur.
Les ordinateurs membres d’un réseau d’égal à égal se comportent comme des partenaires égaux (ou «pairs»). En tant que pair, chaque ordinateur peut tour à tour assurer la fonction de client et de serveur. Par exemple, l’ordinateur A demande un fichier à l’ordinateur B, qui le lui envoie. L’ordinateur A assure donc la fonction de client et l’ordinateur B celle de serveur. Par la suite, les ordinateurs A et B peuvent inverser leurs fonctions respectives.
Dans un réseau d’égal à égal, chaque utilisateur contrôle ses propres ressources et peut décider de partager certains fichiers avec des tiers. Les utilisateurs peuvent, toutefois, demander des mots de passe pour autoriser les tiers à accéder à leurs ressources. Il incombe aux utilisateurs de prendre cette décision car ce type de réseau ne comporte aucun point de contrôle ou d’administration central. Par ailleurs, chaque utilisateur doit sauvegarder son propre système pour pouvoir récupérer les données perdues en cas de panne. Lorsqu’un ordinateur assure la fonction de serveur, son utilisateur peut être confronté à une altération des performances du fait que la machine répond aux requêtes d’autres systèmes.
Les réseaux d’égal à égal sont relativement simples à installer et à utiliser. Aucun équipement supplémentaire n’est nécessaire; il suffit que chaque ordinateur soit équipé d’un système d’exploitation approprié. Les utilisateurs gérant eux-mêmes leurs ressources, aucun administrateur spécialisé ne doit intervenir.
Cependant, l’extension des réseaux accroît la difficulté de coordination des relations d’égal à égal. Ce type de réseau fonctionne bien avec dix ordinateurs au plus. Étant donné le manque d’évolutivité des réseaux d’égal à égal, leur efficacité décroît parallèlement à l’augmentation du nombre d’ordinateurs connectés. Par ailleurs, chaque utilisateur contrôlant l’accès aux ressources de son ordinateur, la sécurité peut être difficile à assurer. Le modèle de réseau client-serveur permet de passer outre les limites du réseau d’égal à égal.
1.8. Environnement client-serveur
Dans un environnement client-serveur, les services réseau tournent sur un ordinateur dédié appelé « serveur ». Le serveur répond aux requêtes des clients. Il s’agit d’un ordinateur central qui est disponible en permanence pour répondre aux requêtes émises par les clients en matière de services de fichiers, d’impression, d’application ou autres. Nombre de systèmes d’exploitation de réseau adoptent la forme d’une relation client-serveur. En règle générale, les ordinateurs de bureau agissent en tant que clients, alors qu’un ou plusieurs ordinateurs équipés d’un logiciel dédié et dotés d’une puissance de traitement et d’une mémoire plus importantes assurent la fonction de serveurs.
Les serveurs sont conçus pour gérer simultanément les requêtes de nombreux clients. Pour qu’un client puisse accéder aux ressources du serveur, il doit être identifié, puis autorisé à utiliser ces ressources. Chaque client possède un nom de compte et un mot de passe, vérifié par un service d’authentification. Ce service protège l’accès au réseau. En centralisant les comptes utilisateurs, la sécurité et le contrôle d’accès, les environnements client-serveur simplifient l’administration des réseaux de grande taille.
La concentration de ressources réseau, telles que des fichiers, des imprimantes et des applications sur des serveurs facilite également la sauvegarde et la gestion des données. Les ressources peuvent être stockées sur des serveurs dédiés spécialisés pour être plus facilement accessibles. La plupart des systèmes client-serveur offrent également des possibilités d’optimisation du réseau via de nouveaux services destinés à en étendre l’utilité.
L’aspect centralisé des fonctions d’un réseau client-serveur présente des avantages considérables et quelques inconvénients. Bien qu’un serveur centralisé optimise la sécurité, la facilité d’accès et le contrôle, il constitue un point de défaillance unique dans le réseau. En effet, sans un serveur opérationnel, le réseau ne peut plus fonctionner. Par ailleurs, seul un membre de l’équipe expert et formé peut assurer l’administration et la maintenance des serveurs. Cela accroît le coût de fonctionnement du réseau. Les systèmes serveurs nécessitent également du matériel complémentaire et des logiciels spécialisés qui en augmentent le coût.