Vyšlo v měsíčníku IT-NET, v únoru 2002
Vytištěno z adresy: http://www.earchiv.cz/b02/b0200004.php3

Problém: vyhrazená přenosová kapacita místo sdílené … Layer 2 switching

Pojďme nyní k prvnímu problému, který si vyžádal specifické řešení - a dal vlastně vzniknout klasickému switchingu (přepínání) na úrovni 2. vrstvy. Jednalo se o celkové zrychlení a zvýšení propustnosti sdílených síťových segmentů sítí LAN, tak jak je ukazuje následující obrázek:

Takovéto sdílené segmenty byly typické pro většinu dřívějších sítí LAN. Jejich jádrem bylo použití rozbočovače (hub-u), na který byly napojeny jak pracovní stanice uživatelů, tak i jednotlivé servery. Rozbočovače ovšem fungovaly na fyzické vrstvě, což znamenalo že vše co propojovaly tvořilo oblast se sdílenou přenosovou kapacitou, v následujícím smyslu : pokud na obrázku komunikovala například pracovní stanice W1 se serverem S1, nemohla současně komunikovat pracovní stanice W2 se serverem S2. Důvodem bylo to, že rozbočovač fungující jako opakovač přenášel provoz mezi W1 a S1 i do segmentů s uzly W2 a S2 (protože nedokázal poznat že by tak nemusel činit).

Řešením bylo nahrazení rozbočovače (opakovače) vhodným zařízením fungujícím na úrovni linkové vrstvy. Hlavním požadavkem na takovéto zařízení bylo zvýšení celkové propustnosti, při zachování toho jak fungují všechny ostatní uzly ve všech propojených segmentech. Jelikož se vše odehrávalo v dobně, kdy sítím Lan kraloval 10 megabitový ethernet, objevilo se příslušné řešení právě pro něj. Jednalo se o první "ethernetové switche".

Princip switche naznačuje následující obrázek. Switch (přepínač) usiluje o to, aby provoz mezi dvěma segmenty (na obrázku např. mezi segmenty kde se nachází uzly W1 a S1) neovlivňoval případný provoz v jiných segmentech, resp. nebránil mu a neodebíral mu přenosovou kapacitu. Je to v zásadě stejný způsob fungování, jaký měly i dřívější mosty, fungující taktéž na linkové vrstvě - odlišný je ale celkový účel obou typů zařízení. Zatímco klasické mosty měly jen několik málo portů pro připojení síťových segmentů (často jen dva) a jejich hlavním úkolem bylo tyto segmenty propojovat a umožňovat vzájemný přenos, u typického switche je takovýchto portů podstatně více. V ideálním případě je těchto portů tolik, kolik je uzlů, tak aby každý mohl být připojen na samostatný segment, který není sdílen s žádným jiným uzlem. Když pak takovýto uzel komunikuje s jiným uzle (v jiném segmentu), dokáže switch předávat jejich vzájemný provoz mezi oběma příslušnými segmenty, aniž by tím ovlivňoval možnost komunikace jiných dvojic uzlů - viz následující obrázek.

Pokud je skutečně dosaženo ideálního stavu, kdy každý uzel je připojen ke switchi po samostatném segmentu, a jedná se o desetimegabytový Ethernet, pak lze dosáhnout maximálního možného efektu: každá komunikující dvojice má k dispozici (vyhrazeno pro sebe) plných 10 Mbps, o které se nedělí (nesdílí je) s ostatními uzly. To je skutečně zásadní rozdíl oproti původnímu sdílenému stavu, kdy všechny uzly dohromady sdílely oněch 10 Mbps! Proto také lze říci, že switche vytváří vyhrazenou přenosovou kapacitu místo původní sdílené!

V zásadě si lze představit, že switch přidává přenosovou kapacitu tam kde je třeba, aniž by někomu jinému odebíral!! Samozřejmě to znamená, že switch jako takový musí být (uvnitř) dostatečně výkonný, aby dokázal předávat (přepojovat) linkové rámce mezi svými porty a přitom žádnou z probíhajících komunikací nezpomaloval! Jeho "přepojovací stroj" (engine, viz výše) proto musí být náležitě rychlý, neboli optimalizovaný na rychlost. Toho se typicky dosahuje tak, že je plně "zadrátovaný" (realizovaný zcela v hardwaru). Na druhou stranu jeho rozhodování o dalším osudu rámce nevyžaduje žádnou velkou inteligenci, a může být také realizováno hardwarovými prostředky.

Právě jsme si tedy vykreslili způsob vzniku a princip "klasického switche" - zařízení, které funguje na úrovni linkové vrstvy (2. vrstvy ISO/OSI). V užším slova smyslu se pod pojmem "switching" rozumí právě a pouze takovéto přepínání na linkové vrstvě.