Switch 

Der Switch ist wie die Bridge ein Gerät des OSI-Layers 2, d. h. er kann LANs mit verschiedenen physikalischen Eigenschaften verbinden, z. B. Koax- und Twisted-Pair-Netzwerke. Allerdings müssen, ebenso wie bei der Bridge, alle Protokolle höherer Ebenen 3 bis 7 identisch sein!. Ein Switch ist somit protokolltransparent. Er wird oft auch als Multi-Port-Bridge bezeichnet, da dieser ähnliche Eigenschaften wie eine Bridge aufweist. Jeder Port eines Switch bildet ein eigenes Netzsegment. Jedem dieser Segmente steht die gesamte Netzwerk-Bandbreite zu Verfügung. Dadurch erhöht ein Switch nicht nur - wie die Bridge - die Netzwerk-Performance im Gesamtnetz, sondern auch in jedem einzelnen Segment. Der Switch untersucht jedes durchlaufende Paket auf die MAC-Adresse des Zielsegmentes und kann es direkt dorthin weiterleiten. Der große Vorteil eines Switches liegt nun in der Fähigkeit seine Ports direkt miteinander verschalten zu können, d. h. dedizierte Verbindungen aufzubauen.

Was ist nun der Unterschied zwischen einem Switch und einer Multiport-Bridge? Bei den Produkten der meisten Hersteller gibt es keinen. Switch klingt nach Tempo und Leistung, deswegen haben viele Hersteller ihre Multiport Bridges Switches genannt. Der Begriff Switch fuer Multiport Bridges wurde von der Firma Kalpana (inzwischen von Cisco aufgekauft) kreiert, da deren Produkte nicht der IEEE-Spezifikation einer Bridge entsprachen, konnte Kalpana die Produkte nicht Bridges nennen und hat den Namen Switch gewählt. Kalpana war nun sehr erfolgreich mit dem Marketing ihrer Switches. Deswegen haben andere Hersteller ihre Bridges auch Switch, Switch mit Bridge-Eigenschaften oder Bridging Switch genannt. Switches brechen die Ethernet-Busstruktur in eine Bus-/Sternstruktur auf. Teilsegmente mit Busstruktur werden sternförmig über je einen Port des Switch gekoppelt. Zwischen den einzelnen Ports können Pakete mit maximaler Ethernet-Geschwindigkeit übertragen werden. Wesentlich ist die Fähigkeit von Switches, mehrere Übertragungen zwischen unterschiedlichen Segmenten gleichzeitig durchzuführen. Dadurch erhöht sich die Bandbreite des gesamten Netzes entsprechend. Die volle Leistungsfähigkeit von Switches kann nur dann genutzt werden, wenn eine geeignete Netzwerktopologie vorhanden ist bzw. geschaffen werden kann. Die Datenlast sollte nach Möglichkeit gleichmäßig über die Ports verteilt werden. Systeme, die viele Daten übertragen, müssen unter Umständen an einen eigenen Switch Port angeschlossen werden. Dies bezeichnet man dann als Private Ethernet. Außerdem sollte man versuchen, Systeme die viel miteinander kommunizieren, an einen gemeinsamen Port des Switches anzuschließen, um so die Datenmengen, die mehr als ein Segment durchlaufen müssen, zu reduzieren.

Allgemein haben sich in der Switch-Technologie zwei Gruppen herauskristallisiert:

Inzwischen sind Switching-Produkte (z.B. von 3Com, Cisco oder Allied Telesyn) am Markt, die beide Technologien unterstützen. Dies geschieht entweder per Konfiguration (Software) oder automatisch anhand der CRC-Fehler-Häufigkeit. Wird eine vorgegebene Anzahl von fehlerhaften Paketen überschritten, schaltet der Switch automatisch von "Cut Through" auf "Store and Forward" um.

Die Performance eines Netzes kann man auf Basis vorhandener Standalone-Switches erhöhen, indem zusätzliche Switches über die Ethernetports kaskadiert werden. Alle Switches erlauben die Kaskadierung über einen einzelnen Ethernet-Port mit einer maximalen Transferrate von 10 Mbit/s (bzw. 100 Mbit/s bei Fast Ethernet Switches). Kann man das Netz in Teilnetze unterteilen, zwischen denen diese Transferrate ausreicht, ist dies eine sinnvolle Lösung. Doch meistens ist das nicht der Fall. Die nächste und wohl beste Möglichkeit der Kopplung von Switches ist der Einsatz von Produkten, die den Anschluß an einen High Speed Backbone erlauben. Im Gegensatz zu kaskadierten Standalone-Switches können weitere Geräte an den Backbone gehängt werden, ohne daß Ports für die Switch-zu-Switch-Verbindung verlorengehen. Eine Backbone-Lösung ist nicht nur schneller und flexibler sondern für große Netze auch kostengünstiger. Man muß unterscheiden zwischen Lösungen, die eine herstellereigene Verbindung benutzen (proprietär) und solchen, die auf einen Standard wie Fast Ethernet, Gigabit Ethernet, FDDI oder ATM setzen.

Unterschiede Hub - Switch:

Hub

Switch

mit freundlicher Unterstützung von Herrn Prof. Jürgen Plate

 

Eigene Ausarbeitung:

Switches sind LAN-Komponenten, die Schaltfunktionen ausführen. Switches arbeiten hardwarebasiert und sind daher wesentlich schneller als Bridges. Im LAN Bereich hat der Switch eine dominierende Position eingenommen. Man spricht daher auch von LAN-Switching, Segment-Switching und Ethernet Switching. Funktional verbindet der Switch wechselweise verschiedene LAN-Segmente miteinander in Abhängigkeit von bestimmten Anforderungsprofilen, so beispielsweise zur Optimierung der Bandbreite bei unterschiedlichem Bedarf. Dadurch können einzelne LAN-Segmente oder auch einzelne Stationen ohne Belastung des restlichen Netzes miteinander kommunizieren. Die zur Verfügung stehende Bandbreite eines lokalen Netzes wird dadurch effektiver auf wenige Nutzer aufgeteilt.

Ein Switch ist normalerweise Hardwarebasiert, wodurch kürzeste Schaltzyklen möglich sind. Vom Schaltverfahren her unterscheidet man Switches, die nach dem Store-and-Forward-Verfahren arbeiten, und solche, die nach dem Cut-Through-Verfahren arbeiten (Siehe Bridges).

LAN-Switching
LAN Switching ist ein moderner Ansatz, Performance-Engüässe, im Wesentlichen Engpässe an Übertragungsbandbreite, in existierenden LANs zuu beseitigen oder den Aufbau von virtuellen Netzen zu unterstützen. LAN-Switching bietet Vorteile bei der Segmentierung zu groß gewordener Netze in kleinere LAN-segmente. deswegen spricht man auch von Segment-Switching. LAN-Switching verhindert die Übertragung von lokal relevanten Datenpaketen in die übrigen angeschlossenen LAN-Sgemmente und erfüllt dadurch die Funktionalität von Bridges. Darüber hinaus können mehrere parallele Kommunikationsbeziehungen zwischen den Segmenten unterstützt werden.

Ethernet Switching
Ethernet Switching ist eine Switching Technik, die das Netztuning unterstützt und die volle Netzkapazität an das Endgerät bringt. Bei dieser Technik wird mittels LAN-Switching das Netz zum Zwecke der Lasttrennung in kleinste LAN-Segmente, sog. Mikrosegmentierung, geteilt, wobei jedes Mikrosegment einer Station zuzuordnen ist.
Vom Prinzip her arbeiten Ethernet-Switches wie Multiport-Bridges auf der Sicherungsschicht (Data Link Layer). Der wesentliche Unterschied liegt in der Lernfähigkeit der Switches in Bezug auf die angeschlossenen Stationen. Ein Switch verfügt über einen hohe Portdichte und optimiert die Anbindung der direkt angeschlossenen Stationen, wohingegen eine Bridge die Anbindung von LAN-Sgementen optimiert.
Bei der Übertragung werden alle ankommenden Datenpakete nur an die Ports weitergeleitet an denen die jeweilige Zieladresse angebunden ist. Der Switch schaltet also einen eigenen kollisionsfreien Kanal mit der vollen Ethernet-Bandbreite zwischen dem Empfangs- und dem Ausgangsport.
Ethernet-Switches sind vom physikalischen Aufbau vergleichbar mit Hubs, sie verwenden im Unterschied zu diesen in aller Regel nur einen einzigen Backplanebus mit mehreren 100 Mbit/s Durchsatz.
Ethernet Switches unterstützen Redundanzschaltungen, sie arbeiten mit Adreßtabellen, bieten Default Paketweiterleitung und Filtermöglichkeiten. Die Filtersetzung berücksichtigt Typfilter für unterschiedliche Paketformate für Ethernet V2.0, Broadcastfilter, Maskenfilter.

Layer 7-Switches
Layer 7-Switches, auch Web-Switches genannt, sind weitaus intelligenter als die rein transportorientierten Layer 4-Switches. Da ein Layer 7-Switch seine switching-Entscheidung auf Basis des Dateninhaltes treffen kann, können mit einem solchen Switch weitaus intelligentere Dienste unterstützt werden. Die Realisierung erfolgt bei den Layer 7-Switches mit Hilfe zusätzlicher Filterfunktionen. Im Falles des Web-Switching konzentrieren sich diese Filterfunktionen auf die URL-Adresse und die Cookies. Die Vorteile liegen in einer flexibleren Verteilung der Anfreagen, in einer höheren Servereffizienz durch Filtern von Abfragen, in der Trennung von HTTP-Transaktionen, die über eine gemeinsame TCP Verbindung laufen und in der Gestaltung von Differentiated Services für die Priorisierung.