Überwachung in Unternehmensnetzwerken. § Handbuch für Systemadministratoren, das eine Beschreibung der Benutzeroberfläche des Systems enthält. Software - Software

Aktive Netzwerkgeräte müssen eine langfristige und unterbrechungsfreie Funktion des Unternehmensnetzwerks gewährleisten. Das rechtzeitige Erkennen und Beheben von Störungen ist der Schlüssel für eine erfolgreiche und effiziente Arbeit des Unternehmens. Aus diesem Grund ist es sehr wichtig, dem Überwachungssystem besondere Aufmerksamkeit zu schenken, das den Status der aktiven Ausrüstung verfolgt und Abweichungen von den normalen Indikatoren meldet. Systemadministrator per SMS, E-Mail oder auf andere Weise Benachrichtigung.

Überwachungssystem Ist eine Reihe von technischen Mitteln, die auf der Grundlage der Analyse statistischer Daten kontinuierlich Informationen in einem lokalen Netzwerk überwachen und sammeln, um fehlerhafte oder falsch funktionierende Knoten zu identifizieren und verantwortliche Personen zu benachrichtigen. Die Funktionalität moderner Überwachungssysteme ermöglicht es Ihnen, den Status von Diensten zu überwachen, wie zum Beispiel:

1) Verfügbarkeit des Gastgebers

Durch regelmäßiges Senden von ICMP Echo-Request an die Adresse des Netzwerkgeräts

2) Verfügbarkeit des Webservers

Durch Senden einer HTTP-Anfrage zum Abrufen der Seite

3) Verfügbarkeit von Postdiensten

Durch regelmäßiges Senden diagnostischer SMTP-Nachrichten

Außerdem können Sie die Reaktionszeit dieser Dienste messen.

Durch regelmäßige Überprüfungen dieser Art können Sie schnell feststellen, auf welcher Ebene das Problem aufgetreten ist, und sofort mit der Behebung beginnen.

Die obige Abbildung zeigt einfachstes Beispiel Implementierung eines Überwachungssystems, das nur vier Geräte steuert. Unter realen Bedingungen kann eine Flotte aktiver Geräte viel mehr Knoten haben. Um eine kompetente Überwachung durchzuführen, werden verschiedene Knotentypen zu Gruppen zusammengefasst, beispielsweise einer Gruppe von Webservern oder einer Gruppe von Routern. Diese Art der Trennung hilft, statistische Informationen zu organisieren und erleichtert den Beobachtungsprozess.

Die meisten Überwachungssysteme ermöglichen die Automatisierung der Überprüfung und Diagnose von SNMP-Geräten mithilfe verschiedener Plug-Ins (einschließlich manuell erstellter).

SNMP (Simple Network Management Protocol) - wurde speziell für die Anforderungen der Überwachung von Netzwerkgeräten entwickelt. Alle aktiven L2- und L3-Geräte enthalten die sogenannte Management Information Base (MIB), die die wichtigsten Parameter des Gerätestatus enthält. Zum Beispiel, CPU-Last, Schnittstellenstatus, freier Speicherplatz usw. Jeder dieser Datensätze entspricht eindeutiger Identifikator OID (Objektidentifikator). Wenn Sie die erforderliche Kennung haben, können Sie mithilfe des SNMP-Protokolls Informationen über den interessierenden Parameter abrufen. Moderne Überwachungssysteme ermöglichen es, diesen Prozess zu automatisieren. Das System verbindet sich unter Verwendung des SNMP-Protokolls mit dem Gerät, fragt es nach der gewünschten OID ab, ruft den Parameterwert ab und vergleicht ihn mit dem angegebenen. Wird eine Abweichung zwischen diesen beiden Werten festgestellt, reagiert das Monitoring-System und startet den Benachrichtigungsprozess.

Vor der direkten Implementierung des Überwachungssystems muss eine LAN-Umfrage durchgeführt werden, deren Ergebnis eine Liste der überwachten Geräte, Parameter und ein genehmigter Algorithmus zur Eskalation von Überwachungsereignissen sein sollte. Basierend auf der Analyse der Netzinfrastruktur des Kunden werden erste Entscheidungen getroffen, die die Architektur des zukünftigen Monitoringsystems bestimmen.

Im nächsten Schritt werden unter Berücksichtigung der Kundenwünsche ein Lastenheft und ein Paket an Konstruktionsunterlagen erstellt.

Im letzten Schritt wird das Monitoring-System skaliert, dh das Volumen der überwachten IT-Infrastruktur auf das vom Kunden gewünschte Volumen erweitert.

Die Implementierung des Monitoring-Systems ist ein wichtiger Schritt zur vollständigen Automatisierung der IT-Infrastruktur, was zu einer Effizienzsteigerung der Nutzung führt. Die Spezialisten unseres Unternehmens haben immer wieder Lösungen entwickelt, die den Erwartungen der Kunden entsprechen und seit mehreren Jahren zuverlässig arbeiten.

War dieser Artikel hilfreich für Sie?

Bitte erzähle mir warum?

Es tut uns leid, dass der Artikel für Sie nicht hilfreich war: (Bitte geben Sie an, warum dies nicht schwierig ist? Für eine ausführliche Antwort sind wir Ihnen sehr dankbar.

Die Verwaltung und Überwachung der IT-Infrastruktur ist eine der Hauptaufgaben der IT-Abteilung eines jeden Unternehmens. HP Softwarelösungen vereinfachen die Aufgabe von Systemadministratoren und organisieren effektive Kontrolle Organisationsnetzwerke

Moderne IT-Infrastruktur ist ein komplexes heterogenes Netzwerk, das Telekommunikations-, Server- und Softwarelösungen unterschiedlicher Hersteller umfasst und auf Basis unterschiedlicher Standards arbeitet. Seine Komplexität und sein Umfang bestimmen hohes Niveau automatisierte Überwachungs- und Steuerungstools, die verwendet werden müssen, um einen zuverlässigen Netzwerkbetrieb zu gewährleisten. HP Software-Produkte helfen Ihnen bei der Lösung von Überwachungsproblemen auf allen Ebenen, von der Infrastruktur (Netzwerkausrüstung, Server und Speichersysteme) bis hin zur Qualitätskontrolle von Geschäftsservices und Geschäftsprozessen.

Überwachungssysteme: Was sind sie?

In modernen Plattformen für das IT-Monitoring gibt es 3 Richtungen, um das Monitoring zu entwickeln und auf ein neues Niveau zu bringen. Die erste heißt "The Bridge" ("Umbrella System", "Manager of Managers"). Ihr Konzept besteht darin, Investitionen in bestehende Systeme zu nutzen, die die Überwachung einzelner Teile der Infrastruktur übernehmen und die Systeme selbst zu Informationsagenten machen. Dieser Ansatz ist eine logische Weiterentwicklung des herkömmlichen IT-Infrastruktur-Monitorings. Als Voraussetzung für die Implementierung eines Systems vom Typ "Brücke" kann die IT-Abteilung die Entscheidung treffen, unterschiedliche Überwachungssysteme für den Übergang zur Überwachung von IT-Diensten / -Systemen als Ganzes zu konsolidieren, unterschiedliche Systeme, die nicht in der Lage sind, das Gesamtbild zu zeigen , ein Fall, in dem ein schwerwiegender Anwendungsfehler nicht diagnostiziert wird, und eine große Anzahl von Warnungen und Alarmen, fehlende einheitliche Abdeckung, Priorisierung und Identifizierung der Ursache.

Das Ergebnis der Implementierung wird eine automatisierte Sammlung aller verfügbaren Ereignisse und Metriken der IT-Infrastruktur sein, deren Zustand und Auswirkungen auf den "Gesundheit" des Dienstes verglichen werden. Im Fehlerfall hat der Bediener Zugriff auf ein Panel, das die Ursache des Fehlers mit Empfehlungen zur Behebung anzeigt. Bei einem typischen Ausfall kann ein Skript zugewiesen werden, das die notwendigen Bedienhandlungen automatisiert.

Der nächste Trend heißt Anomaly Analytics. Hier werden wie im ersten Fall Metriken und Ereignisse aus mehreren Infrastruktur-Monitoring-Systemen gesammelt und zusätzlich die Sammlung von IT- und Sicherheitsprotokollen konfiguriert. So fallen jede Minute eine riesige Menge an Informationen an, von deren Entsorgung das Unternehmen profitieren möchte. Es gibt eine Reihe von Gründen für die Implementierung von Anomaly Analytics: die Komplexität der zeitnahen Erfassung, Speicherung und Analyse aller Daten, die Notwendigkeit, unbekannte Probleme reaktiv zu beseitigen, die Unfähigkeit, wichtige Informationen zur Fehlerbehebung schnell zu identifizieren, die Komplexität der manuellen Suche Operationen für einzelne Protokolle und die Notwendigkeit, Abweichungen und wiederholte Abstürze zu erkennen.

Die Implementierung des Systems ermöglicht die automatisierte Erfassung von Ereignissen, Metriken und Protokollen, die Speicherung dieser Informationen für den erforderlichen Zeitraum sowie die Analyse aller Informationen, einschließlich Protokolle, Leistungsinformationen und Systemdaten. Darüber hinaus wird es möglich sein, jede Art von Problem vorherzusagen und zu lösen und bekannte Ausfälle zu vermeiden.

Und schließlich - "Application Performance Management" oder das Erkennen und Beheben von Fehlern in Transaktionen von Endbenutzern. Diese Lösung kann eine nützliche Ergänzung sein, da sie eng mit den beiden vorherigen zusammenarbeitet. Darüber hinaus kann ein solches System selbst auch ein schnelles Ergebnis der Implementierung liefern. In diesem Fall verfügt das Unternehmen über geschäftskritische Anwendungen. Gleichzeitig ist die Verfügbarkeit und Qualität des Dienstes wichtig, wobei eines der Schlüsselelemente die Anwendung ist (Internetbanking, CRM, Abrechnung usw.). Wenn die Verfügbarkeit oder die Bereitstellungsqualität dieses Dienstes sinkt, kommt es normalerweise auf Proaktivität und schnelle Wiederherstellung an. Ein solches System wird normalerweise implementiert, wenn es erforderlich ist, die Verfügbarkeit von Anwendungsdiensten und die Leistung zu erhöhen sowie die mittlere Wiederherstellungszeit zu verkürzen. Darüber hinaus ist dieser Ansatz gut geeignet, um unnötige Kosten und Risiken im Zusammenhang mit einem Service Level Agreement (SLA) zu eliminieren und Kundenabbrüche zu verhindern (Business Protection).

Die Ergebnisse der Implementierung können je nach Hauptaufgabe unterschiedlich sein. Dies ermöglicht im Allgemeinen die Umsetzung typischer Benutzeraktionen durch einen "Roboter" aus verschiedenen Regionen / Netzsegmenten, Analyse von "gespiegeltem" Verkehr, Überprüfung der Verfügbarkeit und Qualität von Diensten mit Identifizierung von Engpässen, Information des Betreibers über die Notwendigkeit der Wiederherstellung der Funktionsfähigkeit den Ort des Abbaus angeben. Bei Bedarf wird es möglich, den Betrieb der Anwendung gründlich zu diagnostizieren, um die Gründe für die systematische Verschlechterung der Dienste zu finden.

Die obigen Ansätze können unter Verwendung von HP Softwareprodukten implementiert werden, die im Folgenden erläutert werden.

"Brücke" von HP

HP Operations Bridge führt die neueste Generation von Umbrella-Überwachungssystemen ein. Die Lösung kombiniert Überwachungsdaten von proprietären Agenten, verschiedenen Überwachungsmodulen von HP Software und Überwachungstools von Drittanbietern. Der Fluss von Ereignissen aus allen Informationsquellen wird dem Ressourcen-Dienstleistungs-Modell überlagert, es werden Korrelationsmechanismen angewendet, um zu bestimmen, welche Ereignisse Ursachen, Symptome und Folgen sind.

Getrennt davon sollten wir auf das Ressourcen-Dienstleistungs-Modell und genauer auf die Modelle eingehen, da es eine unbegrenzte Anzahl solcher Modelle zur Analyse von Informationen aus verschiedenen Blickwinkeln geben kann. Ihre Vollständigkeit und Relevanz hängt von der Fähigkeit der Lösung ab, die Korrelation des Ereignisflusses durchzuführen. Um die Relevanz der Modelle zu erhalten, werden auf Agenten basierende Intelligenztools und agentenlose Technologien verwendet, um genaue Informationüber die Bestandteile des Dienstes, die Beziehung zwischen ihnen und die gegenseitige Beeinflussung. Es ist auch möglich, Daten über die Servicetopologie aus externen Quellen – Überwachungssystemen – zu importieren.

Noch eins wichtiger Aspekt- einfache Verwaltung. In komplexen und sich dynamisch ändernden Umgebungen ist es wichtig sicherzustellen, dass das Monitoring-System angepasst wird, wenn sich die Struktur der Systeme ändert und neue Dienste hinzugefügt werden. Die Operations Bridge enthält eine Monitoring Automation-Komponente, mit der Sie automatischer Modus in den Überwachungsperimeter eingeführte Systeme konfigurieren, für die Daten zu Dienstressourcenmodellen verwendet werden. Gleichzeitig wird die Konfiguration und Änderung der zuvor vorgenommenen Überwachungseinstellungen unterstützt.

Während Administratoren früher die gleichen Einstellungen für gleichartige Infrastrukturkomponenten (z eine Metrik im Kontext eines Dienstes oder Dienstes.

Anwendungsanalyse

Die Verwendung des traditionellen Überwachungsansatzes impliziert, dass zunächst bekannt ist, welche Parameter und welche Ereignisse überwacht werden sollen. Die wachsende Komplexität und Dynamik der Entwicklung von IT-Infrastrukturen macht es notwendig, nach anderen Ansätzen zu suchen, da es immer schwieriger wird, alle Aspekte des Systembetriebs zu kontrollieren.

Mit HP Operations Analytics können Sie alle Daten zum Betrieb einer Anwendung sammeln und speichern: Protokolldateien, Telemetrie, Geschäfts- und Leistungskennzahlen, Systemereignisse und mehr, und Analyse-Engines verwenden, um Trends und Prognosen zu erkennen. Die Lösung bringt die gesammelten Daten in ein einziges Format und zeigt dann, basierend auf den Daten der Protokolldateien, eine kontextbezogene Auswahl an und zeigt auf der Zeitleiste an, was zu welchem ​​​​Zeitpunkt und auf welchem ​​System passiert ist. Das Produkt bietet verschiedene Formen der Datenvisualisierung (z. B. eine interaktive „Heatmap“ und Topologie von Logfile-Beziehungen) und verwendet die Hilfsfunktion, um den gesamten Datensatz zu finden, der für einen bestimmten Zeitraum im Kontext eines Ereignisses oder durch eine in eine Suchleiste eingegebene Abfrage. Dies hilft dem Bediener zu verstehen, was den Fehler verursacht hat (oder bei Verwendung von HP SHA-Daten in Verbindung mit HP OA-Daten eine Vorhersage zu treffen) und sowohl den Schuldigen als auch die Ursache des Fehlers zu identifizieren. HP Operations Analytics bietet die Möglichkeit, ein Bild des Dienstes und der Umgebung zum Zeitpunkt des Ausfalls zu reproduzieren und in Kontext und Zeit zu isolieren.

Ein weiteres Analysetool ist HP Service Health Analyzer. HP SHA erkennt anormales Verhalten überwachter Infrastrukturelemente, um eine mögliche Verweigerung von Diensten oder eine Verletzung der festgelegten Parameter ihrer Bereitstellung zu verhindern. Das Produkt verwendet spezielle Algorithmen zur statistischen Datenanalyse basierend auf dem topologischen Service-Ressourcen-Modell von HP BSM. Mit ihrer Hilfe ist es möglich, ein Profil von Normalwerten von Leistungsparametern zu erstellen, die sowohl von Software- und Hardwareplattformen als auch von anderen BSM-Modulen (zum Beispiel HP RUM, HP BPM) gesammelt wurden, die den Zustand der Dienste charakterisieren. In solche Profile werden typische Parameterwerte unter Berücksichtigung der Wochentage und Uhrzeiten eingetragen. SHA führt historische und statistische Analysen der gesammelten Daten durch (um die Essenz der identifizierten Daten zu verstehen) und führt auch einen Vergleich mit dem bestehenden dynamischen Profil durch (Baselining).

Überwachung der Anwendungsleistung

Bei der Überwachung der Anwendungsleistung sind die folgenden Komponenten der HP-Lösung hervorzuheben:
  • HP Real User Monitoring (HP RUM) - Kontrolle des Durchgangs von Transaktionen realer Benutzer;
  • HP Business Process Monitoring (HP BPM) - Kontrolle der Anwendungsverfügbarkeit durch Emulation von Benutzeraktionen;
  • HP Diagnostics - Überwachung des Durchgangs von Anforderungen innerhalb der Anwendung.
HP RUM und HP BPM messen die Anwendungsverfügbarkeit aus der Sicht des Endbenutzers.

HP RUM analysiert den Netzwerkverkehr und identifiziert Transaktionen von echten Benutzern. In diesem Fall können Sie den Datenaustausch zwischen den Anwendungskomponenten steuern: dem Client-Teil, dem Anwendungsserver und der Datenbank. Dies ermöglicht es, die Benutzeraktivität, die Bearbeitungszeit verschiedener Transaktionen zu verfolgen sowie den Zusammenhang zwischen Benutzeraktionen und Geschäftsmetriken zu bestimmen. Mit HP RUM können die Betreiber von Überwachungsdiensten sofort sofortige Benachrichtigungen über Probleme mit der Dienstverfügbarkeit und Informationen über von Benutzern aufgetretene Fehler erhalten.

HP BPM ist ein aktives Überwachungstool, das für überwachte Systeme synthetische Benutzertransaktionen durchführt, die von echten nicht zu unterscheiden sind. Die Überwachung von Daten aus HP BPM ist für die Berechnung eines echten SLA sinnvoll, da der „Roboter“ in gleichen Zeitintervallen identische Prüfungen durchführt und so eine ständige Qualitätskontrolle der Verarbeitung typischer (oder kritischster) Anfragen gewährleistet. Indem Sie Probes so konfigurieren, dass synthetische Transaktionen von mehreren Standorten aus (z. B. von verschiedenen Firmensitzen) durchgeführt werden, können Sie auch die Verfügbarkeit des Dienstes für verschiedene Benutzer unter Berücksichtigung ihres Standorts und der Kommunikationskanäle bewerten. HP BPM verwendet den Virtual User Generator (VuGen), um Aktivitäten zu emulieren, der auch im beliebten Lasttestprodukt HP LoadRunner verwendet wird. VuGen unterstützt eine Vielzahl unterschiedlicher Protokolle und Technologien, sodass Sie die Verfügbarkeit fast aller Dienste steuern und einen einzigen Skriptsatz zum Testen und Überwachen verwenden können.
Wenn die Ursache von Dienstausfällen oder -verzögerungen in Technologien wie Java, .NET usw. liegt, kann HP Diagnostics helfen.

Die Lösung bietet umfassende Kontrolle über Java, .NET, Python auf Windows-, Linux- und Unix-Plattformen. Das Produkt unterstützt eine Vielzahl von Anwendungsservern (Tomcat, Jboss, WebLogic, Oracle usw.), MiddleWare und Datenbanken. Die spezialisierten HP Diagnostics-Agenten werden auf Anwendungsservern installiert und sammeln technologiespezifische Daten. Bei einer Java-Anwendung können Sie beispielsweise sehen, welche Abfragen ausgeführt werden, welche Methoden verwendet werden und wie lange ihre Verarbeitung dauert. Die Struktur der Anwendung wird automatisch gezeichnet, es wird deutlich, wie ihre Komponenten beteiligt sind. HP Diagnostics verfolgt Geschäftstransaktionen über komplexe Anwendungen hinweg, identifiziert Engpässe und stellt Experten die Informationen zur Verfügung, die sie für ihre Entscheidungen benötigen.

Vertrieb von HP-Lösungen in

Senden Sie Ihre gute Arbeit in die Wissensdatenbank ist einfach. Verwenden Sie das untenstehende Formular

Studierende, Doktoranden, Nachwuchswissenschaftler, die die Wissensbasis in Studium und Beruf nutzen, werden Ihnen sehr dankbar sein.

Gepostet auf http://www.allbest.ru/

ESSAY

Dieses Dokument ist ein technisches Projekt für die Entwicklung und Implementierung eines Netzüberwachungssystems für das städtische Datenübertragungsnetz von Werchnepyshminsk allgemeiner Zugang LLC Gerkon. Das Projekt untersuchte die bestehenden Netzüberwachungssysteme, analysierte die Ist-Situation im Unternehmen und begründete die Wahl spezifischer Komponenten des Netzüberwachungssystems.

Das Dokument enthält eine Beschreibung von Konstruktionslösungen und Ausrüstungsspezifikationen.

Das Ergebnis des Designs sind die entwickelten Lösungen für die Implementierung und Nutzung des Systems:

§ Eine vollständige Beschreibung aller Phasen des Entwurfs, der Entwicklung und der Implementierung des Systems;

§ Handbuch für Systemadministratoren, das eine Beschreibung der Benutzeroberfläche des Systems enthält.

Dieses Dokument stellt komplette Designlösungen vor und kann verwendet werden, um das System zu implementieren.

LISTE DER GRAFISCHEN DOKUMENTENBLÄTTER

Tabelle 1 - Liste der Blätter der grafischen Dokumente

Netzwerküberwachungssysteme

Logische Netzwerkstruktur

Algorithmus des Kernels der Netzwerküberwachung und Benachrichtigungen

Struktur des Netzwerkschnittstellen-Lastanalysators

Kollektorstruktur Systemprotokolle Veranstaltungen

Nagios-Schnittstelle

Verallgemeinerte Struktur des Netzüberwachungssystems

LISTE DER SYMBOLE, SYMBOLE UND BEDINGUNGEN

Ethernet ist ein von der IEEE herausgegebener Datenübertragungsstandard. Legt fest, wie Daten von einem gemeinsamen Datenübertragungsmedium gesendet oder empfangen werden. Bildet die untere Transportschicht und wird von verschiedenen High-Level-Protokollen verwendet. Bietet eine Datenübertragungsrate von 10 Mbit/s.

Fast Ethernet ist eine 100Mbps-Datenübertragungstechnologie nach dem CSMA/CD-Verfahren, genau wie 10Base-T.

FDDI - Fiber Distributed Data Interface - Glasfaserschnittstelle zur verteilten Datenübertragung - eine Datenübertragungstechnologie mit einer Geschwindigkeit von 100 Mbit/s im Token-Ring-Verfahren.

IEEE - Institute of Electrical and Electronic Engineers ist eine Organisation, die Standards entwickelt und veröffentlicht.

LAN - Local Area Network - lokales Netzwerk, LAN.

MAC-Adresse - Media Access Control - die Identifikationsnummer des Netzwerkgeräts, die normalerweise vom Hersteller bestimmt wird.

RFC - Request for Comments - eine Sammlung von Dokumenten, die von der IEEE-Organisation herausgegeben wurden und Beschreibungen von Standards, Spezifikationen usw.

TCP / IP - Transmission Control Protocol / Internet Protocol - Transmission Control Protocol / Internet Protocol.

LAN - Lokales Netzwerk.

Betriebssystem - Betriebssystem.

AN - Software.

SCS - Strukturiertes Verkabelungssystem.

DBMS - Datenbankverwaltungssystem.

Trend - Langfristige Statistiken, mit denen Sie einen sogenannten Trend erstellen können.

Nutzung - Laden eines Kanals oder Segments.

Computer - Elektronischer Computer.

EINLEITUNG

Die Informationsinfrastruktur eines modernen Unternehmens ist ein komplexes Konglomerat aus unterschiedlich großen und heterogenen Netzwerken und Systemen. Für einen reibungslosen und effizienten Betrieb benötigen Sie eine Managementplattform auf Unternehmensebene mit integrierten Tools. Bis vor kurzem behinderte jedoch die Struktur der Netzwerkmanagementindustrie die Entwicklung solcher Systeme - die "Player" in diesem Markt versuchten, durch die Veröffentlichung von Produkten mit begrenztem Umfang und mit Tools und Technologien, die mit Systemen anderer Anbieter nicht kompatibel sind, eine Führungsrolle zu übernehmen .

Heute ändert sich die Situation zum Besseren - es gibt Produkte, die behaupten, flexibel die gesamte Vielfalt der Informationsressourcen von Unternehmen zu verwalten, von Desktop-Systemen bis hin zu Mainframes und von lokalen Netzwerken bis hin zu Internet-Ressourcen. Gleichzeitig besteht die Erkenntnis, dass Steuerungsanwendungen offen für Lösungen aller Anbieter sein müssen.

Die Relevanz dieser Arbeit liegt darin begründet, dass im Zusammenhang mit der Verbreitung von Personal Computern und der Schaffung von automatisierten Arbeitsstationen (AWS) auf deren Basis die Bedeutung lokaler Computernetze (LAN) zugenommen hat, deren Diagnose die Gegenstand unserer Studie. Gegenstand der Forschung sind die wichtigsten Methoden zur Organisation und Diagnose moderner Computernetzwerke.

"Lokale Netzwerkdiagnose" ist ein Verfahren zur (kontinuierlichen) Analyse des Zustands eines Informationsnetzwerks. Bei einer Fehlfunktion von Netzwerkgeräten wird die Tatsache der Fehlfunktion erfasst, Ort und Art bestimmt. Der Fehler wird gemeldet, das Gerät wird heruntergefahren und durch ein Backup ersetzt.

Der Netzwerkadministrator, der meistens für die Durchführung der Diagnose verantwortlich ist, sollte bereits in der Phase seiner Bildung, d.h. kennen den Netzplan und detaillierte Beschreibung Softwarekonfiguration mit Angabe aller Parameter und Schnittstellen. Zur Erfassung und Speicherung dieser Informationen eignen sich spezielle Netzdokumentationssysteme. Mit ihnen kennt der Systemadministrator im Voraus alle möglichen "versteckten Fehler" und "Engpässe" seines Systems, um im Notfall zu wissen, wo das Problem mit der Hard- oder Software liegt, das Programm beschädigt ist oder geführt wird zu einem Fehler Bedienhandlungen.

Der Netzwerkadministrator sollte bedenken, dass aus Sicht der Benutzer die Qualität der Anwendungssoftware im Netzwerk entscheidend ist. Alle anderen Kriterien, wie die Anzahl der Datenübertragungsfehler, der Grad der Überlastung Netzwerkressourcen, Geräteleistung usw. sind zweitrangig. Ein "gutes Netzwerk" ist ein Netzwerk, dessen Benutzer nicht bemerken, wie es funktioniert.

Gesellschaft

Das Vordiplompraktikum fand bei der Firma Gerkon GmbH im Supportbereich als Systemadministrator statt. Das Unternehmen bietet seit 1993 in den Städten Verkhnyaya Pyshma und Sredneuralsk Internet-Zugangsdienste mit Ethernet-Technologie und DFÜ-Kanälen an und ist einer der ersten Internet-Service-Provider in diesen Städten. Die Regeln für die Erbringung von Dienstleistungen werden durch ein öffentliches Angebot und ein Reglement geregelt.

Wissenschaftliche und Produktionsaufgaben der Abteilung

Die Supportabteilung löst innerhalb eines Unternehmens folgendes Aufgabenspektrum:

§ technische und technologische Organisation der Bereitstellung des Internetzugangs über Einwahl- und dedizierte Kanäle;

§ technische und technologische Organisation des drahtlosen Internetzugangs;

§ Zuweisung von Speicherplatz für die Speicherung und Wartung von Sites (Hosting);

§ Arbeitsunterstützung Briefkästen oder virtuell Mail-Server;

§ Platzierung von Kundengeräten beim Anbieter (Colocation);

§ mieten dediziert und Virtuelle Server;

§ Datensicherung;

§ Bereitstellung und Betreuung von Unternehmensnetzwerken privater Unternehmen.

Im Zuge der Aktivität und Zunahme des Leistungsangebots stellte sich das Problem der proaktiven Erkennung von Fehler- und Schwachstellen in der Netzorganisation, dh die Aufgabe bestand darin, eine Lösung zu implementieren, die es ermöglicht, den Austausch- oder Modernisierungsbedarf vorherzusagen Netzabschnitte, bevor die Störungen den Betrieb von Teilnehmerknoten beeinträchtigen.

1. NETZWERKÜBERWACHUNGSSYSTEME

Trotz der vielen Tricks und Tools zur Erkennung und Fehlerbehebung von Computernetzwerken ist der Boden für Netzwerkadministratoren noch fragil. Computernetzwerke enthalten zunehmend Glasfaser- und Funkkomponenten, die den Einsatz herkömmlicher Technologien und Werkzeuge für herkömmliche Kupferkabel sinnlos machen. Zudem scheitern bei Geschwindigkeiten über 100 Mbit/s häufig herkömmliche Diagnoseansätze, selbst wenn das Übertragungsmedium ein normales Kupferkabel ist. Die vielleicht bedeutendste Änderung in der Computerbranche Netzwerktechnologien mit denen Administratoren konfrontiert waren, war der unvermeidliche Übergang von Ethernet-Netzwerke mit einem gemeinsamen Übertragungsmedium zu geschalteten Netzen, in denen einzelne Server oder Workstations oft als geschaltete Segmente fungieren.

Es stimmt, mit der Umsetzung technologischer Transformationen wurden einige alte Probleme von selbst gelöst. Koaxialkabel, bei denen elektrische Probleme immer schwieriger zu beheben waren als Twisted-Pair-Kabel, werden in Unternehmensumgebungen immer seltener. Token-Ring-Netze, deren Hauptproblem die Unähnlichkeit zum Ethernet (und keine technische Schwäche) war, werden nach und nach durch geswitchte Ethernet-Netze ersetzt. Protokolle wie SNA, DECnet und AppleTalk, die zahlreiche Fehlermeldungen auf Netzwerkschichtprotokollen generieren, werden durch IP ersetzt. Der IP-Protokollstack selbst ist stabiler und wartungsfreundlicher geworden, wie Millionen von Kunden und Milliarden bewiesen haben Webseiten im Internet. Selbst hartgesottene Microsoft-Gegner müssen zugeben, dass die Verbindung eines neuen Windows-Clients mit dem Internet viel einfacher und zuverlässiger ist, als die bisherigen TCP/IP-Stacks von Drittanbietern und separater Einwahlsoftware zu installieren.

Da viele moderne Technologien die Fehlersuche und das Management der Netzwerkleistung erschweren, könnte die Situation noch schlimmer werden, wenn ATM auf PC-Ebene verbreitet wird. Eine positive Rolle spielte auch die Tatsache, dass in den späten 90er Jahren ohne Zeit für die Anerkennung mehrere andere Hochgeschwindigkeits-Datenaustauschtechnologien abgelehnt wurden, darunter Token Ring mit einer Bandbreite von 100 Mbit/s, 100VG-AnyLAN und fortschrittliche ARCnet-Netzwerke . Schließlich lehnten die USA einen sehr komplexen OSI-Protokollstapel ab (der jedoch von einer Reihe europäischer Regierungen legalisiert wurde).

Werfen wir einen Blick auf einige der aktuellen Probleme, mit denen Administratoren von Unternehmensnetzwerken konfrontiert sind.

Die hierarchische Topologie von Computernetzwerken mit Gigabit-Ethernet-Backbones und dedizierten Switch-Ports von 10 oder sogar 100 Mbit/s für einzelne Client-Systeme hat die den Benutzern potenziell zur Verfügung stehende maximale Bandbreite um mindestens das 10- bis 20-fache erhöht. Natürlich gibt es in den meisten Computernetzwerken Engpässe auf Server- oder Access-Router-Ebene, da die Bandbreite pro User deutlich unter 10 Mbit/s liegt. Daher führt das Ersetzen eines 10-Mbit/s-Hub-Ports durch einen dedizierten 100-Mbit/s-Switch-Port für einen Endknoten nicht immer zu einer signifikanten Geschwindigkeitssteigerung. Wenn wir jedoch bedenken, dass die Kosten für Switches in letzter Zeit gesunken sind und die meisten Unternehmen ein Kabel der Kategorie 5 haben, das die 100-Mbit/s-Ethernet-Technologie unterstützt, und Netzwerkkarten installiert sind, die sofort nach einem Systemneustart mit 100 Mbit/s arbeiten können, wird es so warum es so schwer ist, der Versuchung der Modernisierung zu widerstehen. In einem traditionellen LAN mit gemeinsam genutzten Medien kann ein Protokollanalysator oder -monitor den gesamten Verkehr in einem bestimmten Netzwerksegment untersuchen.

Reis. 1.1 - Traditionelles LAN mit Shared Media und Protokollanalysator

Obwohl der Leistungsvorteil von Switched Networking manchmal subtil ist, hatte die Verbreitung von Switched-Architekturen katastrophale Folgen für die traditionelle Diagnose. In einem stark segmentierten Netzwerk können Protokollanalysatoren nur Unicast-Datenverkehr auf einem einzigen Switch-Port sehen, im Gegensatz zu einem Legacy-Netzwerk, in dem sie jedes Paket in der Kollisionsdomäne untersuchen könnten. Unter solchen Bedingungen können herkömmliche Überwachungstools keine Statistiken über alle „Dialoge“ sammeln, da jedes „sprechende“ Endpunktpaar im Wesentlichen sein eigenes Netzwerk verwendet.

Reis. 1.2 - Geschaltetes Netzwerk

In einem geswitchten Netzwerk kann ein Protokollanalysator nur ein einzelnes Segment an einem Punkt "sehen", wenn der Switch nicht in der Lage ist, mehrere Ports gleichzeitig zu spiegeln.

Um die Kontrolle über stark segmentierte Netzwerke zu behalten, bieten Switch-Anbieter eine Vielzahl von Tools an, um die volle „Sichtbarkeit“ des Netzwerks wiederherzustellen, aber es gibt viele Herausforderungen auf dem Weg. Derzeit ausgelieferte Switches unterstützen normalerweise Port-Spiegelung, bei der der Datenverkehr von einem von ihnen auf einen zuvor ungenutzten Port dupliziert wird, an den ein Monitor oder Analysator angeschlossen ist.

Das "Spiegeln" hat jedoch mehrere Nachteile. Erstens ist jeweils nur ein Port sichtbar, daher ist es sehr schwierig, Probleme zu identifizieren, die mehrere Ports gleichzeitig betreffen. Zweitens, Spiegelreflexion kann die Leistung des Switches beeinträchtigen. Drittens reproduziert der Mirror-Port normalerweise keine Fehler der physikalischen Schicht, und manchmal gehen sogar VLAN-Bezeichnungen verloren. Schließlich können in vielen Fällen Vollduplex-Ethernet-Verbindungen nicht vollständig gespiegelt werden.

Eine Teillösung für die Analyse aggregierter Verkehrsparameter besteht darin, die Überwachungsfunktionen von Mini-RMON-Agenten zu nutzen, zumal sie in jeden Port der meisten Ethernet-Switches integriert sind. Obwohl Mini-RMON-Agenten die Capture-Objektgruppe der RMON II-Spezifikation nicht unterstützen, die eine vollständige Protokollanalyse ermöglicht, können sie dennoch Einblicke in die Ressourcenauslastung, Fehlerraten und das Multicast-Volumen liefern.

Einige Nachteile der Port-Mirroring-Technologie können durch die Installation von "passiven Taps", wie sie von Shomiti hergestellt werden, überwunden werden. Diese Geräte sind vorinstallierte Y-Verbinder und ermöglichen die Überwachung des realen Signals mit Protokollanalysatoren oder einem anderen Gerät.

Das nächste eigentliche Problem ist das Problem mit den Eigenschaften der Optik. Administratoren von Computernetzwerken verwenden normalerweise spezielle Diagnosegeräte für optische Netzwerke nur, um Probleme mit optischen Kabeln zu lösen. Gewöhnliche Standard-SNMP- oder CLI-basierte Geräteverwaltungssoftware kann Probleme auf Switches und Routern mit optischen Schnittstellen diagnostizieren. Nur wenige Netzwerkadministratoren müssen SONET-Geräte diagnostizieren.

Bei Lichtwellenleitern sind die Gründe für das Auftreten möglicher Fehlfunktionen bei ihnen deutlich geringer als bei Kupferkabeln. Optische Signale verursachen kein Übersprechen, das auftritt, wenn das Signal von einem Leiter ein Signal auf dem anderen induziert - dieser Faktor erschwert die Diagnosegeräte für Kupferkabel am meisten. Optische Kabel sind immun gegen elektromagnetisches Rauschen und induzierte Signale, sodass sie nicht von Aufzugsmotoren und Leuchtstofflampen entfernt verlegt werden müssen, was bedeutet, dass all diese Variablen aus dem Diagnoseszenario ausgeschlossen werden können.

Die Signalstärke oder optische Leistung an einem bestimmten Punkt ist eigentlich die einzige Variable, die bei der Fehlersuche in optischen Netzwerken gemessen werden muss. Wenn es möglich ist, den Signalverlust entlang des gesamten optischer Kanal dann kann fast jedes Problem identifiziert werden. Preiswerte Zusatzmodule für Kupferkabeltester ermöglichen optische Messungen.

Unternehmen, die eine große optische Infrastruktur bereitstellen und warten, müssen möglicherweise ein optisches Zeitbereichsreflektometer (OTDR) erwerben, das die gleichen Funktionen für Glasfasern erfüllt wie ein Zeitbereichsreflektometer (TDR) für Kupfer. Das Gerät verhält sich wie ein Radar: Es sendet Impulssignale durch das Kabel und analysiert deren Reflexionen, anhand derer es Schäden im Leiter oder eine andere Anomalie erkennt und dem Experten dann sagt, wo er die Fehlerquelle suchen muss.

Obwohl verschiedene Anbieter von Kabelsteckverbindern und -steckverbindern das Abschließen und Auffächern von Glasfasern erleichtert haben, erfordert dies immer noch ein gewisses Maß an Spezialkenntnissen, und mit einer umsichtigen Politik muss ein Unternehmen mit einer fortschrittlichen optischen Infrastruktur seine Mitarbeiter schulen. Egal wie gut das Kabelnetz verlegt ist, es besteht immer die Möglichkeit einer physischen Beschädigung des Kabels durch unerwartete Ereignisse.

Die Fehlerbehebung bei 802.11b-WLANs kann ebenfalls zu Problemen führen. Die Diagnose selbst ist so einfach wie bei Hub-basierten Ethernet-Netzwerken, da die drahtlosen Medien von allen Besitzern von Client-Funkgeräten gemeinsam genutzt werden. Sniffer TechHlogies war der erste Anbieter einer Protokollanalyselösung für diese Netzwerke mit einer Bandbreite von bis zu 11 Mbit/s, und die meisten führenden Anbieter von Analysegeräten haben seitdem ähnliche Systeme eingeführt.

Im Gegensatz zu einem Ethernet-Hub mit kabelgebundenen Verbindungen ist die Qualität von drahtlosen Clientverbindungen alles andere als stabil. Mikrowellen-Funksignale, die bei allen lokalen Übertragungsoptionen verwendet werden, sind schwach und manchmal unvorhersehbar. Schon kleine Veränderungen der Position der Antenne können die Qualität der Verbindungen stark beeinträchtigen. Wireless LAN Access Points sind mit einer Geräteverwaltungskonsole ausgestattet, die oft eine leistungsfähigere Diagnosemethode ist als der Besuch von Wireless-Clients und die Überwachung von Durchsatz und Fehlerbedingungen mit einem Handheld-Analysegerät.

Während die Datensynchronisations- und Geräteeinrichtungsprobleme bei PDA-Benutzern natürlicher auf die Ziele der Gruppe abgestimmt sind technischer Support Anstatt ein Netzwerkadministrator zu sein, ist es nicht schwer vorauszusehen, dass sich viele dieser Geräte in nicht allzu ferner Zukunft von eigenständigen PC-Ergänzungen zu vollständigen Netzwerk-Clients entwickeln werden.

Typischerweise werden (oder sollten) Firmen-WLAN-Betreiber von der Bereitstellung übermäßig offener Systeme abraten, in denen jeder Benutzer innerhalb der Reichweite des Netzwerks mit einer kompatiblen Schnittstellenkarte auf jeden Informationsrahmen des Systems zugreifen kann. Das drahtlose Sicherheitsprotokoll Wired Equivalent Privacy (WEP) bietet Benutzerauthentifizierung, Integritätssicherung und Datenverschlüsselung, aber wie üblich macht es perfekte Sicherheit schwierig, die Ursache von Netzwerkproblemen zu analysieren. In sicheren WEP-Netzwerken müssen Diagnostiker die Schlüssel oder Passwörter kennen, die die Informationsressourcen schützen und den Zugriff auf das System kontrollieren. Beim Zugriff im Modus des Empfangens aller Pakete kann der Protokollanalysator alle Frame-Header sehen, aber die darin enthaltenen Informationen sind ohne das Vorhandensein von Schlüsseln bedeutungslos.

Bei der Diagnose von getunnelten Verbindungen, die von vielen Herstellern als Remote Access VPN bezeichnet werden, treten ähnliche Probleme auf wie bei der Analyse verschlüsselter drahtloser Netzwerke. Wenn der Verkehr nicht durch die getunnelte Verbindung läuft, ist die Ursache des Problems nicht einfach zu bestimmen. Dies kann ein Authentifizierungsfehler, eine Störung an einem der Endpunkte oder eine Überlastung des öffentlichen Internets sein. Der Versuch, einen Protokollanalysator zu verwenden, um Fehler auf hoher Ebene im getunnelten Verkehr zu erkennen, wäre Energieverschwendung, da der Dateninhalt sowie die Header der Anwendungs-, Transport- und Netzwerkschicht verschlüsselt sind. Im Allgemeinen erschweren Maßnahmen zur Verbesserung der Sicherheit von Unternehmensnetzwerken die Identifizierung von Fehlerbehebungs- und Leistungsproblemen. Firewalls, Proxy-Server und Intrusion Detection-Systeme können die Lokalisierung von Problemen zusätzlich erschweren.

Somit ist das Problem der Diagnose von Computernetzwerken relevant und letztendlich ist die Diagnose von Fehlern eine Managementaufgabe. Für die meisten geschäftskritischen Unternehmenssysteme langwierige Recovery-Arbeiten sind nicht akzeptabel, so dass die einzige Lösung darin besteht, redundante Geräte und Prozesse zu verwenden, die die notwendigen Funktionen sofort nach einem Ausfall übernehmen können. In einigen Unternehmen verfügen Netzwerke im Falle eines Primärausfalls immer über eine zusätzliche redundante Komponente, d. h. n x 2 Komponenten, wobei n die Anzahl der Primärkomponenten ist, die für eine akzeptable Leistung erforderlich sind. Wenn die Mean Time To Repair (MTTR) lang genug ist, ist möglicherweise noch mehr Redundanz erforderlich. Der Punkt ist, dass die Zeit für die Fehlerbehebung nicht leicht vorherzusagen ist und erhebliche Kosten während einer unvorhersehbaren Erholungsphase ein Zeichen für schlechtes Management sind.

Bei weniger kritischen Systemen ist Redundanz möglicherweise nicht wirtschaftlich. In diesem Fall ist es ratsam, in die effizientesten Tools (und in Schulungen) zu investieren, um den Prozess der Fehlerbehebung und Diagnose von Problemen im Unternehmen zu beschleunigen. Darüber hinaus kann der ausgelagerte Support für bestimmte Systeme ausgelagert werden, entweder an das Unternehmen, an externe Rechenzentren oder an Application Service Provider (ASPs) oder Management Service Provider. Neben den Kosten ist die Kompetenz des eigenen Personals der wichtigste Einflussfaktor für die Entscheidung, Fremdleistungen in Anspruch zu nehmen. Netzwerkadministratoren müssen entscheiden, ob eine bestimmte Funktion so eng mit einer bestimmten Unternehmensaufgabe verbunden ist, dass von einem Dritten keine bessere Leistung als von Mitarbeitern des Unternehmens erwartet werden kann.

Fast unmittelbar nach der Bereitstellung der ersten Unternehmensnetzwerke, deren Zuverlässigkeit zu wünschen übrig ließ, stellten Hersteller und Entwickler das Konzept der "selbstheilenden Netzwerke" vor. Moderne Netzwerke sind sicherlich zuverlässiger als in den 90er Jahren, aber nicht, weil sich die Probleme von selbst zu lösen begannen. Beseitigen Sie Software- und Hardwarefehler moderne Netzwerke noch menschliches Eingreifen erfordern, und kurzfristig sind keine grundlegenden Änderungen dieser Sachlage zu erwarten. Diagnosemethoden und -werkzeuge entsprechen der aktuellen Praxis und Technologie, haben jedoch noch nicht das Niveau erreicht, das Netzwerkadministratoren bei der Bewältigung von Netzwerkproblemen und Leistungsengpässen signifikant Zeit sparen würde.

1 .1 Diagnosesoftware

Unter den Softwaretools zur Diagnose von Computernetzwerken sind spezielle Netzwerkmanagementsysteme (Network Management Systems) hervorzuheben - zentralisiert Softwaresysteme die Daten über den Zustand von Knoten und Kommunikationsgeräten des Netzwerks sowie Daten über den im Netzwerk zirkulierenden Verkehr sammeln. Diese Systeme überwachen und analysieren nicht nur das Netzwerk, sondern führen auch Netzwerkverwaltungsaktionen im automatischen oder halbautomatischen Modus durch - Aktivieren und Deaktivieren von Geräteports, Ändern der Parameter von Bridges in den Adresstabellen von Bridges, Switches und Routern usw. Beispiele für Steuerungssysteme sind die gängigen Systeme HPOpenView, SunNetManager, IBMNetView.

Systemverwaltungstools führen ähnliche Funktionen wie Verwaltungssysteme aus, jedoch in Bezug auf Kommunikationsgeräte. Einige der Funktionen dieser beiden Arten von Steuersystemen können jedoch dupliziert werden, beispielsweise können Systemsteuerungen die einfachste Analyse des Netzwerkverkehrs durchführen.

Expertensysteme. Diese Art von Systemen sammelt menschliches Wissen über die Identifizierung der Ursachen eines abnormalen Betriebs von Netzwerken und mögliche Wege das Netzwerk in einen funktionierenden Zustand zu bringen. Expertensysteme werden oft als separate Subsysteme verschiedener Netzwerküberwachungs- und Analysewerkzeuge implementiert: Netzwerkmanagementsysteme, Protokollanalysatoren, Netzwerkanalysatoren. Die einfachste Variante eines Expertensystems ist ein kontextsensitives Hilfesystem. Komplexere Expertensysteme sind sogenannte Wissensbasen mit Elementen der künstlichen Intelligenz. Ein Beispiel für ein solches System ist das Expertensystem, das in das Cabletron Spectrum-Steuerungssystem eingebaut ist.

1.1.1 Protokollanalysatoren

Beim Entwurf eines neuen oder Modernisierung eines alten Netzwerks ist es häufig erforderlich, einige Eigenschaften des Netzwerks zu quantifizieren, wie z der einen oder anderen Art, die Häufigkeit des Auftretens, bestimmte Ereignisse und andere Merkmale.

Für diese Zwecke können verschiedene Mittel verwendet werden, und zuallererst - Überwachungsmittel in Netzwerkmanagementsystemen, die bereits früher diskutiert wurden. Einige Messungen im Netzwerk können durchgeführt und integriert werden Betriebssystem Software Meter, ein Beispiel hierfür ist die Komponente Windows Performance Monitor. Auch moderne Kabeltester sind in der Lage, Pakete zu erfassen und deren Inhalt zu analysieren.

Das fortschrittlichste Tool zur Netzwerkerkundung ist jedoch ein Protokollanalysator. Der Protokollanalyseprozess umfasst das Erfassen und Untersuchen der Pakete, die im Netzwerk zirkulieren und ein bestimmtes Netzwerkprotokoll implementieren. Basierend auf den Ergebnissen der Analyse können Sie fundierte und ausgewogene Änderungen an allen Netzwerkkomponenten vornehmen, deren Leistung optimieren und Fehler beheben. Um Rückschlüsse auf die Auswirkungen einer Änderung auf das Netzwerk ziehen zu können, müssen natürlich die Protokolle sowohl vor als auch nach der Änderung analysiert werden.

Der Protokollanalysator ist entweder ein eigenständiges spezialisiertes Gerät oder Persönlicher Computer, meist portabel, der tebook-Klasse, ausgestattet mit einer speziellen Netzwerkkarte und entsprechender Software. Die verwendete Netzwerkkarte und Software muss der Netzwerktopologie (Ring, Bus, Stern) entsprechen. Der Analysator verbindet sich wie ein normaler Knoten mit dem Netzwerk. Der Unterschied besteht darin, dass der Analysator alle über das Netzwerk übertragenen Datenpakete empfangen kann, während eine normale Station nur die an sie adressierten Datenpakete empfangen kann. Die Analysesoftware besteht aus einem Kernel, der den Betrieb des Netzwerkadapters unterstützt und die empfangenen Daten dekodiert, und zusätzlichem Programmcode, der von der Art der Topologie des untersuchten Netzwerks abhängt. Darüber hinaus werden eine Reihe von protokollspezifischen Decodierungsroutinen bereitgestellt, wie beispielsweise IPX. Einige Analysatoren können auch ein Expertensystem enthalten, das dem Benutzer Empfehlungen geben kann, welche Experimente in einer bestimmten Situation durchgeführt werden sollten, was diese oder diese Messergebnisse bedeuten können und wie einige Arten von Netzwerkfehlfunktionen beseitigt werden können.

Trotz der relativen Vielfalt der Protokollanalysatoren auf dem Markt gibt es einige Funktionen, die mehr oder weniger in allen von ihnen enthalten sind:

Benutzeroberfläche. Die meisten Analysatoren verfügen über eine gut entwickelte benutzerfreundliche Oberfläche, die normalerweise auf Windows oder Motif basiert. Diese Schnittstelle ermöglicht dem Benutzer: die Ergebnisse der Verkehrsintensitätsanalyse anzuzeigen; eine sofortige und durchschnittliche statistische Schätzung der Netzwerkleistung erhalten; Legen Sie bestimmte Ereignisse und kritische Situationen fest, um ihr Auftreten zu verfolgen; dekodieren Protokolle verschiedener Ebenen und präsentieren den Inhalt von Paketen in verständlicher Form.

Aufnahmepuffer. Die Puffer der verschiedenen Analysatoren sind unterschiedlich groß. Der Puffer kann sich am Set befinden Netzwerkkarte, oder es kann ein Platz dafür reserviert werden in Arbeitsspeicher einen der Computer im Netzwerk. Wenn sich der Puffer auf einer Netzwerkkarte befindet, wird er in Hardware verwaltet, wodurch die Eingabegeschwindigkeit erhöht wird. Dies führt jedoch zu einer Erhöhung der Kosten des Analysators. Bei unzureichender Leistung des Erfassungsverfahrens gehen einige Informationen verloren und eine Analyse ist unmöglich. Die Puffergröße bestimmt die Analysemöglichkeiten für mehr oder weniger repräsentative Stichproben der erfassten Daten. Aber egal wie groß der Aufnahmepuffer ist, früher oder später wird er sich füllen. In diesem Fall wird entweder die Erfassung beendet oder das Füllen beginnt am Anfang des Puffers.

Filter. Mit Filtern können Sie den Prozess der Datenerfassung steuern und somit Pufferspeicherplatz sparen. Abhängig vom Wert bestimmter Felder des Pakets, angegeben als Filterbedingung, wird das Paket entweder ignoriert oder in den Capture-Puffer geschrieben. Der Einsatz von Filtern beschleunigt und vereinfacht die Analyse erheblich, da die Anzeige der aktuell nicht benötigten Pakete ausgeschlossen ist.

Schalter sind einige Bedingungen, die vom Betreiber festgelegt werden, um den Vorgang der Datenerfassung aus dem Netzwerk zu starten und zu stoppen. Diese Bedingungen können die Ausführung manueller Befehle zum Starten und Stoppen des Erfassungsprozesses, die Tageszeit, die Dauer des Erfassungsprozesses, das Erscheinen bestimmter Werte in Datenrahmen sein. Schalter können in Verbindung mit Filtern verwendet werden, was eine detailliertere und subtilere Analyse sowie eine produktivere Nutzung einer begrenzten Größe des Aufnahmepuffers ermöglicht.

Suche. Einige Protokollanalysatoren ermöglichen es Ihnen, die Anzeige von Informationen im Puffer zu automatisieren und Daten darin nach festgelegten Kriterien zu finden. Während die Filter den Eingabestrom gegen die Filterbedingungen prüfen, werden die Suchfunktionen auf die bereits im Puffer angesammelten Daten angewendet.

Die Analysemethodik kann in den folgenden sechs Stufen dargestellt werden:

1. Erfassen von Daten.

2. Anzeigen der erfassten Daten.

3. Datenanalyse.

4. Suchen Sie nach Fehlern. (Die meisten Analysatoren erleichtern dies, indem sie Fehlertypen identifizieren und die Station identifizieren, von der das Fehlerpaket kam.)

5. Forschungsproduktivität. Die Auslastung der Netzwerkbandbreite oder die durchschnittliche Antwortzeit auf eine Anfrage wird berechnet.

6. Eine detaillierte Untersuchung der einzelnen Abschnitte des Netzwerks. Der Inhalt dieser Phase wird während der Analyse konkretisiert.

Normalerweise dauert die Analyse der Protokolle relativ wenig Zeit - 1-2 Werktage.

Mit den meisten modernen Analysegeräten können Sie mehrere WAN-Protokolle gleichzeitig analysieren, wie z. B. X.25, PPP, SLIP, SDLC / SNA, Frame Relay, SMDS, ISDN, Bridge / Router-Protokolle (3Com, Cisco, Bay Networks und andere). Solche Analysatoren ermöglichen es Ihnen, verschiedene Parameter von Protokollen zu messen, den Netzwerkverkehr, die Konvertierung zwischen LAN- und WAN-Protokollen, Verzögerungen auf Routern während dieser Konvertierungen usw maximale Bandbreite, Testen der Qualität der bereitgestellten Dienste. Der Vielseitigkeit halber implementieren fast alle WAN-Protokollanalysatoren LAN-Tests und alle wichtigen Schnittstellen. Einige Geräte sind in der Lage, Telefonieprotokolle zu analysieren. Und die fortschrittlichsten Modelle können alle sieben OSI-Schichten dekodieren und bequem darstellen. Das Aufkommen von ATM hat die Hersteller dazu veranlasst, ihre Analysatoren mit Testwerkzeugen für diese Netzwerke auszustatten. Diese Instrumente können vollständige Tests von E-1/E-3 ATM-Netzwerken mit Überwachungs- und Simulationsunterstützung durchführen. Der Satz der Servicefunktionen des Analysators ist sehr wichtig. Einige davon, zum Beispiel die Möglichkeit, das Gerät aus der Ferne zu steuern, sind einfach unersetzlich.

So können moderne Analysatoren von WAN/LAN/DTM-Protokollen Fehler in der Konfiguration von Routern und Bridges erkennen; Legen Sie die Art des über das WAN gesendeten Datenverkehrs fest; Bestimmen Sie den verwendeten Geschwindigkeitsbereich, optimieren Sie das Verhältnis zwischen Bandbreite und Anzahl der Kanäle; Lokalisieren Sie die Quelle des falschen Verkehrs; Durchführung von seriellen Schnittstellentests und vollständigen ATM-Tests; Führen Sie die vollständige Überwachung und Dekodierung der Hauptprotokolle auf jedem Kanal durch; Analysieren Sie Statistiken in Echtzeit, einschließlich der Analyse des lokalen Netzwerkverkehrs in globalen Netzwerken.

1.1.2 Überwachungsprotokolle

SNMP-Protokoll

SNMP (Simple Network Management Protocol) ist ein Kommunikationsnetzwerk-Verwaltungsprotokoll, das auf der TCP/IP-Architektur basiert.

Basierend auf dem TMN-Konzept 1980-1990 verschiedene Standardisierungsgremien haben eine Reihe von Protokollen zur Verwaltung von Datennetzen mit unterschiedlichem Implementierungsspektrum von TMN-Funktionen entwickelt. Ein Typ eines solchen Verwaltungsprotokolls ist SNMP. SNMP wurde entwickelt, um die Funktionalität von Netzwerkroutern und -brücken zu testen. Anschließend umfasste der Anwendungsbereich des Protokolls andere Netzwerkgeräte wie Hubs, Gateways, Terminalserver, LAN Manager-Server, Maschinen unter Windows-Steuerung NT usw. Darüber hinaus bietet das Protokoll die Möglichkeit, die Funktionsweise dieser Geräte zu ändern.

Diese Technologie wurde entwickelt, um eine Verwaltung und Kontrolle über Geräte und Anwendungen in einem Kommunikationsnetzwerk bereitzustellen, indem Steuerinformationen zwischen Agenten, die sich auf Netzwerkgeräten befinden, und Managern, die sich an Kontrollstationen befinden, ausgetauscht werden. SNMP definiert ein Netzwerk als eine Sammlung von Netzwerkmanagementstationen und Netzwerkelementen (Hosts, Gateways und Router, Terminalserver), die kollektiv administrative Verbindungen zwischen Netzverwaltungsstationen und Netzagenten bereitstellen.

Bei SNMP gibt es verwaltete und überwachte Systeme. Ein verwaltetes System enthält eine als Agent bezeichnete Komponente, die Berichte an das verwaltende System sendet. Im Wesentlichen übermitteln SNMP-Agenten Managementinformationen als Variablen an Managementsysteme (wie "freier Speicher", "Systemname", "Anzahl der laufenden Prozesse").

Der SNMP-Agent ist ein Verarbeitungselement, das Managern, die sich an den Verwaltungsstationen des Netzwerks befinden, Zugriff auf die Werte der MIB-Variablen bietet und ihnen dadurch ermöglicht, die Funktionen zur Verwaltung und Überwachung des Geräts zu implementieren.

Ein Softwareagent ist ein residentes Programm, das Verwaltungsfunktionen ausführt sowie Statistiken sammelt, um sie an die Informationsbasis eines Netzwerkgeräts zu übertragen.

Hardware-Agent – ​​Eingebettete Hardware (mit einem Prozessor und Speicher), die Software-Agenten speichert.

Über SNMP zugängliche Variablen sind hierarchisch organisiert. Diese Hierarchien und andere Metadaten (wie der Typ und die Beschreibung einer Variablen) werden durch Management Information Bases (MIBs) beschrieben.

Heutzutage gibt es mehrere Standards für Kontrollinformationsdatenbanken. Die wichtigsten sind die Standards MIB-I und MIB-II sowie die RMON-MIB-Version der Datenbank für die Fernverwaltung. Darüber hinaus gibt es Standards für bestimmte Geräte-MIBs eines bestimmten Typs (zB MIBs für Hubs oder MIBs für Modems) sowie proprietäre MIBs bestimmter Gerätehersteller.

Die ursprüngliche MIB-I-Spezifikation definierte nur Leseoperationen für Variablenwerte. Die Vorgänge zum Ändern oder Einstellen der Werte eines Objekts sind Teil der MIB-II-Spezifikationen.

Die MIB-I-Version (RFC 1156) definiert bis zu 114 Objekte, die in 8 Gruppen eingeteilt werden:

* System - allgemeine Informationen zum Gerät (z. B. Hersteller-ID, Zeitpunkt der letzten Systeminitialisierung).

* Schnittstellen - beschreibt die Parameter der Netzwerkschnittstellen des Geräts (z. B. deren Anzahl, Typen, Wechselkurse, maximale Paketgröße).

* AddressTranslationTable - beschreibt die Korrespondenz zwischen Netzwerk- und physischen Adressen (zum Beispiel unter Verwendung des ARP-Protokolls).

* InternetProtocol - Daten im Zusammenhang mit dem IP-Protokoll (Adressen von IP-Gateways, Hosts, Statistiken über IP-Pakete).

* ICMP - Daten, die sich auf das ICMP-Kontrbeziehen.

* TCP - Daten im Zusammenhang mit dem TCP-Protokoll (z. B. über TCP-Verbindungen).

* UDP - Daten im Zusammenhang mit dem UDP-Protokoll (die Anzahl der gesendeten, empfangenen und fehlerhaften UPD-Datagramme).

* EGP - Daten, die sich auf das im Internet verwendete Routing-Austauschprotokoll ExteriorGatewayProtocol beziehen (die Anzahl der mit und ohne Fehler empfangenen Nachrichten).

Aus dieser Liste von Variablengruppen ist ersichtlich, dass der MIB-I-Standard mit einem starren Fokus auf die Verwaltung von Routern entwickelt wurde, die die TCP/IP-Stack-Protokolle unterstützen.

In der 1992 verabschiedeten MIB-II-Version (RFC 1213) wurde der Satz der Standardobjekte erheblich erweitert (auf 185) und die Anzahl der Gruppen auf 10 erhöht.

RMON-Agenten

Die neueste Ergänzung zu Funktionalität SNMP ist eine RMON-Spezifikation, die die Fernkommunikation mit der MIB ermöglicht.

Der RMON-Standard entstand im November 1991, als die Internet Engineering Task Force RFC 1271 mit dem Titel "Remote Network Monitoring Management Information Base" ("Remote Network Monitoring Management Information Base") herausgab. Informationsbasis Fernüberwachung von Netzwerken"). Dieses Dokument enthielt eine Beschreibung von RMON für Ethernet-Netzwerke.

RMON ist ein Protokoll zur Überwachung von Computernetzwerken, eine SNMP-Erweiterung, die wie SNMP auf der Sammlung und Analyse von Informationen über die Art der über das Netzwerk übertragenen Informationen basiert. Wie bei SNMP erfolgt die Informationssammlung durch Hardware- und Softwareagenten, deren Daten an den Computer gesendet werden, auf dem die Netzwerkverwaltungsanwendung installiert ist. Der Unterschied zwischen RMON und seinem Vorgänger liegt vor allem in der Art der gesammelten Informationen - wenn diese Informationen in SNMP nur Ereignisse charakterisieren, die auf dem Gerät auftreten, auf dem der Agent installiert ist, benötigt RMON die empfangenen Daten, um den Verkehr zwischen Netzwerken zu charakterisieren Geräte.

Vor RMON konnte SNMP nicht remote verwendet werden, sondern ermöglichte nur die lokale Verwaltung von Geräten. Die RMON-MIB verfügt über verbesserte Eigenschaften für die Fernverwaltung, da sie aggregierte Informationen über das Gerät enthält, die keine Übertragung großer Informationsmengen über das Netzwerk erfordern. RMON-MIB-Objekte umfassen zusätzliche Paketfehlerzähler, flexiblere grafische Trend- und Statistikanalysen, leistungsfähigere Filterwerkzeuge zum Erfassen und Analysieren einzelner Pakete und komplexere Alarmbedingungen. RMON-MIB-Agenten sind intelligenter als MIB-I- oder MIB-II-Agenten und erledigen einen Großteil der Verarbeitung von Geräteinformationen, die früher von Managern erledigt wurden. Diese Agenten können sich in verschiedenen Kommunikationsgeräten befinden und auch als separate Softwaremodule auf universellen PCs und Laptops ausgeführt werden (ein Beispiel ist LANalyzerНvell).

Die Intelligenz von RMON-Agenten ermöglicht es ihnen, einfache Aktionen zur Fehlerdiagnose und Warnung vor möglichen Ausfällen durchzuführen - zum Beispiel können Sie mit der RMON-Technologie Daten über die normale Funktion des Netzwerks sammeln (dh das sogenannte Baselining durchführen) und dann Warnungen ausgeben, wenn der Netzbetriebsmodus vom Basiswert abweicht - dies kann insbesondere darauf hinweisen, dass das Gerät nicht voll funktionsfähig ist. Durch das Zusammenführen von Informationen von RMON-Agenten kann die Verwaltungsanwendung einem Netzwerkadministrator (der sich beispielsweise Tausende von Kilometern vom analysierten Netzwerksegment entfernt befindet) helfen, ein Problem zu lokalisieren und einen optimalen Aktionsplan zu seiner Behebung zu entwickeln.

Die Sammlung von RMON-Informationen erfolgt durch Hardware- und Software-Probes, die direkt mit dem Netzwerk verbunden sind. Um die Aufgabe des Sammelns und der primären Analyse von Daten auszuführen, muss die Sonde über ausreichende Rechenressourcen und die Menge an RAM verfügen. Derzeit sind drei Arten von Sonden auf dem Markt: eingebettet, computerbasiert und eigenständig. Ein Produkt gilt als RMON-fähig, wenn es mindestens eine RMON-Gruppe implementiert. Je mehr RMON-Datengruppen in einem Produkt implementiert sind, desto teurer ist es natürlich einerseits und desto vollständiger Informationen über den Netzwerkbetrieb liefert es andererseits.

Eingebaute Sonden sind Erweiterungsmodule für Netzwerkgeräte. Diese Module sind von vielen Herstellern erhältlich, darunter große Unternehmen wie 3Com, Cabletron, Bay Networks und Cisco. (Übrigens haben 3Com und Bay Networks vor kurzem Axon und ARMON übernommen, renommierte Marktführer in der Entwicklung und Herstellung von RMON-Steuerungen. Das Interesse der großen Netzwerkgerätehersteller an dieser Technologie zeigt weiter, wie viel Fernüberwachung für die Benutzer erforderlich ist.) Die Entscheidung für den Bau RMON-Module in Hubs sieht natürlich aus, denn durch die Beobachtung dieser Geräte kann man sich eine Vorstellung von der Funktionsweise des Segments machen. Der Vorteil solcher Sonden liegt auf der Hand: Sie ermöglichen es, relativ günstig Informationen zu allen wichtigen RMON-Datengruppen zu erhalten. Der Nachteil ist zunächst die nicht sehr hohe Performance, die sich insbesondere darin äußert, dass eingebaute Probes oft nicht alle RMON-Datengruppen unterstützen. 3Com hat kürzlich seine Absicht bekannt gegeben, RMON-fähige Treiber für Etherlink III- und Fast Ethernet-Netzwerkadapter herauszugeben. Dadurch wird es möglich sein, RMON-Daten direkt an den Arbeitsplätzen im Netzwerk zu sammeln und zu analysieren.

Computerbasierte Probes sind einfach vernetzte Computer, auf denen der RMON-Softwareagent installiert ist. Diese Probes (zu denen beispielsweise Cornerstone Agent 2.5 von Network General gehört) bieten eine bessere Leistung als integrierte Probes und unterstützen im Allgemeinen alle RMON-Datensätze. Sie sind teurer als eingebaute Sonden, aber viel billiger als eigenständige Sonden. Darüber hinaus sind computerbasierte Sonden recht groß, was ihre Anwendbarkeit manchmal einschränken kann.

Autonome Sonden sind die leistungsstärksten; wie leicht verständlich sind dies zugleich die teuersten aller beschriebenen Produkte. In der Regel ist eine eigenständige Sonde ein Prozessor (i486-Klasse oder RISC-Prozessor), der mit ausreichend RAM und einem Netzwerkadapter ausgestattet ist. Die Marktführer in diesem Sektor sind Frontier und Hewlett-Packard. Sonden dieses Typs sind klein und sehr mobil - sie lassen sich sehr einfach mit dem Netzwerk verbinden und trennen. Bei der Lösung des Problems des Managements eines globalen Netzwerks ist dies natürlich keine sehr wichtige Eigenschaft, aber wenn RMON-Tools verwendet werden, um den Betrieb eines mittelgroßen Unternehmensnetzwerks zu analysieren, dann (angesichts der hohen Kosten von Geräte) kann die Mobilität von Sonden eine sehr positive Rolle spielen.

Das RMON-Objekt hat die Nummer 16 im MIB-Objektsatz, und das RMON-Objekt selbst ist gemäß RFC 1271 gebündelt, besteht aus zehn Datengruppen.

* Statistik - aktuelle akkumulierte statistische Daten zu Paketeigenschaften, Anzahl der Kollisionen usw.

* Historie - statistische Daten, die in regelmäßigen Abständen für die spätere Analyse von Trends in ihren Änderungen gespeichert werden.

* Alarme – statistische Schwellenwerte, oberhalb derer der RMON-Agent eine Nachricht an den Manager sendet. Ermöglicht dem Benutzer, eine Reihe von Schwellenwerten zu definieren (diese Schwellenwerte können sich auf verschiedene Dinge beziehen - jeden Parameter aus der Statistikgruppe, seine Amplitude oder Änderungsrate und vieles mehr), bei dessen Überschreiten ein Alarm generiert wird. Der Benutzer kann auch festlegen, unter welchen Bedingungen die Überschreitung des Schwellenwertes mit einem Alarmsignal einhergehen soll - so wird vermieden, dass ein Signal "umsonst" erzeugt wird, was erstens schlecht ist, weil niemand auf das ständig brennende rote Licht achtet , und zweitens, weil die Übertragung unnötiger Alarme über das Netzwerk zu einer unnötigen Überlastung der Kommunikationsleitungen führt. Ein Alarm wird normalerweise an eine Gruppe von Ereignissen weitergegeben, wo festgelegt wird, was als nächstes damit zu tun ist.

* Host - Daten über Hosts im Netzwerk, einschließlich ihrer MAC-Adressen ..

* HostTopN - eine Tabelle der am meisten belasteten Hosts im Netzwerk. Die Host-Tabelle Host N (HostTopN) enthält eine Liste der Top-N-Hosts mit dem höchsten Wert der angegebenen Statistik für das angegebene Intervall. Sie können beispielsweise eine Liste mit 10 Hosts anfordern, bei denen in den letzten 24 Stunden die maximale Anzahl von Fehlern aufgetreten ist. Diese Liste wird vom Agenten selbst erstellt, und die Verwaltungsanwendung erhält nur die Adressen dieser Hosts und die Werte der entsprechenden statistischen Parameter. Es zeigt sich, inwieweit dieser Ansatz Netzwerkressourcen spart.

* TrafficMatrix - Statistiken über die Verkehrsintensität zwischen jedem Hostpaar im Netzwerk, sortiert in einer Matrix. Die Zeilen dieser Matrix sind entsprechend den MAC-Adressen der Stationen - den Quellen der Nachrichten - und die Spalten - entsprechend den Adressen der Empfängerstationen nummeriert. Matrixelemente charakterisieren die Verkehrsintensität zwischen den jeweiligen Stationen und die Anzahl der Fehler. Durch die Analyse einer solchen Matrix kann der Benutzer leicht herausfinden, welche Stationspaare den intensivsten Verkehr erzeugen. Diese Matrix wird wiederum vom Agenten selbst gebildet, so dass keine großen Datenmengen an einen zentralen Computer übertragen werden müssen, der für das Netzwerkmanagement zuständig ist.

* Filter - Bedingungen zum Filtern von Paketen. Die Kriterien, nach denen Pakete gefiltert werden, können sehr unterschiedlich sein - Sie können beispielsweise verlangen, alle Pakete, deren Länge einen bestimmten vorgegebenen Wert unterschreitet, als fehlerhaft herauszufiltern. Wir können sagen, dass die Installation des Filters sozusagen der Organisation des Kanals zur Übertragung des Pakets entspricht. Wohin dieser Kanal führt, wird vom Benutzer bestimmt. Beispielsweise können alle fehlerhaften Pakete abgefangen und an den entsprechenden Puffer gesendet werden. Außerdem kann das Erscheinen eines Pakets, das dem eingestellten Filter entspricht, als ein Ereignis angesehen werden, auf das das System in einer vorbestimmten Weise reagieren muss.

* PacketCapture - Bedingungen zum Erfassen von Paketen. Eine Paketerfassungsgruppe umfasst Erfassungspuffer, in denen Pakete gesendet werden, deren Eigenschaften die in der Filtergruppe festgelegten Bedingungen erfüllen. In diesem Fall kann nicht das gesamte Paket erfasst werden, sondern beispielsweise nur die ersten mehreren zehn Bytes des Pakets. Der Inhalt der Abhörpuffer kann anschließend mit verschiedenen Softwaretools analysiert werden, was eine Reihe sehr nützlicher Eigenschaften des Netzwerks aufdeckt. Durch die Neuordnung der Filter für bestimmte Vorzeichen ist es möglich, verschiedene Parameter des Netzbetriebs zu charakterisieren.

* Ereignis - Bedingungen für die Registrierung und Generierung von Ereignissen. Die Ereignisgruppe legt fest, wann ein Alarm an die Verwaltungsanwendung gesendet, Pakete abgefangen und im Allgemeinen auf bestimmte Ereignisse im Netzwerk reagiert wird, z. B. wenn die in der Alarmgruppe festgelegten Schwellenwerte überschritten werden: die Steuerungsanwendung wird benachrichtigt, oder Sie müssen dieses Ereignis nur protokollieren und weiterarbeiten. Ereignisse können mit der Übertragung von Alarmen zusammenhängen oder auch nicht – zum Beispiel ist das Senden eines Pakets an den Erfassungspuffer ebenfalls ein Ereignis.

Diese Gruppen sind in der angezeigten Reihenfolge nummeriert, sodass beispielsweise die Gruppe Hosts den numerischen Namen 1.3.6.1.2.1.16.4 hat.

Die zehnte Gruppe besteht aus speziellen Objekten des TokenRing-Protokolls.

Insgesamt definiert der RMON-MIB-Standard etwa 200 Objekte in 10 Gruppen, die in zwei Dokumenten aufgezeichnet sind - RFC 1271 für Ethernet-Netzwerke und RFC 1513 für TokenRing-Netzwerke.

Eine Besonderheit des RMON-MIB-Standards ist seine Unabhängigkeit vom Network Layer Protocol (im Gegensatz zu den Standards MIB-I und MIB-II, orientiert an den TCP/IP-Protokollen). Daher ist es bequem, in heterogenen Umgebungen mit unterschiedlichen Netzwerkschichtprotokollen zu verwenden.

1 .2 Beliebte Netzwerkmanagementsysteme

Netzwerkmanagementsystem - Hardware- und / oder Softwaretools zur Überwachung und Verwaltung von Netzwerkknoten. Die Netzwerkmanagementsystemsoftware besteht aus Agenten, die auf Netzwerkgeräten lokalisiert sind und Informationen an die Netzwerkmanagementplattform übertragen. Die Kommunikationsmethode zwischen Verwaltungsanwendungen und Agenten auf Geräten wird durch Protokolle bestimmt.

Netzwerkmanagementsysteme müssen eine Reihe von Eigenschaften haben:

* echte Verteilung nach dem Client/Server-Konzept,

* Skalierbarkeit,

* Offenheit für den Umgang mit heterogenen - von Desktop-Computern bis hin zu Großrechnern - Geräten.

Die ersten beiden Eigenschaften hängen eng zusammen. Durch das verteilte Steuerungssystem wird eine gute Skalierbarkeit erreicht. Verteilt bedeutet, dass ein System mehrere Server und Clients umfassen kann. Server (Manager) sammeln Daten über den aktuellen Zustand des Netzwerks von Agenten (SNMP, CMIP oder RMON), die in die Netzwerkausrüstung eingebaut sind, und sammeln sie in ihrer Datenbank. Clients sind grafische Konsolen, die von Netzwerkadministratoren ausgeführt werden. Die Client-Software des Verwaltungssystems akzeptiert Anforderungen zum Ausführen von Aktionen vom Administrator (zum Beispiel Erstellen einer detaillierten Karte eines Teils des Netzwerks) und fordert die erforderlichen Informationen vom Server an. Wenn der Server über die notwendigen Informationen verfügt, überträgt er diese sofort an den Client, wenn nicht, versucht er, sie von den Agenten zu sammeln.

Frühe Versionen von Steuerungssystemen vereinten alle Funktionen in einem Computer, der von einem Administrator betrieben wurde. Für kleine Netzwerke oder Netzwerke mit einer geringen Menge an kontrollierten Geräten stellt sich eine solche Struktur als recht zufriedenstellend heraus, aber bei einer großen Menge an kontrollierten Geräten wird der einzige Computer, zu dem Informationen von allen Geräten im Netzwerk fließen, zu einem Engpass. Und das Netzwerk kann den großen Datenfluss nicht bewältigen, und der Computer selbst hat keine Zeit, sie zu verarbeiten. Darüber hinaus wird ein großes Netzwerk in der Regel von mehr als einem Administrator verwaltet, daher sollte es neben mehreren Servern in einem großen Netzwerk mehrere Konsolen für Netzwerkadministratoren geben, und jede Konsole sollte spezifische Informationen liefern, die den aktuellen Anforderungen eines bestimmten Administrator.

Ähnliche Dokumente

    Entwicklung der Struktur des lokalen Computernetzwerks GBOU SPO "VPT". Begründung der Topologie, Auswahl der Hardware für die Umschaltung und Segmentierung. Installation und Konfiguration von Netzwerkprotokollen und -diensten. Überwachungssystem für Netzwerkknoten und Netzwerkverkehr.

    Diplomarbeit, hinzugefügt am 25.10.2013

    Arten von LAN-Netzwerkkabeln. Funktionen zum Herstellen einer drahtlosen Wi-Fi-Verbindung. Berechnung der Arbeitsintensität bei der Erstellung eines LAN, der Kosten für seine Entwicklung und Installation. Geschätzter Gewinn aus dem Verkauf von LAN, Kapitalkosten des Käufers.

    Hausarbeit, hinzugefügt am 27.12.2010

    Analyse der Verwaltungssoftware des lokalen Netzwerks. Die Struktur von Netzwerkbetriebssystemen. Planung und Netzwerkarchitektur eines lokalen Netzwerks. Verwenden von Netzwerkressourcen als Beispiel für ein Unternehmen, das Internet-Provider-Dienste bereitstellt.

    Test, hinzugefügt am 15.12.2010

    Analyse und praktische Umsetzung des Einsatzes von Administration und Netzwerküberwachung im Unternehmen. Der Vorgang zum Erstellen einer Netzwerkkarte im LANState-Programm. Netzwerkprogramme für Systemadministratoren, Netzwerküberwachungsprogramme. Beschreibung des lokalen Computernetzwerks.

    Hausarbeit hinzugefügt am 15.02.2017

    Klassifizierung von lokalen Netzwerken. Typen von lokalen Netzwerktopologien. Interaktionsmodell von OSI-Systemen. Netzwerkgeräte und Kommunikationsmittel. Arten von Netzwerkkabeln. Konfiguration von Server-Rechnern, Workstation-Technik.

    Hausarbeit hinzugefügt am 05.01.2013

    Topologie und Prinzipien der Verwaltung eines Kabelnetzes, die Wahl einer Methode zum Anschluss von Netzwerkgeräten. Entwerfen eines lokalen Netzwerks. Abschätzung der Kosten für die Implementierung eines strukturierten Verkabelungssystems und eines unterbrechungsfreien Stromversorgungssystems.

    Diplomarbeit, hinzugefügt am 28.10.2013

    Funktionsdiagramm eines lokalen Netzwerks. Planung der Struktur und Topologie des Netzwerks. IP-Adressierung und TCP/IP-Protokoll. Einrichten eines Netzwerkdruckers und Antivirensystems NOD32. Kabelverlegetechnik. Patchkabel-Technologie.

    Hausarbeit, hinzugefügt am 08.08.2015

    Methoden zur Klassifizierung von Netzwerken. Entwicklung und Beschreibung der Struktur eines lokalen Netzwerks in einem fünfstöckigen Gebäude. Technische Informationen, hierarchische Sterntopologie. Client-Hardware. Serverinstallation und -konfiguration.

    Hausarbeit, hinzugefügt am 27.07.2011

    Auswahl passiver Netzwerkgeräte. Begründung der Notwendigkeit, das lokale Netzwerk des Unternehmens zu modernisieren. Auswahl eines Betriebssystems für Workstations und einen Server. Vergleichende Eigenschaften von D-Link-Switches. Lokale Netzwerkdiagramme.

    Hausarbeit hinzugefügt am 10.10.2015

    Das Konzept und der Zweck eines lokalen Netzwerks, das Konzept seines Aufbaus, die Wahl der Topologie. Entwicklung der Konfiguration und Berechnung der Netzwerkeigenschaften des LAN "Don Terminal" LLC: technische und Softwarekomponenten, Kosten; Informationssicherheit.

Netzwerküberwachung und -analyse

Eine ständige Überwachung des Netzes ist notwendig, um es in Betrieb zu halten. Die Kontrolle ist ein notwendiger erster Schritt, der im Netzwerkmanagement durchgeführt werden muss. Dieser Prozess des Netzbetriebs ist normalerweise in 2 Phasen unterteilt: Überwachung und Analyse.

In der Überwachungsphase wird ein einfacheres Verfahren durchgeführt - das Verfahren zum Sammeln von Primärdaten über den Betrieb des Netzwerks: Statistiken über die Anzahl der im Netzwerk zirkulierenden Frames und Pakete verschiedener Protokolle, den Status der Ports von Hubs, Switches und Routern , etc.

Als nächstes wird die Analysephase durchgeführt, die als komplexerer und intelligenterer Prozess verstanden wird, um die in der Überwachungsphase gesammelten Informationen zu verstehen, mit den zuvor erhaltenen Daten zu vergleichen und Annahmen zu treffen über mögliche Gründe langsame oder unzuverlässige Netzwerkleistung.

Werkzeuge zur Überwachung des Netzwerks und zur Erkennung von Engpässen in seinem Betrieb lassen sich in zwei Hauptklassen einteilen:

  • strategisch;
  • taktisch.

Der Zweck strategischer Werkzeuge besteht darin, eine Vielzahl von Parametern des gesamten Netzwerks zu kontrollieren und Probleme der LAN-Konfiguration zu lösen.

Der Zweck taktischer Tools besteht darin, Netzwerkgeräte und Netzwerkkabel zu überwachen und Fehler zu beheben.

Zu den strategischen Vermögenswerten gehören:

  • Netzwerkmanagementsysteme
  • eingebaute Diagnosesysteme
  • verteilte Überwachungssysteme
  • Diagnosetools für Betriebssysteme, die auf großen Maschinen und Servern ausgeführt werden.

Netzwerkmanagementsysteme, die von Unternehmen wie DEC, Hewlett-Packard, IBM und AT&T entwickelt wurden, bieten die umfassendste Übersicht. Diese Systeme basieren in der Regel auf einem separaten Computer und umfassen Steuerungssysteme für Workstations, Verkabelung, Stecker und andere Geräte, eine Datenbank mit Steuerungsparametern für Netzwerke verschiedener Standards und eine Vielzahl von technischen Dokumentationen.

Eine der besten Lösungen für das Netzwerkmanagement, die es dem Netzwerkadministrator ermöglicht, auf alle Elemente bis hin zur Workstation zuzugreifen, ist die LANDesk Manager-Suite von Intel, die Anwendungsüberwachung, Hardware- und Softwareinventarisierung sowie Virenschutz durch eine Vielzahl von Tools bietet. Dieses Paket bietet eine Vielzahl von Echtzeitinformationen über Anwendungsprogramme und Server, Daten über die Netzwerkaktivitäten der Benutzer.

Eingebettete Diagnosen sind in Netzwerkgeräten wie Bridges, Repeatern und Modems zu einem gängigen Merkmal geworden. Beispiele ähnliche Systeme der Open - View Bridge Manager von Hewlett - Packard und die Remote Bridge Management Software von DEC können dienen. Leider konzentrieren sich die meisten von ihnen auf die Ausrüstung eines Herstellers und sind mit der Ausrüstung anderer Unternehmen praktisch nicht kompatibel.

Verteilte Überwachungssysteme sind spezielle Geräte, die auf Netzwerksegmenten installiert sind und die umfassende Informationen über den Verkehr sowie Netzwerkstörungen erhalten sollen. Diese Geräte, die normalerweise an eine Administrator-Workstation angeschlossen sind, werden hauptsächlich in Multisegment-Netzwerken verwendet.

Zu den taktischen Werkzeugen gehören verschiedene Arten von Testgeräten (Tester und Netzwerkkabelscanner) sowie Geräte zur komplexen Analyse des Netzwerkbetriebs - Protokollanalysatoren. Testgeräte helfen dem Administrator, Netzwerkkabel- und Steckerfehler zu erkennen, und Protokollanalysatoren helfen, Informationen über den Datenaustausch im Netzwerk zu erhalten. Darüber hinaus umfasst diese Kategorie von Tools eine spezielle Software, mit der Sie in Echtzeit detaillierte Berichte über den Status des Netzwerks erhalten können.

Überwachungs- und Analysetools

Einstufung

Die ganze Vielfalt der Werkzeuge zur Überwachung und Analyse von Computernetzwerken lässt sich in mehrere große Klassen einteilen:

Netzwerkmanagementsysteme(NetworkManagementSystems) - zentralisierte Softwaresysteme, die Daten über den Zustand von Knoten und Kommunikationsgeräten im Netzwerk sowie Daten über den im Netzwerk zirkulierenden Verkehr sammeln. Diese Systeme überwachen und analysieren nicht nur das Netzwerk, sondern führen auch Netzwerkverwaltungsaktionen im automatischen oder halbautomatischen Modus durch - Aktivieren und Deaktivieren von Geräteports, Ändern der Parameter von Bridges in Adresstabellen von Bridges, Switches und Routern usw. Beispiele für die Verwaltung Systeme sind beliebte HPOpenView-, SunNetManager-, IBMNetView-Systeme.

Systemsteuerung(Systemmanagement). Systemsteuerungen führen häufig ähnliche Funktionen wie Steuerungssysteme aus, jedoch in Bezug auf andere Objekte. Im ersten Fall ist das Kontrollobjekt die Soft- und Hardware der Computer im Netzwerk und im zweiten Fall die Kommunikationsausrüstung. Einige der Funktionen dieser beiden Arten von Steuersystemen können jedoch dupliziert werden, beispielsweise können Systemsteuerungen die einfachste Analyse des Netzwerkverkehrs durchführen.

Eingebaute Diagnose- und Kontrollsysteme(Eingebettete Systeme). Diese Systeme werden in Form von Software- und Hardwaremodulen implementiert, die in Kommunikationsgeräten installiert sind, sowie in Form von Softwaremodulen, die in Betriebssysteme eingebaut sind. Sie führen Diagnose- und Kontrollfunktionen für nur ein Gerät aus, und dies ist der Hauptunterschied zu zentralisierten Kontrollsystemen. Ein Beispiel für diese Klasse von Tools ist das Hub-Management-Modul Distrebuted 5000, das die Funktionen der automatischen Segmentierung von Ports bei Erkennung von Fehlern, die Zuweisung von Ports zu internen Segmenten des Hubs und einige andere implementiert. In der Regel fungieren eingebaute Management-Module „part-time“ als SNMP-Agenten, die Gerätestatusdaten für Managementsysteme bereitstellen.

Protokollanalysatoren(Protokollanalysatoren). Sie sind Software- oder Hardware-Software-Systeme, die im Gegensatz zu Leitsystemen nur durch die Funktionen der Überwachung und Analyse des Verkehrs in Netzwerken eingeschränkt sind. Ein guter Protokollanalysator kann Pakete einer großen Anzahl von Protokollen, die in Netzwerken verwendet werden, erfassen und decodieren - normalerweise mehrere Dutzend. Protokollanalysatoren ermöglichen es Ihnen, einige logische Bedingungen für die Erfassung einzelner Pakete festzulegen und eine vollständige Dekodierung der erfassten Pakete durchzuführen, dh sie zeigen in einer für den Fachmann bequemen Form die Verschachtelung von Protokollpaketen unterschiedlicher Ebenen ineinander mit der Dekodierung des Inhalts von einzelne Felder jedes Pakets.

NS Expertensysteme... Diese Art von Systemen sammelt das Wissen von technischen Spezialisten über die Identifizierung der Ursachen eines abnormalen Netzwerkbetriebs und über mögliche Wege, um Netzwerke in einen funktionsfähigen Zustand zu bringen. Expertensysteme werden oft als separate Subsysteme verschiedener Netzwerküberwachungs- und Analysewerkzeuge implementiert: Netzwerkmanagementsysteme, Protokollanalysatoren, Netzwerkanalysatoren. Die einfachste Variante eines Expertensystems ist ein kontextsensitives Hilfesystem. Komplexere Expertensysteme sind sogenannte Wissensbasen mit Elementen der künstlichen Intelligenz. Ein Beispiel für ein solches System ist das Expertensystem, das in das Cabletron Spectrum-Steuerungssystem eingebaut ist.

Geräte zur Diagnose und Zertifizierung von Kabelsystemen... Konventionell lassen sich diese Geräte in vier Hauptgruppen einteilen: Netzwerkmonitore, Geräte zur Zertifizierung von Kabelsystemen, Kabelscanner und Tester (Multimeter).

Netzwerkmonitore(auch Netzwerkanalysatoren genannt) wurden entwickelt, um verschiedene Kategorien von Kabeln zu testen. Es sollte zwischen Netzwerkmonitoren und Protokollanalysatoren unterschieden werden. Netzwerkmonitore sammeln nur Daten zu Verkehrsstatistiken – durchschnittlicher Gesamtnetzwerkverkehr, durchschnittlicher Paketfluss mit einem bestimmten Fehlertyp usw.

Zuweisen von Geräten zu Zertifizierung von Kabelsystemen, folgt direkt aus ihrem Namen. Die Zertifizierung erfolgt nach den Anforderungen einer der internationalen Normen für Verkabelungssysteme.

Kabelscanner werden zur Diagnose von Kupferkabelsystemen verwendet.

Tester sind entworfen um Kabel auf physikalische Brüche zu überprüfen.

Multifunktionsgeräte für Analyse und Diagnose. In den letzten Jahren wurde es im Zusammenhang mit der Allgegenwart von lokalen Netzwerken notwendig, kostengünstige tragbare Geräte zu entwickeln, die die Funktionen mehrerer Geräte vereinen: Protokollanalysatoren, Kabelscanner und sogar einige Fähigkeiten von Netzwerkmanagementsoftware. Compas von Microtest Inc. ist ein Beispiel für diesen Gerätetyp. oder 675 LANMeter von FlukeCorp.

Protokollanalysatoren

Beim Entwurf eines neuen oder Modernisierung eines alten Netzwerks ist es häufig erforderlich, einige Eigenschaften des Netzwerks zu quantifizieren, wie z der einen oder anderen Art, die Häufigkeit des Auftretens, bestimmte Ereignisse und andere Merkmale.

Für diese Zwecke können verschiedene Mittel verwendet werden, und vor allem - Überwachungswerkzeuge in Netzwerkmanagementsystemen, die bereits in den vorherigen Abschnitten diskutiert wurden. Einige Messungen im Netzwerk können auch durch in das Betriebssystem integrierte Software-Messgeräte durchgeführt werden, ein Beispiel hierfür ist die Betriebssystemkomponente WindowsNTPerformanceMonitor. Auch moderne Kabeltester sind in der Lage, Pakete zu erfassen und deren Inhalt zu analysieren.

Das fortschrittlichste Tool zur Netzwerkerkundung ist jedoch ein Protokollanalysator. Der Protokollanalyseprozess umfasst das Erfassen und Untersuchen der Pakete, die im Netzwerk zirkulieren und ein bestimmtes Netzwerkprotokoll implementieren. Basierend auf den Ergebnissen der Analyse können Sie fundierte und ausgewogene Änderungen an allen Netzwerkkomponenten vornehmen, deren Leistung optimieren und Fehler beheben. Um Rückschlüsse auf die Auswirkungen einer Änderung auf das Netzwerk ziehen zu können, müssen natürlich die Protokolle sowohl vor als auch nach der Änderung analysiert werden.

Der Protokollanalysator ist entweder ein eigenständiges spezialisiertes Gerät oder ein meist tragbarer Personalcomputer der Notebook-Klasse, der mit einer speziellen Netzwerkkarte und entsprechender Software ausgestattet ist. Die verwendete Netzwerkkarte und Software muss der Netzwerktopologie (Ring, Bus, Stern) entsprechen. Der Analysator verbindet sich wie ein normaler Knoten mit dem Netzwerk. Der Unterschied besteht darin, dass der Analysator alle über das Netzwerk übertragenen Datenpakete empfangen kann, während eine normale Station nur die an sie adressierten Datenpakete empfangen kann. Die Analysesoftware besteht aus einem Kernel, der den Betrieb des Netzwerkadapters unterstützt und die empfangenen Daten dekodiert, und zusätzlichem Programmcode, der von der Art der Topologie des untersuchten Netzwerks abhängt. Darüber hinaus werden eine Reihe von protokollspezifischen Decodierungsroutinen bereitgestellt, wie beispielsweise IPX. Einige Analysatoren können auch ein Expertensystem enthalten, das dem Benutzer Empfehlungen geben kann, welche Experimente in einer bestimmten Situation durchgeführt werden sollten, was diese oder diese Messergebnisse bedeuten können und wie einige Arten von Netzwerkfehlfunktionen beseitigt werden können.

Trotz der relativen Vielfalt der Protokollanalysatoren auf dem Markt gibt es einige Funktionen, die mehr oder weniger in allen von ihnen enthalten sind:

  • Benutzeroberfläche. Die meisten Analysatoren verfügen über eine gut entwickelte benutzerfreundliche Oberfläche, die normalerweise auf Windows oder Motif basiert. Diese Schnittstelle ermöglicht dem Benutzer: die Ergebnisse der Verkehrsintensitätsanalyse anzuzeigen; eine sofortige und durchschnittliche statistische Schätzung der Netzwerkleistung erhalten; Legen Sie bestimmte Ereignisse und kritische Situationen fest, um ihr Auftreten zu verfolgen; dekodieren Protokolle verschiedener Ebenen und präsentieren den Inhalt von Paketen in verständlicher Form.
  • Aufnahmepuffer. Die Puffer der verschiedenen Analysatoren sind unterschiedlich groß. Der Puffer kann sich auf der installierten Netzwerkkarte befinden oder ihm kann Speicherplatz im RAM eines Computers im Netzwerk zugewiesen werden. Wenn sich der Puffer auf einer Netzwerkkarte befindet, wird er in Hardware verwaltet, wodurch die Eingabegeschwindigkeit erhöht wird. Dies führt jedoch zu einer Erhöhung der Kosten des Analysators. Bei unzureichender Leistung des Erfassungsverfahrens gehen einige Informationen verloren und eine Analyse ist unmöglich. Die Puffergröße bestimmt die Analysemöglichkeiten für mehr oder weniger repräsentative Stichproben der erfassten Daten. Aber egal wie groß der Aufnahmepuffer ist, früher oder später wird er sich füllen. In diesem Fall wird entweder die Erfassung beendet oder das Füllen beginnt am Anfang des Puffers.
  • Filter. Mit Filtern können Sie den Prozess der Datenerfassung steuern und somit Pufferspeicherplatz sparen. Abhängig vom Wert bestimmter Felder des Pakets, angegeben als Filterbedingung, wird das Paket entweder ignoriert oder in den Capture-Puffer geschrieben. Der Einsatz von Filtern beschleunigt und vereinfacht die Analyse erheblich, da die Anzeige der aktuell nicht benötigten Pakete ausgeschlossen ist.
  • Schalter sind einige Bedingungen, die vom Betreiber festgelegt werden, um den Vorgang der Datenerfassung aus dem Netzwerk zu starten und zu stoppen. Diese Bedingungen können die Ausführung manueller Befehle zum Starten und Stoppen des Erfassungsprozesses, die Tageszeit, die Dauer des Erfassungsprozesses, das Erscheinen bestimmter Werte in Datenrahmen sein. Schalter können in Verbindung mit Filtern verwendet werden, was eine detailliertere und subtilere Analyse sowie eine produktivere Nutzung einer begrenzten Größe des Aufnahmepuffers ermöglicht.
  • Suche. Einige Protokollanalysatoren ermöglichen es Ihnen, die Anzeige von Informationen im Puffer zu automatisieren und Daten darin nach festgelegten Kriterien zu finden. Während die Filter den Eingabestrom gegen die Filterbedingungen prüfen, werden die Suchfunktionen auf die bereits im Puffer angesammelten Daten angewendet.

Die Analysemethodik kann in den folgenden sechs Stufen dargestellt werden:

  1. Erfassen von Daten.
  2. Zeigen Sie erfasste Daten an.
  3. Datenanalyse.
  4. Suche nach Fehlern. (Die meisten Analysatoren erleichtern dies, indem sie Fehlertypen identifizieren und die Station identifizieren, von der das Fehlerpaket kam.)
  5. Leistungsforschung. Die Auslastung der Netzwerkbandbreite oder die durchschnittliche Antwortzeit auf eine Anfrage wird berechnet.
  6. Eine detaillierte Studie der einzelnen Abschnitte des Netzwerks. Der Inhalt dieser Phase wird während der Analyse konkretisiert.

Normalerweise dauert die Analyse der Protokolle relativ wenig Zeit - 1-2 Werktage.

Netzwerkanalysatoren

Netzwerkanalysatoren (nicht zu verwechseln mit Protokollanalysatoren) sind die Referenzmesswerkzeuge zur Diagnose und Zertifizierung von Kabeln und Verkabelungssystemen. Ein Beispiel sind die Netzwerkanalysatoren von HewlettPackard - HP 4195A und HP 8510C.

Netzwerkanalysatoren enthalten einen hochpräzisen Frequenzgenerator und einen schmalbandigen Empfänger. Durch Senden von Signalen unterschiedlicher Frequenzen an das Sendepaar und Messen des Signals im Empfangspaar können Dämpfung und NEXT gemessen werden. Netzwerkanalysatoren sind große und teure Präzisionsinstrumente (über 20'000 US-Dollar), die von geschulten Technikern für den Einsatz im Labor entwickelt wurden.

Kabelscanner

Mit diesen Geräten können Sie Kabellänge, NEXT, Dämpfung, Impedanz, Schaltplan, elektrisches Rauschen bestimmen und die erhaltenen Ergebnisse auswerten. Die Preise für diese Geräte reichen von 1.000 bis 3.000 US-Dollar. Es gibt viele Geräte dieser Klasse, zum Beispiel Scanner von Microtest Inc., Fluke Corp., Datacom Technologies Inc., Scope Communication Inc.. Im Gegensatz zu Netzwerkanalysatoren können Scanner nicht nur von speziell geschultem Fachpersonal verwendet werden, sondern auch von unerfahrenen Administratoren.

Die Kabelradarmethode oder TimeDomainReflectometry (TDR) wird verwendet, um einen Verkabelungsfehler (Unterbrechung, Kurzschluss, falscher Stecker usw.) zu lokalisieren. Der Kern dieser Methode besteht darin, dass der Scanner einen kurzen elektrischen Impuls in das Kabel aussendet und die Verzögerungszeit bis zum Eintreffen des reflektierten Signals misst. Die Art des Kabelschadens wird durch die Polarität des reflektierten Impulses bestimmt ( Kurzschluss oder Pause). Bei einem richtig installierten und angeschlossenen Kabel gibt es überhaupt keinen reflektierten Impuls.

Die Genauigkeit der Entfernungsmessung hängt davon ab, wie genau die Ausbreitungsgeschwindigkeit elektromagnetischer Wellen im Kabel bekannt ist. Es wird von Kabel zu Kabel unterschiedlich sein. Die Ausbreitungsgeschwindigkeit elektromagnetischer Wellen in einem Kabel (NVP - Nominalvelocityofpropagation) wird üblicherweise als Prozentsatz der Lichtgeschwindigkeit im Vakuum angegeben. Moderne Scanner enthalten eine Tabelle mit NVP-Daten für alle gängigen Kabeltypen und ermöglichen es dem Benutzer, diese Parameter nach vorheriger Kalibrierung selbst einzustellen.

Die meisten namhafte Hersteller kompakte (normalerweise nicht größer als ein VHS-Videoband) Kabelscanner sind Microtest Inc., WaveTek Corp., Scope Communication Inc.

Tester

Kabeltester sind die einfachsten und günstigsten Kabeldiagnosetools. Sie ermöglichen es Ihnen, die Kontinuität des Kabels zu bestimmen, geben jedoch im Gegensatz zu Kabelscannern keine Antwort auf die Frage, wo der Fehler aufgetreten ist.

Integrierte Netzwerküberwachung und -analyse

SNMP-Agenten

Heutzutage gibt es mehrere Standards für Kontrollinformationsdatenbanken. Die wichtigsten sind die Standards MIB-I und MIB-II sowie die Version der Datenbank für die Fernverwaltung RMONMIB. Darüber hinaus gibt es Standards für bestimmte Geräte-MIBs eines bestimmten Typs (zB MIBs für Hubs oder MIBs für Modems) sowie proprietäre MIBs bestimmter Gerätehersteller.

Die ursprüngliche MIB-I-Spezifikation definierte nur Leseoperationen für Variablenwerte. Die Vorgänge zum Ändern oder Einstellen der Werte eines Objekts sind Teil der MIB-II-Spezifikationen.


27.06.2011 Nate McAlmond

Ich habe drei Kandidaten ausgewählt: WhatsUp Gold Premium von Ipswitch, OpManager Professional von ManageEngine und ipMonitor von SolarWinds. Jeder dieser Netzwerkscanner kostet nicht mehr als 3.000 US-Dollar (pro 100 Geräte) und jeder hat eine Testphase, in der Sie Ihr ausgewähltes Produkt kostenlos testen können

Ich arbeite für ein mittelständisches Unternehmen und wir verwenden seit etwa sieben Jahren das gleiche Netzwerküberwachungssystem. Es liefert unseren Administratoren grundlegende Informationen über die Verfügbarkeit von Servern und Diensten und sendet bei Problemen auch SMS-Textnachrichten an unsere Mobiltelefone. Ich bin zu dem Schluss gekommen, dass das System aktualisiert oder zumindest ein effektives Tool hinzugefügt werden muss, das eine bessere Leistung bietet und detaillierte Informationen über den Zustand der in Ihrem Netzwerk gehosteten Terminalserver, Exchange-Systeme und SQL-Systeme liefert . ... Vergleichen wir unsere Kandidaten.

Entdeckungsprozess

Zur Vorbereitung des Tests bestand der erste Schritt darin, den SNMP-Dienst auf allen Geräten, einschließlich Windows-Servern, zu aktivieren. Durch das Ändern der SNMP-Diensteinstellungen habe ich auf allen Geräten, die der Überwachungsprozess abdecken soll, schreibgeschützten Zugriff eingestellt. Auf Windows Server 2003/2000-Systemen wird SNMP mithilfe des Windows-Komponenten-Assistenten im Bereich „Software“ installiert Windows-System Server 2008 SNMP-Komponenten werden mithilfe des Server-Manager-Assistenten hinzugefügt. Nach Abschluss des Assistenten müssen Sie das Dienste-Snap-In im Ordner „Systemsteuerung“ starten und den SNMP-Dienst konfigurieren – es ist ganz einfach. Verwaltete Netzwerkgeräte wie Firewalls, Switches, Router und Drucker verfügen ebenfalls über eine SNMP-Dienstverwaltung, und der Konfigurationsprozess ist normalerweise recht unkompliziert. Weitere Informationen SNMP finden Sie im Simple Network Management Protocol (technet.microsoft.com/en-us/library/bb726987.aspx).

Als nächstes installierte ich alle drei Überwachungssysteme auf einem meiner beiden Arbeitssysteme mit Windows XP SP3. Nach der Installation bestand jedes System aus zwei Teilen: einer Datenbank und einem Webserver. Jedes der ausgewählten Systeme kann über die Webschnittstelle von mehreren Administratoren verwaltet werden, und Sie haben die Möglichkeit, Konten mit unterschiedlichen Zugriffsebenen zu konfigurieren. Gemeinsam ist den drei Systemen, dass jeder Benutzer in seinem Arbeitsbereich Panels hinzufügen, entfernen und verschieben kann. Panels zeigen Daten desselben Typs an, z. B. CPU-Last oder Speichernutzung für verschiedene Geräte im Netz.

Vor dem Start des Netzwerkscans (der als Erkennungsprozess bezeichnet wird) setze ich die Kontoparameter, die jedes System verwenden soll, um Zugriff auf die im Netzwerk erkannten Geräte zu erhalten. Wie in der Vergleichstabelle gezeigt, können Sie mit Ipswitch WhatsUp Gold Premium ein Konto für SNMP-, WMI-, Telnet-, SSH-, ADO- und VMware-Dienste konfigurieren. ManageEngine OpManager Professional unterstützt SNMP, WMI, Telnet, SSH und URL, während SolarWinds ipMonitor SNMP, WMI und URL unterstützt.

Nachdem ich den SNMP-Dienst auf Netzwerkgeräten und -konten (Windows und SNMP) für jedes der Netzwerküberwachungssysteme konfiguriert hatte, startete ich den Ermittlungsprozess für einen Bereich von IP-Adressen in meinem lokalen Netzwerk. Alle Systeme haben etwa 70 Geräte erkannt. Unter Verwendung der Standardscaneinstellungen schnitten die getesteten Systeme gut bei der Identifizierung von Gerätetypen ab und lieferten detaillierte Informationen zum Gerätestatus. Alle drei Systeme enthalten Sensoren für die grundlegende Geräte- und Serverleistung wie CPU-Auslastung, Speicherauslastung, Festplattenauslastung/-vollständigkeit, Paketverlust/Latenz, Status von Exchange-Diensten, Lotus, Active Directory und allen Windows-Diensten. Jedes der Systeme hatte die Möglichkeit, Sensoren sowohl für einzelne Geräte als auch für große Gerätegruppen hinzuzufügen.

OpManager und WhatsUp Gold verfügen über eine Schnittstelle zum Identifizieren und Sammeln von VMware-Dienstereignissen von Servern und Gästen. Darüber hinaus verfügen beide Produkte über eine Switch-Port-Manager-Abfragefunktion, die anzeigt, welche Geräte an den verschiedenen Ports der verwalteten Switches angeschlossen sind. Anhand der erhaltenen Informationen können Sie feststellen, welcher Port des Switches mit einer bestimmten Geschäftsanwendung verbunden ist, ohne dass Kabel in Serverräumen manuell nachverfolgt werden müssen. Zukünftig können Sie Warnungen für bestimmte Switch-Ports konfigurieren. Wenn Sie mit dem OpManager-Paket arbeiten, um die Ergebnisse des Port-Polling zu erhalten, wählen Sie einfach den Switch aus und führen Sie das Switch-Port-Mapper-Tool aus - das System gibt die Ergebnisse in wenigen Sekunden zurück. Ein ähnliches Tool, das in WhatsUp Gold enthalten ist, heißt MAC-Adresse und muss mit aktivierter Option Get Connectivity ausgeführt werden. WhatsUp Gold braucht länger, um ein Ergebnis zu erhalten, da versucht wird, Geräte zu scannen und Informationen über Verbindungen im gesamten Netzwerk zu sammeln.

Ipswitch WhatsUp Gold Premium

Ipswitch WhatsUp Gold Premium
PRO:
bietet die genauesten Ergebnisse unter drei Wettbewerbern, ermöglicht die Erstellung eigener Sensoren, bietet umfassende Überwachungstools für VMware-Systeme, lässt sich in AD integrieren.
GEGEN: weniger eingebaute Sensoren und höhere Kosten im Vergleich zu Mitbewerbern (wenn Sie eine Lizenz für weniger als 500 Geräte erwerben).
GRAD: 4,5 von 5.
PREIS: 7495 US-Dollar für 500 Geräte, 2695 US-Dollar für 100 Geräte, 2195 US-Dollar für 25 Geräte.
EMPFEHLUNGEN: Ich empfehle WhatsUp Gold IT-Abteilungen, die große VMware-Umgebungen bedienen oder eigene Sensoren entwickeln möchten.
KONTAKTINFORMATIONEN: Ipswitch, www.ipswitch.com

Bei der Arbeit mit den Systemen IpMonitor und OpManager stieß ich von Zeit zu Zeit auf unverständliche Messwerte, die mich verblüfften. Im IpMonitor konnten die Dashboards negative Werte anzeigen, wenn die CPU-Auslastung deutlich nachließ. In einem anderen Fall, als die Prozessorlast nahe Null war, schickte mir das IpMonitor-System eine Benachrichtigung, dass der Prozessor mit 11,490% ausgelastet war! Das OpManager-System, das die korrekten Informationen über die Festplattennutzung der Domänencontroller verfolgt und mir sendet, hat in einigen Fällen keinen der Controller in die Liste der 10 Server mit der maximalen Festplattenspeichernutzung aufgenommen. Gleichzeitig kündigte das angrenzende Panel an, dass einer meiner Domänencontroller nicht einmal unter den Top Ten, sondern unter den Top 3 sein soll. Bei der Verwendung von WhatsUp Gold sind mir solche Situationen nicht begegnet. WhatsUp Gold überwacht die Prozessorkernauslastung in seinen Dashboards und wenn ich die Ergebnisse der WhatsUp Gold-Dashboards mit den Messwerten vergleiche Windows-Tools Performance Monitor, sie sind für jeden der Kerne genau gleich. Ebenso wurden Informationen zur Festplattennutzung korrekt an alle relevanten Anwendungen im Arbeitsbereich gemeldet.

WhatsUp Gold verfügt über eine integrierte Sensorbibliothek, mit der Sie aus bestehenden Sensoren neue Sensoren erstellen können. Große Organisationen finden diese Funktion möglicherweise nützlich, da Sie damit einheitliche Sensorensätze für die Überwachung verschiedener Gerätetypen erstellen können - dies ist das meiste effektiver Weg Sensoren für eine Gruppe von Geräten konfigurieren.

WhatsUp Gold hat keine Sensoren für einzelne Gerätehersteller (mit Ausnahme eines Sensors für APC-USV-Netzteile), im Gegensatz zur OpManager-Suite, die eigene Sensoren für Dell-, HP- und IBM-Geräte verwendet, aber es ermöglicht Ihnen, Sensoren wie z als ActiveScript. Mit diesem Typ können Sie Ihre eigenen Überwachungsprozesse mit den Programmiersprachen VBScript und JScript entwickeln. Active Script-Sensoren verfügen über ein Online-Support-Center, in dem WhatsUp Gold-Benutzer vorgefertigte Skripte abrufen und herunterladen können.

Die einzige Verbesserung, die ich WhatsUp Gold hinzufügen möchte, ist die Benutzeroberfläche (Abbildung 1), hauptsächlich weil sie zu linear ist. Es sind beispielsweise bis zu 5 Klicks auf die Schaltflächen Abbrechen und Schließen erforderlich, um vom Fenster Active Monitor Library zum Arbeitsbereich zurückzukehren. Außerdem fehlt dem WhatsUp Gold-System ein Sensor (es sei denn, Sie schreiben ihn manuell), der den Status der Site überprüft, und dies kann erforderlich sein, insbesondere in Fällen, in denen die Site auf einem Server eines Drittanbieters und dort gehostet wird Es gibt keine anderen Möglichkeiten, darauf zuzugreifen.


Abbildung 1: Die WhatsUp Gold Premium-Benutzeroberfläche

Um Situationen zu bewältigen, in denen Geräte längere Zeit inaktiv waren, können Sie Benachrichtigungen einrichten, die alle 2, 5 und 20 Minuten gesendet werden. Auf diese Weise können Sie den Administrator für einen bestimmten Zeitraum auf die ausbleibende Reaktion kritischer Knoten aufmerksam machen.

WhatsUp Gold ist das einzige geprüfte System, das sich in eine LDAP-Umgebung integrieren lässt – dies kann bei der Auswahl einer Lösung für große Netzwerke entscheidend sein.

ManageEngine OpManager

ManageEngine OpManager
PRO:
die beste Benutzeroberfläche unter den drei Produkten; mehr eingebaute Sensoren als die anderen beiden Systeme; am meisten niedriger Preis beim Kauf einer Lizenz für 50 oder weniger Geräte.
GEGEN: während der Tests wurden nicht alle Geräteanzeigen korrekt angezeigt; Es kann einige Zeit dauern, bis das Debugging voll funktionsfähig ist.
GRAD: 4,5 von 5.
PREIS: 1995 $ für 100 Geräte, 995 $ für 50 Geräte, 595 $ für 25 Geräte.
EMPFEHLUNGEN: IT-Abteilungen, die das Beste aus der Box herausholen möchten (ohne AD-Integration), werden OpManager Professional zu schätzen wissen. Wenn Sie Lizenzen im Gerätebereich 26-50 kaufen, sind die Kosten fast halb so hoch wie die der anderen beiden Produkte.
KONTAKTINFORMATIONEN: ManageEngine, www.manageengine.com

Nach der Installation von OpManager stellte ich fest, dass es mit einer Vielzahl von Funktionen einfach zu konfigurieren und leicht zu navigieren war. OpManager kann (zusammen mit E-Mails und SMS) Direktnachrichten an Ihr Twitter-Konto senden - eine schöne Alternative Email... Durch die Verwendung von Twitter-Konten kann ich auf dem Laufenden bleiben, was im Netzwerk passiert, aber da mein Telefon nicht klingelt, wenn Nachrichten vom Twitter-System zugestellt werden, möchte ich gleichzeitig Textbenachrichtigungen über die wichtigsten Ereignisse erhalten. Ich kann Schwellenwertinformationen auf jedem Server mithilfe von Twitter-Nachrichten anzeigen und habe somit ein Protokoll der aktuellen Ereignisse im Netzwerk, aber ich muss dieses Schema nicht verwenden, um Warnungen über kritische Situationen zu senden.

Zusätzlich zu den Standardsensoren bietet OpManager Technologien zur SNMP-Leistungsüberwachung, die von Anbietern für Geräte wie Dell Power-Edge, HP Proliant und IBM Blade Center entwickelt wurden. OpManager kann auch in integriert werden Google Maps API, dank der Sie Ihre Geräte zur Google Map hinzufügen können. Sie müssen jedoch gemäß den Lizenzbedingungen für die kostenlose Version des Google Maps-API-Systems ein Google Maps API Premium-Konto erwerben (es sei denn, Sie beabsichtigen, Ihre Karte öffentlich zugänglich zu machen).

Um Situationen zu bewältigen, in denen ein Administrator eine Warnung erhält, aber nicht innerhalb einer bestimmten Zeit darauf reagiert, kann OpManager so konfiguriert werden, dass eine zusätzliche Warnung an einen anderen Administrator gesendet wird. Beispielsweise könnte ein Mitarbeiter, der normalerweise für die Behandlung kritischer Ereignisse für eine bestimmte Servergruppe zuständig ist, beschäftigt oder krank sein. In einem solchen Fall ist es sinnvoll, eine zusätzliche Warnung einzurichten, die die Aufmerksamkeit eines anderen Administrators auf sich zieht, wenn die erste Warnung nicht innerhalb einer festgelegten Anzahl von Stunden / Minuten angezeigt oder gelöscht wurde.

Von den drei betrachteten Produkten verfügte nur das OpManager-System über einen Abschnitt zur Überwachung der Qualität der VoIP-Vermittlungen im globalen Netz. Um VoIP-Überwachungstools verwenden zu können, müssen Geräte sowohl im Quell- als auch im Zielnetzwerk die Cisco IP SLA-Technologie unterstützen. Darüber hinaus enthält das OpManager-System, wie in Abbildung 2 gezeigt, mehr Sensoren und Dashboards als jedes Konkurrenzprodukt.


Abbildung 2: OpManager Professional-Schnittstelle

SolarWinds ipMonitor

SolarWinds ipMonitor
PRO:
unbegrenzte Anzahl von Geräten zu einem sehr niedrigen Preis; Benutzerfreundlichkeit.
GEGEN: Es gibt keinen Mechanismus zum Koordinieren der Aktionen von Administratoren.
GRAD: 4 von 5.
PREIS: 1995 $ - die Anzahl der Geräte ist nicht begrenzt (25 Sensoren sind kostenlos).
EMPFEHLUNGEN: Wenn Ihr Budget knapp ist und Sie eine große Anzahl von Geräten überwachen müssen, wenn der Überwachungsprozess keine komplexen Lösungen erfordert und Sie mit einem nicht-systematischen Ansatz zur Koordinierung von Administratoraktionen vertraut sind, ist SolarWinds Ihr System.
KONTAKTINFORMATIONEN: SolarWinds, www.solarwinds.com

Nach meiner ersten Einführung in ipMonitor war die Benutzeroberfläche in Abbildung 3 für mich verwirrend. Ich habe fast eine Ewigkeit gebraucht, um eine Stelle zu finden, an der die Häufigkeit der Systemüberprüfungen für einzelne Systemsensoren konfiguriert ist (standardmäßig wurde die Umfrage alle 300 Sekunden durchgeführt). Nachdem ich ipMonitor mehrere Wochen lang verwendet hatte, stellte ich jedoch fest, dass dieses System äußerst einfach zu bedienen ist und über ausreichende Fähigkeiten für eine hochwertige Netzwerküberwachung verfügt. Mit ipMonitor können Sie den Standardscan so konfigurieren, dass alle Dienst- oder Leistungseinstellungen immer in zukünftigen Scans berücksichtigt werden. Zusätzlich zu den standardmäßigen (und oben genannten) Sensoren bietet ipMonitor einen Protokollsensor Windows-Ereignisse die verwendet werden kann, um Warnungen zu senden, wenn kritische Ereignisse erkannt werden.


Abbildung 3 SolarWinds ipMonitor-Schnittstelle

Auf der anderen Seite verfügt ipMonitor nicht über Mechanismen zum Verfolgen / Zuweisen von Alarmzielen. Es spielt keine Rolle, ob das Unternehmen einen Netzwerkadministrator hat, aber größere IT-Abteilungen werden wahrscheinlich die Unfähigkeit des Systems, Warnungen zu bestätigen, Empfänger zuzuweisen und Warnungen zurückzusetzen, als erheblichen Nachteil empfinden. Wenn Administratoren vergessen, sich außerhalb des Systems zu koordinieren, ist es möglich, dass mehrere Administratoren dieselbe Warnung erhalten und mit der Arbeit an demselben Problem beginnen. Um solche Konflikte zu lösen, reicht es jedoch aus, einen konsistenten Algorithmus für die Reaktion auf Warnungen zu entwickeln – wenn beispielsweise die Verantwortung für Netzwerkgeräte auf Administratoren aufgeteilt ist, stellt sich keine Frage, wer sich mit einem bestimmten Problem befassen soll.

Zeit eine Entscheidung zu treffen

Ich habe schon für mich entschieden, welches der drei Produkte für mein Umfeld besser geeignet ist. Ich habe mich aus mehreren Gründen für den ManageEngine OpManager mit einer 50-Geräte-Lizenz entschieden.

Zuallererst benötige ich die Möglichkeit, die maximale Anzahl von Parametern meiner Umgebung zu verfolgen, da dies Die beste Weise vermeiden Sie unerwartete Ausfälle. In dieser Hinsicht ist das OpManager-System der Konkurrenz definitiv voraus. Der zweite Grund ist das Budget. Ich kann weiterhin unsere alten On/Off Monitoring Tools für Workstations und Drucker nutzen und vermeide so die Kosten für zusätzliche Lizenzen. Schließlich hat mir der Ansatz von ManageEngine bei der Entwicklung von OpManager sehr gut gefallen, um die neue Technologie zu nutzen, und ich denke, es lohnt sich, in den Kauf eines jährlichen Wartungs- und Supportpakets zu investieren, um Updates während der Produktentwicklung herunterzuladen.

Nate McAlmond ( [E-Mail geschützt]) - IT-Leiter eines Sozialdienstes, MCSE, Security and Network +, spezialisiert auf Thin Client-Lösungen und medizinische Datenbanken