Artikel pedia
| Home | Kontakt | Artikel einreichen | Oberseite 50 artikel | Oberseite 50 autors
 
 
Artikel kategorien
Letztes fugte hinzu
    Nennen sie 3 konstruktionsgrundsätze und erklären sie diese
   1 kondensator und spule im wechselstromkreis
   Grundlagen
   Aerodynamik bei flugzeugen
   
   Leitungen
   Ersatzschaltbilder
   5. _bohren, reiben, senken
   Projekt fertigungstechnik pulvermetallurgie, sintern
   Digitale signalverarbeitung
   Analogschalter
   Qualitätswerkzeuge / tools of quality
   Logische elektronik
   Ir-datenübertragung
   Drucker und plotter
alle kategorien


  Netzwerk

Netzwerk – Vernetzung von EDV-Anlagen Die Vorüberlegung und Notwendigkeit eines Netzwerkes Eine Information gibt über die Merkmale eines Objektes Aufschluss. Die Informatik beschäftigt sich nun mit der automatisierten Form der Informationsverarbeitung. Das bedeutet, dass sie mit Ausgangsinformationen logische oder arithmetische Verknüpfungen erstellt um die Daten zu verarbeiten und dies dann anschließend zu sichert, weiterzuverarbeiten oder dem Anwender auszugeben. Nach der Styllogistik des Aristoteles können aber nur vorliegende Informationen verarbeitet werden. Dies auf die EDV übertragen bedeutet, das ein Rechner nur Daten verarbeiten kann, auf die er zugriff hat. Da in vielen Institutionen große Datenmengen anfallen, die nicht alle auf einem einzigen Speichermedium Platz finden werden meist die Teilbereiche auf separaten Rechnern gespeichert.

Dies entspricht auch der Problemanalyse des systematischen Problemlösens in der Informatik, die unter anderem eine Zerlegung des Gesamtproblems in Teilprobleme fordert. Für eine Firma wie „Baumüller“ würde dies Beispielsweise bedeuten das sie sich in die Kategorien: Entwicklung, CAD, Auftragsabwicklung, Lagerverwaltung, Marketing, ..., Reparatur aufteilt. Es stellt nun aber ein Problem dar, wenn die Entwicklung aus der Lagerverwaltung oder die Auftragsabwicklung aus dem Bereich CAD Informationen benötigt, da jeder Arbeitsplatzrechner nur die Daten lesen kann, auf die er Zugriff hat, also die auf seinen internen oder externen Speichermedien vorhanden sind.

Aus diesem Grunde ist es wichtig Rechner mit abhängigem Informationsgehalt untereinander zu verbinden, so das ein Informationsaustausch stattfinden kann. Man spricht hierbei vom „vernetzen“ von EDV-Anlagen.   Definition Die Gesamtheit der untereinander verbundenen Rechner ergibt das Netzwerk. Ein Netzwerk kann aus zwei bis mehreren tausend Computern bestehen.   Aus der Geschichte In der Erwartung eines Atomkriegs beauftragte die Luftwaffe der Vereinigten Staaten im Jahre 1962 eine kleine Gruppe von Forschern mit der Aufgabe ein Kommunikationsnetzwerk zu schaffen, das einen nuklearen Angriff überleben könnte. Das Konzept war revolutionär: ein Netzwerk, das nicht zentral kontrolliert wurde.

Wenn einer (oder 10 oder 100) seiner Knotenpunkte zerstört würden, sollte das System trotzdem weiterlaufen. Dieses Netzwerk (ausschließlich für militärische Zwecke geplant) würde selbst die Apokalypse überleben. Der für die Existenz des Internet Hauptverantwortliche ist Paul Baran. Im Jahr 1962 arbeitete Baran bei der Rand Corporation, der »Denkfabrik«, die mit der Entwicklung dieses Konzepts beauftragt wurde. Baran stellte sich ein Netzwerk vor, in dem alle Rechner miteinander kommunizieren könnten. Dies war ein radikales Konzept, das jegliche Konventionen brach.

Baran war sich einfach bewusst, dass zentralisierte Netzwerke zu verwundbar gegen Angriffe waren. In seinem heute berühmten Memorandum „On Distributed Communications: I. Introduction to Distributed Communications Network” schrieb er: „Das zentralisierte Netzwerk ist offensichtlich verwundbar, da die Zerstörung eines einzelnen zentralen Knotenpunkts ausreicht, um die Kommunikation zwischen den Endgeräten zu zerstören.“ Leider waren Barans Ideen ihrer Zeit einen guten Schritt voraus. Das Pentagon setzte wenig Vertrauen in derart radikale Konzepte. Baran lieferte den Offiziellen der Verteidigungsbehörde einen elfbändigen Bericht, der sofort ad acta gelegt wurde.

Wie sich herausstellte, verzögerte die Kurzsichtigkeit des Pentagons die Geburt des Internet, aber nicht sehr lang. 1965 wurde das Projekt wieder gestartet. Gelder wurden verteilt, um ein dezentralisiertes Computernetzwerk zu entwickeln, und im Jahr 1969 wurde dieses Netzwerk Realität. Das System hieß ARPANET. Für heutige Begriffe war das ARPANET sehr einfach aufgebaut. Es vernetzte die Computer von vier amerikanischen Forschungseinrichtungen (das Stanford Research Institute, die University of Utah, die University of California in Los Angeles und die University of California in Santa Barbara).

  Vorraussetzungen für ein NetzwerkUm den betrieb eines Netzwerkes aufzunehmen müssen aber folgende Aspekte erfüllt werden: Kompatibilität: Die Daten müssen so aufbereitet werden, dass sie von allen angeschlossenen Computern gelesen werden können. Da sich Daten nämlich auf sehr unterschiedlichen Computersystemen befinden können, deren Besitzer und Hersteller im Allgemeinen keine untereinander kompatiblen Betriebssystem und Prozessoren verwenden, können die Rechner untereinander nicht richtig kommunizieren. Zuverlässigkeit: Es muss gewährleistet sein, dass die Daten vollständig und richtig beim Empfänger ankommen. Sicherheit: Es dürfen nur Informationen, auf die die Nutzer Anspruch haben gelesen werden. Alle Informationen müssen vor dem Zugriff von Unbefugten geschützt sein. Prioritätssystem: Einer Überlastung des Netzwerkes muss durch Vorrichtungen und sog.





Prioritätssystemen vorgebeugt werden.   Rescource-Sharing, Server und ClientDas Rescource-Sharing war eine der ersten Anwendungen, die sich aus der Vernetzung von Computern ergab. Unter Rescource-Sharing versteht man die gemeinsame Nutzung von Peripheriegeräten. Große Festplatten, Laserdrucker usw. waren sehr teuer, dass es vorteilhafter war, sie für mehrere Computer gemeinsam zu nutzen. Das Peripheriegerät ist an einem Rechner angeschlossen, auf den andere Rechner über Netzleitungen zugriff haben.

Den Rechner, der in einem Netzwerk Dienste oder Daten zur Verfügung stellt nennt man Server. Die Nutzer dieser Dienste und Daten bezeichnet man hingegen als Clinten. Durch diese Erkenntnis lässt sich die Leistung eines Betriebes steigern, da Arbeitsgruppen gemeinsam Dokumente und Projekte bearbeiten, Datenbestände nutzen, Informationen aus anderen Netzwerken holen und elektronische Post weltweit versenden und empfangen. Besonders bei der Entwicklung ist dies von großem Vorteil. So können beispielsweise Konstrukteure aus Taiwan ihren Entwicklungsfortschritt nach Amerika senden wenn sie Dienstschluss haben und die Amerikaner gleich weiter arbeiten, weil bei ihnen der Dienst gerade beginnt. Wenn diese wiederum ihre Arbeitsstätte verlassen übermitteln sie den neuen Fortschritt zurück nach Taiwan, wo dieser gleich weiterbearbeitet wird.

So ist eine schnellere und sichere Entwicklung möglich, da ohne große Pause an einem Projekt gearbeitet wird und durch mehrere Entwickler Fehlerquellen eher auffallen.   Netzwerk-Praxis ÜbertragungsweiseZunächst müssen die technischen Voraussetzungen für eine Vernetzung geschaffen werden. Dazu werden die Geräte durch ein Kabel mit mindestens zwei Drähten miteinander verbunden. Die Informationsübertragung im Kabel ist grundsätzlich bitseriell, d. h. dass jedes Byte, also jedes Zeichen in einer Datei, in seine 8 Bits verlegt wird, und jedes Bit nacheinander (seriell) gesendet wird.

Am Empfängergerät werden dann die einzelnen dualwerte der Bits wieder zu Bytes zusammengefasst. Die Geschwindigkeit beträgt bei den gängigen Modellen 10 bis 100 Millionen Bits pro Sekunde. Die neusten Modelle können ein Gigabit pro sec. also eine Milliarde Bit pro Sekunde übertragen.   Das OSI – Schichtenmodell Um Daten in einer Gruppe von Computern durch ein Netzwerk zu senden ist eine spezielle Software nötig, die den Datenaustausch regelt. Die International Standards Organisation (ISO) und das International Telegraph and Telephone Consultative Committee (CCITT) entwickelten gemeinsam das Referenzmodell OSI (Open Systems Interconnection).

Zusammen mit anderen Modellen gewinnt es nach Beobachtung des Frankfurter Schulungsunternehmens stärker an Bedeutung für die Anlage einer Anbieter-Netzwerkarchitektur sowie als Anknüpfungspunkt bei der Zusammenschaltung heterogener Netze. Das OSI – Modell besteht aus 7 Schichten. Jede fügt zum eigentlichen Datenpaket eine für sie typische Steuerinformation hinzu und reicht das erweiterte Paket an die nächste Schicht. Auf diesem Wege gelange die Information von der 7ten Ebene, die den kompletten Sendevorgang durch eine Anwendung einleitet, zu der ersten, die für die bitserielle Übertragung verantwortlich ist. Nun wird das sieben mal verpackte Datenpaket über das Kabel zum Empfänger transportiert. Dort angekommen trifft es in der ersten Schicht ein.

Folglich entfernt bzw. nutzt jede Ebene die Daten der Zusatzsteuerinformation. In der 7ten Schicht angekommen, kann nun die Anwendung die „eigentlich“ gesendeten Daten verwerten. Im Prinzip tauscht beim Transport von Informationen jede Schicht des Senders mit der des Empfängers Daten aus. Es besteht daher eine „virtuelle“ Verbindung zwischen ihnen.  Netzwerkkarte, Protokoll und EthernetUm die Daten übertragen zu können benötigt der Computer eine bestimmte Schnittstelle, die oft in Form einer Netzwerkkarte vorhanden ist.

Sie ist für Empfang und Versand der Daten im Netzwerk verantwortlich, wie auch für die jeweilige Übermittlungsvorschrift dieser. Diese Vorschrift nennt man auch Protokoll. In ihm wird das Verhalten des Netzwerkes und in welcher Form die Daten übertragen werden sollen festgelegt. Alle Geräte in einem Netzwerk haben sich diesem Protokoll zu unterwerfen. [In Netzwerken werden fast ausschließlich Ethernet-Karten verwendet, da das Ethernet derzeit von allen Netzwerktechniken am meisten verbreitet ist und damit Karten, Kabel und Geräte einfach und preiswert zu beschaffen sind. Die Entwicklung der Ethernet-Norm reicht weit zurück: 1973 erstmals bei der Firma Xerox erprobt, wurde die Übertragungsgeschwindigkeit 1979 von den Firmen DEC, Intel und Xerox auf 10 Megabit pro Sekunde festgelegt.



1995 folgte dann mit dem „Fast-Ethernet“ die heute gebräuchliche Version, die mit 100 Megabit pro Sekunde arbeitet. Die grundlegende Idee des Ethernets ist, das alle an das Netzwerk angeschlossene Karten zum Senden und Empfangen das gleiche Kabel verwenden. Um Sender und Empfänger der Daten auf diesem gemeinsamen Kabel eindeutig zu bestimmen, hat jede Ethernet-Karte eine eigene, weltweit eindeutige Kennnummer. Nachteil der Ethernet-Norm ist allerdings, dass immer nur ein Datentransfer stattfinden kann, also immer nur eine Karte ihre Informationen sendet. Sollte nun der Fall eintreten, dass beide Karten gleichzeitig das Senden beginnen, brechen die Karten die Übertragung ab und erstellen eine Zufallszahl von Sekunden, in denen ein neuer Sendeversuch unternommen werden soll. So ist es sehr unwahrscheinlich, dass es erneut zu einem Konflikt kommt.

Je größer die Anzahl der Teilnehmer in einem Netzwerk ist, desto häufiger wird es zu Konflikten kommen und so auch häufiger zu „Zwangspausen“, die die Karten beim Datenversand einlegen müssen.] Netzwerkkarten werden grundsätzlich in ihrer Geschwindigkeit und in der Form ihrer Anschlussbuchse unterschieden. Hier bieten sich zwei Möglichkeiten: ein BNC-Anschluss und ein sog. Twisted-Pair Anschluss. Es gibt Netzwerkkarten die über beide als auch nur über den entsprechend einzelnen verfügen.   BNC-Anschluss Bei älteren Ethernet-Netzwerken wird oft ein koaxiales Kabel verwendet, das sich von einem angeschlossenen Rechner zum nächsten zieht.

Koaxiale Kabel sind wie mehrer Kreise um eine gemeinsame Achse aufgebaut: In der Mitte ein einzelner Leiter, außen die Abschirmung, die beispielsweise vor den Funkwellen eines Handys oder andere elektrische Störungen, die zu Signalfehlern auf den Netzleitungen führen können schützt. Am Anfang und am Ende dieses auch „10Base2“ oder „Cheapernet“ genannten Kabels müssen so genannte „Abschlusswiderstände“ angeschlossen sein. Vor allem für kleinere Netze war diese Verkabelung recht beliebt. Doch so einfach und preiswert diese Verkablungsart auch sein mag hat sie zwei Nachteile und ist deshalb nicht mehr zeitgemäß: eine höhere Störanfälligkeit und die Beschränkung auf eine Übertragungsrate von nur 10 Megabit pro Sekunde.   Twisted-Pair Anschluss Weniger anfällig für Störungen ist ein Bündel aus einfachen, miteinander verdrehen Leitungspaaren, englisch „twisted-pair“ genannt. Für eine Übertragung von 10MBit/sec reichen dabei zwei Leitungspaare aus: eins zum senden und eins zum empfangen von Daten.

Die Länge dieser Kabel zwischen einem zum anderen Gerät darf dabei aber nicht mehr als 100 Meter betragen. In der Fachsprachen bezeichnet man das Twisted-Pair Kabel auch als „10BaseT“-Kabel. Um eine Übertragungsrate von 100MBit/sec zu erreichen verwendet man ein höherwertiges Kabel das sog. „100BaseT“-Kabel.   [Weitere Kabel und Verbindungen „10Base5“: Ein gelbes, dickes und teures Koaxialkabel, das in der Anfangszeit der Netzwerke verwendet wurde, heute jedoch fast nicht mehr eingesetzt wird. „10BaseT4“, „100BaseT4“: Anstelle von zwei Leiterpaaren werden hier vier verwendet.

Dieser Standard wird in Europa fast gar nicht mehr verwendet. „10BaseFL“, „100BaseFX“: Hier werden, statt elektrischer Signale über Drähte, Lichtimpulse durch Glasfasern als Lichtwellenleiter übertragen. Der Vorteil hierbei ist, dass die Übertragung kaum anfällig für Störungen ist und das eine Verbindungsstrecke von bis zu 20 Kilometern zwischen den Geräten erreicht werden kann. Jedoch ist diese Verbindungsvariante sehr kostspielig. „1000Base“: Diese auch als „Gigabit-Ethernet“ bezeichnete Technik verwendet (wie „100BaseT4“) vier statt zwei Aderpaare und erreicht so eine nochmals zehnfache Übertragungsgeschwindigkeit, nämlich 1000MBit/sec. Ebenfalls ist dieses Kabel nicht sehr preiswert.

]   Die grundlegenden NetzwerktopologienMan unterscheidet drei grundsätzliche Möglichkeiten, Computer untereinander zu verbinden:Bus-Topologie Alle Computer sind an eine Hauptleitung, den Bus, angeschlossen. Die Enden der Busleitungen werden mit einem Abschlusswiderstand versehen Weitere Computer lassen sich problemlos an den Bus anklemmen. Ein großen Defizient besteht aber darin, dass das gesamte Netzwerk ausfällt, und damit alle ungesicherten Daten verloren gehen, wenn der Bus an einer Stelle unterbrochen wird. Aus diesem Grunde eignet sich die Bus-Topologie nicht für größere Netzwerke jedoch für kleinere Netze ist sie recht beliebt.   Ring-Topologie Alle Computer sind, wie der Name schon sagt, ringförmig miteinander verbunden. Ist die Leitung unterbrochen bedeutet dies ebenfalls einen Kommunikationsausfall und Datenverlust.




Diese Topologie wird jedoch bevorzugt bei der Anbindung von Großrechnern verwendet und durch einen zusätzlich durchgezogenen Ring abgesichert.   Stern-Topologie Die Verbindungskabel von den einzelnen Netzwerkkarten laufen in einem Knotenpunkt zusammen. Dieser sog. Hub sorgt dafür, das die von einer Netzwerkkarte gesendeten Daten auf den Empfangsleitungen aller angeschlossenen Computer erscheinen. Ein Hub ist also so etwas wie ein Verstärker, der die Weiterleitung der Signale übernimmt. Hubs gibt es üblicherweise mit Anschlüssen für 4, 8, 12, 16, 24 oder 32 Computern.

  Strukturen und Netzwerkgeräte Mehrere Hubs und RepeaterAus dein drei grundlegenden Topologien lassen sich größere Strukturen bilden. So können über den „Uplink-Anschluss“ mehrere Hubs zusammengeschaltet werden um auf diese Weise das Netzwerk zu vergrößern. Es können jedoch nur 120 Rechner nach diesem Schema vernetzt werden, wobei die Kabellänge nicht mehr als 200 Meter zwischen den Rechnern und den Hubs – und natürlich auch zwischen den einzelnen Hubs - betragen darf. Ist es unvermeidbar, dass die Labellänge 200 Meter überschreitet, so werden Repeater zwischen die Geräte geschaltet. Sie verstärken die Signale, so dass sie auch über weite Strecken beim Empfänger ankommen.   Die BridgeWenn das Netzwerk nun größere Ausmaße erreicht, sollte man sich Gedanken über die Leistungsfähigkeit machen, denn je mehr Teilnehmer ein Netzwerk hat, desto größer ist die Gefahr, dass sich die Teilnehmer gegenseitig behindern.

Dies ist dann der Fall, wenn zwei Netzwerkkarten gleichzeitig Daten senden wollen. Die einfachste Lösung ist hier die Aufteilung des Netzwerkes in Teilnetze (des gleichen Typs), die durch eine Bridge miteinander verbunden sind. Im Vergleich zu einem Hub, der einfach alles weitergibt, liest die Bridge die gesendeten Datenpakete in den Teilnetzen mit. Aus den Absender-Angaben jedes Datenpaketes merkt sie sich die Adressen der Netzwerkkarten, die sich in jedem der beiden angeschlossenen Teilnetze befindet. Sendet nun ein Computer ein Datenpaket über das Netz, dessen Empfänger sich im selben Teilnetz befindet, dann tut die Bridge nichts. Liest sie dagegen ein Datenpaket, dessen Empfänger sich in einem anderen Teilnetz befindet, schickt sie dieses Datenpaket an das entsprechende Teilnetz weiter.

Eine Bridge bietet folgende Vorteile: Da alle Datenpakete automatisch weitergeleitet werden, sehen die Teilnetze (die sog. „Segmente“) in ihrer Gesamtheit für die Computer wie ein einziges, großes Netzwerk aus, in dem jeder Computer mit jedem anderen Daten austauschen kann – im Gegensatz zu getrennten Netzen. In jedem Segment können Daten übertragen werden, ohne dass ein anderes Segment behindert wird. Störungen in einem Segment greifen nicht auf das andere Segment über. Dort kann problemlos weitergearbeitet werden. Daten, die innerhalb eines Segmentes übertragen werden, sind in den jeweils anderen unsichtbar, was das Ausspionieren der Daten erschwert.

Durch die Verwendung von zwei Bridges mit speziellen Techniken kann man zwei Teilnetze miteinander verbinden, die weit auseinander liegen, zum Beispiel in zwei Gebäuden. Dieser Vorteil zieht jedoch auch ein großes Manko hinter sich: Da eine Bridge alle Daten zunächst prüfen muss, ob sie an das andere Teilnetz weiterzuleiten sind, wird die Datenübertragung deutlich verzögert. Bei einem Netzwerk von weniger als 50 Rechnern wirkt eine Bridge daher eher als Bremse, anstatt die Übertragung zu beschleunigen.   Der RouterEs stellt nun ein Problem dar, wenn die Entfernung oder die Anzahl der Teilnetze größer wird, es unterschiedliche Strukturen annimmt und man die Verbindung nur bei Bedarf über eine Telefonleitung herstellen will. In diesem Fall hilft ein Router weiter. Ein Router kann eine Telefonverbindung herstellen und Datenpakete über diese von einem Netzwerk zu einem anderen Router transportieren, der sie daraufhin in das Netz des Adressaten einspeist.

Auch eine Internetverbindung kann ein Router schnell und automatisch aufbauen. Allerdings unterscheidet sich die Art der Weiterleitung bei einem Router ganz erheblich von der in einer Bridge. Bridges benutzen die eingebauten Adresse der Netzwerkkarte, um zu entscheiden, ob und in welches Teilnetz ein Datenpaket weitergeleitet werden muss. Das ist für ein fest installiertes Netz auch sinnvoll, denn dadurch erreichen alle Datenpakete schnell und einfach ihren Bestimmungsort. Muss nun aber eine Karte ausgetauscht werden, ändert sich auch die Adresse des betreffenden Rechners im Netz. Die Lösung dieses Problems basiert darauf, das man sich das Protokoll zu nutze macht und in ihm für jeden Rechner eine eigene, Gesamtnetzwerkinterne, Kennung festlegt.



Ein Router verwendet nun beim transportieren von Daten nicht die eingebaute Kennung der Netzwerkkarte sondern die Kennung des Rechners im Protokoll. Dadurch kann ein Router Daten sogar an völlig anders aufgebaute Netzwerke weiterleiten (also Netze, die nicht der Ethernet-Norm entsprechen), solange die Computer im anderen Netz das selbe Protokoll verwenden.  Der SwitchEin Switch arbeitet nach dem gleichen Prinzip wie eine Bridge, kann aber mehr und bremst das System nicht so stark. Ein Switch wartet nicht, bis er das ganz Datenpaket gelesen hat, sondern sendet die Daten nach Möglichkeit sofort weiter, nachdem die Adresse des Empfängers gelesen wurde. Da diese Adresse gleich am Anfang des Datenpakets verzeichnet ist, hält sich der Zeitverlust im Gegensatz zur Bridge in Grenzen. Darüber hinaus unterteilt ein Switch das Netz meist gleich in mehrer Segmente.

Ein Computer, der viele Daten austauscht, kann sogar ein Segment für sich allein besitzen: ein so genanntes „privates Ethernet“. Damit sich daraus auch wirklich ein Vorteil ergibt, ist der Switch in der Lage, gleichzeitig Daten zwischen verschiedenen Segmenten zu transportieren. In großen Netzwerken, in denen viele Segmente benötigt werden, kombiniert man mehrere Switches zu einem sog. „Stack“. Darin tauschen die beteiligten Switches über eine spezielle, sehr schnelle Verbindung untereinander Daten aus. Nach außen erscheinen sie daher wie ein einziger großer Switch, da diese Kombination im Stack die Laufzeit der Daten kaum beeinträchtigt.

Ein weiterer Vorteil von Switches ist, dass hier verschiedene Kabel mit unterschiedlichen Übertragungsgeschwindigkeiten kombiniert werden können.   Der Gateway Um schließlich unterschiedliche Rechneranlagen wie zum Beispiel PCs und Großrechner miteinander zu verbinden, wird ein Gateway benötigt. Ein Gateway ist eine spezielle Software, die als Übersetzer der unterschiedlichen Codes arbeitet.  Öffentliche Netzwerke LAN (Local Area Network) Ein Netz, das sich auf einen Betrieb oder eine ähnlich abgeschlossenen, lokalen Bereich beschränkt nennt man LAN (Local Area Network).   WAN (Wide Area Network) Netzwerke, die einem großen Kreis von Teilnehmern offen stehen und räumlich weit voneinander getrennt sind, so das eine Verbindung über eine Telefonleitung am nächsten liegt, nennt man WAN (Wide Area Network).   Internet Das Internet ist ein Weltweiter Verbund von weit über einer Million Rechnern.

Alle an diese Netzwerk angeschlossenen Computer kommunizieren über ein einheitliches Protokoll. Der Zugang zum Internet ist allerdings nicht direkt, sondern nur über sog. Provider möglich, die für ihre Dienste eine Gebühr berechnen.   Betriebssysteme für Netzwerke In der Regel findet sind beim LAN oder WAN ein anderes Betriebssystem, das speziell auf die Anforderungen eines Netzwerkes ausgelegt ist. Zu diesen zählen unter anderen das leistungsstarke LINUX und das fehlerbehaftete WindowsNT oder Windows2000. Trotzdem werden mit einem WindowsNT System die Sicherheitsbestimmungen der Stufe C2 des amerikanischen Verteidigungsministeriums erfüllt.

Dies bedeutet, das es unter anderem folgende Kriterien erfüllt: Sichere Anmeldungsfunktion: Ein Benutzer muss über ein gültiges Benutzerkonto verfügen, damit er Zugriff auf das System erhält. Das bedeutet, dass ein Benutzer beim Starten von WindowsNT seinen Benutzernamen und sein Kennwort eingeben muss, um Zugang zum Computer und den Daten zu erhalten. Beschränkte Zugriffskontrolle: Der Besitzer (Erzeuger) einer Ressource entscheidet, wer welche Rechte an diesen Daten bekommt. Überwachungsfunktion: Mit Hilfe dieser kann aufgezeichnet werden, welche Aktionen von wem und wann durchgeführt werden. Zugriffsschutz auf Speicher: Dieser Zugriffsschutz verhindert, dass ein Benutzer auf die Daten eines anderen Benutzers zugreifen kann, wenn dieser den Speicherbereich nicht mehr nutzt und an das System zurückgegeben hat.      

Suchen artikel im kategorien
Schlüsselwort
  
Kategorien
  
  
   Zusammenfassung Der Vorleser
   sachtextanalyse
   interpretation zwist
   Fabel interpretation
   literarische charakteristik
   interpretation bender heimkehr
   felix lateinbuch
   interpretation der taucher von schiller
   textbeschreibung
   charakterisierung eduard selicke


Anmerkungen:

* Name:

* Email:

URL:


* Diskussion: (NO HTML)





Partner: www.litde.com | impressum | datenschutz

© Copyright Artikelpedia.com