Artikel pedia
| Home | Kontakt | Artikel einreichen | Oberseite 50 artikel | Oberseite 50 autors
 
 


Artikel kategorien
Letztes fugte hinzu
    Ms-access

   Instrumentation + schnittstellen

   Pc tuning - volle kraft voraus für ihr system

   Informatorische grundlagen

   Javascript

   Interne sortieralgorithmen - der kern der sache

   Plotter und sonstige drucker

   Frage 20 (rössl priska)

   Internet - programmierung

   Monitore

   Semesterarbeit und spezialgebiet für informatik

   Erörterungs zum thema

   Inhaltsverzeichnis

   Einführung in die entwicklung ganzheitlicher informationssysteme:

   Titel dokument
alle kategorien

  Ich habe das thema computer gewählt, weil ich mich sehr häufig damit

Ich habe das Thema Computer gewählt, weil ich mich sehr häufig damit beschäftige. Sei es bloss, um irgendein Foto digital zu verbessern oder um einen einfachen Text zu schreiben, oder um sich die Zeit etwas zu vertreiben. Aus dem letzten Grund entstand auch unser Netzwerk mit zwei Computern, welches demnächst noch ausgebaut werden soll, aus diesem Grund fingen auch mein Bruder und ich damit an, unsere Pcs selber zusammenzustellen und zusammenzusetzen. Ich bin eindeutig interessiert, an den kleinen surrenden Kästchen, das sieht man daran, dass ich vor habe, einmal Informatik zu studieren.   Das Thema Computer ist auch für den Lehrerberuf nicht ohne Bedeutung, so hat die Primarschule Murten doch schon einen eigenen Computerraum mit etwa zwanzig Computern. Selbst im Klassenzimmer unserer \"Ubungsschulklasse stehen hinten zwei Computer.

Und die Arbeitsblätter und Prüfungen werden auch immer häufiger und einfacher mit Computern hergestellt.   Um also mal einen Einblick in die Geschichte der Rechner zu erhalten, wird im ersten Kapitel die Geschichte von ganz vorne aufgerollt und erläutert, bis ins Jahr 1924.   Das zweite Kapitel handelt davon, wie die Elektronik die Mechanik Schritt für Schritt ablöst.   Im dritten Kapitel wird der Zusammenhang zwischen der Computerentwicklung und dem Militär erläutert. Es wird hauptsächlich ein ganz grosses Projekt der Vereinigten Staaten nach dem Zweiten Weltkrieg erklärt. Auch gehe ich kurz auf das Thema Raumfahrt ein.

  Das vierte Kapitel ist der Gegenwart gewidmet. Es geht um das Internet, wie es entstanden ist, was es für Dienste anbietet und welche Auswirkungen es auf unser Geschäfts- und Alltagsleben hat.   Kapitel fünf stellt die Betriebssysteme vor, die heute am bekanntesten und verbreitesten sind.   Der letzte Teil der Facharbeit geht um das heimtückische Einschleichen der Rechner in unser ganz alltägliches Leben.     \section{Die Wurzeln des Computers} Wenn man sich verdeutlicht, dass ein Computer nur rechnet, so kann man sagen, dass der erste Computer bereits 1617 aufgetaucht ist. Es ist eine hölzerne Additionsmaschine, die vom Schotten John Napier erfunden wurde.

Später entwickelte Napier eine Rechenhilfe zum Multiplizieren, Dividieren und Wurzelziehen.   Zu dieser Zeit gab es den Begriff Computer bereits, allerdings meinte man damit nicht einen grauen Kasten, der surrt und ab und zu blinkt, sondern einen Menschen, der seinen Lebensunterhalt damit verbrachte, zu rechnen. Das erste Mal als eine solche Computermannschaft aufgestellt wurde, war im Jahre 1766. Ihr Auftrag war es, die Navigationstabellen des britischen Königreichs zu erstellen.   1822 schlägt Charles Babbage der britischen Königsgesellschaft vor, dass eine Maschine die Arbeit der menschlichen Computer übernehmen soll. Die britische Regierung erklärt sich bereit, Babbage's Pläne zu unterstützen.

Charles Babbage reist während zehn Jahren durch Europas Werkstätten und sucht die präzisesten Zahnräder und die feinste Mechanik. Nachdem er die Regierung 17'470 Pfund gekostet hat (etwa 20 Dampflokomotiven), stellt er einen lauffähigen Prototypen her. Als Babbage jedoch versucht, die Regierung von seiner neuen Idee zu überzeugen, nämlich eine Maschine, die jede ihr gestellte mathematische Aufgabe löst, erkennt die Regierung, dass Babbage den Bezug zur Realität verloren hat. Von der Regierung erhält er nie wieder auch nur einen Penny. Den Rest seines Lebens verbringt er jedoch damit, seine Idee umzusetzen. Bis 1871 füllt er tausende von Seiten in seinen Notizbüchern über seine ``Analytical Engine'': eine vollautomatische Maschine mit Speicher, Lochkartensteuerung und Druckwerk.

Charles Babbage war seiner Zeit etwa um hundert Jahre voraus.   \begin{figure}[ht] \begin{center} \includegraphics[width=5cm]{Babbage.eps} \caption{Babbages ``Difference Engine'' besteht aus 2000 Teilen, geplant waren 25'000} \end{center} \end{figure}   Die Lochkarte wird erst um 1890 eingeführt. Das amerikanische Amt für Volkszählungen schrieb nämlich einen Wettbewerb aus, um die Erhebung der Daten neu zu organisieren (1880 brauchten 1500 Angestellte sieben Jahre um alle Daten auszuwerten und zusammenzuzählen). Die durch Hermann Hollerith präsentierte Lochkarte gewinnt diesen Wettbewerb und kommt eben im Jahre 1890 erstmals bei statistischen Aufgaben zum Zug. Sie diente allerdings bereits zu Beginn des 19.

Jahrhunderts als Träger von Steuerungsprogrammen für Webstühle.   Hollerith erkrankt 1911 und verkauft seine Lochkartenfirma (Lochkarten, Leseapparate \ldots). Die Firma die sie mit zwei anderen Geräteherstellern bildet wird 1924 umbenannt und erhält den Namen ``IBM'', International Business Machines Corporation. Thomas Watson, der Chef dieses Unternehmens, wird in den dreissiger Jahren einer der bestbezahltesten Manager der USA. Es gelingt ihm, die Macht der grössten Firma der Büromaschinenwelt, auf den Computermarkt zu übertragen.   \section{Die Mechanik wird von der Elektronik abgelöst}   \subsection{Das digitale Zeitalter bricht an}   \subsubsection{Alan Turing} 1936 entwirft Alan Turing einen imaginären Rechenapparat, der nur auf Papier existiert.


Seine Maschine liest und schreibt auf einem unendlichen Band Symbole. Sie geht dabei nach einem Algorithmus vor, das heisst, sie verfährt nach einem festgelegten Ablauf. Dass der 24-jährige ein mathematisches Genie war, wurde erkannt, dass er den Grundstein für die Computer der Zukunft geliefert hatte, jedoch nicht.   \subsubsection{Konrad Zuse, Z3 und seine Vorgänger}   Mit geringem Aufwand an Personal und Material gelingt es dem Berliner Bauingenieur Konrad Zuse 1941 als erstem, einen funktionsfähigen, programmierbaren Relaisrechner (Z3) fertigzustellen. Die Vorgängermodelle Z1 (1938) und Z2 werden ohne staatliche Unterstützung in der elterlichen Wohnung gefertigt. Das Ziel von Zuses Arbeiten besteht darin, schematisch ablaufende Berechnungen, die im Bereich der Baustatik häufig auftreten, zu automatisieren.

Zuse, der seine ersten beiden Maschinen noch mit der Unterstützung von Freunden und den Geldmitteln eines Spezialrechenmaschinen-Fabrikanten entwickelte, ist nach Kriegsbeginn auf die Unterstützung von militärischer Seite angewiesen. Sowohl die Deutsche Versuchsanstalt für Luftfahrt, die die Z3 teilfinanziert, als auch die Henschel Flugzeugwerke, die ihm Artbeitskräfte für sein während des Krieges gegründetes Ingenieurbüro zur Verfügung stellen, sind mit der Entwicklung der ferngesteuerten Bomben V1 und V2 beschäftigt. Zuse wird vom Fronteinsatz freigestellt und entwickelt bei Henschel einen Spezialrechner für die Flügelvermessung dieser Bomben. Allerdings ist dieses Spezialgerät das einzige, das direkt zur Stärkung des deutschen Militärpotentials beiträgt. Die Anforderungen an die Maschinen Z1 bis Z4 sind in erster Linie durch Probleme aus dem Bereich der Baustatik bestimmt. Für Zuse war die entgültige Maschinenstruktur noch nicht gefunden.

Diese hatte sich den Aufgaben anzupassen. Also musste der Weiterentwicklung der Maschinen die Entwicklung eines Plankalküls vorausgehen, der es erlaubte, die einschlägigen Probleme zu beschreiben. Für die Probleme, die Zuse zum Massstab nahm, war zu dieser Zeit für eine Bearbeitung auf den Maschinen kein großes Interesse vorhanden.   Der Zusammenbruch des Hitler-Faschismus setzt der deutschen Rechnerentwicklung vorerst ein Ende. Im Rahmen der nationalen und internationalen Entwicklung der Informatik sind Zuses Arbeiten lediglich von historischem Wert. Zwanzig Jahre nach Beendigung des Zweiten Weltkrieges gibt es die von Zuse gegründete Firma nicht mehr.

Sie ist von dem größten deutschen Rechnerhersteller, der Siemens AG, aufgekauft worden. Doch auch bei Siemens ist der dominierende Einfluss der amerikanischen Entwicklung sichtbar geworden.   \subsubsection{Howard Aiken / Mark1} Ebenfalls im Jahre 1936 beschliesst der Physikstudent Howard Aiken, eine Maschine zu bauen, die Differentialgleichungen lösen kann. Die Frma IBM bietet ihm finanzielle Unterstützung an. Nach sechs Jahren wird sein Rechenapparat fertig gestellt. Die Maschine namens \textsc{Mark1} wiegt fünf Tonnen und ist fünfzehn Meter lang.

Sie schafft drei Additionen pro Sekunde, um einen Logarithmus auszurechnen braucht sie über eine Minute. Die von Hermann Hollerith bekanntgemachte Lochkarte findet auch hier wieder Verwendung, nämlich als Programmspeicher. Man kann allerdings nicht mehr von Lochkarten sprechen, die Programmkarten für \textsc{Mark1} sind acht Zentimeter breite, mehrfach gefaltete Bänder, in die die Rechenprogramme eingelocht sind.   \subsubsection{John Atanasoff} Die durch die trägen, elektromechanischen Schaltungen sehr langsamen Apparate von Konrad Zuse und Howard Aiken wurden bereits im nächsten Jahr, 1937 von der Idee des Mathematikers John Atanasoff überholt. Er plant ein binäres Rechengerät, welches mit Elektronenröhren funktioniert. Da keine Mechanik betätigt werden muss, schalten sie viel schneller, als die bisherigen Relais.

Sie waren also für den Computerbau ideal. John Atanasoff stoppt jedoch seine Computerforschung als er von einem Forschungslabor der amerikanischen Marine angeworben wird.   \subsubsection{Der Krieg treibt den Fortschritt voran / Colossus} Die Entwicklung des Computers wird nicht nur von neuen Technlogien (Röhren, Lochkarte\ldots) oder vom Erfindergeist mancher klugen Leute vorangetrieben, sondern auch vom Bedürfnis der Computer zu militärischen Zwecken.   Alan Turing wird vom britischen Geheimdienst geholt, um ein Gerät namens Colossus zu bauen. Dieses Gerät ermöglicht es den Alliierten, die Funkcodes der deutschen Chiffriermaschine Enigma zu entschlüsseln. Colossus ist zu einem grossen Teil auch ein Faktor, weshalb die Alliierten über das dritte Reich siegen.

  \subsubsection{John Mauchly / Eniac}   Eine andere Anwendung der Computer im Militär ist die Berechnung von Schussbahntabellen. Eine typische Feuertabelle enthält ca. 3000 Flugbahnen. Der von Bush entwickelte Differential Analyzer ist zwar etwas schneller als die bis dahin entwickelten Relaisrechner, auch 50mal schneller als ein Mensch mit einem mechanischen Tischrechner, jedoch hätte die Berechnung einer einzigen Feuertafel noch 30 Tage gedauert.   Aufgrund eines Vorschlages von John W, Mauchly, in dem er empfiehlt, Röhren zum Bau von Rechnern zu verwenden, schreiben er und Prosper Eckert 1943 einen Report über einen ``Electronic Diff. Analyzer'', der mindestens 10mal so schnell sein sollte wie die bisher benutzten Maschinen.

Sie senden ihn im Namen der Moore School an das Ballistic Research Laboratory in Aberdeen. Nach einem kurzen Treffen in Aberdeen werden die Mittel zur Realisierung dieses Vorschlages vom Militär bewilligt. Mauchlys Konzept basiert auf den Anregungen von J. v. Atanasoff, der ihm bereits 1941 seine Vorstellungen einer digitalen elektronischen Version des Differential Analyzers unterbreitet hatte. Atanasoff ist aufgrund fehlender finanzieller, personeller und technischer Mittel nicht in der Lage, seine Vorstellungen selbst zu verwirklichen.

  Das Ergebnis, der Electronical Numerical Integrator and Computer (ENIAC) erfüllt die militärischen Anforderungen an die Rechengeschwindigkeit besser als erwartet; er ist etwa 1000mal schneller als die Relaisrechner (wie \textsc{Mark1}) und der Differential Analyzer. Er ist etwa vierundzwanzig Meter lang und zwei Meter hoch. Sein Inneres besteht aus über 18'000 Elektronenröhren.   Die bis zu diesem Zeitpunkt verbreiteten Analogmaschinen verlieren ihre Bedeutung. Die mechanischen Geräte haben gegenüber den Digitalrechnern den Nachteil, daß sie mit wachsender Rechengeschwindigkeit ungenauer werden. Von Neumann begründete seine Erwartung, daß Digitalrechner effektiver sind, mit dem Argument, dass bei digitalen Maschinen mit doppelten Kosten eine doppelte Geschwindigkeit erzielt werden kann, dieser Faktor jedoch bei analogen Geräten erheblich ungünstiger wäre.

  Obwohl auch heute noch für spezielle militärische Anwendungen leistungsfähige Analogrechner eingesetzt werden, haben sie auf die weitere Rechnerentwicklung keinen Einfluß. Sie können ebenso wie die elektromechanischen Rechner die durch militärische Erfordernisse forcierten Anforderungen an Rechengeschwindigkeiten, Verarbeitungskapazität und Zuverlässigkeit nicht erfüllen.   \subsubsection{John von Neumann}   Wiederum gefördert von den Ballistic Research Laboratories, entwickelt das ENIAC-Team den Electronic Discrete Variable Arithmetic Computer (EDVAC). Im EDVAC-Entwurf wird zum ersten Mal das Konzept eines Universalrechners mit interner Programmspeicherung (von Neumann-Rechner) entwickelt, das auch heute noch das Grundprinzip des Computers ist. Durch die Verbreitung dieser Entwürfe und die Vorlesungen von Neumanns an der Moore School (1946) werden die Arbeiten der ENIAC-Gruppe international bekannt. Der ENIAC wird als Wurzel der Computerentwicklung betrachtet.

Die enormen finanziellen Mittel, die das amerikanische Verteidigungsministerium zur Förderung der Rechnerentwicklung weiterhin aufwendet, verschaffen den Amerikanern eine weltweite Vormachtsstellung auf dem Gebiet der Rechnerentwicklung.     \subsection{Der Transistor kommt mit ins Spiel} William Shokley, John Bardeen und Walter Brattain erfinden 1947 den Transistor. Er wird zunächst nur als Verstärker gebraucht, man erkennt seine Eigenschaften als schneller Schalter jedoch bald. Anfangs der 50-er Jahre wird er dann in Massen produziert, Hauptabnehmer ist das Militär. 1956 erhalten Shokley, Bardeen und Brattain den Nobelpreis für die Erfindung des Transistors. Shokley gründete kurz davor eine Firma namens \textsc{Shokley Semiconductor Laboratory}.

1957 verlassen ihn allerdings seine acht Ingenieure und gründen eine eigene Firma: \textsc{Fairchild Semiconductors}. Die erste Firma die nichts anderes als Siliziumhalbleiter produziert. Die Gründer der Firma sind Robert Noyce und Gordon Moore. Andere Halbleiterfirmen schiessen wie Pilze aus dem Boden. Die Wurzeln dieser Firmen führen fast alle zu Shokley oder Fairchild zurück. Zwei Beispiele sind \textsc{National Semiconductors} und \textsc{Advanced Microcomputer Devices} (AMD).

1968 verlässt Robert Noyce Fairchild und gründet die heute bekannteste Prozessorherstellerfirma \textsc{Intel} (Integrated Technology). Die meisten Halbleiterhersteller Nordamerikas (ausser \textsc{Texas Instruments} und \textsc{Motorola}) befinden sich im kalifornischen Silicon Valley.   \subsubsection{Vom Transistor zum Chip} Der Transistor wird laufend verkleinert, bis er schliesslich 1962 die Grösse eines Salzkorns hat. 1968, sechs Jahre später, setzt sich der Mikrochip, eine Vielzahl von Transistoren auf einem kleinen Schnipsel Kristall, durch. 1971 bringt Intel den Chip \textsc{Intel 4004} heraus. Ein Chip mit 2300 Transistoren.

Diese Technik wird bis heute verfolgt. Das heisst, seit 1971 hat sich nur noch die Architektur der Chips verändert, die grundlegende Technik zur Chipherstellung ist immer noch dieselbe geblieben.     \begin{figure}[ht] \begin{center} \includegraphics[width=4cm]{intel4004.eps} \caption{Der erste Microchip von Intel: Der ``Intel 4004''} \end{center} \end{figure}       Zur Chipherstellung wird eine Kristallscheibe fotochemisch beschichtet, darauf ein Schaltplan projiziert, anschliessend ätzt Säure die so festgeschriebenen Strukturen aus dem Material. Dies wird so oft wiederholt, bis alle Transistoren, Verbindungsleitungen und sonstigen Bauelemente komplett sind. Mit dieser Technik kann man etwa noch bis ins Jahr 2003 arbeiten, danach stösst die optische Belichtung an ihre Grenzen.

Zur Zeit rüsten die Chiphersteller ihre Fabriken mit Lasern aus, um die einzelnen Schaltungen noch kleiner werden zu lassen.       \section{Computer im Militärwesen}   Wie man anhand der Computerentwicklung sehen kann, ist das Militär sehr stark am Computer interessiert. Eine weitere mögliche Nutzung der Rechner wird bald erkannt:   \subsection{WHIRLWIND und SAGE}   ``Noch 1942 wird von Vannevar Bush und seinen Mitarbeitern am MIT (Massachusetts Institute of Technology) eine verbesserte Version des Differential Analyzers entwickelt, bei der mechanische Teile durch elektronische Konstruktionen ersetzt werden. 1944 beginnt eine andere Gruppe am MIT unter der Leitung von Jay W. Forrester, einen Analogrechner zur Flugsimulation (WHIRLWIND) zu entwickeln. Nach einigen Gesprächen im November 1944 mit Offizieren und Wissenschaftlern, die an der Entwicklung des ENIAC betelligt waren, wird diese Entscheidung revidiert: ``Wir werden nicht mehr einen Analog-Computer bauen; wir bauen einen Digitalcomputer''.

  Doch die Förderung für dieses Projekt wird ab 1948 reduziert und schliesslich ganz eingestellt. Das Interesse des Office of Naval Research (ONR), das bisher ca. 1 Million Dollar pro Jahr für das Projekt ausgegeben hatte, besteht primär in mathematischen Berechnungen, wie Feuerkontrolle, Flugbahnberechnungen usw.; an der Echtzeitverarbeitung, dem Schwerpunkt des WHIRLWIND-Projektes, besteht kein Interesse.   Der ``Kalte Krieg'' führt dazu, dass Frühwarnsysteme (air defense systems) eine hohe Priorität in der Forschung erhalten. Nachdem es den Russen gelungen ist, die Atombombe zu bauen, geht es darum, die mit dieser Waffe ausgerüsteten Interkontinentalbomber frühzeitig erkennen zu können.

Die Arbeiten am MIT auf dem Gebiet der Radartechnologie zeigen, dass WHIRLWIND auch für den neuen Zweck optimal geeignet ist; die Förderung wird jetzt (1950) von der Luftwaffe übernommen.   Die über Telefonleitungen ankommenden Daten der Radarstationen werden vom Rechner aufbereitet und im Kontrollraum auf Bildschirmen angezeigt, an denen die Flugüberwachungsoffiziere die angezeigten Objekte identifizieren und die Position erfassen.   Die militärischen Anforderungen nach Steigerung der Rechengeschwindigkeit, Vergrösserung der Leistungsfähigkeit, Erhöhung der Zuverlässigkeit und nach zunehmender Miniaturisierung werden von WHIRLWIND erfüllt. Als Kernstück des ``Cape Cod System'' ist dieser Rechner der Prototyp für das Semiautomatic Ground Environment (SAGE) Air Defense System. Es ist der erste Rechner mit Echtzeitverarbeitung, doch ohne ``interrupt handling'', so dass für die ankommenden Radardaten als externer Zwischenspeicher eine Magnettrommel benötigt wird. Eine weitere Trommel benötigt man für die Speicherung des 20'000 Instruktionen umfassenden Cape Cod Systems.

Mit seinem 16 bit-Prozessor kann WHIRLWIND trotz seiner Größe als erster Mini-Computer bezeichnet werden.\cite{mail}'' Neuartig sind:   \begin{itemize}   \item die Verwendung einer zentralen Datenleitung im Rechner (main bus),   \item die Entwicklung von Prüfzeichen (parity bit) und Fehler erkennenden Codes zur Fehlerananlyse bei der Datenübertragung,   \item der Einbau eines Magnetkernspeichers, durch den die Rechengeschwindigkeit verdoppelt werden kann,   \item der Anschluss von Telefonleitungen zur Übermittlung der Radardaten (Datenfernübertragung),   \item die Verwendung von Bildschirmgeräten (Radargeräten mit Schriftanzeige),   \item die Benutzung eines Lichtgriffels (light gun) für die Positionseingabe durch den Flugüberwachungsoffizier.   \end{itemize}     \begin{figure}[ht] \begin{center} \includegraphics[width=4cm]{sage.eps} \caption{Sage: Die ersten Computer mit Bildschirmen als Ausgabegerät} \end{center} \end{figure}       Neben der Anpassung von WHIRLWIND an die durch die Air Force gestellten Aufgaben entwirft das Projektteam den neuen Computer für SAGE. Zehn Jahre nach der Fertigstellung wird der Betrieb von WHIRLWIND 1959 eingestellt. Das wichtigste Argument dafür sind neben den Betriebskosten von 300'000 Dollar die hohen Wartungskosten für die Software.

Ein weiterer Grund ist, weil SAGE nicht sehr zuverlässig war: wenn sich die Flugbahn von zwei Flugzeugen kreuzten, konnte SAGE nicht mehr zwischen feindlichem und freundlichem Flugzeug unterscheiden, glücklicherweise traf dieser Fall nie ein. Das WHIRLWIND-Projekt ist der Anfang einer langen Entwicklung hin zum ``vollautomatisierten Schlachtfeld'', wobei dem Rechner die zentrale strategische und technologische Funktion zufällt. Mit der Abkehr von einem passiven Luftüberwachungssystem hin zu einem System, dem später die Zielauswahl für die Interkontinentalraketen übertragen wird, das wichtige Entscheidungs- und Auswertungsfunktionen übernimmt und das für die Verknüpfung aller Teilsysteme sorgt, ist WHIRLWIND bzw. SAGE der Prototyp für die mit C3I (command, control, communications and intelligence) bezeichneten Frühwarn- und Entscheidungssysteme (FWES).     \subsection{Computer in der Raumfahrt} Natürlich werden auch in der Raumfahrt Computer eingesetzt. Allerdings sind es nicht ganz gewöhnliche Computer wie sie überall auf der Erde laufen, sondern speziell für den Weltraum entwickelte Systeme.

'' Dies aus dem Grund, weil im Weltraum ganz andere Bedingungen herrschen als auf der Erde:   \begin{itemize}   \item Selbst in Satelliten schwanken die Temperaturen stark, da keine Atmosphäre für einen schnellen Temperaturausgleich sorgt. Ein Satellit ist auf der Sonnenseite Temperaturen von +120 Grad und auf der Schattenseite Temperaturen von -190 Grad ausgesetzt. Auf der Nachtseite kühlt der ganze Satellit relativ schnell aus.   \item Das zweite Hindernis ist das Vakuum. Für die Elektronik selber bedeutet dies keine Einschränkung, jedoch für den Massenspeicher. Festplattenlaufwerke können im Vakuum nicht betrieben werden.

Früher wurden daher Bandlaufwerke zur Speicherung der Daten eingesetzt. Diese verfügten schon früh über relativ große Kapazitäten, der Zugriff und die Aufzeichnungs- und Wiedergabegeschwindigkeit waren jedoch gering.   \item Als drittes Hindernis ist die Bedingung der fehlenden Gravitation. Auch dies wirkt sich vor allem auf mechanische Bauteile aus. Im allgemeinen ist es jedoch kein grosses Problem.   \item Das letzte Problem ist dafür schwerer zu lösen.

Es sind die kosmischen Strahlen der Sonne und des Weltraums. Diese schädigen die Elektronik. Für den Weltraumeinsatz wird daher eine spezielle strahlungsresistente Elektronik gefordert. Dies macht oft besondere Techniken bei der Herstellung nötig, und die Gefahr der Empfindlichkeit steigt von Chip- zu Chip-Generation. Daher erscheinen heute die eingesetzten Prozessoren relativ veraltet, da die Entwicklung in den letzten Jahren nur langsam fortschritt. Noch bedeutsamer ist dieses Problem bei planetaren Missionen, vor allem bei Missionen zum Jupiter, bei dem der Strahlungsgürtel ungleich mächtiger als auf der Erde ist.

  \item Die Stromversorgung: Strom ist in Raumfahrzeugen limitiert. Besonders Planetenmissionen verfügen nur über relativ wenig Strom, wenn die Mission zu den äußeren Planeten geht. Heute sind Prozessoren wahre Stromfresser. Ein Athlon Prozessor verbraucht bei 600 MHz fast 40 Watt an Strom. Dabei entsteht Abwärme die auch abgeführt werden muß. Dies verbraucht weiteren Strom, da Lüfter mangels Atmosphäre wirkungslos sind.

Daher werden oft spezielle Varianten für den Weltraumeinsatz gefertigt, die weniger Strom verbrauchen, oder geringerer getaktet sind. \item Zuverlässigkeit: Hardware an Bord eines Satelliten sollte heute eine Lebensdauer von 12-15 Jahren haben, denn so lange kann ein Satellit betrieben werden. Trotzdem ist dies heute weniger ein Problem als in den sechziger und siebziger Jahren, als die geforderte Zuverlässigkeit oft nur durch überzählige Bauteile erreicht werden konnte.\cite{raumfahrt}''           \end{itemize}   \begin{figure}[ht] \begin{center} \includegraphics[width=3.5cm]{Ringkernspeicher.eps} \caption{Ein für die Raumfahrt benutzter Ringkernspeicher} \end{center} \end{figure}     Aus all diesen Gründen müssen die Computer für den Einsatz im Weltraum entweder umgerüstet werden oder es müssen völlige Neuentwicklungen gemacht werden.

Als Beispiel für eine Anpassung der ``Erdcomputer'' an den Weltraum soll uns die Raumsonde \textsc{Mars Pathfinder} dienen.   \subsubsection{Mars Pathfinder} Die Raumsonde Mars Pathfinder besteht eigentlich aus zwei Teilen : Der eigentlichen ca 330 kg schweren Raumsonde und einem nachtischgrossen ca 20 kg schweren Rover.   ``Die Raumsonde selbst verfügte über einen Bordcomputer auf Basis eines IBM Power PC Chips, den IBM auch in seiner RS/6000 Reihe einsetzt und der auch in Apples zu finden ist. Eine weltraumtaugliche Version (modifiziert von Lockheed Martin) wird im Mars Pathfinder eingesetzt. Die Taktgeschwindigkeit wurde von 200 auf 20 Mhz gesenkt, um den Stromverbrauch zu senken. Der Prozessor leistete bei dieser Geschwindigkeit immer noch 22 Millionen Instruktionen pro Sekunde und verbrauchte 10 Watt.

Die Software selbst besteht aus einem 6 MB EEPROM und einem 128 MB RAM, das auch zur Datenspeicherung dient. Derselbe Rechner sollte auch dem Mars Polar Lander als Hauptrechner dienen, leider meldete sich die Sonde nach der Landung nicht mehr.   Anders sah es bei dem kleinen Rover aus. Er verwendete einen 80C85, einer Millitary CMOS Version des Nachfolgers des legendären 8080. Mithin war der Prozessor beim Start so ca 20 Jahre alt. Immerhin verarbeitete der Computer die Daten von 70 Kanälen, darunter die Bewegung der Motoren, Kameras und die Daten der Experimente.

Die Daten wurden über ein UHF Modem mit 2.4 KBaud an den Pathfinder geschickt. Obgleich die Hardware damals nicht die neueste war erfüllte Sie ihren Zweck, denn der ganze Sojourner hatte nur 16 Watt Strom zur Verfügung, wofür selbst für das Fahren nur 10 Watt verbraucht wurden. Zum Vergleich : Ein PC verbraucht je nach Ausbaustufe ohne Monitor 80-150 Watt.\cite{raumfahrt}''   \section{Das Internet}   \subsection{Die Entstehung des Internet} Das amerikanische Verteidigungsministerium konstruiert 1969 ein Computernetz mit dem Namen \textsc{Arpanet} (Advanced Research Projects Agency-NET). Es besteht aus vier miteinander verbundenen Computern.

1972 wird es der \"Offentlichkeit präsentiert und zur Verfügung gestellt. Es schliessen sich bald viele Universitäten und Forschungseinrichtungen an. Die TCP/IP-Protokolle werden bis 1982 entwickelt, dabei wird grosser Wert darauf gelegt, dass diese Protokolle von allen Rechnertypen verstanden werden.   ``Heute beteiligen sich über 12,8 Millionen Computer am Internet. Die meisten Rechner befinden sich allerdings in den USA und Europa. Etwa 66 Prozent der Grossrechner stehen in den Vereinigten Staaten von Amerika.

Der Rest des Internet findet man zu 22 Prozent in West- und Mitteleuropa, ein Prozent in Osteuropa, 0,3 Prozent§ im mittleren Osten, 0,5 Prozent in Lateinamerika, vier Prozent in Australien, 3,5 Prozent in Asien (davon 2,5 Prozent in Japan) 0,6 Prozent in Afrika (ohne Südafrika 0,001 Prozent). Die wirtschaftlich unterentwickelten Länder haben kaum Zugang zum Internet, sie können es sich finaziell kaum leisten. Dazu kommt, dass es in den technologisch und ökonomisch rückständigen Ländern kaum Daten gibt, die im Internet veröffentlicht werden. Wenn sich also doch jemand den Zugang zum ``Weltmedium'' verschaffen kann, erhält die meisten Informationen aus den USA und Europa, wird also fremdbestimmt. In der Schweiz gab es zu Beginn des Jahres 1999 bereits über 500'000 Internetanschlüsse, eine Zahl, die täglich grösser wird.\cite{blaetter}   \subsection{Ethik im Internet} ``Die Benutzung des Internet kann aufgeklärt, nach Regeln des Anstands, geltender Ethik und nach Massgabe der Menschenrechte geschehen -- oder aber unvernünftig, ideologisch, destruktiv, kriminell und menschenverachtend.

Beispiele für Letzteres sind die Verbreitung von rassistischer Propaganda und Pornographie über das Netz. Wegen der technisch gegebenen Offenheit des Internet und auf Grund seiner globalen Konstruktion sind die einzelnen Nationalstaaten nicht in der Lage, den vernünftigen Gebrauch des Internet mittels entsprechender Gesetze durchzusetzen. Es braucht hierzu wohl eine Ethik der Benutzer, die eigene Regeln des Umgangs mit dem Internet entwickeln müssten.\cite{blaetter}   \subsection{Was bietet das Internet alles?}   \subsubsection{Die elektronische Post} Eine der ersten Anwendungen, die, als das Internet Anfangs der 70er Jahre bekannt wurde, sehr grossen Anklang fand, ist die elektronische Post, auch E-Mail [i:me{\scriptsize I}l] genannt. Dieser Dienst erlaubt es den Internetbenutzern, Briefe, die nur als Datei existieren, anderen Internetbenutzern zu senden. Heute wird die E-Post für allerlei Zwecke benutzt: Geschäftsbriefe, private Briefe, Werbung\ldots \ auch Kettenbriefe geistern bereits im Internet herum.

  \subsubsection{Das World Wide Web} Es wurde erst 1993 am Cern-Institut in der Schweiz entwickelt. Der Grundstein ist das HTTP (Hypertext Transfer Protocoll). Drei Jahre nach der Einführung des HTTP zählt das WWW zu den erfolgreichsten und bekanntesten Diensten des Internet. Dies, weil es für den Benutzer sehr einfach zu bedienen ist. Das WWW bietet massenweise Informationen verteilt auf vielen Servern in der Welt. Man kann das WWW benutzen, um Text-, Bilder-, Ton- oder gar Videodateien zu veröffentlichen oder zu suchen, auch um sich eine Theaterkarte reservieren zu lassen oder eine Pizza zu bestellen.

Um sich im World Wide Web orientieren zu können, gibt es sogenannte Suchmaschinen. Man gibt diesen Computern an, was man im Internet sucht und diese geben einem dann verschiedene URLs an, wo sich die gesuchte Information oder der gesuchte Dienst befindet.   \subsubsection{Telnet} Telnet bedeutet Terminalemulation. Das heisst, man kann mit einem entsprechenden Programm seinem Computer den Befehl geben, sich wie ein Terminal zu verhalten. Dazu braucht es aber noch einen zweiten Computer, der die Servertätigkeit übernehmen muss. Der erste Computer logt sich mit einem Benutzernamen und einem Passwort beim zweiten Computer ein und benutzt dessen Rechnerleistung.

Die Ergebnisse erscheinen dann auf dem Bildschirm des ersten Computers. Man kann so also an Bibliotheken, die über elektronische Verwaltung führen, Anfragen stellen oder statistische Analysen am Grossrechner von seinem Heimcomputer aus durchführen.   \subsubsection{Das File Transfer Protocoll} Kurz FTP. \"Ahnlich wie bei Telnet muss man sich bei FTP bei einem anderen Rechner einloggen. Das FTP wurde entwickelt, um grössere Dateien auf den eigenen Computer zu laden. Um jedoch der \"Offentlichkeit diesen Dienst anbieten zu können, gibt es Server, die den Benutzernamen ``Anonymus'' akzeptieren, als Passwort gibt man dann die E-Mail-Adresse ein.

Für den Server bedeutet dies, dass man nicht registriert ist, man also nicht alle Dateien auf dem Server benutzen kann.   \subsubsection{Der URL} Wenn man im Internet ist und eine Seite kann nicht gefunden werden, so erscheint häufig: ``The requested URL could not be retrieved!''. Das bedeutet, dass die Internet-Adresse (eben der URL) nicht existiert. Der URL, Uniform Resource Locator, ist wie folgt zusammengesetzt:   \begin{enumerate} \item um welche Art von Informationen es sich handelt. \item auf welchem Rechner die Informationen zu finden sind und \item wo auf diesem Rechner die Information gespeichert ist. \end{enumerate}   Am Besten kann man die Funktionsweise eines URLs an einem Beispiel erläutern:   \begin{quote}   \texttt{https://www.

w3.org/hypertext/WWW/Addressing/Addressing.html}   \end{quote}   Der erste Teil des URLs bedeutet die Art des \"Ubertragungsprotokolls. In unserem Fall also HTTP, das Protokoll für das World Wide Web. Dieser Teil endet mit einem Doppelpunkt. Der zweite Teil, \texttt{//www.

w3.org}, beginnt mit zwei Schrägstrichen. Er gibt den Servernamen des gewünschten Computers an. Der dritte Teil, \texttt{/hypertext/WWW/Addressing/Addressing.html}, beschreibt den Pfad der Datei auf dem angesprochenen Server. Er beginnt mit einem Schrägstrich.

  \subsubsection{Newsgroups} Die Newsgroups sind als Diskussionsforen zu bezeichnen, bei welchen die Internetbenutzer per E-Post einander Fragen stellen können. So kann zum Beispiel Person A, welche Probleme mit seiner Kaninchenzucht hat, das speziell für die Kaninchenzucht gebildete Diskussionsforum anfragen, welchen Fehler sie macht. Wenn die Person A Glück hat, so antworten ihr etwa fünf Personen. Wenn sie Pech hat antwortet ihr niemand oder hunderte. Die Frage, die gestellt wurde, ist natürlich für alle Personen ersichtlich, so dass man die Probleme und Lösungen der anderen Personen sieht., bevor man selber eine Frage stellt.

  \subsection{Das Internet in der Wirtschaft} ``Amerikas Unternehmen stehen in den meisten Schlüsselindustrien der modernen Informationsgesellschaft an der Spitze und haben sich voll darauf eingestellt, dass das Internet die Geschäftswelt revolutionieren wird. Die bisherige Führungsposition der US-Konzerne ist vor allem günstigen wirtschaftlichen Rahmenbedingungen zu verdanken.   ``Amerika ist der Ofen, in dem die Zukunft geschmiedet wird.'' Das hat Leo Trotzki vor nunmehr über 70 Jahren in seiner Autobiographie ``Mein Leben'' vermutet. Natürlich entwickelte sich die Geschichte anders, als sie sich der Kommunist vorstellte. Nicht Marx, sondern der Markt feierte Triumphe.

Auch an der Schwelle zum 21. Jahrhundert scheint Amerika jedenfalls in wirtschaftlicher Hinsicht die Schmiede der Zukunft zu sein. Die USA stehen in den meisten Schlüsselindustrien der modernen Informationsgesellschaft an der Spitze. Amerikanische Pionierunternehmen, die vielfach erst gerade während der letzten zwanzig Jahre entstanden sind, führen insbesondere bei der Entwicklung von Computer-Hardware und -Software sowie beim Aufbau des Internets. Hinzu kommen bedeutende Vorsprünge vielversprechender Sparten der Fernmeldetechnik und der Biotechnologie; und diese Fortschritte wiederum wären ohne die mächtige Computertechnik kaum erreichbar gewesen.   Praktisch alle amerikanischen Topmanager sind davon überzeugt, dass die Informatik und ``Killerapplikation'' Internet zu mächtigen Umwälzungen in der Wirtschaft und zu einer weiteren Beschleunigung der Globalisierung führen werden.

Die Erneuerung sei derart integral, dass gut und gerne von einer ``New Economy'' gesprochen werden könne. Die Behauptung von Microsoft-Chef Bill Gates, dass sich die Geschäftswelt in den nächsten 10 Jahren stärker verändern wird als in den letzten 50 Jahren, wird selten als Übertreibung empfunden. Amerikanische Unternehmen haben sich bereits während der letzten Jahre ernsthaft, das heisst auf der obersten Führungsebene, mit den Möglichkeiten des Internets auseinandergesetzt und stark in Richtung Cyberspace investiert. Die neue Herausforderung führte bereits zu ersten Grossfusionen, man denke nur an den geplanten Zusammenschluss von America Online und Time Warner oder an die Kombinationen im Fernmeldesektor.   Die amerikanische Ausrüstungsinvestitionen nahmen in der zweiten Hälfte der neunziger Jahre massiv zu. Dabei stiegen die realen Auslagen für Computeranlagen jährlich um über 40\%.

Sehr rapide werden auch die Übertragungskapazitäten in der Fernmeldeindustrie ausgebaut, um den Internet-Verkehr problemlos bewältigen zu können. Gegenwärtig wächst das amerikanische Glasfasernetz um rund 6000 ``Strang''-Kilometer pro Tag, und Experten gehen davon aus, dass sich die Übertragungsbandbreite in den nächsten Jahren jährlich verdreifachen wird. Annähernd 50\% der US-Haushalte verfügen bereits über einen Internet-Anschluss, und auf sie entfallen mehr als zwei Drittel der Kaufkraft. In Europa hat die Internet-Penetration während der letzten Jahre ebenfalls stark zugenommen, liegt doch der Anteil der Online-Haushalte bei rund 15\%.\cite{nzz}''   \subsubsection{ExpIosiver E-Commerce}   ``Während der letzten Jahre sind in den USA nicht nur Tausende neuer Online-Firmen aus dem Boden geschossen, die Pionieruntermehmen wie Amazon, Yahoo!, E-Trade oder E-bay nachzueifern versuchen. Auch die meisten Konzerne der ``Old Economy'' haben die neue Herausforderung längstens angenommen.

Der Pharmakonzern Merck führt schon jetzt die grösste Online-Apotheke, der Computerkonzern Dell verkauft bereits die Hälfte seiner Apparate via Internet, und höchste Priorität haben auch etwa Industriekonzerne wie Honeywell oder General Electric dem neuen Medium zugemessen. General-Electric-Chef Jacke Welch erklärte im neusten Geschäftsbericht, dass das Internet die ``Erbsubstanz von General Electric für immer verändert, das Unternehmen mit neuer Energie versehen und in jeder Beziebung revitalisiert'' habe. Ford Motor errichtet mit den Rivalen General Motors und Daimler-Chrysler einen Online-MarktpIatz für den günstigeren Einkauf von Komponenten; solche Online-Märkte für den Einkauf sind auch in den meisten anderen Branchen im Aufbau. Experten gehen davon aus, dass in den nächsten Jahren vor allem der Internet-Handel zwischen Firmen explosionsartig zunehmen werde; die Marktforschungsfirma Forrester Research rechnet damit, dass der Offline-Grosshandel im Jahr 2003 allein in den USA ein Volumen von 1300 Mrd. \$ erreichen und damit über 90 \% des E-Commerce bestreiten werde. Gemäss einer Erhebung von Andersen Consulting scheinen in Europa viele Unternehmer dem Internet immer noch mit erheblicher Skepsis zu begegnen.

Erst 64\% der befragten Manager (im Vorjahr 51\%) erblicken einen Wettbewerbsvorteil im Internet. Symptomatisch für diese Haltung war unlängst vielleicht auch die Antwort eines deutschen Top-Bankiers auf die Frage, was er vom Electronic banking halte. Er sagte: ``In Deutschland hat das für uns noch keine, Priorität, unsere Kunden lieben den Bankschalter; wir haben das mit Umfragen genau untersucht'' Solche Meinungsumfragen sind jedoch tückenreich. Im Wettbewerb setzt sich letztlich jener Unternehmer durch, welcher die Kundschaft davon überzeugen kann, dass die neuen Produkte oder Dienste praktischer und günstiger sind.\cite{nzz}''     \subsection{Die Auswirkungen des Internet auf den Alltag}   ``Mit dem Internet können die Menschen auf eine neue Art miteinander kommunizieren, Beziehungen eingehen und pflegen (per E-Post, in Gesprächsrunden, sogenannten Chats, in Videokonferenzen\ldots). Soziale Interaktion wird auf diese Art bequem und deshalb vielleicht häufiger.

Aber man bleibt auf eine bestimmte Art vor dem Computer immer einsam. Das Gespräch auf dem Internet bringt natürlich niemals die Atmosphäre einer wirklichen Begegnung zwischen Menschen hervor.   Bestimmte Arbeitsplätze können dort eingerichtet werden, wo ein Computer steht und auf das Netz gegangen werden kann. Menschen, die weit voneinander entfernt leben, können zusammenarbeiten. Zugleich besteht auch die Gefahr der Isolation der Arbeitnehmer, wenn oft nur noch sachlich über den Computer miteinander kommuniziert wird oder man sich in virtuellen Unternehmen aufhält, ohne soziale oder gewerkschaftliche Traditionen.   Mit dem Internet wird auch ein neuer Umgang mit Wissen möglich.

Der Austausch von Informationen und Wissen zu verschiedensten Zwecken wird leichtgemacht und kann über weite Entfernungen geschehen. Das Internet stellt frei zugängliche, riesige Informations- und Wissensarchive zur Verfügung, Hypertexte zu den verschiedensten Themen, deren Inhalte sich dauernd ändern. Im Internet wird nicht linear wie in einem Buch gelesen. Zu einem Thema liest man vielmehr isolierte kleine Stücke, die man aus dem grossen Gesamttext, eben dem Hypertext, entnimmt, indem man verschiedene Adressen mit Dokumenten, elektronische Magazinen, Websites usw. aufsucht, um das Gefundene dann für sich selber zu vernetzen. Wissen wird durch das Internet demokratisiert, jeder und jede kann sich über alles informieren und Informationen auch weitergeben.

Eine freie Urteilsbildung ist möglich. Dabei ist die Aufnahme von Informationen und Wissen aus dem Internet aber nicht leicht: Wegen der grossen Menge an Daten und Informationen muss man gut auswählen können. Um zu verhindern, dass man sich nur Halbwissen aneignet oder gar elektronisch manipulierten, falschen Informationen aufsitzt, benötigt man eine hohe Auswahlfähigkeit, die eine gute Vorbildung einschliesst.\cite{blaetter}''       \subsection{Schlussbetrachtung des Internet} Das Internet hat sich in den letzten Jahren rasant entwickelt, nicht nur bezüglich der Anzahl der angeschlossenen Rechner oder der übertragenen Datenmenge, sondern auch in der Leistungsfähigkeit der Dienste. Da inzwischen nicht nur akademische, computerorientierte Experten Zugang zum Internet besitzen, sondern auch Wissenschaftler und Studenten aus anderen Disziplinen und private Anwender zu den Nutzern der Dienste zählen, wird wesentlich mehr Wert auf den Benutzungskomfort gelegt. Durch das World Wide Web mit seinen komfortablen Browsern (das sind Programme, die einem durch das Internet ``führen'') und der Integration vieler verschiedener Dienste unter einer Oberfläche ist es für Anfänger nicht mehr notwendig, Betriebssystembefehle oder Steuerkommandos zu lernen.

  Leistungsfähige Suchmaschinen machen das ganze Netz und nicht nur einzelne Server zu einer einzigen Informationsquelle, so dass es nicht mehr notwendig ist zu wissen, wer welche Informationen anbietet. Eine Weiterentwicklung dieser Suchhilfen und eine Verbesserung der Informationsstrukturen ist allerdings in Zukunft notwendig, um die Informationsflut beherrschen zu können. Eine unschätzbare Möglichkeit bieten dabei die NetNews, mit denen auf ein globales Wissen und die Erfahrung vieler Experten zugegriffen werden kann und so ebenfalls der gezielte Zugang zu Informationen erleichtert wird.   \section{Die verbreitesten Betriebssysteme} Welche Betriebssysteme gibt es: Zu Beginn muss gesagt werden, dass es sehr viele unterschiedliche Betriebssysteme gibt. Die, die am bekanntesten sind, werden jetzt vorgestellt.   \subsection{ Windows 95/98} Windows 95/98 stammt von Microsoft.

Die Firma wurde 1978 von Bill Gates gegründet und wurde berühmt mit seinem Betriebssystem MS-DOS. Später wurde eine grafische Oberfläche (die Art, mit dem Computer über Fenster, Symbole und Mauszeiger zu kommunizieren) entwickelt und verkauft. Dieses programm hiess Windows, welches immer weiterentwickelt wurde bis zu der Version 3.11.   \begin{figure}[ht] \begin{center} \includegraphics[width=9cm]{microsoft78.eps} \caption{Die erste Belegschaft von Microsoft im Jahre 1978} \end{center} \end{figure}     ``Windows95 ist eine Weiterentwicklung zu Windows 3.

11, wobei allerdings gesagt werden muss, dass es viele Verbesserungen wie beispielsweise die 32bit Architektur mit sich bringt. Ausserdem ist nun nicht mehr MS-DOS das Betriebssystem, sondern Windows selbst. Eine wichtige Neuerung ist auch die Datei Msdos.sys, die sich im Root des Startlaufwerks befindet. Seit Windows 95 ist diese Datei lesbar und dadurch veränderbar. Hierdurch können Anpassungen vorgenommen werden (Bsp.

: Nicht-Starten der graphischen Oberfläche als Standard einstellen). Allerdings wird bei Windows95 noch ein 16bit Dateisystem verwendet. Windows 98 hat ein 32bit Dateisystem und bringt damit noch mehr Performance mit sich. Außss§rdem verschmilzt der Internet Explorer mit der Oberfläche. Damit sind dann auch interaktive Inhalte auf dem Desktop möglich.\cite{betrieb}''   Windows von Microsoft ist das Betriebssystem, welches auf den meisten Heim-PCs läuft.

In der Industrie wird neben UNIX häufig auch Windows NT benutzt. Ein Betriebssystem aus dem Hause Microsoft, welches allerdings nicht von Microsoft entwickelt und geschrieben wurde. Der Vorteil von Windows ist, dass man alle Anwndungen bekommen kann: Spiele, Büroprogramme (Textverarbeitung, Tabellenkalkulation, Zeichenprogramm,\ldots), Fahrpläne, Telefonbücher,\ldots Der Nachteil ist, dass es sehr instabil ist. Dies kann ich aus eigener Erfahrung bezeugen. Ich arbeite manchmal auf Windows 95, welches mir regelmässig abstürzt, (Ein- bis Zweimal pro Sitzung, ohne zu übertreiben) ich benutze es dabei, um grosse Bildateien zu bearbeiten (hauptsächlich scannen).   Dazu kommt, dass durch die Verbreitung von Windows, die meisten Computerviren Windows-Rechner angreifen.

So auch der im Moment bekannte Virus ``I Love You''. Dieser Virus löscht alle jpg-Dateien (Bilder), versteckt alle mp3-Dateien und benennt sie um. Er schickt alle Passwörter, die auf dem Computer gespeichert sind an eine E-Post-Adresse und schickt sich selber an alle Personen, die im Adressbuch des Computerbenutzers mit einer E-Post-Adresse gespeichert sind. Dieser Virus konnte nur durch das Intenet so schnell, so intensiv verbreitet werden.   \subsection{UNIX}   ``UNIX ist ein Mehrbenutzer- und damit auch Multitasking-fähiges Betriebssystem, das heute eines der am weitesten verbreiteten Betriebssysteme ist. Geschichte: Die Geschichte des Betriebssystems UNIX geht bis in das Jahr 1969 zurück.

Zu diesem Zeitpunkt arbeitete Ken Thompsen bei den Bell Labarotories, einer Forschungseinrichtung, die von der Fa. AT\&T und der Fa. Western Electric unterhalten wurde. Ken Thompsen beteiligte sich an einem großen Programmierprojekt zur Entwicklung des Betriebssystems MULTICS, mit dem sich die Bell Laboratories in Zusammenarbeit mit der Fa. General Electric und dem Massachusetts Institute for Technology (MIT) beschäftigten. Im März 1969 zogen sich die Bell Laboratories von diesem Programmierprojekt zurück.

Thompsen plante die Entwicklung eines eigenen Betriebssystems, das sich stark von den bisherigen Betriebssytemen unterscheiden sollte. Die dann erste, kommerziell verfügbare Version von UNIX, war UNIX Version 7. Der Betriebssystemkern enthielt ca. 10'000 Zeilen Code, von denen aber noch ca. 1'000 Zeilen in Assembler und damit maschinenabhängig geschrieben waren. Die Umsetzung des Betriebssystemkerns auf die Programmiersprache C brachte dann aber eine deutliche Vereinfachung in Fragen der Portierbarkeit.

Diese flexible und portable Konzeption war das Erfolgsrezept von UNIX.\cite{betrieb}''   \subsection{LINUX} ``Linux ist ein relativ junges Betriebssystem. Es entstand aus einer Idee von Linus Torvalds (Helsinki/Finnland), der Unix als perfektes Betriebssystem ansah, aber erkannte, daß Unix praktisch unerschwinglich für den Normalverbraucher ist. Er kam auf die Idee, dass man ein Derivat entwickeln müsste, welches für Jedermann frei verfügbar ist. Die allerersten Kernel-Teile wurden von Linus Torvalds alleine entwickelt und im September 1991 über das Internet verbreitet. In sehr kurzer Zeit fanden weltweit Programmierer Interesse an dieser Idee und entwickelten die ersten Erweiterungen.

So entstanden ein verbessertes System zur Dateiverwaltung, Treiber für diverse Hardware, zahlreiche Zusatzprogramme und vieles mehr. Diese Komponenten wurden ebenfalls kostenlos zur Verfügung gestellt. Das Gesamtsystem wächst seitdem in rasanter Geschwindigkeit, wobei das Internet dies natürlich erst möglich macht. Ein wichtiger Faktor ist die Tatsache, daß Linux frei von Rechten ist und zu diesem Zeitpunkt bereits frei verfügbare Software vorhanden war. GNU-Programme sind wie Linux frei kopierbar und werden zudem mit allen Quellcodes weitergegeben. Das ermöglicht es allen Anwendern, die Programme bei Problemen oder Fehlern selbst zu erweitern oder zu korrigieren.

Daraus resultieren immer bessere und ausgereiftere Versionen. Der GNU C-Compiler ist Standard in der Unix-Welt und sogar für DOS / Windows erhältlich. Linux selbst wird mit dem GNU C-Compiler weiterentwickelt. Durch viele weitere Komponenten wird zusammen aus dem Linux-Kernel, zahlreichen GNU-Komponenten, der Netzwerk Software von BSD und dem ebenfalls freien X-Window-System (grafische Oberfläche) des MIT ein komplettes System.\cite{betrieb}''   \subsection{IRIX} ``Das Betriebssystem von Silicon Graphics ist IRIX, das auf UNIX System V Release 4 basiert. Damit ist eine weitgehende Kompatibilität zu anderen Derivaten mit diesem leistungsstarken Grundstock gegeben.

Bei aller Leistungsfähigkeit sind die UNIX Befehle allerdings nicht intuitiv und verlangen vom Benutzer eine lange Einarbeitung. Um trotzdem eine intuitive Bedienung zu ermöglichen, ist in IRIX mit Indigo Magic eine Benutzerumgebung vorhanden, die die einfache Bedienung von PCs mit der Stabilität und Leistungsfähigkeit von UNIX Plattformen verbinden soll, was zum Teil auch gelingt. Icons repräsentieren nicht allein Dateien und Applikationen, sondern auch Peripheriegeräte wie Drucker und CD-Player, andere Computer innerhalb des Netzwerkes oder sogar Mitarbeiter. Icons sind intelligent, sie wechseln ihr Aussehen, um eine Statusänderung anzuzeigen, etwa dass sich im Drucker kein Papier mehr befindet oder im CD-Player eine Musik-CD liegt. Indigo Magic unterstützt auch ``drag \& drop''. So kann eine Applikation gestartet werden, indem man das entsprechende Icon oder indem man ein Icon einer Datei auf die Applikation zieht.

Weiterhin können Icons, die oft benötigt werden, direkt auf dem Desktop abgelegt weerden. Der Dateimanager bietet eine einfache, graphische Art, durch das Dateisystem zu navigieren. Verschiedene Ansichtsarten sind gegeben, unter anderem auch eine Darstellung von Bilddateien durch kleine Kontrollbilder statt einem Icon, was gerade bei grossen Verzeichnissen voller Bilder sehr nützlich ist.\cite{betrieb}''   \subsection{OS/2} ``Die Entwicklung des Operating Systems/2 begann bereits 1984. Der Grund der Entwicklung war die Einführung einer neuen Rechnergeneration durch IBM. Diese neue Generation sollte mit dem Mikrokanal, einem neuen Bus-System, ausgestattet werden.

1987 kam diese Technik unter dem Namen PS/2 auf den Markt. Nach erfolglosem Anlauf von OS/2, der bedingt war durch die grosse Fehlerbehaftung, stieg Microsoft, nach der Einführung von Windows, aus der Gemeinschaftsproduktion mit IBM aus. Der Erfolg von OS/2 blieb auch weiterhin aus. Dies änderte sich mit der Einführung von Version 2.0, das mit preemptiven Multitasking und 32-Bit aufwarten konnte. Ein grosses Problem dieser Version war aber noch die enorme Hardwarevoraussetzung, weshalb es auch nicht zum grossen Durchbruch von OS/2 kam.

IBM arbeitete trotzdem weiterhin an OS/2 und präsentierte im Oktober 1994 die gründlich modifizierte Version OS/2 Warp 3, die eine Reihe von Verbesserungen aufwies. Hardwarevoraussetzungen: 4 MB RAM (besser: 8MB), 386SX (32bit Prozessor), 35MB Speicherplatz und VGA fähig.\cite{betrieb}''       \section{Computer im Alltag} Wir sind von den Computern eindeutig abhängig geworden, ähnlich wie von der Elektrizität: \begin{itemize}   \item In jedem neuen Auto steckt mindestens ein Computer. Die A-Klasse von Mercedes würde ohne das elektronische Stabilisierungssystem in einer Elchtest-ähnlichen Situation umkippen. Dank demselben System, gelingt es dem Audi TT auch in einer Kurve mit einer Geschwindigkeit von über 180 km/h keinen Unfall zu verursachen., wenn man vom Gaspedal geht   \item Die Automaten in Banken um Geld abzuheben oder die Billettautomnaten an den Bahnhöfen funktionieren kaum ohne Computer.

  \item Alle Züge, die schneller als 160 km/h fahren, werden über einen Linienleiter geführt. Dieser Linienleiter ersetzt das Auge des Lokführers indem er der Lokomotive die Signale der noch abzufahrenden Strecke anzeigt. Ab 160 km/h vermag das menschliche Auge die Signale nicht mehr wahrzunehmen.   \item Die modernen Fernseher mit Bild-in-Bild-Funktion und 200 Seiten Teletext-Seitenspeicher kommen auch nicht ohne Computer aus.   \end{itemize}   Die grossen Entwicklungen, die in den letzten zehn Jahren gemacht wurden waren eigentlich nur die alte Technologie mit einem Prozessor zu verbinden.   \subsection{Die kleinen Helfer im Haushalt} Es ist unglaublich, wieviele Kleinrechner sich in einem Haushalt finden lassen:   \begin{itemize}   \item in der Kaffeemaschine \item in einem Ladegerät für Akkus und leere Alkaline-Batterien \item im Kochherd (Baujahr 1999) und Backofen (1999) \item in den Stereoanlagen (Kassettengerät, Receiver und Tuner, CD-Player \ldots einzig im Plattenspieler findet sich keiner, aber auch hier gibt es Modelle mit Computer) \item im Faxgerät \item Im Videorecorder und in der Videokamera \item in den Funkweckern (diese Wecker werden von einer Mutteruhr in Frankfurt am Main, DCF77, gesteuert)     \end{itemize}   \begin{figure}[ht] \begin{center} \includegraphics[width=12cm]{kaffee_lret.

eps} \caption{Unsere Kaffeemaschine:ohne eingebauten Prozessor läuft da wohl nichts} \end{center} \end{figure}     Dies sind die Geräte, die mir in zehn Minuten in den Sinn kommen. Alle Apparate befinden sich in unserem Haus. Natürlich kommt noch ein Auto dazu mit zwei Chips, für das Anti-Blockiersystem und für das automatische Sperrdifferenzial. Dazu kommen noch zwei PCs, die beide rege benutzt werden, für Schularbeiten, Bildbearbeitung (es ist ganz interessant, Fotos elektronsisch zu manipulieren), um Musikdateien zu bearbeiten (äusserst praktisch für eine Rockband), aber auch um ganz simple Geschäftsbriefe und Arbeiten zu schreiben.   \section{Nachwort} Die Materialbeschaffung für dieses Thema war relativ schwer. Man findet kaum Bücher, welche aktuell genug sind um für diese Arbeit dienlich zu sein.

Deshalb wählte ich als hauptsächliche Quelle das Internet. Aber wie ich bereits im Kapitel Internet erwähnt habe, ist es nicht gerade leicht, sich durch diesen Dschungel von Informationen durchzukämpfen. Durch glückliche Zufälle entdeckte ich bei einem Kollegen, eine Ausgabe des GEO, in welcher sehr viele wertvolle Informationen steckten. Auch durch einen glücklichen Zufall las ich einen Bericht in der NZZ. Die Quellensuche war nicht gerade sehr einfach, dies half mir aber, zu lernen, wie man im Medium der Zeit zu sinnvollem Material kommt.   Da ich sehr viel mit Computern arbeite, probiere ich immer wieder etwas Neues aus.

Ebenso dieses Programm. Es ist kein gewöhnliches Textverarbeitungsprogramm wie Word, welches ein \textsc{Wysiwyg}-Programm (what you see, is what you get) ist. Das Programm heisst \LaTeX und läuft auf allen Computern. Es ist kein Schreibprogramm, sondern ein Programm, mit welchem man die Zeichen setzt. Um eine kleine Idee zu vermitteln, wie man mit \LaTeX arbeitet, lege ich eine Seite hinzu, wie man schreibt. Da ich erst ein paar Berichte damit und noch keine Arbeiten damit schrieb, entstanden zwei kleine Probleme, welche ich nur mit Hilfe beheben konnte.

Ich bin jedoch davon überzeugt, dass ich mit einem \textsc{Wysiwyg}-Programm eindeutig mehr Probleme gehabt hätte und mehr Zeit hätte investieren müssen als mit \LaTeX.   Ich lernte bei dieser Arbeit insgesamt viel:

Suchen artikel im kategorien
Schlüsselwort
  
Kategorien
  
  
   Zusammenfassung Der Vorleser

   sachtextanalyse

   interpretation zwist

   Fabel interpretation

   literarische charakteristik

   interpretation bender heimkehr

   felix lateinbuch

   interpretation der taucher von schiller

   textbeschreibung

   charakterisierung eduard selicke
Anmerkungen:

* Name:

* Email:

URL:


* Diskussion: (NO HTML)




| impressum | datenschutz

© Copyright Artikelpedia.com