Artikel pedia
| Home | Kontakt | Artikel einreichen | Oberseite 50 artikel | Oberseite 50 autors
 
 


Artikel kategorien
Letztes fugte hinzu
    Ms-access

   Instrumentation + schnittstellen

   Pc tuning - volle kraft voraus für ihr system

   Informatorische grundlagen

   Javascript

   Interne sortieralgorithmen - der kern der sache

   Plotter und sonstige drucker

   Frage 20 (rössl priska)

   Internet - programmierung

   Monitore

   Semesterarbeit und spezialgebiet für informatik

   Erörterungs zum thema

   Inhaltsverzeichnis

   Einführung in die entwicklung ganzheitlicher informationssysteme:

   Titel dokument
alle kategorien

  Die geschichte der computerspiele - vom einfachen zeitvertreib zur neuen sportart

Georg-Samuel-Dörffel-Gymnasium Weida Deutsch, Informatik, Sozialkunde Seminarfachlehrer: Herr F. Poser, Lehrer Fachbetreuer: Herr K. Beyer, Lehrer 03.11.2003 Seminarfacharbeit zum Thema Die Geschichte der Computerspiele vom einfachen Zeitvertreib zur neuen Sportart (!?) ------------------------------------------------------------------------------------ vorgelegt von: Erik Leonhardt 12/2 Joseph Schuchart 12/2 Jan Steinmüller 12/3 Christopher Pohl 12/1 Inhaltsverzeichnis 1. Einleitung.

......

......

......

......

......

......

......

......

......

......

......

.01 2. Geschichte der Computerspiele vom Ende der 50er bis 1995....

......

......

......

02 2.1 Was ist unter Computerspielen und Hardware zu verstehen?.....

......

......

.....02 2.

2 Anfänge der Spiele......

......

......

......

......

......

......

......

......

......

03 2.2.1 Textbasierende Spiele....

......

......

......

......

......

......

......

......

.....03 2.

2.2 Atari/Pong.....

......

......

......

......

......

......

......

......

......

......

...03 2.3 Heimcomputer..

......

......

......

......

......

......

......

......

......

......

....04 2.3.

1 Anfänge der Multiplayer/Online-Spiele......

......

......

......

......

......

.....04 2.

3.2 Entwicklung der Grafik-Adventures.....

......

......

......

......

......

......

....05 2.3.

3 Electronic Arts......

......

......

......

......

......

......

......

......

......

...06 2.3.4 Der Aufstieg des PCs.

......

......

......

......

......

......

......

......

......

...07 2.3.5 Die Hochära des PC-Games.

......

......

......

......

......

......

......

......

.....08 3.

Geschichte der Computerspiele ab Entwicklung der 1. 3D-Beschleuniger (1995) bis heute.....

......

......

......

......

......

......

......

......

......

......

......

......

..09 3.1 Durchbruch der 3D-Technik...

......

......

......

......

......

......

......

......

..09 3.1.1 Die Polygon-Ära beginnt..

......

......

......

......

......

......

......

......

.....09 3.

1.2 Die CD-ROM erobert die Spiele.....

......

......

......

......

......

......

......

..10 3.1.3 Nvidia am Abgrund..

......

......

......

......

......

......

......

......

......

.....10 3.

1.4 Windows wird fit für Action-Spiele.....

......

......

......

......

......

......

...11 3.1.5 Voodoo verzauberte die PC-Spielewelt - chancenlose Konkurrenz.

......

......

....11 3.1.

6 Voodoo zum Zweiten - 3dfx unschlagbar......

......

......

......

......

......

.....13 3.

1.7 Frontalangriff von Nvidia - 3dfx entthront.....

......

......

......

......

......

.13 3.2 3D-Technik ist Standard....

......

......

......

......

......

......

......

......

...14 3.2.1 Nvidia greift nach den Sternen.

......

......

......

......

......

......

......

.....14 3.

2.2 3dfx geht Pleite - Nvidia an der Spitze.....

......

......

......

......

......

....14 3.2.

3 Programmierbare Grafikchips......

......

......

......

......

......

......

......

...15 3.2.4 So weit, so gut - und weiter?.

......

......

......

......

......

......

......

......

15 3.3 Was zeichnet gute Spiele aus.....

......

......

......

......

......

......

......

...16 3.3.1 Steigende Komplexität der Spiele - Rollenspiel Ultima.

......

......

...

...

......

16 3.3.2 Online-Spiele-Welten....

......

......

......

......

......

......

......

......

......

17 4. Netzwerke.....

......

......

......

......

......

......

......

......

......

......

....18 4.1 Funktion und Aufbau von Netzwerken.

......

......

......

......

......

......

......

.18 4.1.1 Netzwerktopologie...

......

......

......

......

......

......

......

......

......

....18 4.1.

2 Hardware......

......

......

......

......

......

......

......

......

......

......

....21 4.1.

3 Software......

......

......

......

......

......

......

......

......

......

......

....22 4.2 Nutzung des Netzwerkes durch die Spiele.

......

......

......

......

......

......

..24 4.3 Spielen im Internet...

......

......

......

......

......

......

......

......

......

..24 4.4 Faszination des Multigamings...

......

......

......

......

......

......

......

.....25 5.

eSports......

......

......

......

......

......

......

......

......

......

......

.....26 5.

1 Was sind eSports?......

......

......

......

......

......

......

......

......

......

.26 5.2 Entstehung und Verbreitung....

......

......

......

......

......

......

......

......

27 5.3 Was ist ein Pro-Gamer?.....

......

......

......

......

......

......

......

......

...27 5.4 Was ist unter Clans zu verstehen und wie sind sie aufgebaut?..

......

......

....28 5.5 Wirtschaftlicher Faktor.

......

......

......

......

......

......

......

......

......

28 5.6 eSports im Vergleich zu einer anderen Sportart.....

......

......

......

......

...30 6. Computerspiele in der heutigen Gesellschaft..

......

......

......

......

......

...30 6.1 Einfluss auf die Gesellschaft..

......

......

......

......

......

......

......

.....30 6.

2 Verursachen Computerspiele gewalttätige Handlungen?......

......

......

......

...31 6.3 Soziale Komponenten..

......

......

......

......

......

......

......

......

......

...32 6.4 Wertung der Position in einer Gesellschaft..

......

......

......

......

......

...32 7. Zusammenfassung..

......

......

......

......

......

......

......

......

......

......

.33 8. Bibliografie....

......

......

......

......

......

......

......

......

......

......

..34 8.1 Bücher...

......

......

......

......

......

......

......

......

......

......

......

...34 8.2 Zeitschriften..

......

......

......

......

......

......

......

......

......

......

...34 8.3 Internet..

......

......

......

......

......

......

......

......

......

......

......

..35 8.3.1 Seiten..

......

......

......

......

......

......

......

......

......

......

......

....35 8.3.

2 Abbildungen......

......

......

......

......

......

......

......

......

......

......

.40 1. Einleitung Noch manch einer erinnert sich an Pong, ein Spiel bei dem zwei Kontrahenten jeweils mit Hilfe eines abstrahierten Schlägers einen Ball im Spiel halten mussten. Inzwischen kommen Spiele mit 3D-Grafik, Videosequenzen und Stereo-Sound auf den Markt und treiben die Hardwareentwicklung gewaltig voran. Immer wieder werden neue Maßstäbe gesetzt und bald wieder überboten. Jan hat sich mit der Geschichte der Computerspiele vom Ende der 50er Jahre bis etwa 1995 beschäftigt und sich dabei mit der Frage befasst, was Computerspiele sind, und was man sich unter Hardware vorstellen muss.

Er hat die Pioniere der Computertechnik benannt, die ersten Schritte der Computerspiele, die Revolution durch die Entwicklung erster Grafikkarten erläutert und die Eroberung der Wohnzimmer durch die Personal Computer aufgezeigt. Christopher hat die Geschichte der Computerspiele ab der Entwicklung der 1. 3D-Beschleuniger 1995 bis heute aufgedeckt. Der Durchbruch der 3D-Technik gehört genauso zu seinem Themenbereich, wie die Entwicklung von PC Spielen, die steigende Komplexität dessen und das anwachsen der Online-Spiele-Welten. Joseph hat sich mit der Netzwerk- und Internettechnik auseinandergesetzt. Er hat den Aufbau und die Funktionsweise von Netzwerken als Thema.

Auch die Fragen, wie die PC-Spiele Netzwerktechniken nutzen und was den Reiz des "Multigamings" ausmacht. Erik erklärt, was man unter eSports versteht und wie sich diese vermeintliche Sportart in Deutschland und der Welt entwickelt. Er hat sich mit den Fragen beschäftigt, was ein Pro-Gamer und ein Clan ist. Die wirtschaftlichen und gesellschaftlichen Faktoren beleuchtet er ebenfalls. Ego-Shooter sind für viele nur die Anwendung sinnloser Gewalt an virtuellen Gegnern und ein Abreagieren vom Alltag. Dieses Argument, welches viele Menschen anbringen, hat Erik aufgenommen und außerdem die möglichen psychischen Folgen und deren Ursachen auf den Menschen und die Gesellschaft erläutert.

Das Ziel dieser Arbeit ist die Erörterung der Geschichte der Computerspiele, die parallele Entwicklung der Hardware und deren gesellschaftlichen Auswirkungen. Weiterhin stellt sich die Frage nach der aufkommenden Professionalität dieses ehemaligen Zeitvertreibs. 2. Geschichte der Computerspiele vom Ende der 50er bis 1995 2.1 Was ist unter Computerspielen und Hardware zu verstehen? Die Beleuchtung der Historie der Computerspiele erfordert zuallererst die Definition des selbigen Begriffes, sowie die Erklärung was eigentlich unter Hardware zu verstehen ist da die Entwicklung schließlich nebenbei betrachtet wird. Zuerst zum Begriff der Hardware.

Unter dieser Bezeichnung versteht man den "Körper" eines Computers. Es sind alle Geräte die das physikalische Funktionieren ermöglichen. Allgemein ausgedrückt bezeichnet Hardware alles was man, im Zusammenhang mit einem PC, anfassen kann. Für sich gesehen sind diese Geräte aber "tot", erst die Steuerung durch Software verursacht gewisse Aktionen. Hardware ist der Rechner selbst, Verbindungsleitungen, Drucker, Speichergeräte (Festplatten, Diskettenlaufwerke, CD-ROM-Laufwerke etc.) und die Ein- und Ausgabegeräte Monitor, Tastatur und Maus, die wir an unserem Arbeitsplatz vorfinden und die uns die Kommunikation zwischen Mensch und Maschine ermöglichen.

Diese Liste lässt sich fortführen: alle Geräte, die Signale an einen Computer senden oder von einem empfangen, gehören dazu, vom Joystick zum Raketentriebwerk, vom Herzschrittmacher zum Scanner. Computerspiele sind dagegen Softwareprodukte, d.h. sie verlangen der Hardware bestimmte Dinge ab (z.B.: die Grafikkarte stellt das gegenwärtige Bild dar).

Spiele sind eigentlich nutzlos für die Hardware, andere Software das Betriebssystem oder die Treiber bestimmter Rechenkomponenten dienen dagegen einem bestimmten Zweck, ohne sie wäre der Rechner weitesgehend nicht bzw. nur eingeschränkt funktionsfähig. Allgemein ist zu sagen das Computerspiele Realitätssimulationen sind, in dem einem Spiel wird der zweite Weltkrieg, in einem anderen eine Fantasylandschaft und in einem dritten eine Rennstrecke simuliert. Es wird versucht die Wirklichkeit möglichst detailgetreu nachzuahmen oder man erdenkt sich eigene Welten und setzt sie in einem Spiel um (Beispiel: Fantasyspiele, Weltraumsims). Auf den zweiten Blick ist das Feld der Computerspiele aber viel weiter gestreut. Geht man von oben genannter Definition eines Computerspiels aus sind auch Dinge wie künstliche Intelligenz, elektronische Musik oder im weitesten Sinne Chaträume der Sparte Computerspiele zuzuordnen.

Die Einordnung von Computerspielen in feste Kategorien wie Ego-Shooter, Echtzeit-Strategie, Wirtschaftssimulation und dergleichen ist heutzutage fast unmöglich geworden da es Unmengen an Spielen gibt die Genregrenzen sprengen und verschieden Komponenten der einzelnen Kategorien miteinander vermischen. 2.2 Anfänge der Spiele 2.2.1 Textbasierende Spiele Schon 1952, kurz nachdem die ersten kommerziellen Computer eingeführt wurden, schrieb A. L.

Samuel bei IBM ein Dame-Programm für die IBM 701. Es wurde mit der Idee geschrieben, dass man einen großen Teil über die menschlichen Denkvorgänge lernen könnte, falls man sie in einem Computer nachahmen kann. Aus demselben Grund schrieben Newell, Shaw und Simon von der Rand Corporation ein paar Jahre später das erste Computer-Schachprogramm. Diese Programme boten sogar für den Laien in künstlicher Intelligenzforschung als Spiele viel Spaß, obwohl sie nicht besonders gut Schach oder Dame spielten. Die wirkliche Entwicklung begann allerdings erst rund 20 Jahre danach, Anfang der 70er. Aufgrund der Einschränkungen bei den frühen Mainframes und Mikrocomputern, dominiert Text unter den ersten Computerspielen.

Zusammen mit einem Mainframe Star Trek Abenteuerspiel, wird das nächste sehr populäre Computerspiel - nach Spacewar - Hunt the Wumpus, von Gregory Yob auf einem Time-Sharing System an der "University of Massachusettes" in Dartmouth 1972 entwickelt. Adventure, auch bekannt als ADVENT oder Colossal Caves, ist die nächste logische Weiterentwicklung, ein komplett textorientiertes Spiel von Willie Crowther. Es wird 1972 in Fortran auf einer ehrwürdigen PDP-1 geschrieben. Die textbasierenden Spiele erleben ihren Höhepunkt mit Zork I das im Jahre 1980 für TRS-80 und Apple II erscheint. Dieses Spiel wurde von den beiden Adventure-Freunden Dave Lebling und Marc Blank programmiert. (Abbildung 1) (Abbildung 2) 2.

2.2 Atari/Pong In den Fußstapfen von Pionieren wie William Higinbotham, Steve Russell und Ralph Baer beginnt Nolan Bushnell eine komplette Unterhaltungsindustrie zu gründen, die in wenigen Jahren selbst die 80 Jahre alte Filmindustrie in den Schatten stellen wird. Atari wurde offiziell am 27. Juni 1972 gegründet. Bushnell's Idee ist es, ein Autorennen als erstes Spiel zu produzieren. Al Alcorn, der Ingenieur den Ampex angestellt hat ihn zu ersetzen, wird dazu gebracht es zu entwickeln.

Aber Bushnell ändert seine Meinung und entscheidet, dass sie den Neuankömmling Alcorn zuerst ein vereinfachtes Tennis-Spiel entwickeln lassen, bei dem der Spieler mit einem Schläger einen Ball über den Bildschirm schlägt. Er ermuntert Alcorn weiter, indem er ihm erzählt, dass seine Firma bereits einen Vertrag mit General Electric hat, dieses Spiel zu vermarkten. Einen derartigen Vertrag gibt es nicht. Obwohl Bushnell für diese Zeit unmögliche Soundeffekte haben möchte, packt Alcorn Piepstöne in das Spiel, die damals schon als fertige Schaltkreise zu haben sind und als Alcorn das Geräusch beschreibt, wenn der Ball den Schläger trifft, gibt er versehentlich dem Spiel seinen Namen: Pong. (Abbildung 3) Das Spiel wird ein Riesenerfolg und verkauft sich im ersten Jahr 8500 mal (bei einem Kaufpreis von 1200 Dollar/Stück). Dieser Erfolg ruft auch andere Firmen und Programmierer auf den Plan und in den Folgejahren erscheinen Dutzende Klone auf dem Markt, die allerdings nie den Erfolg des Originals wiederholen können.

Dieser Trend der Überflutung des Marktes mit einem Erfolgsprodukt beginnt 1973 und wird sich später durch alle Industriezweige hindurchziehen. 2.3 Heimcomputer 2.3.1 Anfänge der Multiplayer/Online-Spiele Obwohl Online-Spiele erst Mitte der 90er Jahre in Mode kommen, geht es im Prinzip zeitgleich mit der Entwicklung von Zork los. Roy Trubshaw schreibt 1979 sein erstes MUD (Multi-User Dungeon) auf einer DEC-10.

Er beginnt mit einer simplen Kette von verbundenen Räumen (er nennt es "MUD"). Der Benutzer kann sich einloggen und verfügt über relativ begrenzte Interaktionsmöglichkeiten sowie ein einfaches Chat-Programm. Zu Beginn sind etwa 20 Räume und 10 Kommandos vorhanden. Später wird das Spiel von diversen anderen Programmierern aufgegriffen und die Raumzahl auf 400 erweitert. 2.3.

2 Entwicklung des Grafik-Adventures Nachdem bis Anfang der 80er Jahre eher textlastige Spiele den Markt dominierten entwickelte sich in der Folgezeit immer mehr eine Spielegeneration heraus die Text und Grafik kombiniert. 1980 wird On-Line Systems von Ken und Roberta Williams gegründet. In ihrem Haus in Los Angeles entsteht ihr erstes Computerspiel "Mystery House" für den Apple II, das erste Computerspiel das Text und Grafik kombiniert. In einer Agatha Christie ähnlichen Atmosphäre muss der Spieler ein Haus untersuchen, Schätze suchen und das tödliche Schicksal anderer Bewohner meiden. Obwohl die Grafik nur aus einfachen Linien besteht ist das Spiel eine Sensation. 15000 Kopien werden verkauft, das Paar erwirtschaftet 200.

000 Dollar und erlangt zudem Weltruhm sowie, auch durch weitere Erfolge begründet, Kultstatus. Der daraus resultierende Firmenname "Sierra-On-Line" steht noch heute für qualitativ hochwertige Spiele. 1984 erscheint "Kings´s Quest". Die Spieler steuern Sir Graham, dem von König Edward befohlen wurde, das Königreich von Daventry nach drei Schätzen zu durchforsten. Sierra hält mit dem Spiel einen riesigen Hit in seinen Händen. Als es auf bekanntere Systeme portiert wird, wird "Kings´s Quest" über 2,7 Mio.

mal verkauft und es entstehen insgesamt acht Nachfolger. Doch "Lucas Arts"(ehemals "Lucasfilm") verdrängt Sierra mit einem ausgeklügelten Zeig- und Klicksystem. Während Sierra seine Spiele noch an die Vorteile der neuen Technik anpasst, verlieren sie ihr (fast-)Monopol auf dem Grafik-Adventure Markt. Zusammen mit der Serie "Monkey Island" und dem Grafik-Adventure "Indiana Jones" wird Lucasfilm unangefochtener Spitzenreiter im Bereich der Adventure. Zu den heutigen Problemen von Adventures sagt Ken Williams: "Wir glauben, dass dieses Genre ausstirbt, weil die Entwickler keine Innovationen mehr schaffen, und nicht, weil die Spieler nicht mehr an interaktiven Abenteuern interessiert wären." Mit seiner Einschätzung liegt Williams wohl richtig.

Trotz Verkaufserfolgen wie z.B. "Runaway" scheint das Genre aufgrund der Beliebtheit von Actionspielen oder Echtzeit-Strategiespielen und der mangelhaften Internet- und Multiplayer-Präsenz unterzugehen. Dennoch sind diese Klassiker absolut spielenswert und gehören in die Sammlung jedes Adventure-Freundes. Die Einbindung von Grafik in Spiele hat in erster Linie den Grund, dass die Hardware sich weiterentwickelte. Bis etwa Ende der 80er Jahre wurde Hardware in erster Linie dafür weiterentwickelt um Firmen und andere Unternehmen zu unterstützen damit diese ihre Produktivität steigern können und die Arbeit rationalisieren können.

Entweder war die Hardware zu teuer oder für einfache Programmierer zu kompliziert zu bedienen und zu handhaben. Zudem gab es kaum Heimcomputer, niemand bezahlte etwas für Spiele. Es rentierte sich also Spiele zu verkaufen und so programmierten die Entwickler mehr oder weniger zum Spaß ohne Gedanken an Verkaufszahlen oder Zeitdruck zu verschwenden wie es heute der Standard ist. Doch Ende der 70 er Jahre ändert sich die Situation. Der Ti99/4 Computer mit dem Prozessor TMS 9900 wird als erster 16 Bit Heimrechner auf den Markt gebracht. Konkurrenten auf dem Heimcomputermarkt sind der Atari 400 und 800.

1980 bringt Microsoft PC-DOS/MS-DOS auf den Markt welches sich als erstes massenmarktaugliches Anwenderprogramm erweist. Der ZX-80 ist der erste Computer unter 500 Mark. Damit werden PCs endlich auch für die breite Masse erschwinglich. (Abbildung 4) 2.3.3 Electronic Arts Trip Hawkins gründete 1982 Electronic Arts mit einem Startkapital von 120.

000 US-Dollar. Hawkins war von 1978 bis 1982 leitender Angestellter bei Apple. Nachdem Apple aber die Chance verspielte die Exklusivrechte am ersten Kalkulationsprogramm ("VisiCalc") zu erwerben verlässt der junge Mann die Firma und gründet mit Rich Melmon, Tim Mott, Bing Gordon, David Maynard und Joe Ybarra seine eigene Firma. Hawkins baut ein Spieleunternehmen auf, dass sich radikal von der bisherigen Haltung der großen Spielemacher wie Atari und Mattel abgrenzen soll, wo die Programmierer, die schließlich die Spiele entwerfen und entwickeln, mehr geschätzt und weniger als Leibeigene angesehen werden. In der Anfangszeit produziert EA Sportspiele wie "Dr. J and Larry Bird Go One on One".

1983 kommt Archon auf den Markt; ein Jahr später Archon II. Ende 1983 erscheint mit M.U.L.E. für den Atari 800 das mit am meist kopierte Videospiel.

Nur wenige Jahre später kehrte Trip Hawkins EA den Rücken, weil er es ablehnte M.U.L.E. für Nintendo zu konvertieren. Dem Erfolg des Unternehmens tat dies keinerlei Abbruch, EA entwickelte sich stetig und gehört heute zu den größten Spieleschmieden der Welt.

Doch auch die Entwicklung der Hardware ging voran und war nicht minder ein Erfolgsgarant für Electronic Arts. Apple stellt die "LISA" vor, den ersten PC mit grafischer Benutzeroberfläche, die LISA ist aber mit Preisen von 15-20.000 DM zu teuer. Mit Lotus 1-2-3 erscheint die erste brauchbare Tabellenkalkulation für MS-DOS. Turbo Pascal erscheint und wird zur populärsten Programmiersprache neben BASIC. Im November kündigt Microsoft Windows 1.

0 an, im April MS Word. C++ wird entwickelt und Sony entwickelt die 3.5" Disketten an. 2.3.4 Der Aufstieg des PCs Während noch Anfang der 70er Jahre Arcade- und Konsolenspiele die Szene bestimmten wurden sie durch technische Neuerungen bald in den Hintergrund.

1984 stellt Apple den Macintosh vor, der zwar technisch gesehen nichts besonderes bietet, im Vergleich zu anderen Rechnern aber erheblich billiger ist und damit für einen breiten Massenmarkt erschwinglich. Im darauffolgenden Jahr erscheint der Commodore von Amiga. 1985 wird zudem Windows 1.0 veröffentlicht, welches sich aber schnell als unbrauchbar erweist. 1987 führt IBM die PS/2-Linie ein. 1990 wird Windows 3.

0 vorgestellt und verkauft sich als erste brauchbare Version sehr gut. Erste Ermittlungen gegen Microsoft wegen Monopolartiger Strukturen beginnen. Diese Entwicklungen brachten eine Fülle neuer Möglichkeiten für Spieleentwickler mit sich. 1985 gründet der Engländer Richard Garriott die Firma Origin und krempelt im selben Jahr die Ultima-Serie mit dem vierten Teil um, indem er den sogenannten Avatar einführt. Im Jahre 1988 erscheint Tetris (Abbildung 5), welches 1985 vom russischen Entwickler Alex Pajitnov programmiert wurde. Das Prinzip ist denkbar einfach und dennoch das Erfolgsgeheimnis, weil süchtigmachend.

Man muss Objekte in einer bestimmten Zeit so drehen das selbige platzsparend angeordnet werden und man möglichst viele unterbringen kann. Doch die Ära von Mitte der 80er Jahre bis Anfang der 90er hat noch mehr Spiele-Klassiker zu bieten. 1987 wird das Kultspiel und mit diversen Nachfolgern behaftete Sim City erfunden. Eigentlich als Kriegsspiel konzipiert macht dem Programmierer das Städtebauen mehr Spaß als das Programmieren. Im selben Jahr veröffentlichte Microprose Pirates, welches unter der Regie von Sid Meier entstand. Der Nachfolger ist für Mitte 2004 angekündigt.

2.3.5 Die Hochära des PC-Games Windows 3.1 erscheint 1992 mit OLE und TrueType Fonts. Die Verkäufe brechen alle Rekorde. IBM bringt 1993 mit OS/2 Version 2.

1 eine Consumer Variante heraus die gegen Windows gerichtet ist und neben DOS auch Windows 3.1 Programme ausführen kann. Mangels eigener Software floppt das Projekt. Apple stellt die Fertigung des Apple II nach 15 Jahren ein. Die Speicherpreise steigen um das 4 Fache nach Explosion in einer Fabrik die das Gehäuse produziert. Erstmals verkaufen sich mehr 486 er als 386 er.

Der Pentium wird vorgestellt. 1995 erscheint Windows 95 17 Monate nach der ersten Ankündigung. Das Internet boomt und sorgt, insbesondere in der Folgezeit für mehr und mehr Multiplayer-Spiele. Diese Goldene Zeitalter hat fünf herausragende Gründe, nämlich fünf revolutionäre Spiele. 1992 erscheint Dune 2. Basierend auf dem Buch Der Wüstenplanet gilt es für viele als Urahn der Echtzeit-Strategiespiele.

1993 erscheint Civilization von Sid Meier, welches als eines der besten Spiele aller Zeiten gilt. Der erste Teil der Doom-Serie erscheint 1994 und definiert das Shooter-Genre neu. Doom 3 ist für Ende 2003 geplant und ist das mit am sehnsüchtigsten erwartete Spiel unserer Tage. Im selben Jahr erscheint das Kultspiel Myst. (Abbildung 6) (Abbildung 7) 1995 feiert die Westwood Studios ihr zehnjähriges Jubiläum und revolutionieren mit Command & Conquer das gesamte Echtzeit-Genre. Der Tiberiums-Konflikt zwischen Nod und GDI ist schneller, schicker und netzwerktauglicher als alles, was es zuvor unter dem Siegel "Strategie" gegeben hat.

Die Online-Lobby "Westwood Chat" verhilft C&C auch im Internet zum Durchbruch. 3. Geschichte der Computerspiele ab Entwicklung der ersten 3D-Beschleuniger (1995) bis heute 3.1 Durchbruch der 3D-Technik 3.1.1 Die Polygon-Ära beginnt Polygone sind Flächen, welche die Oberfläche eines Spieles bilden und später mit Bitmaps (kleinen Bildern) versehen werden.

Je detailtreuer und komplexer eine Oberfläche dargestellt werden soll, desto zahlreicher müssen die Polygone vorhanden sein. Die kleinsten Polygone sind Dreiecke, welche heutzutage hauptsächlich genutzt werden. Alle aktuellen 3D-Welten und Objekte (Abbildung 8) sind aus sehr vielen Dreiecken bzw. Vierecken, also Polygonen aufgebaut, was damals noch nicht der Fall war. Interplay gelang mit dem Actionspiel "Descent" (1994, Abbildung 9) ein technisches Meisterstück. Die mit Portal-Technologie ausgestattete 3D-Engine mit freier 360°-Rundumsicht und schattierten, texturbelegten Polygongegnern stellte sogar die id-Spiele, bezüglich Bewegungsfreiheit und Objektdarstellung, in den Schatten.

Grafische Leckerbissen wie "Magic Carpet" (1994), "Flight Unlimited" (1995) und "The Need for Speed" (1996) verdeutlichen den Trend in Richtung echter 3D-Polygon-Grafik und höherer Auflösungen. 1995 debütierte id Software mit einem polygonbasierten First-Person-Shooter und 16-Bit-Grafik bis 640x480 Bildpunkte, welche konsequent "Lightmaps" zur realistischen Ausleuchtung der Level nutzte. Die schnellere Fließkomma-leistung der neuen Pentium-Prozessoren bot nun ausreichend Rechenkapazität für echte Polygon-Grafik. Doch trotz der Fortschritte im Bereich der 3D-Optik blickten die Besitzer 1000 Euro teurer 486er- oder Pentium-PCs neidisch auf Sonys PlayStation Konsole. Die prachtvoll texturierte, detailreiche und dennoch schnelle Polygongrafik von Titeln, wie "Ridge Racer", war PC-Besitzern fremd. Gerüchte über spezielle Grafikkarten mit 3D-Beschleunigungs-funktion weckten Hoffnung, doch diese Produkte und passende Software waren noch in weiter Ferne.

Auch das Erscheinen der ersten Grafikkarten mit 3D-Beschleunigungsfunktion, wie "Matrox Millennium" und "Diamond Edge 3D", änderte vorerst nichts an der Situation. Die ersten hardwarebeschleunigten 3D-Titel wie "Nascar Racing" (1995) oder Segas "Virtua Fighter" erreichten weder die Qualität noch die Leistung von Sonys Spezialhardware. 3.1.2 Die CD-ROM erobert die Spiele Parallel zum Wechsel in der Grafikdarstellung begannen Spieleentwickler die neuen Möglichkeiten der CD-ROM sinnvoll zu nutzen. Während viele Entwickler CDs allein um der CD willen in die Packung steckten, gelang Origin mit "Wing Commander IV" (Abbildung 10 und 11) nach LucasArts mit "Rebel Assault" eine perfekte Symbiose aus interaktivem Film und PC-Spiel.

Diese Weltraumsimulation spielt in hochauflösender VESA-Grafik und 8-Bit respektive 16-Bit Farbtiefe. Geliefert wurde dieses Paket mit sechs CD-ROMs. Die Software-3D-Engine mit Texture Mapping verlangt für flüssiges Spielvergnügen nach einem Computer mit damals brandneuem Pentium-Prozessor mit rund 100 MHz Taktfrequenz. 3.1.3 Nvidia am Abgrund Ein kleiner Chiphersteller, eine Tochtergesellschaft von SGS Thomson, namens Nvidia (Abbildung 12) gilt als Pionier im Bereich der 3D-Grafikchips.

Damals hielten die ersten Prozessoren nicht was sie versprachen. Der erste 3D-Beschleuniger von Nvidia (Ende 1995), der NV1 (Abbildung 13), war sehr unkonventionell und langsam. Statt Polygone beschleunigte und texturierte der Chip, welcher in den Fabriken von ST hergestellt wurde, direkt nur Freiformflächen . Trotz angekündigter Spiele, blieb es bei Sega "Virtua Fighter Remix", "Panzer Dragon" sowie einigen weiteren Umsetzungen. Somit gab es für den NV1 kaum Softwareunterstützung. Auch der im Chip integrierte Wave-Table-Synthesizer faszinierte kaum, da er nur unter Windows und nicht unter dem damals wichtigen DOS brauchbar anzusprechen war.

Für Nvidia und den Kartenhersteller Diamond ("Edge 3D") war der NV1 ein Debakel, das Nvidia fast dazu zwang, die Segel zu streichen. Nur die Entlassung von mehr als der Hälfte der Belegschaft und neues Investitionskapital retteten Nvidia vor dem schnellen Untergang. 3.1.4 Windows wird fit für Action-Spiele Verbesserungen bei Grafik, Sound und Gameplay von PC-Spielen waren eine Sache, doch der PC hatte noch einen weitaus gravierenderen Nachteil gegenüber Konsolen - die Benutzerfreundlichkeit. Erst Windows 95 (Abbildung 14), was erst nach 17 Monatiger Ankündigung auf dem Markt erschien, wandelte den PC in eine bedienerfreundliche Multimediamaschine um.

Mit DirectX (1996), welches in der ersten Version noch ohne Direct3D ausgestattet war, gelang es Microsoft, eine herstellerunabhängige und direkte Schnittstelle zu den (2D-)Grafik- und Audiofunktionen damaliger PCs zu entwickeln. Die für Windows 3.x entwickelte Schnittstelle hieß "WinG". Highlights wie "Pitfall" verdeutlichten bereits mit "WinG", dass dank direkter Zugriffsfunktionen auf die Grafikhardware auch unter Windows flotte Action-Spiele kein Ding der Unmöglichkeit darstellten. Um die Spieleleistung zu steigern brachte Intel im November '95 den Pentium Pro (Abbildung 15 und 16) auf den Markt, welcher für 32 Bit Befehle optimiert war, da man Microsofts Angaben geglaubt hat, dass Windows 95 ein 32 Bit Betriebssystem sei. Doch alte 16 Bit Treiber bremsen den Pentium Pro unter das Niveau eines Pentium aus.

Dieser Prozessor konnte sich deswegen auf Standard-PCs und wegen des hohen Preises nicht durchsetzen und wurde vorwiegend in Servern eingesetzt. 3.1.5 Voodoo verzauberte die PC-Spielewelt - chancenlose Konkurrenz Eine regelrechte Revolution begann Mitte 1996 mit dem Erscheinen des Voodoo-3D-Beschleunigers des jungen Chipherstellers 3dfx Interactive. Die brachiale Leistung der Spezialchips, gepaart mit der hohen Grafikqualität, ermöglichte Spiele mit bisher unbekannter Grafikqualität und Leistung. Hochauflösende Optik bei 30 Bildern pro Sekunde, bisher mangels Rechenleistung schlicht nicht möglich, waren nun bereits auf Einsteiger-Pentiums mit 100 MHz möglich.

Die Spieleindustrie lieferte spezielle Patches , die ältere Spiele Voodoo tauglich machten. Titel wie "Tomb Raider" (Abbildung 17 (TR 1) und 18 (TR 6)), "Beben" und "WipEout" strahlten in neuem Grafikgewand um die Wette. Als auch noch Epic mit "Unreal" die bis dahin modernste 3D-Engine veröffentlichte, waren PC-Spieler vollends aus dem Häuschen. Mit den fantastischen Reflexions- und Explosionseffekten, den hochauflösenden Texturen und den vergleichsweise detaillierten Charakteren setzte Unreal gleich mehrere Grafikstandards. Die mit 3D-Grafikkarten problemlos möglichen Transparenz- und Spiegeleffekte veränderten die Optik kommender Spiele schlagartig. 3D-Engines ohne 3D-Hardware-Unterstützung konnten optisch nicht mehr mithalten und galten innerhalb kürzester Zeit als veraltet.

Die geschockte Konkurrenz versuchte primär der Voodoo-Revolution mit Ankündigungen von überspezifierten Prozessoren etwas entgegenzusetzen. Chipentwickler wie Oak, Trident und Number 9, die speziell mit 2D-GUI-Beschleunigern erfolgreich waren, hatten Mühe, mit den technischen Innovationen der aufstrebenden 3D-Entwickler mitzuhalten. Selbst Ati mit der "Page3D"-Serie (1996, '97) und der damalige Marktführer S3 mit diversen Virge-Prozessoren konnten weder qualitativ noch leistungsmäßig den 3dfx-Chips das Wasser reichen. Nvidia, die zwischenzeitlich ihrem unterlegenen Chipentwurf für die Dreamcast-Konsole (NV2) eine weitere Niederlage einstecken mussten, präsentierten den in neun Monaten neu entwickelten und Dreiecke verarbeitenden Riva128-Grafikchip (NV3). Dank seinem Arbeitstakt von 100 MHz und einem 128-Bit-Speicherinterface übertraf der Baustein die Spezifikationen des Voodoo-Konkurrenten bei weitem. Auch in der Praxis konnte der Nvidia-Chip die Führung unter dem bei Spieleentwicklern wenig beliebten Direct3D für sich behaupten.

Die Qualität der Texturfilter des Riva128 blieb jedoch hinter jener von Voodoo-Karten zurück. 3.1.6 Voodoo zum Zweiten - 3dfx unschlagbar Im Frühling 1997 zog 3dfx nach und reichte die Konkurrenz mit dem Voodoo2 ein weiteres Mal nach hinten durch. Die Kalifornier schienen unschlagbar. Mit verdoppeltem Chip- und Speichertakt (90 MHz), erstmals zwei Textureinheiten (Single Pass Multitexturing), trilinearer Texturfilterung, Auflösungen bis 800x600 sowie 8 respektive 12 MB Speicher setzte 3dfx ein weiteres Mal neue Standards.

Als bis heute einzigartig gilt der "SLI"-Modus. Zwei PCI-Steckkarten konnten über ein Kabel miteinander gekoppelt werden und verrichteten die Arbeit im Parallelbetrieb doppelt so schnell. Diese rund 600 Euro teure "SLI"-Lösung bot für ein ganzes Jahr die beste Spieleperformance und erlaubte zudem Auflösungen bis 1024x768, dem heutigen Standard in Sachen Auflösung. 3.1.7 Frontalangriff von Nvidia - 3dfx entthront Erstmals ins Zittern kam die Voodoo-Vormachtstellung schon im Herbst 1997, denn Nvidia brachte den RivaTNT-Beschleunigungschip auf den Markt.

Die Versprechungen von Nvidia wurden zwar bei weitem nicht erfüllt, doch bot der Chip mit der Unterstützung für Stencil Buffer, 16 MB Speicher und großen 32-Bit-Texturen die modernere 3D-Technik als der bereits zwei Jahre alte Voodoo-Kern. Zudem war Nvidia der erste Hersteller, der gleich mehrere Rendering-Pipelines in einen Chip integrierte. Der TNT-Chip bearbeitete zwei Pixel im Parallelflug, während Voodoo2-Chips nur ein Pixel mit Texturen versehen konnten. Der Techniküberschuss des TNT machte sich bei der Transistorenzahl deutlich bemerkbar. In einem TNT-Chip waren acht Millionen Transistoren für 2D- und 3D-Betrieb verbaut, beim Voodoo2-Chipsatz nur drei. Während 3dfx im Frühling 1999 (Voodoo3, Abbildung 19) immer noch auf der nach 4 Jahren veralteten Technik verharrte, überzeugte die Konkurrenz mit schnelleren und vielseitigeren Beschleunigungschips.

Nvidias RivaTNT-Serie, Atis Rage128-Chips und Matrox G400-Karten boten Features, welche die Spieleentwickler nur unter Direct3D nutzen konnten. Die Branche war sich einig, dass der 3D-Pionier 3dfx entthront ist. 3.2 3D-Technik ist Standard 3.2.1 Nvidia greift nach den Sternen Den 3D-Führungsanspruch untermauerte Nvidia im Herbst 1999 mit dem großem Getöse eingeführten Geforce265 ("The world will change").

Der Baustein verlagerte einen weiteren Teil der 3D-Pipeline vom Prozessor zum Grafikchip. Funktionen zur Berechnung der Objektverschiebung und Beleuchtung von Dreiecken konnten von der integrierten T&L -Einheit übernommen werden. Während die praktischen Vorteile dieser Innovation vorerst mit der Lupe zu suchen waren, überzeugte der Baustein mit seinem massiven Leistungsvorsprung. Eindrucksvolle 23 Millionen Transistoren verarbeitete Nvidia in dem Chip, dies mochten sogar Intels CPUs nicht mehr übertreffen. Die in weiser Voraussicht eingebaute Unterstützung für DDR-Speicher festigte Nvidias Leistungsvorteil und sicherte die Leistungskrone. 3.

2.2 3dfx geht Pleite - Nvidia an der Spitze 3dfx, geplagt von Managementfehlern und nicht funktionierenden Grafikchips, schlitterte in eine schwere Krise. Die angekündigten Voodoo5-Grafikkarten mit Hardware-Kantenglättung verpassten den Termin um mehr als sechs Monate. Während Nvidia bereits in den Schlussvorbereitungen für den überarbeiteten Geforce256-Nachfolger Geforce2 GTS steckte, veröffentlichte Ati das "Rage Fury Maxx"-Gespann, ein mit zwei Rage128-Pro-Grafikchips betriebenes Grafikboard. Sehr mäßige Treiberunterstützung ließ das interessante Vorhaben schnell in Vergessenheit geraten. Dagegen machte Atis Neuentwicklung "Radeon" eine deutlich bessere Figur.

Der mit T&L, EMBM und skalarem Bump Mapping bestückte Grafikchip mauserte sich zur interessantesten Alternative zur Geforce2-Beschleuniger-Serie, die mittlerweile um das preiswerte Einstiegsmodell Geforce2 MX erweitert wurde. Ende 2000 wurde das Schicksal von 3dfx besiegelt, die über die Jahre völlig überschuldete Firma gab die Einstellung der Geschäftstätigkeit bekannt. 3.2.3 Programmierbare Grafikchips Bereits fünf Jahre nach dem ersten 3D-Beschleuniger wird mit dem Ati-Radeon-Chip die OpenGL-3D-Pipeline komplett in Hardware verarbeitet. Noch mehr Spezialfunktionen fest ins Silizium zu verarbeiten macht wenig Sinn, da dieser Weg den Entwicklern zu unflexibel erscheint.

Erste programmierbare Grafikchips (Geforce3 im Mai 2001, Radeon 8500 im September 2001) haben sich bereits auf dem Markt festgesetzt. Jetzige Chips wie die GeForce Ti (Abbildung 20) und FX-Serie (2003) oder auch die Radeon-Serie, bis zur heutig besten Grafikkarte, der Radeon 9800 Pro (2002), haben diese Technik standardisiert und weiterentwickelt, so dass atemberaubende grafische Leckerbissen möglich sind. Künftige Chipgenerationen werden diesen Weg fortsetzen und die programmierbaren Fähigkeiten weiter verbessern. 3.2.4 So weit, so gut - und jetzt? Die Geschichte hat gezeigt, dass im Grafikbusiness selbst dominierende Firmen wie 3dfx aufgrund weniger Fehlentscheidungen oder schlicht Pech innerhalb weniger Jahre komplett vom Markt verdrängt werden können.

Ob die aktuelle Spitze mit Ati und Nvidia entthront werden kann, weiß nur die Zukunft. Nach dem beispiellosen Boom der 3D-Enignes mit Augenmerk auf die Optik der Spiele setzen Hersteller nun vermehrt auf neue Spielkonzepte. Action-Elemente werden mit Rollenspiel-Merkmalen vermischt ("Deus Ex", 2000), Shooter um neue Spielelemente erweitert ("Max Schmerz" mit Beeinflussung des Zeitablaufes, 2001) oder mit "Counter-Strike" (Abbildung 21) komplett neue Genres erschaffen (Taktik und Teamplay, 1999). Natürlich wird auch weiterhin auf Altbewehrtes gebaut. So ist wieder "Unreal Tournament" 2003 (2002, Abbildung 22) ein reiner Shooter innerhalb einer Arena, wie es auch die Vorgänger waren. Auch Rollenspiele wie "Morrowind" (2002, Abbildung 23) gab es schon.

Man denke nur an "Ultima", was ab 1980 die Wohnzimmer eroberte. Aufbaustrategen fast ohne kriegerische Interessen werden sich noch lange an die "Anno"-Serie erinnern, welche mit "Anno 1503" (2003) einen wahren Kauf- und Spielrausch bei vielen begeisterten Siedlern auslöste. Ob es in Zukunft weitere Neuerungen in Sachen Spielkonzept ergeben werden, wird sich zeigen. 3.3 Was zeichnet gute Spiele aus 3.3.

1 Steigende Komplexität der Spiele - Rollenspiel "Ultima" Die erfolgreichste Computer Rollenspielserie der Welt ist "Ultima". Durch den großen Erfolg, welchen "Ultima" einspielte, konnten viele Preisen abgeräumt werden. Der Schöpfer dieser Serie ist Richard Garriott , welcher sich schon früh mit den so genannten "Pencil and Paper" Rollenspielen beschäftigte. Diese Art von Rollenspiel wurde ausschließlich mit Bleistift, Papier und Würfel nach einem Regelwerk, wie "Dungeons & Dragons" von fantasybegeisterten Menschen, gespielt. Richard schrieb mehrere Folge seiner Rollenspiele. Das erste Spiel von Richard war noch ein sehr einfaches und kleines Dungeon Spiel.

Die Spieler gaben ihre Befehle über eine Fernschreibertastatur ein. Nach jedem Schritt des Spielers wurde das Spielfeld neu ausgegeben (Abbildung 24). Sein Zweites, welches mit einer für die damalige Zeit atemberaubenden 3D-Grafik ausgestattet war, hieß "Akalabeth" (Abbildung 25). Dies war das erste Spiel, welches von Richard auch veröffentlicht wurde. Richard erweiterte "Akalabeth" um die Tile Grafik, die sogenannte Dungeons in 3D Charakter Grafik. Die Spieloberfläche wird dabei mit Kacheln belegt, auf denen Gras abgebildet ist.

Dies sehen aneinandergelegt wie eine Wiese aus. Dies war fehlender Computertechnik eine langwierige Aufgabe. Dieses neue Spiel wurde mit den Namen "Ultima" 1980 veröffentlicht (Abbildung 26), welches für den Apple, den Atari 800 und den Commodore 64 erschien. Auf dem PC konnte man "Ultima" (Abbildung 27) erst Mitte der achtziger Jahre spielen. Mittlerweile gibt es neun "Ultima" Spiele. In "Ultima" geht es nicht wie in vielen anderen Rollenspielen nur um das Abschlachten von Monstern und am Ende zum besiegen eines nie gesehenen Gegners, sondern hier wird nicht nur eine facettenreiche Geschichte voller liebevoller Details spannend erzählt, sondern auch eine ganze komplexe Welt simuliert.

Ab "Ultima VIII" (1994) konnte der Spieler mit jeglichen Gegenständen interagieren, neue Dinge herstellen und diese sogar verkaufen. Genauso wie verschiedene Menschen gibt es verschiedene Witterungsverhältnisse, von Sonnenschein über Gewitter bis Hagel und Schnee. Sogar die Bevölkerung reagiert auf die Aktionen des Spielers. In Ultima warten auch etliche Gefahren, Bösewichte und Monster, welche überwunden bzw. ausgeschaltet werden müssen. Die grafische Darstellung wurde ebenso verbessert, wie die Handlung immer dichter und ausgefeilter wurde.

Die ausgedruckten Dialoge von "Ultima VII - The Black Gate" (Abbildung 28) umfassen 400 bedruckte Seiten. Mit der wachsenden Komplexität der Ultima Spiele stiegen auch die Produktionskosten. Die letzten beiden Spiele dieser weltumspannenden Erfolgsserie erblickten die Spieler im Jahre 1997 und Ende 1999. "Ultima VIII" (Abbildung 29) und "Ultima IX - Ascension" (Abbildung 30). 3.3.

2 Online-Spiele-Welten Der Internet-Boom begann 1995, wobei das Internet schon 1958 für das amerikanische Verteidigungsministerium zur Verfügung stand. Zu dieser Zeit (1995) waren mehr als 50 000 Netzwerke und über 5 Millionen Computer am Internet angeschlossen. Die Zuwachsrate der Computer, welche an das Internet angeschlossen wurden, betrug 9 Prozent im Monat. Heute sind rund 4 Mrd. PCs über Modem, ISDN oder DSL mit dem Internet verbunden. Mit eines der ersten Online-Spiele war Ultima Online, welches 1997 erschien und die Spielgemeinschaft begeisterte.

Jetzt entdeckten die Spieler, dass das Spielen mit anderen Spielern über das Internet mehr Spaß macht, als sich mit Computergegnern zu messen. Mit "Counter-Strike" (1999) begann eine neue Ära des Online-Gamings. "Counter-Strike" ist ein Spiel, indem es vorwiegend um Taktik und Teamplay geht, was bei den Spielern sehr gut ankommt. Gamer aus der ganzen Welt können sich gegenseitig in Ligen (im Internet) und auf großen LANs ihr Können beweisen. Es haben sich rechte Verbände von Spielern gebildet, welche professionell spielen und damit sogar Geld verdienen (bis zu 300 Euro im Monat). "Anarchy Online" (2001) ist ein Meilenstein im Bereich der "Massively-Multi-Player" Online-Spiele.

"Anarchy Online" ist die erste Online-Welt, die im Science Fiction-Bereich angesiedelt ist, zusätzlich ist das Spiel mit einer außergewöhnlichen Grafik ausgestattet und gibt dem Begriff des "dynamic gaming enviroment" eine völlig neue Bedeutung. Es wird auch das erste Spiel der neuen, zweiten Generation der Massively-3D Multiplayer Online-Spiele sein. "Online-Games sind die Zukunft der Industrie und ein auf Abonnements basierendes Businessmodel wird in den nächsten Jahren eine gebräuchliche Plattform sein, um Geld zu verdienen." 4. Netzwerke 4.1 Funktion und Aufbau von Netzwerken Unter einem Netzwerk kann sich heutzutage fast jeder Computernutzer etwas vorstellen: Ein Verbund von Geräten (Computer, Drucker, Scanner) zur gemeinsamen Nutzung bzw.

zum Datenaustausch. Es kann aus mindestens 2 Computern in einem Raum bis hin zu mehreren Millionen Computern - dem Internet - bestehen. Fast jede Firma hat ein Netzwerk installiert und ist an das WWW durch z.B. einen s.g.

Online-Shop angebunden. Natürlich haben auch die Computerspiele die Netzwerkwelt für sich entdeckt. Doch wie funktioniert so ein Netzwerk und die dafür erforderliche Kommunikation zwischen den Computern eigentlich? 4.1.1 Netzwerktopologie Am Anfang des Aufbaus eines Netzwerkes steht die Entscheidung für eine Struktur des Netzwerkes. Die Gängigsten sind die Busstruktur, die Sternstruktur und die Ringstruktur (auch Token-Ring genannt).

Im Ethernet sind alle Computer hintereinander an ein und demselben Kabel anschlossen. Die Daten werden also an jedem einzelnen Computer vorbei gesendet, bis sie den Zielcomputer erreicht haben. Da es jedoch auch passieren kann, dass mehrere Computer zur selben Zeit Daten senden, kommt es häufig zu einer Datenkollision. Die Netzwerkkarte registriert dies und bricht die Übertragung ab. Nach einer zufällig festgelegten Wartezeit versuchen die Geräte eine erneute Sendung. Dadurch wird die theoretische Übertragungsgeschwindigkeit in Ethernet-Netzwerken drastisch herabgesetzt.

Daher ist diese Topologie nicht für das Spielen im Netzwerk empfehlenswert. Skizze: Bustopologie In einem Ringnetzwerk sind alle Geräte ebenfalls an einem Kabel jedoch in einer Ringform angeschlossen. Das hat zur Folge, dass die Daten von jedem Gerät auf dem Weg zum Zielrechner empfangen und weitergesendet werden müssen. Der Vorteil ist, dass es nicht zu einer Datenkollision kommen kann, da jeder Computer, der etwas senden will, erst auf den s.g. Token warten muss.

Das wiederum hat zur Folge, dass Geräte, mit der Absicht etwas zu senden, erst warten müssen, bis sie das Token haben. Das kann in Netzwerken mit wenig Datenverkehr leicht zu einer Geschwindigkeitsbremse werden. Da alle Geräte in dieser Struktur nur nacheinander arbeiten können, ist auch sie für ein Spielnetzwerk eher ungeeignet. Skizze: Token-Ringtopologie Bleibt also nur noch die Sternstruktur. Bei ihr hat jeder Computer eine eigene Kabelverbindung zu einem Server bzw. einem Hub.

Dieser Server kann entweder ein "Dedicated Server " - also ein Computer, der ausschließlich für die Datenverwaltung unter den verschiedenen Spielcomputern zuständig ist- oder ein am Spiel teilnehmender Rechner sein. ("Nondedicated Server") Die "Nondedicated Server"-Variante ist bei kleineren Netzwerken möglich. Diese Rolle wird meist von dem leistungsstärksten Rechner übernommen. Das Problem dabei ist die Kostenfrage: Dieser Server muss mit mehreren Netzwerkkarten ausgestattet sein. Außerdem ist diese Methode durch die Anzahl der teilnehmenden Spieler begrenzt: Es ist meist nicht möglich 20 oder mehr Netzwerkkarten in einen normalen PC bauen. Ein Ausweg ist, einen so genannten Hub (Abbildung 31) bzw.

Switch (Abbildung 32) zu benutzen. Er nimmt dann die Rolle des Servers ein und verwaltet und verteilt die eingehenden Daten. Er ist praktisch der Mittelpunkt des Netzwerkes. Auch hier gibt es ein kleines Problem: Die meisten Switches sind mit maximal 32 Eingängen bestückt. Jedoch gibt es für dieses Problem eine einfache Lösung: man koppelt die Hubs bzw. Switches einfach so miteinander, dass sie wiederum ein Bussystem ergeben.

Auf großen LAN-Parties sieht man so die Switches meist in einem großen Schrank stehen. Daran sind alle teilnehmenden Computer angeschlossen. Der Unterschied zwischen einem Hub und einem Switch ist einfach: Während der Hub nicht weiß, an welchem seiner Ports welcher Computer angeschlossen ist (Identifizierung erfolgt durch IP-Adresse, siehe unten), ist der Switch in der Lage dies zu "lernen". Ein weiterer Vorteil ist, dass der Switch im Gegensatz zum Hub mehrere Datenpakete gleichzeitig verarbeiten kann und des Weiteren in der Lage ist, mehrere seiner Ports untereinander zu koppeln. Dadurch erreicht er einen höheren Datendurchsatz und einen niedrigeren Datenverkehr im Netzwerk, was zur Folge hat, dass er viel effizienter ist. Dazu kommt der meist schon niedrigere Preis.

Ein Switch ist also einem Hub vorzuziehen. Man kann also sagen, dass die Sterntopologie die am meisten geeignete Struktur für lokale Spielnetzwerke ist. Bei diesem System kommt es nicht zu Datenkollisionen, und alle Computer können gleichzeitig miteinander kommunizieren, sodass eine maximale Datenübertragungsgeschwindigkeit erreicht werden kann. Da es bei Spielen häufig auch darum geht, der Schnellste zu sein oder die beste Reaktion zu zeigen, ist eine Verzögerung, wie z.B. das Warten auf das Token bei der Ringstruktur oder durch Datenkollisionen, unerwünscht.

Skizze: Sterntopologie 4.1.2 Die Hardware Jede Netzwerktopologie hat ihre eigenen Hardwarevoraussetzungen. So kann zum Beispiel ein Ringnetzwerk nur mit einem Twisted-Pair Kabel ( ähnlich einem ISDN- Kabel) und ein Busnetzwerk nur mit einem Koaxialkabel (ähnlich dem Fernsehkabel) eingerichtet werden. Bei den Coax-Kabeln ist jedoch zu beachten, dass das dicke "Yellow Cable" heutzutage kaum noch zum Einsatz kommt. Man benutzt für solche Zwecke meist das ThinNet- oder auch CheapNet-Kabel mit einem BNC Anschluss.

Da für Spielnetzwerke hauptsächlich das Twisted- Pair Kabel verwendet wird, da sie auf der Ringtopologie basieren, beschränke ich mich auf diesen Typ. Es gibt wiederum zwei verschiedene Arten: das UTP - Kabel ohne Ummantelung und das STP - Kabel mit Mantel. Dieser Mantel schützt vor störenden Einflüssen, wie zum Beispiel elektromagnetischer Strahlung. Jedoch ist für den normalen heimischen Gebrauch das UTP- Kabel zu bevorzugen, da es wesentlich billiger ist. Ein anderer Name für diesen Typ ist 10BaseT (teilweise auch schon 100BaseT oder 1000BaseT). Die 10 steht für die maximal mögliche Übertragungsrate von 10 Mbit/s (bzw.

100Mbit/s oder 1 Gigabit/s ), Base steht für Basisbandnetzwerke und das T ist ein Hinweis auf die Art: Twisted Pair. Damit ist eine maximale Kabellänge von 100 Metern zwischen zwei Geräten möglich. Die richtige Verbindung vom Kabel zum Computer wird durch die Netzwerkkarte hergestellt. An sie ist das Netzwerkkabel (hier Twisted-Pair) angeschlossen, und über sie kann der Computer Daten senden und empfangen. In der Regel werden diese Karten in einen freien PCI- Steckplatz der Hauptplatine gesteckt (früher wurde der ISA-Steckplatz verwendet). Fast alle neuen Netzadapter verfügen über die Möglichkeit entweder mit 10 oder mit 100 MBit/s zu senden.

Dies ist abhängig vom Anschluss des Kabels an den RJ- 45 Stecker (Abbildung 33). Während bei 10BaseT nur 2 von 4 Adernpaaren genutzt werden, werden bei 100BaseT alle Paare verwendet. Die Netzwerkkarte, und damit der Computer, wird über das UTP- Kabel mit dem Hub bzw. Switch verbunden und nimmt somit Kontakt mit dem Netzwerk auf. Die Kommunikation in den Kabeln wird durch elektrische Signale durchgeführt. Dabei ist ein Bit gleich einem Intervall: entweder es fließt Strom (1) oder nicht (0).

Dies ist die kleinste Informationseinheit in der Computerwelt. Ein Byte besteht aus acht Bit (siehe Tabelle) Bit 27 26 25 24 23 22 21 20 Zustand 1 0 0 1 1 0 1 0 Dezimalzahl 128 0 0 16 8 0 2 0 Mit diesem System kann man maximal 255 Zeichen bzw. Befehle darstellen. In dem in der Tabelle gezeigten Beispiel handelt es sich um das Zeichen 154. 4.1.

3 Die Software Für die Übertragung von Daten zwischen zwei oder mehreren Computern wird immer ein Protokoll benötigt. Die beiden Bekanntesten sind IPX und TCP/IP. Jedoch wird von den meisten Spielen TCP/IP als Übertragungsprotokoll gefordert. Diese Protokollsuite besteht aus zwei Hauptteilen: TCP (Transmission Control Protocol) und IP (Internet Protocol). Daneben gibt es noch andere Protokolle wie das FTP (File Transfer Protocol, Übertragung von Dateien), HTTP (Hyper- Text Transfer Protocol zur Übertragung von Webseiten), ARP (Address Resolution Layer, Umwandlung Hardwareadresse ? IP-Adresse; siehe oben) und viele weitere Übertragungs- und Sicherheitsprotokolle (z.B.

: SSL- Secure Socket Layer, Datenverschlüsselung). Jeder Computer in einem Netzwerk muss eindeutig adressierbar sein. Das heißt, er wird entweder durch die Hardwareadresse der Netzwerkkarte oder durch eine s.g. IP- Nummer identifiziert. Da jedoch TCP/IP nur mit der IP- Nummer arbeitet, muss die Hardwareadresse in eine IP-Adresse umgewandelt werden.

Eine IP- Adresse besteht aus 32 Bit und ist unterteilt in 4 durch einen Punkt getrennte Byte. Daher auch der Name dieser Darstellungsform: "Dotted Decimal Notation". Ein Beispiel für eine Netzwerkadresse in dieser Form ist "255.255.255.100".

Die ISO (International Standardisation Organisation = Internationale Standardisierungs- Organisation) hat ein Referenzmodell festgelegt, in dem alle Netzwerkstandards zusammen gefasst sind: OSI (Open Systems Interconnect, Abbildung 34). Es besteht aus einem siebenschichtigen Modell. Die unterste Schicht ist die "Physical Layer" (Bitübertragungsschicht). Dies ist die Hardwareschicht in der sich die elektrischen Signale bewegen. Die zweite Schicht ist die "Data Link Layer" (Sicherungsschicht). Sie ist für die störungsfreie Übertragung der Daten durch die Kabel zuständig.

Das IP ist nun Teil der 3 Schicht: die "Network-Layer" (Vermittlungs- und Netzwerkschicht). Es ist für die Aufteilung der Daten in Pakete und deren Transport zur Zieladresse zuständig. Jedes dieser Pakete besteht aus 65.535 Byte und enthält einen IP- Header , in dem wichtige Informationen wie die Ziel- und Senderadresse und die Prüfsumme enthalten sind, sowie die Daten, die verschickt werden (Abbildung 35). IP verwendet nun die beiden unteren Schichten für die Versendung der Daten. Sind diese am Zielrechner angekommen, kümmert sich TCP um die richtige Reihenfolge und die Vollständigkeit, da Pakete zeitlich versetzt oder auch gar nicht ankommen können.

Es nimmt Kontakt über die Daten mit der Sendeseite auf und kann - wenn nötig - zu einer erneuten Sendung eines Paketes auffordern, wenn dieses auf dem Weg verloren ging. TCP ist Teil der vierten Schicht des OSI- Modells, der Transportschicht. Die fünfte Schicht ist die "Session Layer" (Kommunikationssteuerungsschicht) und ist zuständig für den Aufbau einer Verbindung zwischen den Computern. Darüber befindet sich die "Presentation Layer" (Darstellungsschicht), welche mit dem Betriebssystem zusammen arbeitet und wenn nötig Datenformate umwandelt, um sie benutzbar zu machen. Die letzte der sieben Schichten ist die "Application Layer" (Anwendungsschicht). In ihr laufen alle Anwendungsprogramme auf dem Rechner.

Jede zu sendende Datei durchläuft von oben nach unten alle Schichten bis zur Physical Layer. Bei Empfangsrechner geschieht dies umgekehrt. 4.2 Nutzung des Netzwerkes durch die Spiele Sind alle teilnehmenden Computer mit dem Hub verbunden, so muss einer von ihnen ein Spiel eröffnen. Er dient nun für das Spiel als Server (auch dedicated Server möglich) und ist verantwortlich für den Spielaufbau, -auswahl und - Modus. Die Software des Spiels auf den restlichen Computern sucht nun im Netzwerk nach der Adresse des Servers und verbindet sich mit ihm.

Alle für das Spiel relevanten Daten - z.B.: Bewegungen der Figuren, Aktionen des Spielers - werden nun mit Hilfe von TCP/IP (siehe oben) sofort über den Hub/Switch an den Server geschickt. Dieser wiederum ist im Besitz aller Netzwerkadressen der Clients (mit dem Server verbundene Computer) und sendet alle das Spiel betreffende Veränderungen an diese weiter. Theoretisch sieht also jeder Spieler (soweit vom Spiel beabsichtigt) alle Aktionen der anderen. Praktisch gibt es jedoch eine geringe Verzögerung durch die Übertragungsgeschwindigkeit und die Verarbeitungszeit der Computer.

Auch wenn sich ein Spieler aus dem Spiel ausklinkt, geht es für die anderen weiter. So ist es auch möglich, dass ständig Spieler dazu kommen oder abgehen. 4.3 Spielen im Internet Das Internet ist für viele Menschen im Berufs- und Privatleben unentbehrlich geworden. Es dient der Kommunikation zwischen Menschen über Strecken von wenigen Metern bis hin zu tausenden Kilometern rund um den Erdball. Doch diese Technik wird nicht nur zur Vereinfachung der Arbeit oder zur Informationsbeschaffung, sondern sie wird auch von der Computerspielbranche für sich genutzt.

Das Internet besteht aus Millionen von Computern, welche in kleinen und großen Netzwerken zusammengefasst sind. So zählt z.B. ein Firmennetzwerk mit Internetzugang als kleines Netzwerk. Ein Zugang über einen ISP wie der Deutschen Telekom oder AOL geschieht währenddessen über ein großes Netzwerk. Auch das Internet funktioniert mit TCP/IP als Übertragungsprotokoll, also muss auch hier jeder Rechner eine eindeutige Identifizierung bekommen.

Wie in einem kleinen Netzwerk geschieht dies hier auch über die IP-Adressen. Jeder Nutzer, der sich ins Internet einwählt bekommt durch den Server des ISP eine dynamische IP-Adresse zugewiesen. Wenn er die Verbindung wieder trennt, wird diese wieder frei verfügbar und kann an einen anderen Nutzer vergeben werden. Auch beim Spielen im Internet sucht die Software des Spieles nach Servern auf denen dieses Spiel läuft. Natürlich gibt es hier manchmal bis zu tausend Server auf einmal mit teilweise bis zu hundert Spielern pro Server und mehr (abhängig vom Spiel). Ein Nachteil am Internetspielen sind die teilweise sehr großen Unterschiede bei den Übertragungsraten der Spieler.

Während ein Spieler, der sich über ein Modem mit einer maximalen Übertragungsrate von 56KBit/s eingewählt hat, eine Pingzeit von bis zu 1000 Millisekunden hat, kann sich ein Spieler mit DSL- Verbindung (über 700 KBit/s) über eine Pingzeit von ca.30-50 Millisekunden freuen. Diese gewaltigen Differenzen wirken sich auch auf das Spielgeschehen aus: Spielt man ein Ego- Shooter wie z.B. Half-Life über eine Modemverbindung im Internet, so kann es auch schon passieren, dass man getroffen ist ohne es zu merken. 4.

4 Faszination des Multigamings Wer schon einmal im Internet oder bei einem Freund zuhause im Netzwerk gegen andere Spieler gespielt hat, der weiß, wie viel Spaß das macht. Doch warum macht es mit bzw. gegen Freunde mehr Spaß, als alleine zuhause gegen den Rechner? Diese Frage lässt sich ungefähr genauso leicht beantworten, wie die Frage, warum kleine Kinder lieber mit ihren Freunden spielen als alleine zuhause zu sitzen. Erstens ist es ein Gefühl der Gemeinschaft. Man wird sich bewusst, dass auch andere dieses Spiel gerne spielen. So bildete sich bei dem Multiplayerhit "Counter-Strike" - einem mittlerweile etwas älter gewordenen Ego-Shooter - schon bald nach dem Erscheinen eine riesige Clan-Landschaft aus.

Dadurch wurden Ligen gebildet in denen die einzelnen Clans Wettkämpfe untereinander austrugen. Das ganze entwickelte sich zu einer Bundesliga-ähnlichen Struktur: Es gibt viele verschiedene Clans, die in mehreren Ligen gegeneinander antreten. Das führt uns schon zum zweiten Grund für die Beliebtheit des Multigamings: Man kann sich und seine Fähigkeiten mit Gleichgesinnten messen. Und das auf eine Weise, durch die keiner der Beteiligten zu Schaden kommt. Es ist ein schönes Gefühl, wenn man merkt, dass man sich in einem bestimmten Spiel gegen jemand anderes behaupten kann. Dazu muss man noch nicht einmal einem Clan angehören: Man linkt sich auf einem Server ein und nimmt an der laufenden Partie teil (Ligaspiele sind meist durch Passwörter gegen unbefugtes "Betreten" gesichert).

Der Vorteil an den Clans wiederum ist, dass hier regelmäßige Trainings stattfinden in denen man seine Fähigkeiten aufbauen kann (Computerspielen ist nicht so einfach wie mancher glaubt). Der Reiz liegt also einmal in der Gemeinschaft und zum Zweiten im "friedlichen" Wettbewerb untereinander. 5. eSports 5.1 Was sind eSports? Hinter dem Begriff eSports verstecken sich Computerspiele, welche über einen Multiplayermodus , von menschlichen Spielern in Ligen und Turnieren bestritten werden. Hierbei ist zu beachten, dass es sich nicht vordergründig um einen einfachen Wettstreit unter Gleichgesinnten handelt, sondern um durchorganisierte Events, in denen es nicht nur um Spaß geht.

Das Ziel ist der Sieg, welcher mit hohen Preisgeldern dotiert ist. Solche Veranstaltungen finden auf der ganzen Welt z.B. in Dallas(USA), Paris(Frankreich), Oslo(Norwegen) und Köln(Deutschland) statt und werden meist von Namenhaften Firmen wie Intel, AMD, NVIDIA oder ATI gesponsert. 5.2 Entstehung und Verbreitung Die Anfänge der eSports sind eng mit dem PC-Spiel Quake 2 von id-Software verknüpft.

Dieser Shooter war einer der ersten Titel mit Netzwerk- beziehungsweise Internetunterstützung. Es war also möglich auf LAN-Partys oder auf Internetservern gegeneinander anzutreten. Diese Option nahmen viele Spieler war und es bildet sich eine ständig wachsende Community . Aus dieser gingen dann die ersten Ligen hervor, in denen Mannschaften um die besten Plätze rangen. Außerdem wurden noch LAN-Turniere² ausgetragen. Diese Art des Spielens fand großen Anklang bei den Spielern und demzufolge reagierten auch die Hersteller.

Ein internet- und netzwerkfähiger Mehrspielermodus wurde zum Standard. Da nun mehr Games zur Auswahl standen wuchs die Community natürlich ungemein an. Die Wettkämpfe wurden immer größer. Es fanden sich immer mehr Sponsoren an und demzufolge stiegen auch die Preisgelder. Die eSports waren geboren. Angefangen in den USA breiteten sie sich über die ganze Welt aus.

Heute sind die führenden Länder Schweden, Norwegen, Finnland, Korea und die Vereinigten Staaten. In Deutschland setzte der Vormarsch dieser professionellen Weise des Spielens erst relativ spät ein, da Computerspiele hierzulande erst spät erscheinen und die Internetverbindungen nur langsam in die Haushalte einzogen. Auch heute leidet die eSports-Szene noch an den eher schlechten und vor allem teuren Internetverbindungen. Aus der Sicht des professionellen Gamings ist Deutschland also eher als Entwicklungsland zu bezeichnen. Allerdings ist ein positiver Trend zu bemerken, deutsche Mannschaften werden immer präsenter in der Welt und die Anzahl der Spieler nimmt rasant zu. So gibt es in Deutschland schon mehr Counter-Strike Spieler als Handballer.

5.3 Was ist ein Pro-Gamer? Als Pro-Gamer bezeichnet man Personen, die mit dem Spielen Geld verdienen. Das klingt für viele Jugendliche wie ein Traumjob, es handelt es sich hierbei tatsächlich um Einkommen von bis zu 100.000$ pro Jahr, doch dazu kommt nur ein Bruchteil der Spieler. Die eSports bilden hier keine Ausnahme zu anderen Sportarten. Man wird nicht von heute auf morgen zu einem Pro-Gamer, hartes Training und viel Erfahrung in dem betreff

Suchen artikel im kategorien
Schlüsselwort
  
Kategorien
  
  
   Zusammenfassung Der Vorleser

   sachtextanalyse

   interpretation zwist

   Fabel interpretation

   literarische charakteristik

   interpretation bender heimkehr

   felix lateinbuch

   interpretation der taucher von schiller

   textbeschreibung

   charakterisierung eduard selicke
Anmerkungen:

* Name:

* Email:

URL:


* Diskussion: (NO HTML)




| impressum | datenschutz

© Copyright Artikelpedia.com