Artikel pedia
| Home | Kontakt | Artikel einreichen | Oberseite 50 artikel | Oberseite 50 autors
 
 


Artikel kategorien
Letztes fugte hinzu
    Ms-access

   Instrumentation + schnittstellen

   Pc tuning - volle kraft voraus für ihr system

   Informatorische grundlagen

   Javascript

   Interne sortieralgorithmen - der kern der sache

   Plotter und sonstige drucker

   Frage 20 (rössl priska)

   Internet - programmierung

   Monitore

   Semesterarbeit und spezialgebiet für informatik

   Erörterungs zum thema

   Inhaltsverzeichnis

   Einführung in die entwicklung ganzheitlicher informationssysteme:

   Titel dokument
alle kategorien

  Die geschichte des computers

Die Geschichte des Computers Next side Wer hat’s erfunden ? Next side Aller Anfang ist schwer ?-1670er Der Abakus war in vielen frühen Hochkulturen als Rechenhelfer bekannt. Die erste Addiermaschine, ein Vorläufer des Digitalcomputers, wurde 1642 von Blaise Pascal erfunden. Dieses Gerät enthielt eine Reihe von zehnzähnigen Zahnrädern, bei denen jeder Zahn einer Ziffer von null bis neun entsprach. Die Zahnräder waren so miteinander verbunden, dass Zahlen addiert wurden, wenn man die einzelnen Zahnräder um die richtige Anzahl von Zähnen weiterdrehte. In den siebziger Jahren des 17. Jahrhunderts verbesserte Gottfried Wilhelm Leibniz die Addiermaschine von Pascal.

Die Konstruktion von Leibniz konnte auch Multiplikationen ausführen. Next side Weiter geht’s im 19.JH Der französische Erfinder Joseph Marie Jacquard verwendete bei dem Entwurf einer automatischen Webmaschine dünne, gelochte Holzbretter zur Steuerung komplizierter Webmuster. In der ersten Hälfte des 19. Jahrhunderts entwickelte der britische Mathematiker George Boole die nach ihm benannte Boole’sche Algebra. Sie bildet praktisch die mathematische Grundlage für jede digitale Rechen- und Steuerschaltung.

Während der achtziger Jahre des 19. Jahrhunderts führte der amerikanische Statistiker Hermann Hollerith zur Datenverarbeitung die Idee der Lochkarten ein, die Jacquards Holzbrettern ähnelten. Mit der Herstellung eines Systems zum Analysieren der gelochten Karten mittels elektrischer Kontakte war er in der Lage, die statistischen Daten der US-amerikanischen Volkszählung von 1890 zusammenzustellen. Next side Selbe Zeit, England Ebenfalls im 19. Jahrhundert arbeitete der britische Mathematiker und Erfinder Charles Babbage die Prinzipien der modernen Digitalcomputer aus. Dabei entwarf er eine Reihe von Maschinen, wie beispielsweise die Differenzmaschine.

Sie diente zur Lösung komplizierter mathematischer Probleme. In der Schiffahrt waren zur Bestimmung der Position und des Kurses von Hand erstellte Berechnungstabellen in Gebrauch. Einzelne Zahlen, die falsch berechnet wurden, führten aber auf See immer wieder zu üblen Katastrophen. Die Maschine wog zwei Tonnen und konnte von Babbage damals noch nicht gebaut werden. Das Bild rechts zeigt ein Modell nach seinen Entwürfen. Viele Historiker halten Babbage und seine Assistentin und Lebensgefährtin Augusta Ada Byron (Lady Lovelace, 1815-1852), die Tochter des englischen Dichters Lord Byron, für die eigentlichen Erfinder des Digitalcomputers.

1844 veröffentlichte Babbage das Konzept der Analytical Engine, die allerdings nie von ihm gebaut wurde. Erst sein Sohn konnte Teile dieser analytischen Maschine verwirklichen. Sie besaß bereits zahlreiche Eigenschaften moderner Computer. Die Konstruktion hatte einen Eingabestrom in Form eines Lochkartenstapels, einen „Speicher” zur Datensicherung und ein „Werk” für arithmetische Operationen sowie einen Drucker zur dauerhaften Aufzeichnung von Daten. Next side Die Ersten Computer (1936)  Im Zweiten Weltkrieg wurden enorme Ressourcen in die Entwicklung elektromechanischer Rechenmaschinen gesteckt. Die Amerikaner wollten sie für die Berechnung von Flugkurven einsetzen, die Engländer dagegen setzten alles daran, die verschlüsselten deutschen Nachrichten zu knacken.

Der deutsche Ingenieur Konrad Zuse (1910-1995) baute 1936 die erste mit dem binären Zahlensystem arbeitende, programmgesteuerte Rechenmaschine – diese Anlage trug den Namen Z1. Zuse war Bauingenieur und wollte mit seinem Apparat rechnerische Routinearbeiten automatisieren. War der Z1 noch rein mechanisch, so enthielt das Nachfolgemodell Z2 bereits elektromechanische Teile. Von der Deutschen Versuchsanstalt für Luftfahrt finanziert, war der Z3 der erste betriebsfähige, programmgesteuerte Rechenautomat. Z3 war mit 2 600 Relais und mit logischen Schaltungen (Und, Oder, Nicht) ausgestattet. Dieser Automat hatte eine Speicherkapazität von 64 Zahlen zu je 22 Dualstellen und konnte in der Sekunde bis zu 20 arithmetische Grundoperationen durchführen.

Vier Jahre später veröffentlichte Zuse die erste Programmiersprache der Welt: Plankalkül. Mit dem Z22 entwickelte Zuse seinen ersten Elektronenrechner, mit dem Z23 einen Transistorenrechner. Die Verschlüsselung der Nachrichten nahmen die Deutschen mit einer kleinen Maschine namens Enigma - auf deutsch Rätsel - vor, klein wie eine Schreibmaschine, weil sie ja im Feld mitgeführt werden musste. Das Verschlüsselungssystem war so gut und flexibel, dass die Engländer sogar mit einem erbeuteten Exemplar der Enigma nicht den gewünschten Erfolg erzielten. Immerhin verstanden sie das Prinzip des Chiffrierens und brauchten nun nur noch verschiedene Initialisierungswerte ausprobieren, um die Nachrichten des Tages entschlüsseln zu können. Am nächsten Tag allerdings wechselten die Deutschen den Initialisierungswert, so dass die Arbeit wieder von vorn begann.


Genau die richtige Aufgabe für einen Computer, der die Entschlüsselung nacheinander mit allen möglichen Werten durchprobiert und angehalten wird, sobald der Operator Klartext lesen kann.Next side Der elektronische Computer Die Maschine, die dieses für die Engländer leistete, hieß Colossus.Während des 2. Weltkrieges entwickelte eine Gruppe Wissenschaftler und Mathematiker ein Gerät, das heute als erster elektronischer Digitalcomputer angesehen wird: Colossus. Im Dezember 1943 war Colossus mit seinen 1 500 Vakuumröhren betriebsbereit. Er wurde von der Gruppe unter dem Vorsitz von Alan Turing für den größtenteils erfolgreichen Versuch gebraucht, verschlüsselte Funksprüche zu decodieren.

Dessen theoretische Überlegungen sind noch heute die Grundlage für alles, was mit automatischem Berechnen zu tun hat. Er formulierte auch den sogenannten Turing-Test für künstliche Intelligenz.Next side Die Ära der Großrechner beginntUnabhängig davon wurde schon 1939 in den USA der Prototyp eines elektronischen Rechners von John Atanasoff und Clifford Berry am Iowa State College gebaut. Diesem Prototyp folgte 1945 der ENIAC (Electronic Numerical Integrator And Computer). Der ENIAC enthielt insgesamt 18 000 Elektronenröhren und konnte mehrere hundert Multiplikationen pro Minute durchführen. Allerdings war sein Programm fest im Prozessor verankert und musste für die jeweilige Aufgabe per Hand geändert werden.

Ein Nachfolger des ENIAC mit einem Programmspeicher wurde nach den Konzepten des ungarisch-amerikanischen Mathematikers John von Neumann gebaut. Die Befehle wurden in einem Speicher abgelegt. Dadurch ließen sich die Geschwindigkeitseinschränkungen durch den Papierstreifenleser während der Programmausführung beseitigen. Außerdem ermöglichte dieser Programmspeicher die Lösung verschiedener Probleme, ohne den Computer neu zu verdrahten. Der Einsatz von Transistoren in Computern, zum Ende der fünfziger Jahre, ermöglichte den Bau von kleineren, schnelleren und vielseitiger verwendbaren Logikelementen, als dies mit Elektronenröhrenrechnern jemals erreichbar gewesen wäre. Weil Transistoren weniger Strom verbrauchen und eine längere Lebensdauer aufweisen, war allein diese Entwicklung verantwortlich für die verbesserten Rechner, die als Computer der zweiten Generation bezeichnet werden.

Next side Der erste MikrocomputerGegen Ende der sechziger Jahre entwickelte man den integrierten Schaltkreis (IC: Integrated Circuit). Bei diesem Bauteil sind praktisch eine bestimmte Anzahl von Transistoren auf einem Siliciumsubstrat vereinigt, wobei die Verbindungsdrähte ebenfalls direkt integriert werden. Der IC führte zu einer weiteren Preissenkung. Außerdem sind ICs wesentlich kleiner (Platzersparnis) und weniger fehleranfällig als Transistoren. Etwa Mitte der siebziger Jahre kamen die ersten Mikroprozessoren auf den Markt. Ihre Entwicklung wurde insbesondere durch hochintegrierte (LSI: Large Scale Integrated) und durch sehr-hochintegrierte (VLSI: Very Large Scale Integrated) Schaltungen technisch möglich.

Bei Mikroprozessoren sind viele tausend miteinander verbundene Transistoren – also wesentlich mehr als beim IC – auf ein einzelnes Siliciumsubstrat geätzt. Zurück zu den „schalterlesenden” Fähigkeiten eines modernen Computers: Die Computer der siebziger Jahre konnten im Allgemeinen acht Schalter gleichzeitig überprüfen. Sie waren also in der Lage, acht binäre Datenziffern, so genannte Bits (BInary digiTs), in jedem Takt auszuwerten. Eine Gruppe von acht Bits bezeichnet man als Byte. Jedes Byte kann eine der 256 möglichen Kombinationen von AN- und AUS-Einstellungen (oder Einsen und Nullen) enthalten. Jedes dieser Muster entspricht einer kompletten Anweisung, einem Teil einer Anweisung oder nur einem bestimmten Datenelement.

Hinter diesem Muster kann sich auch eine Handlungsanweisung für einen Vergleich von Daten verbergen, die in den Computerschaltungen gespeichert sind. Mit Hilfe von Prozessoren, die 16, 32 oder 64 Datenbits gleichzeitig verarbeiten können, ließ sich die Verarbeitungsgeschwindigkeit weiter erhöhen. Unter dem Befehlssatz versteht man die vollständige Liste der erkennbaren Schaltmuster – also die Liste aller Operationen, die ein Computer beherrscht. Sowohl die Anzahl der gleichzeitig verarbeitbaren Bits, als auch der Umfang des Befehlssatzes vergrößerte sich kontinuierlich mit der voranschreitenden, technischen Entwicklung.    Next side Apple setzt MaßstäbeDie Karriere der beiden Apple-Gründer Steve Jobs und Stephen Wozniak hatte einigermaßen kriminell begonnen. Sie verkauften Blue Boxes an Studenten, mit denen man die Telefonvermittlung betrügen und kostenlos Gespräche führen konnte.

Später verlegten sie sich auf Computer und löteten den Apple I zusammen, der eine Tastatur besaß und an den Fernseher angeschlossen wurde. Mit dem Rechner konnten sie im örtlichen Homebrew Computer Club kräftig angeben. Auf dem Bild rechts ist der Apple I in seinem braunen Holzkasten zu sehen. Der Apple II kam 1977 auf den Markt und war ein großer Erfolg. Er bot Grafik und Sound und war damit eine ideale Spieleplattform. Zahllose Programmierer hackten ihre Ideen in Basic ein und freuten sich über die bunten Farben.

Ein weiterer Pluspunkt des Gerätes waren die Steckplätze für Erweiterungskarten Den Erfolg aber konnte Apple hauptsächlich deswegen ernten, weil es die Benutzerschnittstelle ausgesprochen komfortabel gestaltete. Es führte die Fenstertechnik ein und kaufte für 40.000 Dollar von einem Forschungsinstitut die Rechte an der Maus. Douglas Engelbart hatte die Maus als Eingabegerät schon 1968 auf einer Konferenz vorgestellt, und sie sah der heutigen Maus ziemlich ähnlich. Mit Maus und Fenstertechnik war nun endgültig der Standard für Personal Computer gesetzt.Next side DANKE !!!!!!

Suchen artikel im kategorien
Schlüsselwort
  
Kategorien
  
  
   Zusammenfassung Der Vorleser

   sachtextanalyse

   interpretation zwist

   Fabel interpretation

   literarische charakteristik

   interpretation bender heimkehr

   felix lateinbuch

   interpretation der taucher von schiller

   textbeschreibung

   charakterisierung eduard selicke
Anmerkungen:

* Name:

* Email:

URL:


* Diskussion: (NO HTML)




| impressum | datenschutz

© Copyright Artikelpedia.com