Computergeschichte

aus WB Wiki; freien Wissensdatenbank rund ums Thema Computer
Wechseln zu: Navigation, Suche

Vorwort

Zu Beginn des Artikels sollte man den Begriff Computer noch einmal erläutern. Computer ist englisch und bezeichnet im deutschen einen Rechner und das ist eigentlich auch die Aufgabe des Computers. Er soll dem Menschen mühselige und langwierige Berechnungen abnehmen.

Computer werden heutzutage in nahezu allen Bereichen des täglichen Lebens eingesetzt.

Im Büro zur Datenerhebung und -erfassung, der Berechnung der Statik von Bauwerken, der Steuerung von Waschmaschinen und Autos, im privaten Bereich als Personal Computer (PC) zur Erledigung des Schriftverkehrs, der Informationsgewinnung und zur Freizeitbeschäftigung.

Weit effektiver nutzt man Computer jedoch als computergesteuerte Anlagen in der Industrie, hier werden komplexe Anlagen überwacht und gesteuert.

Bei den Banken führen die Rechner sämtliche Buchungen elektronisch durch. Ebenso finden sich Computer in der Landwirtschaft. Diese stellen fest, wann das Futter für die Tiere am Besten ist, wann die Felder bestellt werden oder wie viel Bewässerung diese Felder benötigen.

Mittlerweile kann man wohl davon ausgehen, dass die heutige Gesellschaft nicht mehr, bzw. nur schwer ohne Computer existieren kann. Dies liegt unter anderem daran, dass diese Computer dem Menschen langwierige, eintönige, gefährliche Arbeiten oder Präzisionsarbeiten abgenommen haben.

Um den heutigen technischen Stand des Wissens zu erreichen, waren viele kleine Schritte notwendig.

Die nachfolgenden Ausführungen geben einen groben geschichtlichen Überblick über die Entwicklung des Computers.

Mechanische Rechenmaschinen

Wenn man die oben aufgeführte, relativ simple Definition eines Computers näher betrachtet, stellt man fest, dass die erste technische Entwicklung des Menschen zum Errechnen einer mathematischen Rechenaufgabe auch der erste Computer gewesen sein muss.

Die einfachste Form einer Rechenmaschine sind wohl die Finger bzw. jedes andere Hilfsmittel wie bspsw. Steine oder Strohhalme, um etwas zu zählen (addieren / subtrahieren).

Eine dieser mechanischen Rechenmaschinen ist der sogenannte Abakus. Mit seiner Hilfe kann man vereinfacht Additionen und Subtraktionen durchführen. Hierzu werden die Einer, Zehner, Hunderter usw. von je einer Reihe mit je zehn Perlen dargestellt.

Nicht für die Allgemeinnutzung gedacht war die, an der Universität Tübingen entwickelte, wahrscheinlich erste vollmechanische Rechenmaschine (Addierer) von Prof. Wilhelm Schickard.

Eine "Weiterentwicklung" dazu ist wohl der in 1642 von Blaise Pascal für die Öffentlichkeit konstruierte und gebaute vollmechanische Addierer, obwohl dieser anscheinend nie exakt funktionierte. Anhand von sechs Rädern konnte man eine Zahl von 0 - 999.999 einstellen.

Da die Zahl der zu rechnenden Aufgaben ständig stieg und zudem noch jede Rechenaufgabe umständlich von Hand eingegeben werden musste, stießen diese mechanischen Rechenmaschinen irgendwann an ihre Grenzen.

Ein weiterer Sprung nach vorne in der Technologie kam durch Alan Turing. Dieser entwickelte unter anderem die Decodiermaschine, welche den ENIGMA-Code der Deutschen im zweiten Weltkrieg entschlüsseln sollte. Dies verhalf den Alliierten, anhand der nunmehr entschlüsselten Funksprüche zum Sieg über die deutsche Marine. Auf Grund von Turings Initiative entstand des Weiteren die Überlegung, programmierbare Maschinen zu nutzen, die Befehle wiederholen und in denen man nur noch die Variablen ändert. Dieses war der erste Ansatz zu einer Programmiersprache.

Programierbare Maschinen

Konrad Zuse begann mit der Entwicklung einer Maschine zur automatischen Durchführung von Rechenprozessen. Die wichtigsten Bestandteile dieser Rechenmaschine waren das Programmwerk (für die Reihenfolge der Rechenanweisungen), ein Speicherwerk für die Zwischenergebnisse und dem Rechenwerk, welches für die eigentlichen Rechenoperationen zuständig ist.

Diese als "Z3" benannte Maschine war die erste Dualrechenmaschine der Welt. Die Dateneingabe und Steuerung der Maschine wurde mit Hilfe von Lochstreifen durchgeführt. Der Apparat bestand aus ungefähr 2600 Relais und konnte etwa 20 Additionen durchführen.

Weitere Entwicklungsschübe im Bereich der Rechenmaschinen wurden in der Folge bevorzugt immer wieder durch das Militär vorangetrieben. Man nutzte die Maschinen um effektivere, zuverlässigere Waffen zu besitzen.

Neben dem Militär wird die Technik heutzutage auch durch Firmen weiterentwickelt, weil diese ihre Marktposition verbessern wollen.

Im Jahre 1946 entwickelten Wissenschaftler ENIAC (Electronic Numerical Integrator And Computer; elektronisches zahlenmäßiges Integrier- und Rechengerät). ENIAC bestand aus ca. 18.000 Elektronenröhren und war auf einer Fläche so groß wie ein Tennisplatz untergebracht. Für Rechenoperationen mussten Hunderte von Schaltern umgelegt werden, ENIAC schaffte immerhin ca. 5.000 Additionen pro Sekunde.

Bei ENIAC und baugleichen Maschinen dieses Typus gab es aber drei grundsätzliche Problembereiche:

  • die empfindlichen Röhren fielen häufig aus und es war zeitraubend, unter 18.000 Röhren den oder die Fehler zu finden
  • die Darstellung und Berechnung im Dezimalsystem (zehn ringförmig aneinandergeordnete Röhren für jede Zehnerpotenz) war viel zu aufwändig
  • die Eingabe der Programmierung über die Schalter war ebenso stark arbeitsintensiv

Der in 1949 konstruierte Rechner BINAC (Binary Automatic Computer) beseitigte zwei von drei Problemen. Einerseits basierte er nicht auf dem Zehnersystem, sondern wie die Rechenmaschine von Konrad Zuse, auf dem Dualprinzip. Andererseits wurde die umständliche Bedienung durch das Umlegen von Schaltern per Hand dadurch ersetzt, Aufgaben und auch Zahlen in einem Speicher abzulegen. Somit war es möglich, bestimmte Programmteile mit immer unterschiedlichen Zahlen zu wiederholen.

Das Problem der Fehleranfälligkeit der Röhren und der ernorme Platzverbrauch der Computer konnte aber erst mit der Entwicklung des Transistors gelöst werden.

Transistoren und Chips

Ende der 50iger Jahre wurden die Transistoren entwickelt. 1959 begann Siemens mit der Auslieferung des ersten, in Serie gefertigten, und vollständig auf Basis von Transistoren hergestellten Computers, des Siemens 2002.

Mit diesen kleinen elektronischen Bauteilen wurde die Computerwelt erneut ein grosses Stück in der Entwicklung voran gebracht.

Vorteile der Transistoren:

  • Bruchteil des Platzbedarfs einer Röhre
  • wesentlich unempfindlicher gegenüber Störungen
  • Steigerung der Zuverlässigkeit
  • Veringerung des Platzbedarfes auf einen Bruchteil im Vergleich mit der Röhrentechnik

In einem nächsten technischen Entwicklungsschritt wurden mehrere, einzelne Transistoren auf einem Bauteil zusammengefasst. Diese zusammengefassten Transistoren nennt man Chip. Heutzutage werden Chips in fast allen Lebenslagen eingesetzt. Mit der Entwicklung des Transistors war es nur noch ein kleiner Schritt zu den ersten "wirklichen" Computern.

Computer

Ein Computer besteht auch heutzutage noch aus den fünf Hauptkomponenten:

  • ein Eingabewerk nimmt die Befehle für das Programm und die Daten vom Menschen entgegen und leitet diese weiter in den Speicher
  • der Speicher enthält eine Vielzahl freier Speicherplätze, die bereits übergebenen Daten und die Zwischenergebnisse. Er ist sozusagen das Gedächnis des Computers
  • das Leitwerk mit dem Taktgeber übernimmt die Ereigniskontrolle und holt sich die Befehle, bzw. die Daten aus dem Speicher und entscheidet, welches Bauteil welche Aufgabe übernimmt
  • das Rechenwerk führt, wie es der Name schon sagt, die eigentliche Arbeit des (Be-)Rechnens aus
  • das Ausgabewerk übergibt die Ergebnisse an die Hardware wie z.B. Monitor oder Drucker


Das Grundprinzip der heutigen Computer hat sich, im Vergleich zu den ersten funktionierenden Computern, nicht wirklich geändert.

Man unterscheidet die Grundtypen:

  • Analog-,
  • Digital- und
  • Hybridcomputer

Analogrechner verarbeiten Regel- und Stellgrößen sowie sich kontinuierlich verändernde Werte; beim Digitalrechner müssen die zu verarbeitenden Daten durch Zahlen ausgedrückt werden; Hybridcomputer stellen wiederum eine Kombination beider Computertypen dar.

Die in Industrie und Haushalten eingesetzten Steuerungsautomaten und -anlagen sind ebenso Computer wie z.B. in einem Taschenrechner, einer Armbanduhr oder in einer Mikrowelle.

Nach Rechenleistung und Ausstattung mit Prozessoren unterscheidet man Kleincomputer (z.B. PDA, PNA), Personal Computer (PC), Großrechner und Supercomputer.

Heutige Computer verwenden elektronische Bauteile wie Transistoren, Dioden und integrierte Schaltkreise. Die zu lösenden Aufgaben müssen in ein Computerprogramm umgesetzt werden, welches die Lösungsschritte in einer Form beschreibt, die vom Computer verstanden werden kann. Hierzu wird üblicherweise das Binärsystem eingesetzt, dessen beide Ziffern 0 und 1 auf einfache Weise durch elektronische Schaltzustände wiedergegeben werden können.

Roboter

Roboter sind Maschinen, die computergesteuert Aufgaben übernehmen, welche von Menschen gar nicht ausgeführt werden können oder aufgrund Stupidität nur ungern durchgeführt werden. Solche Maschinen bezeichnet man auch häufig als "Computer mit Händen". Typische Aufgaben finden sich hier in der Automobilindustrie.

Vorteile dieser Maschinen:

  • Roboter werden auf die Aufgabe bezogen erstellt und programmiert
  • Arbeitsablauf muss nicht mehr auf den Menschen zugeschnitten werden

Nachteile dieser Maschinen:

  • sie können nur Aufgaben bewerkstelligen, die ihnen aufgrund genau definierter Aufgabenbereiche vorher programmiert wurden

Das heißt, die Roboter dieser Art sind nicht zu eigenständigem Handeln und Lernen befähigt. Ein Roboter, welcher z.B. in einer Fertigungsstrecke eingesetzt wird, kann nur ganz bestimmte, ihm einprogrammierte und sich in der Regel wiederholende Arbeitsschritte abarbeiten.

Künstliche Intelligenz (KI)

Eines der Hauptprobleme im Bereich der Computertechnik, an denen man immer mal wieder verstärkt arbeitet, ist es, den Computer bzw. die Maschine lernfähig zu machen. Grundsätzlich steht fest, dass es keine Maschine gibt die (eigenständig) denken kann. Nichtsdestotrotz gibt es Roboter / Computer, die lernen können.

Unter Lernfähigkeit versteht man hierbei, dass der Computer es schafft, sich Kenntnisse und Fähigkeiten anzueignen. Dieser "Denk"-Vorgang erfordert Aufmerksamkeit, Zielstrebigkeit und die Fähigkeit, aus Fehlern zu lernen. Etwas, was man den Maschinen erst einmal beibringen / programmieren muss.

Verknüpfungen in der Entwicklung

Prinzipiell redet man mit dem Begriff "Computergeschichte" vorrangig über die Entwicklungsschritte der Hardware.

Darüber hinaus haben nachstehende Bereiche auch zusammen mit der Hardware ihre Entwicklung / Geschichte durchlaufen :

Diese Bereiche sind in mehr oder weniger großen Teilen sogar voneinander abhängig in ihrer Entwicklungsstufe und / oder bauen aufeinander auf.

Meilensteine der Computer-, Elektronik- und Telekommunikations-Revolution

Einen guten Überblick über die "Meilensteine der Computer-, Elektronik- und Telekommunikations-Revolution" gibt auch die nachstehende Seite --> http://computerposter.ch/ueberd.html.

Das Poster ist in folgende Bereiche unterteilt:

  • Hardware (Systeme, Peripherien, Standards)
  • Unternehmungen (Gründungen, Köpfe, Fusionen, Organisationen)
  • Software (Programmiersprachen, Betriebssysteme, Anwendungsprogramme)
  • Bauelemente (Prozessoren, Halbleiter, Schaltungen),
  • Kommunikation und Internet, Life Style

Von allen Bereichen sind Informationen zur Vorgeschichte vorhanden, die Jahre 1977-2007 sind im Detail aufgeführt und der aktuelle Teil umfasst das Jahr 2008 (Stand Mai 2008) und einen Blick in die Zukunft.

Das Ganze gibt es sowohl als kostenlose PDF zum Download (http://computerposter.ch/Bilder/Poster2009Down.pdf) als auch fertig ausgedruckt auf Hochglanzpapier in den Maßen 180x90cm zum Preis von € 28 (http://computerposter.ch/inabede.html) .

Akzeptanz und Verbreitung von Computern

Anfangs nur dafür gedacht, im Bereich des Militärs sowie der Wissenschaft eingesetzt zu werden, stieg der Nutzen dieser Maschinen aufgrund der technischen Entwicklung besonders im Bereich der Firmen / Wirtschaft.

Seit Beginn des 21. Jahrhunderts sind Computer sowohl in beruflichen wie privaten Bereichen allgegenwärtig und allgemein akzeptiert, bzw. werden sogar von Schulen zur Erledigung der Hausaufgaben vorausgesetzt.

Links

Nachstehende Links dienen der Vertiefung des Themas :

http://de.wikipedia.org/wiki/Computergeschichte

http://www.8bit-museum.de/

http://www.homecomputermuseum-xanten.de/Homecomputer%20neu/Historische%20Computer%20neu.htm

http://www.operating-system.org/

http://www.hnf.de/

http://www.linf.fu-berlin.de/pdf/MUSEUM.PDF

http://www.pcgameshardware.de/aid,681331/Geschichte-der-wichtigsten-Intel-CPUs-mit-Bildergalerie/CPU/Wissen/

http://www.tomshardware.com/de/fotoreportage/1-AMD-x86-Prozessor.html