Ereignishorizont Digitalisierung - Geschichte Computer

Eine kurze Geschichte des Computers

Die ersten Rechenmaschinen

Schon im Mittelalter beschäftigten sich Philosophen, Erfinder, Mathematiker, Pfarrer und Astronomen mit der Automatisierung von mathematischen Berechnungen. 

Die allererste urkundlich erwähnte Rechenmaschine wurde von dem Tübinger Astronomen und Mathematiker Wilhelm Schickard (1592 – 1635) im Jahr 1623 konstruiert. Mit seiner von ihm selbst gebauten und als “Rechenuhr” bezeichneten Maschine konnten Additionen und Subtraktionen von immerhin bis zu sechsstelligen Zahlen durchgeführt werden. Multiplikationen und Divisionen waren jedoch nur unter Nutzung von so genannten Napierscher’schen Rechenstäben möglich. Schickards Ziel war die die Vereinfachung astronomischer Berechnungen. 

Bald nach Schickard konstruierte im Jahr 1645 der französische Philosoph und Mathematiker Blaise Pascal seine mechanische Rechenmaschine „Pascaline“ (vgl. Abbildung 1). Bis heute existieren neben vielen Nachbauten sogar noch einige der Original-Maschinen. Gerechnet wurde über Metallwählscheiben. Ergebnisse erschienen in Kästchen über den Wählscheiben. Von Blaise Pascal optimierte Versionen der Maschine konnten mit Zahlen bis zu 9.999.999 rechnen.

Abbildung 1: Die Rechenmaschine “Pascaline” (Foto von David Monniaux).

1673 schließlich stellte Gottfried Wilhelm Leibniz, einer der bedeutendsten Philosophen des ausgehenden 17. Jahrhunderts, eine von ihm entwickelte Staffelwalzen-Maschine in London der dortigen Royal Society vor – und dies obwohl er Rechenmaschinen zunächst kategorisch abgelehnt hatte: „Es ist unwürdig, die Zeit von hervorragenden Leuten mit knechtischen Rechenarbeiten zu verschwenden, weil bei Einsatz einer Maschine auch der Einfältigste die Ergebnisse sicher hinschreiben kann.“ Zu einer Serienfertigung kam es jedoch nie. 

Im Verlauf des 18. Jahrhunderts wurden viele weitere Rechenmaschinen entworfen und gebaut, u. A. von dem italienischen Mathematiker und Astronom Giovanni Poleni, vom Hofmathematiker Anton Braun in Wien, von dem deutschen Mechaniker Jacob Leupold,  dem Pfarrer und Erfinder Philipp Matthäus Hahn oder auch dem deutschen Bauingenieur Johann Helfrich von Müller. 1834 schließlich konstruierte der Italiener Luigi Torchi die weltweit erste Maschine zur Direktmultiplikation – ein Meilenstein. Den Maschinen all dieser Denker und Konstrukteure war jedoch gemeinsam, dass es nie zu einer echten Serienfertigung kam. Alle Maschinen waren mehr oder weniger Einzelstücke. 

Von der Mechanik zur Elektromechanik

Die weltweit erste Serienproduktion von Rechenmaschinen begann um 1850 durch den Franzosen Charles Xavier Thomas, der zwischen 1820 und 1878 etwa 1500 Geräte fertigte. Die Geräte des Franzosen folgten den Prinzipien der Staffelwalzen-Maschine von Leibniz und trugen den Namen “Arithmomètre”. Zu Beginn des 20.Jahrhunderts gab es dann schon mehrere Unternehmen, die Rechenmaschinen produzierten. Zu einem Quantensprung kam es nochmals 1906, als mit der “Autarith” des österreich-ungarischen Erfinders Alexander Rechnitzer die erste elektrisch angetriebene, vollautomatische Rechenmaschine auf den Markt kam – zu sehen noch heute in Wien im dortigen Technischen Museum.

Mit der Entdeckung der Elektrizität wurden aus mechanischen Rechenmaschinen schnell elektromechanische Rechenmaschinen. Dies bedeutete dass zunehmend elektronische Komponenten in Rechenmaschinen eingesetzt wurden. Insbesondere die Rechenlogik wurde mit Hilfe von schnell hunderten von Widerständen, Dioden, Kondensatoren und Transistoren abgebildet. Die verbleibenden Mechanik-Komponenten wurden dadurch schnell überschaubar. 

Die ersten Computer

Im Fokus der weiteren Entwicklung standen v. a. flexibel einsetzbare programmgesteuerte Rechenmaschinen. Als erster echter Vorläufer der späteren Computer gilt die 1938 von Konrad Zuse konstruierte, elektrisch angetriebene mechanische Rechenmaschine “Z1”. Die Z1 arbeitete als erster Rechner mit binären Zahlen und konnte Programme ausführen, die auf gelochten Kinostreifen codiert waren. Nur wenige Jahre später, 1941, baute Konrad Zuse dann mit der “Z3” den ersten funktionstüchtigen Computer der Welt. Unschön: In einer erhaltenen Notiz aus dem Jahr 1942 benennt Zuse als Anwendungsfelder der Z3 u. A. die „Verwandtschaftslehre“, also die Möglichkeit „Verwandtschaftsbeziehungen von zwei beliebigen Menschen A, B zu berechnen“. Praktische Bedeutung sah er in der „systematische[n] Rassenforschung, Ahnenforschung [und als] Unterlage für [die] Vererbungslehre“. Im März 1945 wurde schließlich die “Z4” fertiggestellt, die noch 1950 der einzige funktionierende Computer in Mitteleuropa und der erste kommerzielle Computer weltweit überhaupt war. Zwar wurde 1946 der von John Presper Eckert und John William Mauchly an der University of Pennsylvania im Auftrag der US-Armee entwickelte “Electronic Numerical Integrator and Computer” (ENIAC) vorgestellt, eine direkte Konkurrenz zur Z4 und der erste elektronische turingmächtige Universalrechner. Allerdings schaffte es der ENIAC nie in eine kommerzielle Serienfertigung. 

Abbildung: Der UNIVAC (Foto von Matthias Kirschner).

Erst in 1951 kam dann mit dem “Universal Automatic Calculator” (UNIVAC) ein konkurrierender Computer auf den Markt, der ebenfalls von J. Presper Eckert und John W. Mauchly, den Entwicklern des ENIAC, konstruiert wurde. Der UNIVAC nutzte erstmals als externen Speicher ein Magnetband. Der UNIVAC I bestand aus 5.200 Elektronenröhren, 18.000 Kristall-Dioden, wog 13 Tonnen, benötigte eine elektrische Leistung von bis zu 125 Kilowatt und konnte 1905 Rechenoperationen pro Sekunde durchführen. Insgesamt wurden 46 UNIVAC-I-Maschinen gebaut und ausgeliefert. Bis heute wird die UNIVAC-Serie weiterentwickelt und betreut. 

Leistungsexplosion durch Miniaturisierung

Es war schließlich die Entwicklung des Mikroprozessors durch Texas Instruments im Jahr 1970 und die Miniaturisierung technischer Komponenten, die immer leistungsfähigere Computer ermöglichten. Ein Mikroprozessor ist, einfach gesprochen eine sehr kleine Rechenmaschine, die mehr oder weniger spezielle Berechnungen durchführen kann. Dazu sind alle erforderlichen Bausteine auf einem einzigen Mikrochip vereinigt sind. 

Heute können Mikrochips mehrere Milliarden elektronische Bauelemente (insbesondere Transistoren) umfassen, so dass Mikroprozessoren auf wenigen Quadratmillimeter großen (bzw. kleinen) Halbleiterplättchen untergebracht werden können. Schon seit Anfang der 1990er Jahre werden Mikroprozessoren und andere Bauteile im Nanometer-Bereich gefertigt (1 Nanometer = 1 Millionstel Millimeter). Heute werden in modernen Chipfabriken Computerchips mit über 100 Millionen Transistoren pro Quadratmillimeter in 10nm-Fertigung hergestellt. Zum Vergleich: Das HI-Virus hat eine Größe von 100nm.   

Es war auch die Miniaturisierung von Bauteilen, die 1965 zur Formulierung des Mooreschen Gesetzes führte, einer Vorhersage, die bis heute das Tempo der Digitalisierung vorgibt. Das Mooresche Gesetz ist dabei kein wissenschaftliches Naturgesetz, sondern eher eine Faustregel, die auf eine empirische Beobachtung von Gordon Moore, einem der Mitgründer von INTEL, zurückgeht. Moores Kernaussage: Die Anzahl der auf einem einzelnen Computerchip realisierten Funktionen verdoppelt sich also etwa alle zwei Jahre. Als Konsequenz seiner Beobachtung prognostizierte Moore eine drastisch zunehmende Leistungsfähigkeit der Datenverarbeitung bei einer gleichzeitigen Abnahme der relativen Kosten – und zwar im exponentiellen Maßstab. Wichtig ist zu verstehen, dass das Mooresche Gesetz somit nicht nur technische, sondern auch ökonomische Aspekte in den Mittelpunkt stellt. 

Das Mooresche Gesetz war viele Jahrzehnte die geschäftliche Basis der Halbleiterindustrie. Mit gigantischen Investitionen und intensiver Forschungs- und Entwicklungsarbeit schaffte es die Branche, die Fertigungskosten pro Chip-Funktion regelmäßig deutlich zu senken. Heute ist klar, dass der Übergang von einer Strukturverkleinerung zur nächsten länger dauert, nämlich rund drei statt zuvor etwa zwei Jahre. Da aber Verbesserungen bei Fertigungsprozessen die Performance steigern und Kosten senken steht man doch wieder bei zwei Jahren.

Warum ist aber das Mooresche Gesetz so wichtig? Das Mooresche Gesetz war und ist entscheidender Treiber der Digitalisierung, indem sich Entwicklungstätigkeiten von Computerchip-Herstellern sowie hunderten Zulieferer daran orientierten. Hersteller von Computerchips versuchen seit jeher, die Größe eines Computerchips so gering wie möglich zu halten, um diese wirtschaftlich – also gewinnbringend – zu produzieren. Um bei gleichbleibender Größe aber trotzdem die Leistung der Computerchips zu steigern, müssen daher zwangsläufig immer mehr Transistoren auf dem gleichen Raum untergebracht werden. Dadurch steigt die Komplexität der Herstellung von Computerchips. Da sich aber die gesamte Computerchip-Industrie am Mooreschen Gesetzes orientiert, werden technologische Hürden bei der Herstellung von Computerchips bislang immer mit höherem Kapitaleinsatz just-in-time gemeistert. Das Gesetzes wird zur selbsterfüllenden Prophezeiung.

Heute wird bereits an der nächsten Generation von Computer geforscht – den Quantencomputern. Über aktuelle Entwicklungen zu Quantencomputern wird an anderer Stelle in diesem Blog berichtet.

Geschrieben von