20 Jahre Intel Pentium - Von der Rechenmaschine zum Mikroprozessor

20 Jahre Intel Pentium

Von der Rechenmaschine zum Mikroprozessor

Von Hitzestau - 06.11.2014

Autor: Archangel

Heute ist der Prozessor in einem Computer oder Smartphone ein kleiner Chip aus Silizium. In der Geschichte des Computers war das aber nicht immer so. Intel, der weltweit führende Hersteller von Mikroprozessoren, hat dieses Jahr den 20. Geburtstag seines Pentium-Prozessors gefeiert. Genauer gesagt umfasst der Begriff "Intel Pentium" eine ganze Reihe von unterschiedlichen Prozessor-Generationen über mehrere Jahre hinweg. Intel hatte dies zum Anlass genommen, sich selbst und der Hardware-Community einen speziellen Geburtstags-Prozessor zu schenken.

Der erste Pentium erblickte im Jahre 1993 das Licht Welt. Es war das Jahr als Bill Clinton das Amt als US-amerikanischer Präsident übernahm und Personal Computer noch ungefähr so aus aussahen:

IBM PS/1 (Model 2011). Quelle: Wikipedia

Die Geschichte der Prozessoren reicht aber noch ein gutes Stück weiter zurück. Archangel aus unserem Team – von seiner Ausbildung her Historiker – nimmt den Pentium-Geburtstag zum Anlass, nicht nur eine Rückschau auf den Pentium selber zu machen, sondern mit Euch die Geschichtsbücher zu öffnen und einen Blick auf die Geschichte des Computers zu werfen...

Mechanische Rechenmaschinen

Gerechnet hat die Menschheit schon immer. Davon zeugen unter anderem grosse Bauwerke wie die Pyramiden der Ägypter. Auch auf den Marktplätzen und Handelsrouten der ersten Hochkulturen mussten Mengen und Preise berechnet werden.

Eine der ältesten bekannten Zählmaschinen ist der Abakus. Er wurde vermutlich um 1100 v. Chr. im indo-chinesischen Kulturraum erfunden. Der Abakus wurde in Europa von der Antike bis etwa ins 16. Jahrhundert benutzt.

Ein chinesischer Abakus. Quelle: Wikipedia

Erste mechanische Rechenmaschinen gehen in Europa auf das 17. Jahrhundert zurück. Der französische Mathematiker Blaise Pascal baute um 1645 herum eine Rechenmaschine, die mit Zahnrädern funktionierte und als Additionsmaschine konzipiert war. Wie ähnliche Konstruktionen aus dieser Zeit war sie aber für den täglichen Einsatz nicht geeignet, da sich die Zahnräder oft weiter drehten und das Ergebnis verfälschten. Als erste alltagstaugliche Rechenmaschine gilt eine Entwicklung des deutschen Pfarrers und Erfinders Philipp Matthäus Hahn aus dem Jahre 1770. Er baute in seiner Werkstatt auch astronomische Uhren und Taschenuhren. In Serienfertigung gingen mechanische Rechenmaschinen aber erst im Jahre 1850 und es entwickelte sich ein Markt: Unternehmen konnten neu wöchentlich oder sogar täglich bilanzieren, Ingenieure griffen ebenfalls auf die Maschinen als neue Hilfsmittel für ihre Berechnungen zurück.

Ein "Computer" ist ein "Rechner"

Den Begriff "Computer" gab es im Englischen schon im 18. Jahrhundert. Er bezeichnete Personen, die komplizierte Berechnungen anstellten und dafür als Hilfsmittel unter anderem auf Zahlentabellen zurückgriffen, die bereits fertig durchgerechnete Multiplikationen oder Logarithmen enthielten. Enthielten die Tabellen einen Fehler, waren natürlich auch die Berechnungen falsch.

Das englische Wort "compute" bedeutet so viel wie "Durchführen von mathematischen Berechnungen". Und das ist im Grunde das, was ein Computer in seinem Kern auch heute noch tut, auch wenn wir mit ihm Texte schreiben oder durchs Internet surfen. Heute sind Computer universell einsetzbare Maschinen. Möglich wurde das erst durch die Trennung von Hardware und Software. Bei den mechanischen Rechenmaschinen aus Zahnrädern bestand diese Trennung natürlich noch nicht.

Hinter der Entwicklung von Computer wie wir sie heute kennen, stand immer das Bedürfnis des Menschen, Werkzeuge zu entwickeln, die ihm repetitive oder sehr komplexe Arbeiten abnahmen oder erleichterten. Gewisse Konzepte für Rechenmaschinen waren über Jahrhunderte entwickelt worden, aber erst mit dem Aufkommen gewisser Technologien wie dem elektrischen Strom wirklich umsetzbar.

Ein weiterer Meilenstein in der Vorgeschichte der modernen Computer ist die "Analytical Engine" des britische Mathematikprofessor Charles Babbage aus dem Jahre 1837. Sie sollte die vier Grundrechenoperationen ausführen können. Für die Dateneingabe hatte Babbage Lochkarten vorgesehen, wie in der damaligen für den Betrieb von Webstühlen verwendet wurden. Gebaut wurde die "Analytical Engine", die von einer Dampfmaschine hätte angetrieben werden sollen, jedoch nie. Babbage war ein Visionär, ihm fehlten die Technik und das Geld, um die Maschine zu bauen. So war die Feinmechanik seiner Zeit noch nicht weit genug, die Zahnräder in der erforderlichen Präzision herzustellen.

Nachbau der Analytical Engine. Quelle: Wikipedia

Ada Lovelace, eine englische Mathematikerin, legte trotzdem eine Algorithmus für die "Analytical Engine" vor, mit dem man die mathematische Zahlenreihe der so genannten Bernoulli-Zahlen berechnen konnte. Daher wird sie heute als erste Programmiererin angesehen.

Die ersten Grossrechner

In den 1940er Jahren wurden verschiedene Grossrechner entwickelt. Als der allererste Digitalrechner gilt der "Atanasoff-Berry-Computer", der zwischen 1937 bis 1941 am Iowa State College gebaut wurde. Sein Zweck war das Lösen von linearen Gleichungssystemen. Er war kein Computer im modernen Sinne, da er nicht frei programmierbar war. Er stelle komplizierte Berechnungen an und seine Ausgabe bestand nur aus Zahlen. In die gleiche Kategorie fällt der britische "Colossus", der 1943 in England für die Dechiffrierung von geheimen Nachrichten des deutschen Militärs gebaut wurde.

Zu den Vätern der frei programmierbaren Computer gehören John Presper Eckert und John William Mauchly, die 1946 an der University of Pennsylvania den ENIAC vorstellten. Er diente der US-Armee zur Berechnung von ballistischen Tabellen für die Artillerie. Der ENIAC verwendetet Elektronenröhren. Er wurde programmiert, indem man die einzelnen Komponenten mit Kabeln verband und die gewünschten Operationen auf Drehschaltern einstellte. Diese anspruchsvolle Arbeit wurde von Frauen der U.S. Army, den "ENIAC-Frauen", durchgeführt. In Berlin baute Konrad Zuse ein paar Jahre zuvor den Z3, der aber auf elektromagnetische Relais setzte.

Der ENIAC wird programmiert. Quelle: Wikipedia

Ein starker Antrieb hinter diesen und anderen Entwicklungen war zweifelsohne der Zweite Weltkrieg, bei dem sich alle Parteien mit moderner Technologie Vorteile sichern wollten. Nach Kriegsende begann dann mit der Nutzung von Computern für nicht-militärische Aufgaben auch die Kommerzialisierung. Im Jahre 1950 holte sich die ETH Zürich mietweise den Z4 –eine Weiterentwicklung des Z3 – ans Institut für Angewandte Mathematik. Ein Jahr später brachten in den USA die Entwickler des ENIAC, die unterdessen ihre eigene Firma gegründet hatten, den UNIVAC I auf den Markt. Gebaut wurde der Computer beim Schreibmaschinenhersteller Remington Rand. Ihre ersten Kunden waren das United States Census Bureau und die US Air Force. 1952 schrieb der UNIVAC I Fernsehgeschichte, als er für CBS anlässlich der Präsidentschaftswahlen eine Hochrechnung auf Basis von nur sieben Prozent der ausgezählten Stimmen erstellte, die den Wahlsieg von Dwight D. Eisenhower prognostizierte. Die CBS-Verantwortlichen trauten damals der Hochrechnung des Computer nicht und entschieden sich, diese nicht zu veröffentlichen. Ebenfalls zu den ersten kommerziellen Computern gehörte der britische Ferranti Mark I, der aus einer Entwicklung an der University of Manchester hervorgegangen war.

Der Begriff Grossrechner ist für die damalige Zeit durchaus wörtlich zu verstehen. Der UNIVAC I beispielsweise bestand aus 5200 Röhren und 18‘000 Kristall-Dioden und wog rund 13 Tonnen. Er erforderte eine elektrische Leistung von 125 Kilowatt, das gesamte System benötigte eine Stellfläche von über 35 Quadratmetern.

Integrierte Schaltkreise

Die Prozessoren der Grossrechner bestanden aus Röhren. Mit dem Aufkommen der Transistoren-Technik machte man grosse Schritte in Richtung Miniaturisierung und Reduktion des Stromverbrauchs. Die ersten Transistoren wurden für analoge Schaltungen in den Transistor-Radios verwendet die ab Mitte der 1950er populär wurden. Transistoren wurden anfänglich mit dem Halbmetall Germanium als Basismaterial hergestellt, was später durch das technisch besser geeignete Silizium abgelöst wurde.

Der "Darlington Transistor" wurde 1953 in den Bell Laboratories entwickelt. Quelle: Wikipedia

Der nächste Schritt war die Entwicklung von integrierten Schaltkreisen. Die beiden amerikanischen Ingenieure Jack Kilby und Robert Noyce sind die Erfinder der integrierten Schaltung und werden heute als "Väter der Mikrochips" bezeichnet. Kilby erhielt im Jahre 2000 den Nobelpreis für Physik, Noyce war 10 Jahre zuvor verstorben. Er war jedoch Mit-Gründer von Firmen wie Fairchild Semiconductor und Intel. Der erste integrierte Schaltkreis wurde 1959 von Robert Noyce gebaut. Serienproduktion wurden ab Anfang der 1960er Jahre bei Texas Instruments und Fairchild Semiconductor hergestellt. Sie bestanden lediglich aus wenigen Dutzend Transistoren. Mit den Jahren wurden die Bauelemente jedoch immer weiter verkleinert, passive Bauelemente wie Widerstände integriert sowie die Komplexität der integrierten Schaltkreise gesteigert. Damit erhöhte sich auch die Anzahl der Transistoren pro Chip beziehungsweise pro Flächeneinheit. Die Weiterentwicklung der integrierten Schaltkreise wurde unter anderem durch das 1961 von Präsident Kennedy verkündete Apollo-Programm vorangetrieben. Die Apollo-Flugcomputer setzen auf integrierte Schaltkreise.

Siegeszug der Mikroprozessoren

Die Miniaturisierung und die Verfeinerung der Produktionsverfahren führen zur Entwicklung des Mikroprozessors, der 1971 von Texas Instruments patentiert wurde. Er war erstmals möglich geworden, einen ganzen Hauptprozessor (CPU) als Mikroprozessor auf einem einzigen Chip unterzubringen, was die Kosten für Computer extrem reduzieren sollte. Ebenfalls 1971 brachte das Unternehmen Intel mit dem "Intel 4004" den ersten universell einsetzbaren CPU auf den Markt. Ursprünglich war der 4004 für Busicom, einen japanischen Hersteller von Tischrechnern entwickelt worden. Weil das Unternehmen in finanzielle Schwierigkeiten geriet, bot man Intel den Rückkauf der 4004-Technologie an.

Der Intel 4004. Quelle: Wikipedia

Intel war am 18. Juli 1968 in Mountain View, Kalifornien gegründet worden. Das Unternehmen entwickelte Computer-Arbeitsspeicher auf Halbleiterbasis sowie die dazu notwendigen Herstellungsverfahren. Bis Mitte der 1980er Jahre war DRAM-Arbeitsspeicher das Hauptgeschäft von Intel. Die wachsende Konkurrenz durch japanische Halbleiterhersteller und der damit verbundene Umsatzrückgang führten 1983 zu einer Umorientierung des Geschäftsmodells. Der Erfolg des Personal Computers von IBM veranlasste Intel, sich fortan auf Mikroprozessoren zu konzentrieren und die DRAM-Produktion aufzugeben. Die Personal Computer-Reihe, die 1981 von IBM lanciert wurde, verwendete einen Intel 8088 als Prozessor. Mit dem PC setzte IBM einen informellen Industriestandard. Die zahlreichen Nachbauten und Weiterentwicklungen durch andere Unternehmen wurden als "IBM-PC-kompatible Computer" bezeichnet. Mit dem Intel 8088 wurde auch die x86-Architektur geboren, die heute mit der Intel Core i-Serie in der neunten Generation Verwendung findet.

Ausblick

Soweit unsere kurze Zusammenfassung der Computer-Geschichte. Wer technisch genauer wissen will, was Transistoren (Wikipedia) oder integrierte Schaltkreise (Wikipedia) sind, findet in den entsprechenden Wikipedia-Artikeln gute Erklärungen. Ebenfalls empfehlenswert sind die Beiträge zu Computer (Wikipedia) und Mikroprozessor (Wikipedia). Zu praktisch allen Personennamen der Computer- und Prozessoren-Geschichte findet man Artikel mit vielen spannenden Geschichten und Hintergrundinformation.

Also viel Spass beim selber recherchieren! An dieser Stelle machen wir für den nächsten Beitrag einen Zeitsprung ins Jahr 1993, als Intel den ersten Pentium-Prozessor auf den Markt brachte.