Mechanisierung

Home Weiter                SY00941A.gif (1987 Byte)

 

 

Geschichte der Mechanisierung

Bereits vor 300.000 Jahren wurde von Menschen gemeinschaftlich Arbeit verrichtet. Zur notwendigen Verständigung über die Arbeitsabläufe und -gegenstände bedurfte es einer differenzierten Begriffsbildung als Grundlage für das gemeinsame Vorgehen. Diese frühe Form der "Informationsverarbeitung" war noch gruppenspezifisch und kontextgebunden. Mit der Differenzierung der gemeinsamen Arbeitsplanung stiegen auch die Möglichkeiten zur gesellschaftlichen Arbeitsteilung, und mit steigender Arbeitsproduktivität wuchsen die Potentiale zur Vergrößerung der Gemeinschaften.

Die Sesshaftigkeit größerer Gemeinschaften und die planvolle Gestaltung von Naturgütern erforderten eine vorausschauend-quantifizierende Arbeitsplanung. So schufen sich die Agrargesellschaften von etwa 10.000 v.Chr. an die ersten Zahlensymbole, die sich aber noch eng an der Lebenswelt orientierten. Die größten Zahlenwerte entsprachen dabei etwa der Anzahl der Menschen in der Gemeinschaft.

Ab etwa 3.000 v. Chr. wurden Stadtstaaten und Großreiche gebildet, deren Einwohnerzahlen die Grenzen unmittelbar erfahrbarer Quantitäten überschritten. Hier bildeten sich Oligarchien, die den Anspruch erhoben, die Geschicke der Gesellschaft stellvertretend zu lenken. Dementsprechend mussten u. U. Hunderttausende von Menschen versorgt sowie zur Kriegführung und zur Bewältigung wirtschaftlicher und religiöser Großprojekte (Bewirtschaftung des Nildeltas, Pyramidenbau usw.) organisiert werden. Zentrale Planung erforderte nun die Entfaltung des Denkens in Modellen der Wirklichkeit, um eine angemessene Organisations- und Verwaltungsstruktur zu entwickeln. Innerhalb der nun institutionalisierten Beamtenhierarchien nahm die Verfeinerung von Methoden der Standardisierung, Quantifizierung und Kontrolle der gesellschaftlichen Prozesse ihren Ausgang. Dementsprechend sind bereits hier die Ursprünge von Zahlensystemen, Rechentechniken und Buchhaltung zu finden.

Mit der Ausbreitung des Handels im gesamten Mittelmeerraum einige Jahrtausende v. Chr. wurden Rechentechniken von Händlern und Kaufleuten vor allem für ihre Buchhaltung verwendet und in den folgenden Jahrhunderten weiterentwickelt. Gleichzeitig fanden sie durch den Handel eine nie zuvor gekannte Verbreitung. Das arabische Zahlensystem mit seiner grundlegenden Neuerung, der Stellenschreibweise mit der Null - etwa 600 n. Chr. in Indien entwickelt, vom arabischen Mathematiker Hwärizmi (später latinisiert in "Algorithmus") in ein Lehrbuch gefasst und im 12. Jahrhundert in Europa eingeführt - steigerte die Möglichkeiten der Buchführung und damit der planvollen Ausdehnung unternehmerischer Geschäfte.

Mit Beginn der Neuzeit war die Formalisierung quantitativer Informationsverarbeitung bereits soweit vollzogen, dass Ideen und Konzepte ihrer Mechanisierung und Automatisierung erwachsen konnten. Erst diese über Jahrtausende im gesellschaftlich-historischen Bezug entstandene Formalisierung mit ihrem streng logischen Gebrauch einer begrenzten Anzahl von festgelegten Symbolen löst aus der Informationsverarbeitung Kontext und Bedeutung heraus und macht sie zur Datenverarbeitung, die maschinell ausgeführt werden kann.

                                                                                              Zurück zum Anfang

Erste Mechanisierungen

Die Versuche der Mechanisierung von Datenverarbeitung lassen sich aus mehreren gesellschaftlichen Grundströmungen der Neuzeit erklären:

Mit der beginnenden Aufklärung im 16. Jahrhundert nahm die Suche nach experimentell-wissenschaftlicher Erklärung der Welt und der Quantifizierung ihrer Modelle zu. Die hierbei anfallende Rechenarbeit wuchs stark, so dass von den Gelehrten selbst auf mechanische Vereinfachung gesonnen wurde.

 

Mit aufkommendem Absolutismus wurden Großstaaten gebildet, deren zentrale Lenkung die weitere Ausdifferenzierung staatlicher Planung und Kontrolle erforderte. Damit wuchs der Rechenaufwand für die Staatsbeamten an, so dass auch in dieser Gruppe erste Mechanisierungsversuche gemacht wurden.

 

Die Gruppen, aus denen die ersten Entwürfe mechanischer Rechenmaschinen stammten, konnten auf vielfältige Erfindungen der Mechanik zurückgreifen. Mit dem mechanistischen Weltbild der Aufklärung war die Vorstellung einer grenzenlosen Mechanisierbarkeit der Welt verbunden. So nahm die Mechanik einen gewaltigen Aufschwung, der sich z.B. in der Schlüsselidee der Uhr sowie in zahllosen Kunst- und Spielautomaten des 16. und 17. Jahrhunderts manifestierte. Auch die Güterproduktion in den Manufakturen wurde nach der für die Neuzeit typischen Denkweise von Quantifizierung und Mechanisierung organisiert, so dass wesentliche Ideen der maschinellen Datenverarbeitung - etwa die Verwendung von Lochkarten als Datenträger - aus diesen Bereichen stammten. Schließlich erforderte der weltweit ausgedehnte Handel und mit ihm die Schifffahrt verbesserte nautische Verfahren, die durch astronomische Berechnungen und mechanische Geräte zur Kursbestimmung gewährleistet wurden.

Die erste urkundlich erwähnte mechanische Rechenmaschine für Addition und Subtraktion wurde in den 20er Jahren des 17. Jahrhunderts von Wilhelm Schickard für die Berechnung astronomischer Tafeln konzipiert. Zwanzig Jahre später stellte Blaise Pascal eine mechanische Rechenmaschine vor, die seinem Vater, einem Steuerbeamten, die Rechenarbeit erleichtern sollte. Wiederum dreißig Jahre später entwarf der Universalgelehrte Gottfried Wilhelm von Leibniz eine mechanische Rechenmaschine, mit der alle vier Grundrechenarten durchgeführt werden konnten und die für wissenschaftliche Berechnungen gedacht war.

Gerade das Leibnizsche Konzept enthielt richtungweisende Momente der Mechanisierung von Rechenarbeit: Neben mechanischen Neuerungen wurden hier erstmals Multiplikation und Division auf Addition und Subtraktion zurückgeführt. Allerdings blieb den ersten mechanischen Rechenmaschinen eine breite Anwendung vorenthalten. Dies lag nicht nur an den Unzulänglichkeiten der technologischen Umsetzung, sondern entscheidend auch daran, dass von den politisch und wirtschaftlich Mächtigen noch keine gesellschaftlich bedeutenden Einsatzfelder für diese Maschinen ausgemacht worden waren.

                                                                                                Zurück zum Anfang

Büroarbeit im Kapitalismus

Erst im Industriekapitalismus entstand im Zuge der kapitalistischen Arbeitsteilung kommerziell lohnender Bedarf für mechanische Rechenmaschinen. Hier war es zunächst das Versicherungswesen (hoher Rechenaufwand durch die Beitragsbemessung auf der Grundlage statistischer "Sterbetafeln"), in dem mechanische Rechenmaschinen eingesetzt wurden.

F. X. Thomas, Direktor zweier Pariser Versicherungen, begann 1820 mit der Serienproduktion von mechanischen Rechenmaschinen. Er legte dabei das Konzept zugrunde, welches 150 Jahre zuvor von Leibniz entwickelt wurde. Zunächst waren es bei Thomas eigene Rationalisierungsmotive, die ihn dazu brachten, auf eine Mechanisierung der personalkostenintensiven Berechnungen in seinen Versicherungsunternehmen zu sinnen. Bald aber eröffnete sich ein profitabler Markt für seine Rechenmaschinen, denn auch in den aufstrebenden Industrie- Handels- und Bankunternehmen nahm die Rechenarbeit im Büro mit wachsender Arbeitsteilung sprunghaft zu.

Hier traf eine "neu aufgelegte" Technik, die in ihrem Prinzip bereits seit zwei Jahrhunderten bekannt war, mit veränderten gesellschaftlichen Verhältnissen zusammen, in denen sie nun entfaltet werden konnte. Zuerst musste arbeitsteilige Büroarbeit überhaupt entstehen, bevor Rechenmaschinen als "Bürotechniken" ihr Anwendungsfeld finden konnten.

Der Erfolg der Thomasschen Rechenmaschinen regte in der Folgezeit zu einer Reihe technischer Verbesserungen an, so entstand ein neuer Industriezweig, die Büromaschinentechnik. Das von Leibniz entwickelte und von Thomas verwendete technische Prinzip der Rechenmaschine wurde dabei zum Wegweiser weiterer technischer Entwicklungen im Bereich der Mechanisierung von Rechenarbeit, mit dem Ziel der Rationalisierung von Lohnarbeit im Büro. Umgekehrt prägten die zunehmenden Rationalisierungspotentiale dieser Technik wiederum die weitere Teilung von Büroarbeit und brachten so zunehmend formalisierte und auf die verfügbare Maschinisierung ausgerichtete Arbeitsprozesse hervor. Diese stellten jedoch wieder neue Rationalisierungsfelder dar, regten zu weiteren Technikentwicklungen und Rationalisierungen an usw.

Mit der Entwicklung eines programmierbaren Rechenautomaten, bei dem im Gegensatz zur mechanischen Rechenmaschine auch die Abfolge der Rechenoperationen durch ein Programm vorgegeben wird, befasste sich Anfang des 19. Jahrhunderts der Mathematiker Charles Babbage. Er tat dies zunächst, um eine Vereinfachung der Berechnung von Sterbetafeln zu erreichen, später dann im Rahmen der Berechnung astronomischer Tabellen für das englische Kriegsministerium. Sein Konzept der "Analytical Engine" gleicht prinzipiell dem Aufbau heutiger Digitalrechner Rechenwerk, Speicherwerk, Steuereinheit - allerdings verwendete er noch das Dezimalsystem, ebenso fehlte die Speicherprogrammierung. Zwar dachten Babbage und vor allem seine Assistentin, Augusta Ada Countess of Lovelace, der ein beträchtlicher Anteil der Programmkonzeptionen zugeschrieben wird, schon an die Einführung bedingter Sprünge, doch deren Realisierung scheiterte an den Unzulänglichkeiten der verfügbaren Technik.

Die Bedeutung der Erfindung von Babbage für die Techniklinie der Datenverarbeitung liegt vor allem in der Idee der Programmierbarkeit formalisierter Informationsverarbeitung. Eine breite Anwendung seiner Analytical Engine blieb aus denselben Gründen aus - mangelhafte technologische Umsetzungsmöglichkeiten, fehlende Anwendungsfelder und damit fehlende Finanziers -, die schon zur Erfolglosigkeit der ersten mechanischen Rechenmaschinen geführt hatten.

                                                                                                Zurück zum Anfang 

Hollerith: Lochkartenmaschinen zum Zählen, Sortieren und zur Massenbeobachtung

Angeregt durch die Erfolge bei der Anwendung von Verfahren der Wahrscheinlichkeitsrechnung, vor allem im Versicherungswesen, fand im 18. Jahrhundert ein Aufschwung staatlicher Statistikvorhaben statt. In den USA wurden seit 1790 Volkszählungen durchgeführt, und Mitte des 19. Jahrhunderts gab es in fast jedem europäischem Land statistische Ä;mter. Mit zunehmendem Interesse an statistischen Daten wuchs der Erhebungs- und Auswertungsaufwand so rapide, dass die Ergebnisse der 10. Volkszählung der USA von 1880 erst sieben Jahre nach ihrem Abschluss zur Verfügung standen (vgl. Oberliesen 1982, S.225). In dieser Situation konstruierte der Bergwerksingenieur Herrmann Hollerith - selbst als Beamter im amerikanischen Zensusbüro mit der Auswertung der Volkszählung beschäftigt - eine Maschine, die die von industriellen Automatisierungstechniken her bekannte Lochkarte als Datenträger verwendete. Die Maschinen wurden 1882 zum Patent angemeldet und bei der 11. Volkszählung der USA mit großem Erfolg eingesetzt. Erste Ergebnisse lagen schon nach einem Monat vor, die gesamte - im Verhältnis zur vorherigen zwölfmal umfangreichere - Auswertung konnte bereits nach zwei Jahren präsentiert werden.

 

Aufgrund dieses Erfolges wurde die Hollerith-Technik bald weltweit als das wichtigste technische Mittel zur Verarbeitung von Massendaten angesehen. Sie bot die Möglichkeit, die Menge der erfassten Daten auszuweiten und die Anzahl der Verknüpfungen weiter zu steigern. Hierfür gab es natürlich in den staatlichen Verwaltungen der aufsteigenden Industrienationen erheblichen Bedarf. Mit der Hollerith-Technik stand nun ein Hilfsmittel zur Verfügung, das den eingeschlagenen Weg der statistischen Massenbeobachtung und -steuerung weiterzugehen erlaubte. Diese Technik bestätigte Staat und Wirtschaft in der Vorstellung, ein Abbild der gesellschaftlichen und betrieblichen Wirklichkeit durch Statistikverfahren erhalten und handhaben zu können. Die Verfügbarkeit der Hollerith-Technik reizte in der Folgezeit zu immer neuer Datenproduktion an, womit wiederum der Bedarf an technischer Verbesserung und weiterer Optimierung des Verfahrens gesteigert wurde. Allein bis 1925 wurden 350 verschiedene Erfindungen im Umfeld der Lochkartentechnik gemacht.

Die weiterentwickelte Lochkartentechnik erwies sich in der Folge im staatlichen und ökonomischen Bereich in doppelter Hinsicht als Trendverstärker:

Als zentral funktionierende Technik konnte mit ihr die Tendenz zur Zentralisierung von Kontrolle und Entscheidungen vorangetrieben werden.

Als Rationalisierungstechnik wurde sie weltweit für die Technisierung von Datenverarbeitung auch in den Büros der Privatunternehmen eingesetzt. In noch stärkerem Maße als bei den mechanischen Rechenmaschinen wurde die Informationsarbeit nun nach den Erfordernissen des maschinellen Verarbeitungsverfahrens geteilt und reorganisiert.

                                                                                              Zurück zum Anfang

Zuse: Konzepte der Automatisierung numerischer Rechenverfahren

Mit dem breiten Einsatz von mechanischen Rechenmaschinen und Lochkartentechnik wurden auch die hierfür angemessenen arbeitsteiligen Rechentechniken weiterentwickelt: Ingenieure erarbeiteten ein numerisches Rechenschema, welches von Rechner(inne)n mit Hilfe von mechanischen Rechenmaschinen Schritt für Schritt abgearbeitet wurde.

In dieser Situation entwickelte der Berliner Bauingenieur Konrad Zuse 1935 die Idee einer gemeinsamen Automatisierung von Rechenplan und seiner Abarbeitung: Der Rechenplan sollte, codiert auf einem Lochstreifen, die Maschine steuern. Während seiner schrittweisen Abarbeitung sollten die entsprechenden Befehle nacheinander an die jeweiligen Teile der Maschine gegeben werden. Die einzelnen Rechenschritte sollten in einem zentralen Rechenwerk im Dualzahlensystem ausgeführt werden. Zwischenwerte und Ergebnisse sollten in einem separat adressierbaren Speicherwerk abgelegt werden. 1938 entwickelte er das Konzept einer Maschine, die von der technologischen Umsetzung unabhängig sein und sowohl als mechanische, elektromechanische wie auch als elektronische Hardware funktionieren sollte. Während des 2. Weltkrieges folgte die Entwicklung eines Rechners (Z3) zur Flatterberechnung bei Flugzeugentwürfen sowie eines Spezialrechners zur Flügelvermessung "fliegender Bomben". Zuse entwickelte darüber hinaus schon frühzeitig Konzepte der Programmierung und leistete grundlegende Arbeiten der theoretischen Systematisierung des Rechnens.

Der Krieg verhinderte eine zügige Weiterentwicklung und die weltweite Beachtung dieser Leistung.

1946 rettete Zuse den >>Z4<< eine 1944 begonnene Weiterentwickelung des >>Z3<< nach Hopferau bei Füssen im Allgäu, wo er ihn provisorisch in einem Pferdestall installierte und ein eignes Ingenieurbüro gründete.

Vom Allgäu aus verhandelte Zuse mit der DEHOMAG ohne Ergebnis, gründete daraufhin die Zuse KG mit Sitz in Bad Hersfeld und baute dort den >>Z5<< seinen letzten großen elektromechanischen Rechenautomaten. Ab 1956 erfolgte der Bau elektronischer Rechner in Serienfertigung. In dieser Zeit begann auch die Zusammenarbeit mit der Siemens AG, die 1971 das Werk in Bad Hersfeld übernahm. Zuse selbst zog sich danach aus dem Geschäftsleben zurück.

                                                                                                Zurück zum Anfang

Spezialgeräte für den Krieg: von Colossus bis ENIAC

Während des zweiten Weltkrieges wurden in Großbritannien und den USA ebenfalls digitale Rechenautomaten entwickelt. Es handelte sich dabei um auf den militärischen Bedarf eingerichtete Spezialgeräte unterschiedlicher Konzeptionen und technologischer Umsetzung.

Ab 1939 beschäftigte sich in England eine Gruppe von Spezialisten damit, den deutschen militärischen Geheimcode systematisch zu entschlüsseln. Unter maßgeblicher Beteiligung des Mathematikers Alan Turing wurde 1943 mit Hilfe hierfür der Röhrenrechner "Colossus" entwickelt.

Alan M. Turing, englischer Logiker und Mathematiker, geboren 1912, verdankt seinen Platz in der Geschichte der Datenverarbeitung vor allem der später nach ihm benannten theoretischen "Turing-Maschine".

Angeregt durch zahlentheoretische Ü;berlegungen und Beweise, dass und wann bestimmte mathematische Probleme lösbar oder nicht lösbar sind, veröffentlichte er 1936 Prinzip des Universalautomaten, mit dem sich feststellen lasst, ob ein mathematisches oder logisches Problem durch eine endliche Anzahl von Bearbeitungsschritten lösbar ist oder nicht. Damit hatte Turing ein theoretisches Verfahren entwickelt, mit dem sich die mathematische Berechenbarkeit einer beliebigen Aufgabenstellung beweisen lässt. Es ist unwahrscheinlich, dass Turing, ein Theoretiker durch und durch, auch nur im geringsten geahnt hatte, welch grundlegende Bedeutung seine Arbeit für den Computer unserer Tage bekommen würde.

Turing gilt auch als eifriger Verfechter der "Künstlichen Intelligenz", deren Realisierung bisher von namhaften Wissenschaftlern kontrovers bewertet und teilweise abgestritten wird.

Turing führte ein zurückgezogenes, aber tragisch endendes Leben. Seine Gewohnheit, im Regen auf dem Fahrrad ohne Schirm, dafür jedoch mit Gasmaske und Küchenwecker zur Universität zu fahren, gilt als Beispiel für seine Zerstreutheit und seine zahlreichen Marotten. Er war nicht nur hochintelligent, sondern genoss als Mathematiker und Universitätsprofessor auch hohes Ansehen und konnte dauerhaft mit einer ausgezeichneten beruflichen Karriere rechnen. Dennoch entschied er 1954 im Alter von nur 42 Jahren selbst über sein Lebensende. Die Gründe dafür sind vage. Vermutlich hängen sie mit seiner homosexuellen Veranlagung zusammen, eine Eigenschaft, die zu seiner Zeit in Großbritannien noch gesetzlich als "Verbrechen" angesehen und mit schweren Strafen belegt wurde.

In den USA entstand der für die Entwicklung von Digitalcomputern ausschlaggebende Automatisierungsbedarf im Bereich der Lösung von Differentialgleichungen für ballistische Berechnungen. Schon seit 1918 war auf diesem Gebiet eine Zusammenarbeit zwischen Militär und Hochschulen etabliert worden, die im Laufe der Zeit kontinuierlich ausgedehnt wurde. So waren hier in den 30er Jahren die komplexen Rechenprozesse ballistischer Tabellen so weit formalisiert und auf arithmetische Grundoperationen zurückgeführt, dass die Idee, den Rechenplan als Programm zur Steuerung einer Maschine auszuführen, nahe lag. Ende der 30er Jahre wurden in enger Zusammenarbeit zwischen Industrie und Hochschulen zwei digitale Relaisrechner entwickelt, und zwar der Mark I (IBM, US-Marine) und der Complex Number Computer" (Bell) (vgl. Randell 1982).

Motiviert von den steigenden Anforderungen an die Erstellung von Zieltabellen und dem damit einhergehenden Arbeitsaufwand begann 1942 der Physiker John Mauchly mit Unterstützung der US-Armee mit dem Bau des ersten digitalen Röhrenrechners. 1945 wurde der "ENIAC" (Electronical Numerical Integrator and Computer) fertiggestellt. Verwendet wurde noch das Dezimalzahlensystem, eine eindeutige Trennung zwischen Speicher- und Rechenwerk, die erst mit dem Konzept von John von Neumann eingeführt wurde, war nicht vorhanden.

J. von Neumann wurde 1903 als Janos Neumann in Budapest geboren. Schon als Kind zeigte sich sein mathematisches Talent und sein Interesse an der Physik. Er konnte lebenslang auch komplizierte mathematische Aufgaben ohne Papier und Bleistift lösen. Im Alter von 23 Jahren schrieb er an der Universität Budapest seine Doktorarbeit in Mathematik und lehrte anschließend an der dortigen Universität, ab 1927 als Privatdozent in Berlin sowie in Hamburg und Göttingen. 1930 ging er als Physiker in die USA und war dort zunächst Gastdozent, ab 1933 Professor an der Universität Princeton, New Jersey, USA, wo er am Institute for Advanced Study (ISA) als Begründer des bis heute gültigen Arbeitskonzepts eines Computers weltberühmt wurde.

Seine erste wissenschaftliche Publikation, "Mathematische Grundlagen der Quantenmechanik" erschien 1933. Während des Zweiten Weltkrieges wurde er Berater der amerikanischen Regierung und war wesentlich an den mathematischen Grundlagen zur Herstellung von Atombomben beteiligt. Im März 1955 wurde er Mitglied der Atomenergiebehörde und Beauftragter für Atomenergiefragen und übersiedelte mit seiner Familie nach Washington.

John von Neumann legte 1945 ein eigenes Konzept für digitale Rechenautomaten vor, das noch heute die Grundlage der Rechnerarchitekturen bildet.

Neben der klaren Trennung zwischen Rechenwerk, Steuerwerk, internem Speicher, Ein-/Ausgabeeinheiten und externem Speicher sowie der Einführung des dualen Zahlensystems in den amerikanischen Rechnerbau bestanden die entscheidenden Veränderungen gegenüber bisherigen Rechnern darin,

dass auch das Programm im internen Speicher abgelegt wird (Speicherprogrammierung) und damit ein wahlfreier Zugriff auf alle Befehlssequenzen besteht,
dass ein zentrales Steuerwerk die logische Kontrolle über alle Maschinenfunktionen übernimmt (zentrale Selbststeuerung) und damit Eingriffe von außen überflüssig werden.
                                                                                                Zurück zum Anfang

Wo liegen die Gründe für ähnliche Rechnerkonzepte?

Die von Zuse konzipierte Rechnerarchitektur hatte große Ä;hnlichkeit mit der Konzeption von Babbage, obwohl Zuse dessen Arbeiten offenbar nicht kannte. Ebenso weisen die einige Jahre später hervorgebrachten Rechnerkonzeptionen in England und den USA etliche Parallelen zu den Zuse-Maschinen auf, obwohl auch hier kein wissenschaftlicher Austausch bestand. Der Grund liegt in den Gemeinsamkeiten in der Wechselbeziehung zwischen technischer Entwicklung und der jeweils spezifischen Art der Arbeitsteilung: Babbage war zu Beginn der Industrialisierung selbst einer der maßgeblichen Theoretiker industrieller Arbeitsteilung.

Im Zusammenhang damit konnte er Ideen der Maschinisierung geistiger Arbeit formulieren und Konzepte entsprechender Rechenautomaten entwickeln. Diese Konzepte konnten allerdings erst mit der Ausweitung der Arbeitsteilung und der darauf optimierten technischen Mittel hundert Jahre später realisiert werden. Ä;hnlichkeiten zwischen seinem Entwurf der Analytical Engine und den Zuse-Rechnern zeigen, dass er die Entwicklung von Arbeitsteilung und Technologie richtig eingeschätzt hat. Die Grundidee, einer Maschine die Abfolge ihrer Operationen durch ein Programm vorzugeben, stammte aus der industriellen Produktion; Babbage hatte sie als erster auf Rechenmaschinen angewandt. Zu Zeiten von Zuse war dieses Prinzip bereits breit realisiert.

Mit der Ausbreitung von mechanischen Rechenmaschinen und Lochkartentechnik wurde die Organisation der Arbeit in Büro, Verwaltung und Dienstleistungsbereichen auf das mechanische Rechnen zugeschnitten, die Arbeitsteilung wurde also entsprechend den vorhandenen technischen Mitteln weiterentwickelt. Für kreative Ingenieure wie Zuse lag es nun auf der Hand, die weltweit in gleicher Weise formalisierten Rechenverfahren in einem nächsten Maschinisierungsschritt weiter zu rationalisieren. Er entwickelte dabei ähnliche technische und mathematische Prinzipien wie seine englischen und amerikanischen Kollegen, weil in den fortgeschrittenen Industrienationen die industrielle Arbeitsteilung die gleiche Entwicklungsstufe erreicht hatte. Aus diesem Grunde waren auch die technologischen Mittel - Feinmechanik, Fernmeldetechnik, elektronische Röhren - annähernd gleich entwickelt.

Nachdem mit dem ENIAC und dem von Neumann-Konzept die Architektur künftiger Computer (Speicherprogrammierung, Selbststeuerung) festgeschrieben waren, wurde damit begonnen, die digitale Computertechnik für universelle Zwecke des Militärindustrie weiterzuentwickeln. Den Kern bildeten dabei zunächst die unmittelbar auf die Kriegführung ausgerichteten Zwecksetzungen, nämlich die Entwicklung und Herstellung von Waffensystemen, die Steuerung von Trägersystemen und der Aufbau von Frühwarnsystemen. Hinzu trat später der Bedarf nach neuen Planungs- und Entscheidungsstrukturen und nach einer Reorganisation der militärischen Verwaltung. Aus diesen Zwecksetzungen entstanden dann die heute auch in den zivilen Bereichen verwendeten Verfahren und Techniklinien moderner Informationsverarbeitung, z. B. für die Massendatenverarbeitung, die Prozesssteuerung und die Dialogdatenfernverarbeitung.

                                                                                                Zurück zum Anfang

Massendatenverarbeitung

Aufgrund der Anforderungen an wissenschaftlich-technische Berechnungen, insbesondere im Zuge des Wasserstoffbombenprogramms, wurde die Entwicklungslinie der Großrechnertechnik für die zentrale Massendatenverarbeitung forciert. Innovationen waren vor allem darauf gerichtet, die Geschwindigkeit von Rechenoperationen zu erhöhen (Speichertechnologien, Miniaturisierung), die interne Steuerung der Rechner durch Betriebssysteme zu effektivieren sowie ihre anwendungsorientierte Programmierung durch höhere Programmiersprachen zu erleichtern.

                                                                                                Zurück zum Anfang

Prozeßsteuerung

Aufgrund der Anforderungen an die Selbststeuerbarkeit von Trägerrakten sowie im Zuge der industriellen Fertigung wurde die Entwicklung von Rechnersystemen vorangetrieben, die Prozesse möglichst in Echtzeit überwachen und steuern. Die Anstrengungen zur Miniaturisierung der elektronischen Schaltkreise haben ihren Ursprung darin, Trägerraketen zu selbststeuernden Automaten und damit unabhängig von zerstörten Bodenstationen zu machen. Bei der Ü;bertragung in den zivilen Bereich bestand dadurch die Möglichkeit, die Komplexität von Produktions- und Verfahrenstechniken weiter zu erhöhen. Versprach die Massendatenverarbeitung statische, nur von Zeit zu Zeit und mit großem Erfassungsaufwand aktualisierbare Modelle der Wirklichkeit, so konnten mit der Prozessrechnertechnik nun dynamische, jederzeit aktualisierbare Modelle konstruiert und die Wirklichkeit über Stellglieder beeinflusst werden. Dabei scheint es prinzipiell beliebig, welche realen Vorgänge als Prozess definiert werden. Als grundsätzlich mit Prozessrechnern überwach- und steuerbarer Prozess gilt ebenso der Flug von Raketen und Flugzeugen, der Transport und die Lagerhaltung von Stückgütern sowie der Betrieb und die Wartung von Atomkraftwerken. Damit beinhalten Idee und Methoden der Prozessrechnertechnik aber auch Potentiale der Rationalisierung von Ü;berwachung und Steuerung menschlicher Arbeit im betrieblichen Produktionsprozess.

                                                                                               Zurück zum Anfang

Dialog-Datenfernverarbeitung

Aufgrund der Anforderungen an automatische Frühwarnsysteme wurden Verfahren der dezentralen Datenerfassung, -aufbereitung und -übermittlung sowie deren Echtzeitverarbeitung entwickelt. Bereits mit der Entwicklung des ersten US-amerikanischen Frühwarnsystems WIRLWIND (bis zum Jahre 1951) wird eine Zusammenführung mehrerer Techniklinien zum neuen Typ der Dialog-Daten(fern)verarbeitung erkennbar:

Datenübertragung durch nachrichtentechnische, auf den Transport von Daten optimierte Verfahren. Im Falle von WIRLWIND dienten hierzu noch herkömmliche Telefonleitungen.
Datenerfassung möglichst nahe an der Quelle des Geschehens. Bei WIRLWIND wurde dies mit Hilfe flächendeckender Radarstationen realisiert.
Richtige Entgegennahme und Echtzeitverarbeitung der ankommenden Daten im Zentralrechner. Im Falle von WIRLWIND wurde hierzu eine Reihe neuer Entwicklungen hervorgebracht: zentrale Datenleitung im Computer ("main bus"), Magnetkernspeicher, ausfallsichere Schaltungen;
Anzeige der Ergebnisse mit gleichzeitiger Möglichkeit der Dateneingabe für das Bedienungspersonal. Im Falle von WIRLWIND wurden hierzu bereits die von der Radartechnik her bekannten Bildschirme verwendet.

In der Folge wurden auf diesem eingeschlagenen Weg bedeutende Innovationen hervorgebracht: Datenpaket-Vermittlungstechnik, Computernetze (ARPANET für das Pentagon ab 1966); Dialog-Betriebssysteme und time-sharing-Verfahren im Rahmen des Aufbaus militärischer Frühwarnsyteme; Glasfaserübertragungstechnik zur Vermeidung der Einkopplung störender elektromagnetischer Felder in militärische Datenübermittlungssysteme.

Bei Systemen der Dialog-Datenfernverarbeitung wurden die Potentiale der elektrischen Nachrichtentechnik aufgegriffen und auf die Erfordernisse der Datenverarbeitung optimiert: möglichst hohe Datenraten, digitalisierte Ü;bertragungstechnik, fehlerfreie Datenübermittlung. Mit zunehmender Bedeutung und Ausdehnung der Computertechnik auf außermilitärische Bereiche wurde den computerorientierten Formen der Nachrichtentechnik eine wachsende Bedeutung beigemessen.

                                                                                                Zurück zum Anfang

Die Ausbreitung militärischer Computertechnik in zivile Bereiche

Die entscheidende Vermittlungsfunktion für die breite Diffusion militärisch initiierter Computertechniken in zivile Bereiche übernahm schon sehr frühzeitig die Herstellerindustrie. Sie war in der vorteilhaften Lage, dass militärisch finanzierte Grundlagenentwicklungen auf einen vielfach selbst produzierten hohen Technisierungsbedarf in den zivilen Bereichen trafen. Für die Vermarktung mussten zunächst lediglich einige Modifikationen vorgenommen werden, um diesem Bedarf zu genügen. Während kostenintensive Grundlagenentwicklungen in der Folgezeit weiterhin vornehmlich im Zusammenhang mit Militär- und Raumfahrtprojekten vorangetrieben wurden, konzentrierte sich der entstehende zivile Zweig der Herstellerindustrie auf den Zuschnitt dieser Innovationen für nichtmilitärische Anwendungen. Auch die wachsende "Standardisierungsmacht" des militärischen Bereichs begünstigte die Ausbreitung dort initiierter Computertechnik (z. B. der Programmiersprache COBOL) in den zivilen Bereich.

                                                                                                Zurück zum Anfang