Geschichte Podcasts

1951 Univac - erster elektronischer Computer - Geschichte

1951 Univac - erster elektronischer Computer - Geschichte

(6/14/51)Die Remington Rand Corporation stellte den ersten kommerziellen Digitalcomputer namens "UNIVAC" (Universal Automatic Computer) vor. Die "UNIVAC" folgte der 1945 entwickelten experimentellen "ENIAC". Die erste "UNIVAC" wurde an das Census Bureau verkauft.


John Presper Eckert und John Mauchly waren an der Moore School of Engineering gewesen, verließen sie aber, um ihr eigenes Computerunternehmen zu gründen. Sie erhielten ihren ersten Vertrag vom United States Census Bureau. Das Bureau hatte mechanische Computer verwendet, um die Volkszählung zu tabellieren, aber mit der wachsenden Bevölkerung brauchte es eine bessere Lösung. Sie erhielten von der Volkszählungsbehörde eine Anzahlung von 300.000 Dollar, um 1946 den neuen Computer zu erforschen. Es dauerte zwei Jahre, bis das Design des Computers fertiggestellt war. Das Volkszählungsbüro hatte die Zahlung für den Computer auf 400.000 US-Dollar begrenzt. Die Erfinder wussten, dass dies nicht ausreichen würde, hofften aber, ihren Verlust aus Serviceverträgen wettzumachen. Remington Rand half den Erfindern und kaufte das Unternehmen, das zur Univac Division von Remington Rand wurde. Der erste UNIVAC-Computer wurde am 31. März 1951 an das Census Bureau geliefert. Das Unternehmen gab 1 Million US-Dollar für die Entwicklung des Geräts aus.

Die erste UNIVAC konnte in 120 Mikrosekunden addieren, in 1.8000 Mikrosekunden multiplizieren und in 3.600 Mikrosekunden dividieren.


ENIAC

Unsere Redakteure prüfen, was Sie eingereicht haben und entscheiden, ob der Artikel überarbeitet werden soll.

ENIAC, vollständig Elektronischer Numerischer Integrator und Computer, der erste programmierbare elektronische Allzweck-Digitalcomputer, der während des Zweiten Weltkriegs von den Vereinigten Staaten gebaut wurde. Der amerikanische Physiker John Mauchly, der amerikanische Ingenieur J. Presper Eckert Jr. und ihre Kollegen an der Moore School of Electrical Engineering der University of Pennsylvania leiteten ein von der Regierung finanziertes Projekt zum Bau eines vollelektronischen Computers. Im Auftrag der Armee und unter der Leitung von Herman Goldstine begannen Anfang 1943 die Arbeiten an ENIAC. Im nächsten Jahr begann der Mathematiker John von Neumann häufige Konsultationen mit der Gruppe.

ENIAC war weniger als der Traum von einem universellen Computer. Es wurde speziell für die Berechnung von Werten für Artillerie-Entfernungstabellen entwickelt, aber es fehlten einige Funktionen, die es zu einer allgemein nützlicheren Maschine gemacht hätten. Es verwendete Steckbretter zur Übermittlung von Anweisungen an die Maschine, was den Vorteil hatte, dass die Maschine, sobald die Anweisungen auf diese Weise „programmiert“ waren, mit elektronischer Geschwindigkeit lief. Anweisungen, die von einem Kartenleser oder einem anderen langsamen mechanischen Gerät gelesen wurden, hätten mit dem vollelektronischen ENIAC nicht mithalten können. Der Nachteil war, dass es Tage dauerte, die Maschine für jedes neue Problem neu zu verkabeln. Dies war eine solche Belastung, die nur mit einiger Großzügigkeit als programmierbar bezeichnet werden konnte.

Dennoch war ENIAC das bisher leistungsstärkste Rechengerät. Es war der erste programmierbare elektronische Allzweckcomputer. Wie Charles Babbages Analytical Engine (aus dem 19. (Zum Beispiel WENN X>5 DANN GEHEN SIE ZU ZEILE 23.) Dies gab ENIAC viel Flexibilität und bedeutete, dass es, obwohl es für einen bestimmten Zweck gebaut wurde, für ein breiteres Spektrum von Problemen verwendet werden konnte.

ENIAC war enorm. Es besetzte das 15 x 9 Meter große Untergeschoss der Moore School, wo seine 40 Paneele U-förmig entlang drei Wänden angeordnet waren. Jede Platte war etwa 2 Fuß breit mal 2 Fuß tief mal 8 Fuß hoch (0,6 Meter mal 0,6 Meter mal 2,4 Meter). Mit mehr als 17.000 Vakuumröhren, 70.000 Widerständen, 10.000 Kondensatoren, 6.000 Schaltern und 1.500 Relais war es mit Abstand das komplexeste elektronische System, das je gebaut wurde. ENIAC lief kontinuierlich (teilweise um die Lebensdauer der Röhren zu verlängern), erzeugte 174 Kilowatt Wärme und benötigte daher eine eigene Klimaanlage. Es konnte bis zu 5.000 Additionen pro Sekunde ausführen, mehrere Größenordnungen schneller als seine elektromechanischen Vorgänger. Es und nachfolgende Computer, die Vakuumröhren verwenden, werden als Computer der ersten Generation bezeichnet. (Mit 1.500 mechanischen Relais war ENIAC noch im Übergang zu späteren, vollelektronischen Computern.)


Die Geschichte hinter Amerikas erstem kommerziellen Computer

Vor genau 65 Jahren, am 31. März 1951, unterzeichnete das U.S. Census Bureau einen Vertrag über den ersten kommerziellen Computer in den USA und trat damit in eine neue Ära ein. Als einige Monate später UNIVAC&mdashder Universal Automatic Computer&mdash eingeweiht wurde, Mal nannte die Maschine “ein acht Fuß großes mathematisches Genie”, das in einer Sechstelsekunde einen durchschnittlichen Bürger in Bezug auf Geschlecht, Familienstand, Bildung, Wohnort, Altersgruppe, Geburtsort, Beschäftigung, Einkommen und andere klassifizieren konnte Dutzend andere Klassifizierungen.”

Bis dahin wurden die Daten des Bureaus mit Hilfe einer elektrischen Zählmaschine verarbeitet, die erstmals für die Volkszählung von 1890 entwickelt wurde. Fortschritte in der Computertechnologie während des Zweiten Weltkriegs sorgten für schnellere Verarbeitungsgeschwindigkeiten und die Entwicklung von besonderem Interesse für das Census Bureau angesichts des Datenvolumens, das mit der regelmäßigen Zählung der US-Bevölkerung verbunden ist.

UNIVAC wurde von J. Presper Eckert und John W. Mauchly entworfen. Während des Krieges hatten sie ENIAC, einen großen Allzweckcomputer, an der University of Pennsylvania entwickelt. 1946 verließen die beiden die Universität, um ein kommerzielles Unternehmen zu gründen und erhielten einen Vertrag mit dem National Bureau of Standards, um zu untersuchen, was für einen Computer für das Bureau of the Census erforderlich wäre. Die ursprünglich auf sechs Monate veranschlagte Studie dauerte länger als erwartet und Eckert und Mauchly begannen erst 1948 mit dem Bau der Maschine. Ihr Geschick bei der Kostenschätzung blieb weit hinter ihren Fähigkeiten als Ingenieure zurück, und 1950 verkauften sie ihr angeschlagenes Unternehmen an Remington Rand, ein Hersteller von Büromaschinen. Eckert und Mauchly setzten ihre Arbeit an UNIVAC fort, nun als Division von Remington Rand.

TIME erklärte im November 1950 das Versprechen der noch nicht erschienenen UNIVAC:

Allen N. Scares, Vice President und General Manager von Remington Rand, Inc., erzählte von einer Maschine, UNIVAC, hergestellt von seiner Firma, die die meisten der numerischen Aufgaben erledigen kann, die heute von Fleisch- und Blutsbeamten ausgeführt werden komplizierte Lohnabrechnung für 10.000 Mitarbeiter in nur 40 Minuten. Wie viele Sachbearbeiter UNIVAC ersetzen würde, sagte Scares nicht. Er war zuversichtlich, dass Remington Rand kein “Frankenstein [Monster] geschaffen hatte, das sich gegen uns wenden und die Grundlagen unserer Gesellschaft zerstören könnte. Die Geschichte hat gezeigt, dass in jedem neuen Werkzeug ein ultimatives Gut steckt. . . Die Akzeptanz erfolgt schrittweise, da sich das neue Tool bewährt. Es ist nie als plötzliche Veränderung aufgetreten.”

UNIVAC war ein speicherprogrammierter Computer, der über 5.400 Vakuumröhren verfügte, 4.000 Artikel pro Minute tabellieren konnte, alphanumerische Zeichen verwendete, seine eigene Arbeit überprüfte und „nur“ halb so groß wie ENIAC war – damals winzige 4,50 m lang, 2,50 m .breit und 8 ft. hoch.

Ende März 1951 unterzog sich UNIVAC einer Reihe von Tests, um dem Census Bureau zu bestätigen, dass es wirklich wie erwartet funktionieren würde. Die Tests, beschrieben in der American Mathematical Society ’s Jul. 1951 Mathematische Tabellen und andere Hilfsmittel zu Berechnung, bestätigte die Zuverlässigkeit seiner Befehle, seine Fähigkeit, Informationen von Lochkarten auf Magnetband umzuwandeln, seine Fähigkeit, große Informationsmengen fehlerfrei nachzudrucken, und seine Gesamtleistung.

Nachdem das Census Bureau diese Tests bestanden hatte, nahm es zunächst einige Abschnitte der Volkszählung von 1950 und dann die gesamte Wirtschaftszählung von 1954 in Betrieb. Zwölf Jahre später wurde die UNIVAC dem Smithsonian übergeben und durch neuere Maschinen ersetzt. Die Mal titelte seinen Rücktritt so: “Automation Claims Another Job.”


Die ersten Computersysteme verwendeten Vakuumröhren als Schaltkreise und Magnettrommeln als Speicher und waren oft riesig und nahmen ganze Räume ein. Diese Rechner waren im Betrieb sehr teuer und die ersten Rechner erzeugten neben viel Strom auch viel Wärme, die oft zu Störungen führte.

Computer der ersten Generation verließen sich auf die Maschinensprache, die Programmiersprache der niedrigsten Ebene, die von Computern verstanden wurde, um Operationen auszuführen, und sie konnten jeweils nur ein Problem lösen. Die Einrichtung eines neuen Problems würde Tage oder sogar Wochen dauern. Die Eingabe basierte auf Lochkarten und Papierstreifen, die Ausgabe erfolgte auf Ausdrucken.

Die Computer UNIVAC und ENIAC sind Beispiele für Computergeräte der ersten Generation. Der UNIVAC war der erste kommerzielle Computer, der 1951 an einen Geschäftskunden, das U.S. Census Bureau, geliefert wurde.


Die zehn wichtigsten Dinge, die man bei der Einweihung der UNIVAC, des ersten kommerziell hergestellten elektronischen Digitalcomputers im Jahr 1951, nicht tun sollte

In dieser Woche jährt sich 1951 die Einweihung von UNIVAC, dem ersten kommerziell hergestellten elektronischen Digitalcomputer. Der Computer wurde für das Census Bureau entwickelt und gebaut. Die Ingenieure, die die UNIVAC entwickelten, J. Presper Eckert und John Mauchly verkauften ihr Unternehmen 1950 vor der Markteinführung an Remington Rand. Wenn Sie hingehen und Teil des Engagements werden möchten, nehmen Sie bitte diese Liste mit. Wir alle wissen, dass wir bei Zeitreisen vorsichtig sein müssen, um Risse im Zeitkontinuum zu vermeiden.

Die zehn wichtigsten Dinge, die man bei der Einweihung des UNIVAC-Computers 1951 nicht tun sollte.

10 Wenn Sie gehen, machen Sie keine Kommentare zur Größe des Computers. Wenn Sie dies tun, wird Ihnen bestenfalls niemand Aufmerksamkeit schenken. Im schlimmsten Fall werden Sie von Eckert belauscht. (Ja, die Maschine ist riesig, Lancelot. Sie wiegt 16.000 Pfund, aber Eckert sieht ein wenig verärgert aus, da dieses Modell etwa ein Viertel so groß ist wie sein letztes. Ich denke, Sie könnten sich schnell entschuldigen.)

9 Wenn Sie gehen, versuchen Sie nicht, Tiny, dem WWF-Champion, eine Programmiersprache beizubringen. Wenn du das tust, wird er bestenfalls denken, du machst Witze. Im schlimmsten Fall wird Tiny erkennen, dass er nicht lehrbar ist. (Du hast ein kleines Problem, Landry. Weißt du, Tiny wurde vom Gericht angeordnet, an Selbstwert-Gruppensitzungen teilzunehmen. Die letzte Sitzung hat ihm klar gemacht, dass es ihm gut geht vier Jahre zurück. Er sucht nach einem Schuldigen. Zeige schnell auf John Mauchly.)

8 Wenn Sie gehen, verspotten Sie nicht, wenn J Presper Eckert damit prahlt, dass die Maschine 1905 Anweisungen pro Sekunde ausführen kann. Wenn Sie das tun, wird er bestenfalls denken, Sie hätten Heuschnupfen. Im schlimmsten Fall wird er Sie auffordern, Ihren Spott zu erklären. (Sie sind jetzt an Ort und Stelle, X. Sehen Sie, wenn Sie sich darüber lustig machen, dass Ihr iPhone 3,2 Milliarden Anweisungen pro Sekunde ausführen kann, wird es Ihnen schwer fallen, Ihren Ausweg zu erklären. Vielleicht sollten Sie einfach Heuschnupfen zugeben.)

7 Wenn Sie gehen, machen Sie keine Witze über die Hitze der 5000 Vakuumröhren. Wenn Sie dies tun, können bestenfalls ein oder zwei den Witz verstehen. Im schlimmsten Fall wird John Mauchly Sie bitten, Ihren Marshmallow-Stick zu nehmen und das Gelände zu verlassen. (Jetzt hast du ihn wütend gemacht, Langley. Natürlich weiß er nicht, dass Transistoren in fünf Jahren verfügbar sein würden. Wenn er es täte, würde er dich für ein Genie halten, anstatt kopfüber in der Gasse zu landen.)

6 Wenn Sie gehen, nehmen Sie Ihr iPad nicht mit. Wenn Sie dies tun, werden die Leute bestenfalls denken, dass es sich um eine Zwischenablage handelt. Schlimmstenfalls wird J Presper Eckert Sie dabei entdecken, wie Sie einige Berechnungen anstellen. (Mach dir keine Sorgen, Laochailan. Klicke einfach auf den Bildschirm und zeig ihm deinen Bildschirmschoner in der Zwischenablage. Er wird es nie erfahren.)

5 Wenn Sie gehen, fragen Sie Eckert nicht nach Lochkarteneingaben. Wenn Sie dies tun, wird er sich bestenfalls geschmeichelt fühlen, da es keine gibt. Schlimmstenfalls wird er beleidigt, da er und Mauchly hart daran gearbeitet haben, ein digitales elektronisches Eingabesystem ohne Lochkarten zu entwickeln. (Jetzt schreit Eckert dich an, Laramie. Er hält dich für einen Lochkartenfan und zu dumm, um seine Leistung anzuerkennen. Sag ihm einfach, dass du Witze machst und den Stuhl wieder unter den Schreibtisch stellen soll.)

4 Wenn Sie gehen, bitten Sie nicht, mit jemandem aus dem Fachbereich Informatik zu sprechen. Dann ist bestenfalls wochenlang niemand erreichbar. Im schlimmsten Fall werden Sie mit einer Person sprechen, die eine andere Sprache spricht. (Keine Sorge Largo. Hier ist eine praktische Referenz, um mit Informatikern zu sprechen. Es gibt drei Spalten und zwanzig Zeilen mit Wörtern. Alles, was Sie tun müssen, ist ein Wort aus einer Spalte auszuwählen und es zu einem anderen Wort in der nächsten Spalte hinzuzufügen , und schließen Sie es schließlich an ein drittes Wort an. Fassen Sie alles in einem Satz zusammen, und Sie können loslegen. Zum Beispiel. “Können Sie bipolare Anschlüsse integrieren und einen Bericht über die Ergebnisse veröffentlichen?” Der Typ wird sagen, er wird sich das ansehen, ist aber total beeindruckt.)

3 Wenn Sie gehen, erwähnen Sie IBM nicht in der Nähe von Personen im Raum. Wenn Sie dies tun, befinden Sie sich bestenfalls in der Nähe des Kaffeeservers. Im schlimmsten Fall werden Sie als Spion genommen. (Nun, Larue, wie fühlt es sich an, hier mit den Eierschalen zu sitzen?)

2 Wenn Sie gehen, fragen Sie Eckert nicht, ob der Computer Präsidentschaftswahlen vorhersagen kann. Wenn du das tust, wird er bestenfalls lachen. Im schlimmsten Fall wird er wissen wollen, woher Sie die Informationen zu seinem geheimen Haustierprojekt haben. (Natürlich, Laszlo, Sie haben Ihre Geschichte nicht gelesen. Sie haben nicht gemerkt, dass die UNIVAC die Welt überrascht hat, indem sie das Ergebnis der Wahl von Dwight D. Eisenhowers unerwartetem Erdrutschsieg im November 1952 vorhergesagt hat. Sie haben jetzt viel zu erklären machen.)

1 Wenn Sie gehen, fragen Sie Eckert und Mauchly nicht, warum sie ihre Firma an Remington Rand verkauft haben. Wenn Sie dies tun, werden beide bestenfalls mit jemand anderem sprechen und Sie nicht hören. Im schlimmsten Fall werden sie dir zu dem Verbündeten helfen, der anscheinend dein Zuhause in der Ferne war. (Das Problem ist, Lathan, diese Jungs sind großartige Ingenieure, aber schreckliche Geschäftsleute. Sie hatten Glück, das zu sehen, bevor sie bankrott gingen.)


Inhalt

Die Verwendung von kreuzgekoppelten Röhrenverstärkern zur Erzeugung einer Impulsfolge wurde 1918 von Eccles und Jordan beschrieben. Diese Schaltung wurde zur Grundlage des Flip-Flops, einer Schaltung mit zwei Zuständen, die zum grundlegenden Element elektronischer binärer Digitalcomputer wurde .

Der Atanasoff-Berry-Computer, dessen Prototyp 1939 erstmals demonstriert wurde, gilt heute als erster Vakuumröhrencomputer. [1] Es war jedoch kein Allzweckcomputer, der nur ein System linearer Gleichungen lösen konnte, und er war auch nicht sehr zuverlässig.

Während des Zweiten Weltkriegs wurden Spezial-Vakuumröhren-Digitalcomputer wie Colossus verwendet, um deutsche und japanische Chiffren zu knacken. Die von diesen Systemen gesammelten militärischen Informationen waren für die alliierten Kriegsanstrengungen von wesentlicher Bedeutung. Jeder Koloss verwendete zwischen 1.600 und 2.400 Vakuumröhren. [1] Die Existenz der Maschine wurde bis in die 1970er Jahre geheim gehalten und die Öffentlichkeit war sich ihrer Anwendung nicht bewusst. [1]

Auch während des Krieges wurden von Konrad Zuse elektromechanische Binärrechner entwickelt. Das deutsche Militär hat während des Krieges keine Priorität auf die Computerentwicklung gelegt. Eine experimentelle elektronische Computerschaltung mit rund 100 Röhren wurde 1942 entwickelt, aber bei einem Luftangriff zerstört.

In den Vereinigten Staaten wurde Ende des Zweiten Weltkriegs mit der Arbeit am ENIAC-Computer begonnen. Die Maschine wurde 1945 fertiggestellt. Obwohl eine Anwendung, die ihre Entwicklung motivierte, die Herstellung von Schusstabellen für die Artillerie war, war eine der ersten Anwendungen von ENIAC die Durchführung von Berechnungen im Zusammenhang mit der Entwicklung einer Wasserstoffbombe. ENIAC wurde mit Plugboards und Schaltern anstelle eines elektronisch gespeicherten Programms programmiert. Eine Nachkriegsreihe von Vorträgen, die das Design von ENIAC enthüllten, und ein Bericht von John von Neumann über einen absehbaren Nachfolger von ENIAC, First Draft of a Report on the EDVAC, wurden weit verbreitet und beeinflussten die Gestaltung des Nachkriegsvakuums Röhrencomputer.

Der Ferranti Mark 1 (1951) gilt als erster kommerzieller Röhrencomputer. Der erste in Serie produzierte Computer war der IBM 650 (1953).

Die Vakuumröhrentechnik benötigte viel Strom. Der ENIAC-Computer (1946) hatte über 17.000 Röhren und erlitt im Durchschnitt alle zwei Tage einen Röhrenausfall (der 15 Minuten dauerte, um zu lokalisieren). Im Betrieb verbrauchte die ENIAC 150 Kilowatt Leistung [2], davon 80 Kilowatt für Heizröhren, 45 Kilowatt für Gleichstromversorgungen, 20 Kilowatt für Lüftungsgebläse und 5 Kilowatt für Lochkarten-Hilfsgeräte.

Da der Ausfall einer der Tausenden von Röhren in einem Computer zu Fehlern führen konnte, war die Zuverlässigkeit der Röhren von großer Bedeutung. Spezielle Qualitätsrohre wurden für den Computerservice gebaut, mit höheren Standards für Materialien, Inspektion und Prüfung als Standard-Aufnahmerohre.

Ein Effekt des digitalen Betriebs, der in analogen Schaltungen selten auftrat, war die Kathodenvergiftung. Vakuumröhren, die über längere Zeiträume ohne Plattenstrom betrieben wurden, würden auf den Kathoden eine Schicht mit hohem Widerstand entwickeln, die die Verstärkung der Röhre verringert. Um diesen Effekt zu verhindern, waren speziell ausgewählte Materialien für Computerröhren erforderlich. Um mechanische Belastungen zu vermeiden, die mit dem Aufwärmen der Röhren auf Betriebstemperatur verbunden sind, wurde die volle Betriebsspannung der Röhrenheizer oft langsam über eine Minute oder länger angelegt, um spannungsbedingte Brüche der Kathodenheizer zu verhindern. Die Heizung kann während der Standby-Zeit der Maschine eingeschaltet bleiben, wenn die Hochspannungsplattenversorgung ausgeschaltet ist. Randtests wurden in Subsysteme eines Vakuumröhrencomputers eingebaut, indem die Platten- oder Heizspannungen gesenkt und der ordnungsgemäße Betrieb getestet wurde, Komponenten, bei denen die Gefahr eines frühen Ausfalls bestand, konnten erkannt werden. Um alle Stromversorgungsspannungen zu regulieren und zu verhindern, dass Überspannungen und Einbrüche aus dem Stromnetz den Computerbetrieb beeinträchtigen, wurde der Strom von einem Motorgeneratorsatz abgeleitet, der die Stabilität und Regelung der Stromversorgungsspannungen verbesserte. [ Zitat benötigt ]

Beim Bau von Vakuumröhrencomputern wurden zwei breite Arten von Logikschaltungen verwendet. Der "asynchrone" oder direkte, gleichstromgekoppelte Typ verwendet nur Widerstände, um zwischen den Logikgattern und innerhalb der Gatter selbst zu verbinden. Logikpegel wurden durch zwei weit voneinander getrennte Spannungen dargestellt. Bei der Logik vom Typ "synchron" oder "dynamischer Impuls" wurde jede Stufe durch Impulsnetzwerke wie Transformatoren oder Kondensatoren gekoppelt. An jedes Logikelement wurde ein "Takt"-Impuls angelegt. Logische Zustände wurden durch das Vorhandensein oder Fehlen von Impulsen während jedes Taktintervalls dargestellt. Asynchrone Designs könnten möglicherweise schneller arbeiten, erforderten jedoch mehr Schaltungen zum Schutz vor logischen "Rassen", da verschiedene logische Pfade unterschiedliche Laufzeiten vom Eingang zum stabilen Ausgang haben würden. Synchrone Systeme vermieden dieses Problem, benötigten jedoch zusätzliche Schaltungen, um ein Taktsignal zu verteilen, das für jede Stufe der Maschine mehrere Phasen aufweisen könnte. Direkt gekoppelte Logikstufen waren etwas empfindlich gegenüber Driften der Komponentenwerte oder kleinen Leckströmen, aber die binäre Natur des Betriebs gab Schaltungen einen beträchtlichen Spielraum gegen Fehlfunktionen aufgrund von Drift. [3] Ein Beispiel für einen "Puls" (synchronen) Computer war der MIT Whirlwind. Die IAS-Computer (ILLIAC und andere) verwendeten asynchrone, direkt gekoppelte Logikstufen.

Röhrencomputer verwendeten hauptsächlich Trioden und Pentoden als Schalt- und Verstärkungselemente. Mindestens eine speziell konstruierte Gating-Röhre hatte zwei Steuergitter mit ähnlichen Eigenschaften, die es ermöglichten, direkt ein UND-Gatter mit zwei Eingängen zu implementieren. [3] Thyratrons wurden manchmal verwendet, beispielsweise zum Ansteuern von E/A-Geräten oder um das Design von Latches und Halteregistern zu vereinfachen. Häufig verwendeten Vakuumröhrencomputer in großem Umfang Festkörperdioden ("Kristall"), um UND- und ODER-Logikfunktionen auszuführen, und verwendeten Vakuumröhren nur, um Signale zwischen Stufen zu verstärken oder Elemente wie Flip-Flops, Zähler und Register aufzubauen. Die Festkörperdioden reduzierten die Größe und den Stromverbrauch der gesamten Maschine.

Frühe Systeme verwendeten eine Vielzahl von Speichertechnologien, bevor sie sich schließlich für Magnetkernspeicher entschieden. Der Atanasoff-Berry-Computer von 1942 speicherte numerische Werte als Binärzahlen in einer rotierenden mechanischen Trommel mit einer speziellen Schaltung, um diesen "dynamischen" Speicher bei jeder Umdrehung aufzufrischen. Die ENIAC aus Kriegszeiten konnte 20 Nummern speichern, aber die verwendeten Vakuumröhrenregister waren zu teuer, um mehr als ein paar Nummern zu speichern. Ein Computer mit gespeicherten Programmen war unerreichbar, bis eine wirtschaftliche Form des Speichers entwickelt werden konnte. Maurice Wilkes baute 1947 EDSAC, das über einen Quecksilber-Verzögerungsleitungsspeicher verfügte, der 32 Wörter mit jeweils 17 Bit speichern konnte. Da der Verzögerungsleitungsspeicher von Natur aus seriell organisiert war, war auch die Maschinenlogik bitseriell. [4]

Mercury Delay Line Memory wurde von J. Presper Eckert in der EDVAC und UNIVAC I verwendet. Eckert und John Mauchly erhielten 1953 ein Patent für Delay Line Memory. Bits in einer Delay Line werden als Schallwellen im Medium gespeichert, die sich mit a konstante Rate. Die UNIVAC I (1951) verwendete sieben Speichereinheiten, die jeweils 18 Quecksilbersäulen enthielten und jeweils 120 Bits speicherten. Dies lieferte einen Speicher von 1000 12-stelligen Wörtern mit einer durchschnittlichen Zugriffszeit von 300 Mikrosekunden. [5] Dieses Speichersubsystem bildete einen eigenen begehbaren Raum.

Williams-Röhren waren die ersten echten Direktzugriffsspeicher. Die Williams-Röhre zeigt ein Raster von Punkten auf einer Kathodenstrahlröhre (CRT) an, wodurch über jedem Punkt eine kleine Ladung statischer Elektrizität erzeugt wird. Die Ladung an der Stelle jedes der Punkte wird von einem dünnen Metallblech direkt vor dem Display abgelesen. Frederic Calland Williams und Tom Kilburn meldeten 1946 Patente für die Williams Tube an. Die Williams Tube war viel schneller als die Verzögerungsleitung, litt jedoch unter Zuverlässigkeitsproblemen. Die UNIVAC 1103 verwendet 36 Williams-Röhren mit einer Kapazität von jeweils 1024 Bit, was einen Gesamtspeicher mit wahlfreiem Zugriff von 1024 Wörtern mit jeweils 36 Bit ergibt. Die Zugriffszeit für Williams Tube-Speicher auf der IBM 701 betrug 30 Mikrosekunden. [5]

Der magnetische Trommelspeicher wurde 1932 von Gustav Tauschek in Österreich erfunden. [6] [7] Eine Trommel bestand aus einem großen, sich schnell drehenden Metallzylinder, der mit einem ferromagnetischen Aufzeichnungsmaterial beschichtet war. Die meisten Trommeln hatten eine oder mehrere Reihen fester Lese-Schreib-Köpfe entlang der Längsachse der Trommel für jede Spur. Der Drum-Controller wählte das richtige Fell aus und wartete darauf, dass die Daten darunter erschienen, während sich die Trommel drehte. Der IBM 650 hatte einen Trommelspeicher von 1000 bis 4000 10-stelligen Wörtern mit einer durchschnittlichen Zugriffszeit von 2,5 Millisekunden.

Der Magnetkernspeicher wurde 1951 von An Wang patentiert. Der Kern verwendet winzige magnetische Ringkerne, durch die Drähte zum Schreiben und Lesen von Informationen geführt werden. Jeder Kern repräsentiert ein Bit an Information. Die Kerne können auf zwei verschiedene Arten magnetisiert werden (im Uhrzeigersinn oder gegen den Uhrzeigersinn) und das in einem Kern gespeicherte Bit ist je nach Magnetisierungsrichtung dieses Kerns null oder eins. Die Drähte ermöglichen es, einen einzelnen Kern entweder auf eine Eins oder eine Null zu setzen und seine Magnetisierung zu ändern, indem geeignete elektrische Stromimpulse durch ausgewählte Drähte gesendet werden. Der Kernspeicher bot neben einer viel höheren Zuverlässigkeit wahlfreien Zugriff und eine höhere Geschwindigkeit. Es wurde schnell in Computern wie dem MIT/IBM Whirlwind eingesetzt, wo anfänglich 1024 16-Bit-Speicherwörter installiert wurden, die Williams Tubes ersetzten. Ebenso wurde die UNIVAC 1103 1956 auf die 1103A aufgerüstet, wobei der Kernspeicher die Williams-Röhren ersetzte. Der beim 1103 verwendete Kernspeicher hatte eine Zugriffszeit von 10 Mikrosekunden. [5]


UNIVAC

UNIVAC, der UNIVersal Automatic Computer, war der erste Computer, der für den allgemeinen kommerziellen Gebrauch gebaut wurde und zum Eingeben und Speichern von Daten Magnetband anstelle von Lochkarten verwendet.

John Presper Eckert und John Mauchly begannen im April 1946 mit der Entwicklung der UNIVAC. Eckert und Mauchly gehörten zu einem Kader von Wissenschaftlern und Mathematikern, die während des Zweiten Weltkriegs Computersysteme für die Vereinigten Staaten entwickelten. Ihr auf Lochkarten basierender elektronischer und numerischer Integrator und Computer (ENIAC) half dem Militär, die Genauigkeit ihres Artilleriefeuers zu verbessern.

Nach dem Krieg versuchten Eckert und Mauchly, diese Technologie zu kommerzialisieren, aber ihr Arbeitgeber, die University of Pennsylvania, widersprach. Die Universität bot das Duo im Gegenzug für die Freigabe der Patente auf ENIAC an. Sie lehnten ab und verließen die Universität 1946, um ein Unternehmen zu gründen, das zur Eckert-Mauchly Computer Corporation wurde.

Eckert und Mauchly entwickelten die UNIVAC in den nächsten fünf Jahren im Auftrag des United States Census Bureau. Es wurde nach einem effizienteren Weg gesucht, Millionen von Daten zu verarbeiten. Eine Reihe von Verzögerungen und Kostenüberschreitungen führten bei dem noch jungen Unternehmen zu finanziellen Problemen, und im Oktober 1949 starb der Vorstandsvorsitzende Harry L. Straus bei einem Flugzeugabsturz. 1950 wurde die Firma von Eckert und Mauchly an den Schreibmaschinenhersteller Remington Rand verkauft, der unter der Leitung des ehemaligen Manhattan-Projektleiters Leslie Groves eine eigene Rechenmaschinenabteilung hatte.

Als Teil der Gruppe von Remington Rand konnten Eckert und Mauchly das Projekt abschließen und lieferten am 31. März 1951 die erste UNIVAC an das Census Bureau. Dieser Erfolg kam trotz Remingtons Desinteresse an dem Projekt – wie ihre Rivalen bei IBM blieben sie überzeugte Unterstützer der traditionellen Lochkartentechnologie - und Feindseligkeit gegenüber Mauchly, von dem sie glaubten, dass er ein Sympathisant der Kommunisten war, und den Programmiererinnen, darunter Grace Hopper, die das Projekt geleitet hatten.

Die Geschwindigkeit von UNIVAC übertraf alle seine Konkurrenten – es war tausendmal schneller als seine Konkurrenten –, aber noch wichtiger war, dass es zu den ersten Computern mit „gespeicherten Programmen“ gehörte, die Magnetband anstelle von Lochkarten zum Sammeln und Verwalten von Daten verwendeten. Bis zu einer Million Zeichen können auf Magnetband gespeichert und abgerufen werden. Ein Bediener musste nicht jedes Mal, wenn er eine Berechnung durchführen wollte, Daten in die Maschine laden, stattdessen konnte die UNIVAC auf die auf ihrem Magnetband gespeicherten Daten zugreifen.

Dank eines Werbegags bei den Präsidentschaftswahlen 1952 in den Vereinigten Staaten wurden UNIVAC-Maschinen in der Öffentlichkeit bald mit der Zukunft des Computers gleichgesetzt. Remington Rand stellte in seiner Fabrik in Philadelphia ein UNIVAC-Team auf, um das Ergebnis des Rennens zu überwachen und vorherzusagen, das von Meinungsforschern als sehr knapp eingestuft wurde. Der Computer sagte jedoch für den frühen Abend einen Eisenhower-Erdrutsch voraus. Journalisten des Fernsehsenders CBS bezweifelten dieses Ergebnis und weigerten sich, es erst viel später in der Nacht bekannt zu geben.

Letztendlich erwies sich die UNIVAC-Abteilung von Remington Rand als nicht in der Lage, mit der Kundennachfrage nach diesen großen und teuren Systemen Schritt zu halten, und konnte IBM bei der Erlangung eines wichtigen Militärauftrags für die Entwicklung des Semi-Automatic Ground Environment (SAGE)-Verteidigungsnetzwerks nicht schlagen. IBM erhielt den Auftrag und den daraus resultierenden Zugang zu geheimen Forschungsergebnissen des MIT-Teams „Project Whirlwind“ zu Spitzentechnologien wie dem Magnetkernspeicher mit wahlfreiem Zugriff. Am Ende des SAGE-Projekts hatte IBM den klaren Vorteil, Computersysteme zu produzieren, wodurch UNIVAC obsolet wurde. 1955 fusionierte Remington Rand mit Sperry. Sperry Rand stellte weiterhin die nachfolgenden Generationen des UNIVAC her, trat jedoch gegenüber seinen größeren Konkurrenten in den Hintergrund.


Die rot markierten Daten stammen aus der grundlegenden Zeitleiste der Ereignisse im Zusammenhang mit "Der große Magnet, die Erde".
Schwarze Daten stammen aus der Geschichte der Gesellschaft, Wissenschaft und Technik und sollen einen breiteren Kontext für die Daten der Grundliste bieten.
Für eine Zeitleiste der Erforschung der fernen magnetischen Umgebung
der Erde, Sonne und Planeten, siehe hier.

  • 13000-11000 v. Chr. --- Geschätzte Ankunft von Menschen in Amerika (wahrscheinlich mit Hilfe von Kleidung und Feuer, wenn sie über Alaska kamen).
  • 10000 v. Chr. --- Ungefähres Ende der letzten Eiszeit.
  • 3000 v. Chr. – Beginn der Bronzezeit, benannt nach der ersten brauchbaren Metalllegierung.
  • 2700-2300 v. Chr. --- Pyramiden in Ägypten gebaut. Erste große Staaten und Kulturen gedeihen in den Flusstälern von Nil, Euphrat und Indus.
    Ägypter erfinden Hieroglyphenschrift, verwenden Papyrus (rohes Papier).
    Euphratkulturen schreiben auf nassem Ton (anschließend getrocknet) mit Markierungen vom Ende eines Dübels.
  • 1400 v. Chr. (ungefähr) --- Eisen wurde zuerst von Hethitern in der heutigen Türkei hergestellt.
  • 1200 v. Chr. (ungefähr) --- Trojanischer Krieg. "Ilias" und "Odyssey" wurden wahrscheinlich im folgenden Jahrhundert geschrieben.

  • 1000-1400 Zeitalter der Feudalherren in Europa: Burgen, Ritter, religiöser Eifer, nur sehr rudimentäre Wissenschaft und Technik. Auch das Zeitalter der Wikinger, von denen einige bis nach Grönland und Amerika segelten. Mongolen überrennen und unterwerfen Südrussland.
  • 1095-1291 Kreuzzüge
  • 1460 Johann Gutenberg erfindet den Buchdruck mit beweglichen Lettern. In Kombination mit Papier (eine chinesische Erfindung, die nach und nach Europa erreichte und Pergament verdrängte), ist das gedruckte Buch die treibende Kraft hinter einem kulturellen und technischen Wachstumsschub, der Renaissance (französisch für "Wiedergeburt").
  • 1492 Kolumbus entdeckt Amerika, gefolgt von spanischen (und einigen portugiesischen) Entdeckern. Die Hauptmächte in Europa sind Spanien, Frankreich, England, die Türkei und eine Konföderation deutscher Fürsten ("Heiliges Römisches Reich").
  • 1543---Nicolaus Copernicus (1473-1543) veröffentlicht seine Theorie des Sonnensystems.
  • 1582---Papst Gregor der 13. reformiert den Kalender.
  • 1588 Die "Spanische Armada", eine Flotte, die Großbritannien angreift, wird von der britischen Marine und durch Stürme zerstört. Zum ersten Mal kann Großbritannien einen Teil des amerikanischen Kontinents beanspruchen.
  • Europa und Asien werden mit amerikanischen Pflanzen eingeführt - Kartoffeln, Tomaten, Mais. Die Ernährung Europas wird auch nach und nach durch Zucker, Orangen und Pfeffer mit Ursprung in Indien bereichert.
  • 1609--- Galileo Galilei (1564-1642) baut das erste astronomische Teleskop und beobachtet zum ersten Mal Krater auf dem Mond, Satelliten um den Jupiter und wie die Venus Phasen wie der Mond (Halbmond usw.) durchläuft.

  • 1683---Die türkische Armee erreicht Wien, wird aber von der Beute abgestoßen, die Sieger entdecken Kaffee, entwickeln Geschmack daran. Engländer fangen an, Tabak zu rauchen, eine amerikanische Pflanze.
  • 1686--- Isaac Newton (1642-1727) veröffentlicht "Philosophie Naturalis Principia Mathematica", in dem er die Gesetze der Mechanik und der Schwerkraft umreißt


Geschichte der Computer: Eine kurze Zeitleiste

Der Computer wurde nicht für Unterhaltung oder E-Mail geboren, sondern aus der Notwendigkeit heraus, eine ernsthafte Zahlenkrise zu lösen. Bis 1880 war die US-Bevölkerung so groß geworden, dass es mehr als sieben Jahre dauerte, die Ergebnisse der US-Volkszählung zu tabellieren. Die Regierung suchte nach einem schnelleren Weg, um die Arbeit zu erledigen, was zu Lochkarten-basierten Computern führte, die ganze Räume beanspruchten.

Wir haben heute mehr Rechenleistung auf unseren Smartphones als in diesen frühen Modellen verfügbar war. Die folgende kurze Geschichte der Computertechnik ist eine Zeitachse der Entwicklung von Computern von ihren bescheidenen Anfängen bis zu den Maschinen von heute, die im Internet surfen, Spiele spielen und Multimedia-Streams zusätzlich zu knackenden Zahlen streamen.

1801: In Frankreich erfindet Joseph Marie Jacquard einen Webstuhl, der mit Lochkarten aus Holz automatisch Stoffdesigns webt. Frühe Computer würden ähnliche Lochkarten verwenden.

1822: Der englische Mathematiker Charles Babbage entwirft eine dampfbetriebene Rechenmaschine, die Zahlentabellen berechnen könnte. Das von der englischen Regierung finanzierte Projekt ist gescheitert. Mehr als ein Jahrhundert später wurde jedoch der erste Computer der Welt tatsächlich gebaut.

1890: Herman Hollerith designs a punch card system to calculate the 1880 census, accomplishing the task in just three years and saving the government $5 million. He establishes a company that would ultimately become IBM.

1936: Alan Turing presents the notion of a universal machine, later called the Turing machine, capable of computing anything that is computable. The central concept of the modern computer was based on his ideas.

1937: J.V. Atanasoff, a professor of physics and mathematics at Iowa State University, attempts to build the first computer without gears, cams, belts or shafts.

1939: Hewlett-Packard is founded by David Packard and Bill Hewlett in a Palo Alto, California, garage, according to the Computer History Museum.

1941: Atanasoff and his graduate student, Clifford Berry, design a computer that can solve 29 equations simultaneously. This marks the first time a computer is able to store information on its main memory.

1943-1944: Two University of Pennsylvania professors, John Mauchly and J. Presper Eckert, build the Electronic Numerical Integrator and Calculator (ENIAC). Considered the grandfather of digital computers, it fills a 20-foot by 40-foot room and has 18,000 vacuum tubes.

1946: Mauchly and Presper leave the University of Pennsylvania and receive funding from the Census Bureau to build the UNIVAC, the first commercial computer for business and government applications.

1947: William Shockley, John Bardeen and Walter Brattain of Bell Laboratories invent the transistor. They discovered how to make an electric switch with solid materials and no need for a vacuum.

1953: Grace Hopper develops the first computer language, which eventually becomes known as COBOL. Thomas Johnson Watson Jr., son of IBM CEO Thomas Johnson Watson Sr., conceives the IBM 701 EDPM to help the United Nations keep tabs on Korea during the war.

1954: The FORTRAN programming language, an acronym for FORmula TRANslation, is developed by a team of programmers at IBM led by John Backus, according to the University of Michigan.

1958: Jack Kilby and Robert Noyce unveil the integrated circuit, known as the computer chip. Kilby was awarded the Nobel Prize in Physics in 2000 for his work.

1964: Douglas Engelbart shows a prototype of the modern computer, with a mouse and a graphical user interface (GUI). This marks the evolution of the computer from a specialized machine for scientists and mathematicians to technology that is more accessible to the general public.

1969: A group of developers at Bell Labs produce UNIX, an operating system that addressed compatibility issues. Written in the C programming language, UNIX was portable across multiple platforms and became the operating system of choice among mainframes at large companies and government entities. Due to the slow nature of the system, it never quite gained traction among home PC users.

1970: The newly formed Intel unveils the Intel 1103, the first Dynamic Access Memory (DRAM) chip.

1971: Alan Shugart leads a team of IBM engineers who invent the "floppy disk," allowing data to be shared among computers.

1973: Robert Metcalfe, a member of the research staff for Xerox, develops Ethernet for connecting multiple computers and other hardware.

1974-1977: A number of personal computers hit the market, including Scelbi & Mark-8 Altair, IBM 5100, Radio Shack's TRS-80 &mdash affectionately known as the "Trash 80" &mdash and the Commodore PET.

1975: The January issue of Popular Electronics magazine features the Altair 8080, described as the "world's first minicomputer kit to rival commercial models." Two "computer geeks," Paul Allen and Bill Gates, offer to write software for the Altair, using the new BASIC language. On April 4, after the success of this first endeavor, the two childhood friends form their own software company, Microsoft.

1976: Steve Jobs and Steve Wozniak start Apple Computers on April Fool's Day and roll out the Apple I, the first computer with a single-circuit board, according to Stanford University.

1977: Radio Shack's initial production run of the TRS-80 was just 3,000. It sold like crazy. For the first time, non-geeks could write programs and make a computer do what they wished.

1977: Jobs and Wozniak incorporate Apple and show the Apple II at the first West Coast Computer Faire. It offers color graphics and incorporates an audio cassette drive for storage.

1978: Accountants rejoice at the introduction of VisiCalc, the first computerized spreadsheet program.

1979: Word processing becomes a reality as MicroPro International releases WordStar. "The defining change was to add margins and word wrap," said creator Rob Barnaby in email to Mike Petrie in 2000. "Additional changes included getting rid of command mode and adding a print function. I was the technical brains &mdash I figured out how to do it, and did it, and documented it. "

1981: The first IBM personal computer, code-named "Acorn," is introduced. It uses Microsoft's MS-DOS operating system. It has an Intel chip, two floppy disks and an optional color monitor. Sears & Roebuck and Computerland sell the machines, marking the first time a computer is available through outside distributors. It also popularizes the term PC.

1983: Apple's Lisa is the first personal computer with a GUI. It also features a drop-down menu and icons. It flops but eventually evolves into the Macintosh. The Gavilan SC is the first portable computer with the familiar flip form factor and the first to be marketed as a "laptop."

1985: Microsoft announces Windows, according to Encyclopedia Britannica. This was the company's response to Apple's GUI. Commodore unveils the Amiga 1000, which features advanced audio and video capabilities.

1985: The first dot-com domain name is registered on March 15, years before the World Wide Web would mark the formal beginning of Internet history. The Symbolics Computer Company, a small Massachusetts computer manufacturer, registers Symbolics.com. More than two years later, only 100 dot-coms had been registered.

1986: Compaq brings the Deskpro 386 to market. Its 32-bit architecture provides as speed comparable to mainframes.

1990: Tim Berners-Lee, a researcher at CERN, the high-energy physics laboratory in Geneva, develops HyperText Markup Language (HTML), giving rise to the World Wide Web.

1993: The Pentium microprocessor advances the use of graphics and music on PCs.

1994: PCs become gaming machines as "Command & Conquer," "Alone in the Dark 2," "Theme Park," "Magic Carpet," "Descent" and "Little Big Adventure" are among the games to hit the market.

1996: Sergey Brin and Larry Page develop the Google search engine at Stanford University.

1997: Microsoft invests $150 million in Apple, which was struggling at the time, ending Apple's court case against Microsoft in which it alleged that Microsoft copied the "look and feel" of its operating system.

1999: The term Wi-Fi becomes part of the computing language and users begin connecting to the Internet without wires.

2001: Apple unveils the Mac OS X operating system, which provides protected memory architecture and pre-emptive multi-tasking, among other benefits. Not to be outdone, Microsoft rolls out Windows XP, which has a significantly redesigned GUI.

2003: The first 64-bit processor, AMD's Athlon 64, becomes available to the consumer market.

2004: Mozilla's Firefox 1.0 challenges Microsoft's Internet Explorer, the dominant Web browser. Facebook, a social networking site, launches.

2005: YouTube, a video sharing service, is founded. Google acquires Android, a Linux-based mobile phone operating system.

2006: Apple introduces the MacBook Pro, its first Intel-based, dual-core mobile computer, as well as an Intel-based iMac. Nintendo's Wii game console hits the market.

2007: The iPhone brings many computer functions to the smartphone.

2009: Microsoft launches Windows 7, which offers the ability to pin applications to the taskbar and advances in touch and handwriting recognition, among other features.

2010: Apple unveils the iPad, changing the way consumers view media and jumpstarting the dormant tablet computer segment.

2011: Google releases the Chromebook, a laptop that runs the Google Chrome OS.

2012: Facebook gains 1 billion users on October 4.

2015: Apple releases the Apple Watch. Microsoft releases Windows 10.

2016: The first reprogrammable quantum computer was created. "Until now, there hasn't been any quantum-computing platform that had the capability to program new algorithms into their system. They're usually each tailored to attack a particular algorithm," said study lead author Shantanu Debnath, a quantum physicist and optical engineer at the University of Maryland, College Park.

2017: The Defense Advanced Research Projects Agency (DARPA) is developing a new "Molecular Informatics" program that uses molecules as computers. "Chemistry offers a rich set of properties that we may be able to harness for rapid, scalable information storage and processing," Anne Fischer, program manager in DARPA's Defense Sciences Office, said in a statement. "Millions of molecules exist, and each molecule has a unique three-dimensional atomic structure as well as variables such as shape, size, or even color. This richness provides a vast design space for exploring novel and multi-value ways to encode and process data beyond the 0s and 1s of current logic-based, digital architectures." [Computers of the Future May Be Minuscule Molecular Machines]

Additional reporting by Alina Bradford, Live Science contributor.


Computer history - 1951

The first business computer, the LEO (Lyons Electronic Office) is completed by T. Raymond Thompson, John Simmons, and their team at Lyons Co.

The first Ferranti MARK 1 or Manchester Electronic Computer was delivered to the Manchester University in February 1951.

The first ISO is published with the title, "Standard reference temperature for industrial length measurement."

The first tape drive introduced by Remington Rand in 1951 and could store 224 KB of data.

The Nimrod computer was displayed in 1951 at the Festival of Britain's Exhibition of Science.

Jay Forrester applies for a patent for magnetic-core memory, an early type of random access memory (RAM) on May 11, 1951.


The History of the Computers

Prehistoric man did not have the Internet, but it appears that he needed a way to count and make calculations. The limitations of the human body’s ten fingers and ten toes apparently caused early man to construct a tool to help with those calculations. Scientists now know that humankind invented an early form of computers. Their clue was a bone carved with prime numbers found in 8,500 BC.

The abacus was the next leap forward in computing between 1000 BC and 500 BD. This apparatus used a series of moveable beads or rocks. The positions changed to enter a number and again to perform mathematical operations. Leonardo DaVinci was credited with the invention of the world’s first mechanical calculator in 1500. In 1642, Blaise Pascal’s adding machine upstaged DaVinci’s marvel and moved computing forward again.

In 19 th century England, Charles Babbage, a mathematician, proposed the construction of a machine that he called the Babbage Difference Engine. It would not only calculate numbers, it would also be capable of printing mathematical tables. The Computer History Museum in Mountain View, CA (near San Diego) built a working replica from the original drawings. Visitors can see in the device in operation there. Unable to construct the actual device, he earned quite a few detractors among England’s literate citizens. However, Babbage made a place for himself in history as the father of computing. Not satisfied with the machines limitations, he drafted plans for the Babbage Analytical Engine. He intended for this computing device to use punch cards as the control mechanism for calculations. This feature would make it possible for his computer to use previously performed calculations in new ones.

Babbage’s idea caught the attention of Ada Byron Lovelace who had an undying passion for math. She also saw possibilities that the Analytical Machine could produce graphics and music. She helped Babbage move his project from idea to reality by documenting how the device would calculate Bernoulli numbers. She later received recognition for writing the world’s first computer program. The United States Department of Defense named a computer language in her honor in 1979.

The computers that followed built on each previous success and improved it. In 1943, the first programmable computer Turing COLOSSUSappeared. It was pressed into service to decipher World War II coded messages from Germany. ENIAC, the brain, was the first electronic computer, in 1946. In 1951, the U.S. Census Bureau became the first government agency to buy a computer, UNIVAC .

The Apple expanded the use of computers to consumers in 1977. The IBM PC for consumers followed closely in 1981, although IBM mainframes were in use by government and corporations.