Geschichte der Informatik

Ohne Computer funktioniert in der modernen Welt nichts mehr. Sie steuern unseren Alltag, erleichtern uns die Arbeit, ermöglichen weltweite Kommunikation und sind aus Wissenschaft, Technik und Freizeit nicht mehr wegzudenken. Ob im Smartphone, in Autos, in Krankenhäusern oder sogar in Haushaltsgeräten, überall sind Computer in unterschiedlichsten Formen.

Doch wo liegen die Wurzeln dieses technischen Fortschritts? Wie hat sich die Informatik von riesigen Rechenhilfen bis hin zu hochentwickelten, aber kleinen und intelligenten Systemen entwickelt?

Im folgenden Zeitstrahl werden die wichtigsten Meilensteine der Informatik und der Computerentwicklung beschrieben und erklärt. Er zeigt, wie aus ersten theoretischen Überlegungen, mechanischen Rechenmaschinen und den ersten elektronischen Computern die heutigen fast universell einsetzbaren und leistungsfähigen Geräte geworden sind, die heute überall verbreitet sind.

1705

binäres Zahlensystem

Gottfried Wilhelm Leibniz beschreibt das binäre Zahlensystem, das die Grundlage für alle heutigen Compter bildet.

1705
1820er

mechanische Rechner

Charles Babbage beginnt mit der Entwicklung seiner Rechenmaschienen, unter anderem die Analytical Engine.

1820er
1830er

erste Programmiersprache

Ada Lovelace, eine mit Babbage arbeitende Mathematikerin, schrieb 1843 das erste Computerprogramm – einen Algorithmus zur Berechnung von Bernoulli-Zahlen für die Analytical Engine. Sie erkannte, dass Maschinen nicht nur Zahlen berechnen, sondern auch komplexe Aufgaben wie das Bearbeiten von Symbolen und das Verarbeiten von „Daten“ durchführen könnten.

1830er
1930er -1940er

Z1 bis Z3 und Turing Maschine

Der deutsche Ingenieur Konrad Zuse entwickelte die ersten funktionierenden Computer. Die Z1 (1936) war eine mechanische Rechenmaschine, während die Z3 (1941) als erster voll funktionsfähiger, programmierbarer Computer gilt. Sie konnte auf Lochstreifen gespeicherte Programme ausführen und die vier Grundrechenarten sowie Quadratwurzelberechnungen durchführen. Die erste höhere Programmiersprache (Plankalkül) wurde von Zuse entwickelt.

Parallel entwickelte Alan Turing die Turing-Maschine, ein abstraktes Modell eines Rechners, das als Grundlage für die Theorie der Berechenbarkeit und der Informatik diente. Er zeigte, dass jede berechenbare Funktion von einer Turing-Maschine durchgeführt werden kann – eine Entdeckung, die zur Entwicklung der theoretischen Informatik führte.

1930er -1940er
1944

Der Havard Mark I

Der Havard Mark I von Howard Aiken wird mit Unterstützung von IBM fertiggestellt. Es ist ein großer elektromechanischer Rechner.

1944
1945

Die Architektur moderner Computer

John von Neumann entwarf die Von-Neumann-Architektur, ein Modell für Computer, das bis heute die Grundlage der meisten modernen Rechner bildet. In dieser Architektur werden sowohl Programmbefehle als auch Daten im gleichen Speicher abgelegt, was es ermöglicht, Computerprogramme vor der Ausführung in den Arbeitsspeicher zu laden.
Umsetzung findet dieses Konzept im EDVAC, einen der ersten voll elektrischen Computer.

1945
1946

Der ENIAC

Der 1946 fertiggestellte ENIAC war ebenfalls einer der ersten elektronischen Universalcomputer. Er diente vor allem der US-Armee. Seine Rechengeschwindigkeit war im Vergleich zu mechanischen Geräten deutlich höher.

1946
1950er

Programmiersprachen und Compiler

Ende der 1950er Jahre wurden Compiler entwickelt, die es ermöglichten, Programme in höheren Programmiersprachen wie Fortran, COBOL, ALGOL und LISP automatisch in Maschinensprache zu übersetzen.

1950er
1970er

Die ersten Personal Computer

… tragen zur Popularisierung von Computern bei.

1970er
1991

Das WWW

Das World Wide Web (WWW) wurde 1989 von Tim Berners-Lee am CERN entwickelt, um den einfachen Austausch von Forschungsinformationen zu ermöglichen. Im Jahr 1993 wurde die Technologie vom CERN für die Öffentlichkeit freigegeben – der Beginn seiner globalen Verbreitung. Das WWW revolutionierte die Art und Weise, wie wir auf Informationen zugreifen und kommunizieren, indem es ein riesiges, verlinktes Netzwerk von Webseiten schuf.

1991
21. Jahrhundert

Künstliche Intelligenz

Der Begriff Künstliche Intelligenz entstand 1956 auf einer Konferenz, was die Anfänge der KI-Forschung markiert. Nach einer Phase der geringeren Aufmerksamkeit erlebte KI dank verbesserter Rechenleistung und maschinellem Lernen ab den 2000er-Jahren eine Renaissance. Heute ist KI mit Anwendungen wie Sprachassistenten und autonomen Fahrzeugen präsent wie nie zuvor.

21. Jahrhundert

Quellen

Geheimnisse der digitalen Revolution 1/6 Der Traum der klugen Maschine: https://www.youtube.com/watch?v=7HZjYws6ReI [05.09.2025]

https://de.wikipedia.org/wiki/ENIAC?wprov=sfti1# [05.09.2025]

https://de.wikipedia.org/wiki/World_Wide_Web?wprov=sfti1 [05.09.2025]
https://coda.io/d/Abi-27-Info-GK_dvc4IwQw0_9/Ideengeschichte_suR34ONo#_luB3PcTF. [05.09.2025]

Bildquellen

Von Christoph Bernhard Francke – Herzog Anton Ulrich-Museum, online, Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=53159699
Von Autor/-in unbekannt – U.S. Army Photo, Gemeinfrei, https://commons.wikimedia.org/w/index.php?curid=55124

error:
Nach oben scrollen