Technische Informatik. Wahrscheinliche Durchbruchspunkte werden in den kommenden Jahrzehnten sein

    Bachelor
  • 09.03.01 Informatik und Technische Informatik
  • 09.03.02 Informationssysteme und Technologien
  • 09.03.03 Angewandte Informatik
  • 09.03.04 Softwareentwicklung

Die Zukunft der Branche

Die Informationstechnologie (IT) ist eine der am schnellsten wachsenden Branchen. Veränderungen in dieser Branche führen zu neuen Technologien und Praktiken für praktisch alle Wirtschaftszweige. Technik, Transport, Ressourcenmanagement, Marketing, Personalmanagement – ​​all diese und viele andere Bereiche verändern sich unter dem Einfluss der IT.

Im IT-Bereich laufen mehrere wichtige Prozesse ab. Erstens nimmt die Vernetzung der Welt durch Telekommunikationslösungen zu, das durch das Netzwerk übertragene Datenvolumen nimmt zu und es werden Lösungen für die Verarbeitung dieser Daten entwickelt. Zweitens, digitale Lösungen werden immer mobiler und immer „freundlicher“ für den Benutzer. Wenn heute fast jede Familie einen Computer hat und jede zweite ein Smartphone, dann wird in zehn Jahren jeder Stadtbewohner mindestens 5-6 Geräte am Körper tragen und miteinander verbinden. Zum Beispiel eine Augmented-Reality-Brille, ein biometrisches Armband für das Gesundheitswesen, ein Smartphone mit Smart-Wallet-Funktion usw. Drittens entstehen neue Umgebungen für Arbeit, Bildung und Freizeit der Menschen – virtuelle Welten für unterschiedlichste, auch basierte Zwecke zu Augmented-Reality-Technologien.

Innovationen in anderen Branchen entstehen an der Schnittstelle zur IT, daher gibt es eine Vielzahl branchenübergreifender Aufgaben für den Durchbruch. Dennoch haben die Entwicklung und Produktion von Hardware, Software (SW) und Sicherheitssystemen nach wie vor höchste Priorität in der IT-Branche. Eine vielversprechende Richtung ist die Gestaltung virtueller Räume und Schnittstellen zur Interaktion mit ihnen.

Berufe der Zukunft

  • Architekt Informationssysteme
  • Interface-Designer
  • Virtualitätsarchitekt
  • Designer virtueller Welten
  • Designer neuronaler Schnittstellen
  • Netzwerk-Anwalt
  • Online-Community-Organisator
  • IT-Prediger
  • Digitaler Linguist
  • BIG-DATA-Modellierer

Wahrscheinliche Durchbruchspunkte in den kommenden Jahrzehnten werden sein:

  • Zunahme der Menge der übertragenen Daten und Modelle für deren Verarbeitung (Big Data, Big Data);
  • Verbreitung von Software, die davon betroffen sein könnte regelmäßiger Benutzer;
  • Entwicklung von Mensch-Maschine-Schnittstellen;
  • Technologien künstliche Intelligenz;
  • semantische Systeme, die mit den Bedeutungen natürlicher Sprachen arbeiten (Übersetzung, Internetsuche, Mensch-Computer-Kommunikation usw.);
  • neue Quanten- und optische Computer, die die Verarbeitung großer Datenmengen erheblich beschleunigen können;
  • Entwicklung neuronaler Schnittstellen, einschließlich „Gedankenkontrolle“, verschiedener Objekte, Übertragung von Empfindungen und Erfahrungen aus der Ferne.

Das erste Gerät, das das Zählen erleichtern sollte, war der Abakus. Mit Hilfe der Kontenknochen war es möglich, Additions- und Subtraktionsoperationen sowie einfache Multiplikationen durchzuführen.

1642 – Der französische Mathematiker Blaise Pascal entwarf die erste mechanische Rechenmaschine, die „Pascaline“, die mechanische Additionen von Zahlen durchführen konnte.

1673 – Gottfried Wilhelm Leibniz entwarf eine Rechenmaschine, mit der man vier Rechenoperationen mechanisch durchführen konnte.

Erste Hälfte des 19. Jahrhunderts - Der englische Mathematiker Charles Babbage versuchte, ein universelles Rechengerät, also einen Computer, zu bauen. Babbage nannte es die Analytical Engine. Er stellte fest, dass ein Computer über Speicher verfügen und von einem Programm gesteuert werden sollte. Laut Babbage ist ein Computer ein mechanisches Gerät, dessen Programme mithilfe von Lochkarten eingestellt werden – Karten aus dickem Papier, auf denen durch Löcher Informationen angebracht sind (sie waren damals bereits in Webstühlen weit verbreitet).

1941 – Der deutsche Ingenieur Konrad Zuse baute auf der Grundlage mehrerer Computer einen kleinen Computer elektromechanische Relais.

1943 - In den USA entwickelte Howard Aiken in einem der IBM-Unternehmen einen Computer namens „Mark-1“. Es ermöglichte hunderte Male schnellere Berechnungen als manuell (mit einer Rechenmaschine) und wurde für militärische Berechnungen verwendet. Es nutzte eine Kombination aus elektrischen Signalen und mechanischen Aktoren. „Mark-1“ hatte Abmessungen: 15 * 2-5 m und enthielt 750.000 Teile. Die Maschine war in der Lage, zwei 32-Bit-Zahlen in 4 Sekunden zu multiplizieren.

1943 – In den USA begann eine Gruppe von Spezialisten unter der Leitung von John Mauchly und Prosper Eckert mit der Entwicklung des ENIAC-Computers auf Basis von Vakuumröhren.

1945 – Der Mathematiker John von Neumann war an der Arbeit an ENIAC beteiligt und erstellte einen Bericht über diesen Computer. In seinem Bericht formulierte von Neumann allgemeine Grundsätze die Funktionsweise von Computern, also universellen Rechengeräten. Bisher wurde die überwiegende Mehrheit der Computer nach den von John von Neumann dargelegten Prinzipien hergestellt.

1947 – Eckert und Mauchly beginnen mit der Entwicklung der ersten elektronischen Serienmaschine UNIVAC (Universal Automatic Computer). Das erste Modell der Maschine (UNIVAC-1) wurde für das US Census Bureau gebaut und im Frühjahr 1951 in Betrieb genommen. Der synchrone, sequentielle Computer UNIVAC-1 wurde auf Basis der ENIAC- und EDVAC-Computer erstellt. Sie arbeitete mit einer Taktfrequenz von 2,25 MHz und enthielt etwa 5000 Elektronenröhren. Auf 100 Quecksilberverzögerungsleitungen wurde ein internes Speichergerät mit einer Kapazität von 1000 12-Bit-Dezimalzahlen hergestellt.

1949 – Der englische Forscher Mournes Wilks baute den ersten Computer, der von Neumanns Prinzipien verkörpert.

1951 – J. Forrester veröffentlicht einen Artikel über die Verwendung von Magnetkernen zur Speicherung digitale Informationen, Die Whirlwind-1-Maschine war die erste, die einen Magnetkernspeicher verwendete. Es bestand aus 2 Würfeln mit 32-32-17 Kernen, die die Speicherung von 2048 Wörtern für 16-Bit-Binärzahlen mit einem Paritätsbit ermöglichten.

1952 – IBM bringt seinen ersten industriellen elektronischen Computer IBM 701 auf den Markt, einen synchronen Parallelcomputer mit 4.000 Vakuumröhren und 12.000 Dioden. Eine verbesserte Version der IBM 704-Maschine war anders schnelle Geschwindigkeit Bei der Arbeit wurden Indexregister verwendet und Daten in Gleitkommaform dargestellt.

Nach dem Computer IBM 704 erschien die Maschine IBM 709, die sich architektonisch den Maschinen der zweiten und dritten Generation annäherte. In dieser Maschine wurde erstmals die indirekte Adressierung verwendet und es erschienen erstmals Eingabe-Ausgabe-Kanäle.

1952 – Remington Rand bringt den Computer UNIVAC-t 103 auf den Markt, der als erster Software-Interrupts nutzte. Mitarbeiter von Remington Rand verwendeten eine algebraische Form des Schreibens von Algorithmen namens „Short Code“ (der erste Interpreter, der 1949 von John Mauchly entwickelt wurde).

1956 – Schwimmende Magnetköpfe auf einem Luftkissen wurden von IBM entwickelt. Ihre Erfindung ermöglichte die Schaffung einer neuen Art von Speicher – Plattenspeichergeräten (Speicher), deren Bedeutung in den folgenden Jahrzehnten der Entwicklung der Computertechnologie voll erkannt wurde. Die ersten Plattenspeicher erschienen in den IBM 305- und RAMAC-Maschinen. Letzterer verfügte über ein Paket bestehend aus 50 magnetisch beschichteten Metallscheiben, die mit einer Geschwindigkeit von 12.000 U/min rotierten. /Mindest Auf der Oberfläche der Diskette befanden sich 100 Spuren zur Aufzeichnung von Daten mit jeweils 10.000 Zeichen.

1956 – Ferranti bringt den Pegasus-Computer auf den Markt, in dem das Konzept der Register erstmals verkörpert wurde allgemeiner Zweck(RON). Mit dem Aufkommen von RON wurde die Unterscheidung zwischen Indexregistern und Akkumulatoren aufgehoben, und dem Programmierer standen nicht mehr ein, sondern mehrere Akkumulatorenregister zur Verfügung.

1957 – eine Gruppe unter der Leitung von D. Backus schloss die Arbeit an der ersten Programmiersprache ab hohes Level namens FORTRAN. Die erstmals auf dem IBM 704-Computer implementierte Sprache trug zur Erweiterung des Computerumfangs bei.

1960er Jahre - 2. Computergeneration, logische Elemente Computer werden auf Basis von Halbleiterbauelementen-Transistoren implementiert, es werden algorithmische Programmiersprachen wie Algol, Pascal und andere entwickelt.

1970er Jahre - Computer der 3. Generation, integrierte Schaltkreise mit Tausenden von Transistoren auf einer Halbleiterplatte. Betriebssystem, strukturelle Programmiersprachen wurden erstellt.

1974 – Mehrere Unternehmen kündigten die Entwicklung eines Personalcomputers auf Basis des Intel-8008-Mikroprozessors an – ein Gerät, das die gleichen Funktionen wie ein großer Computer ausführt, aber für einen Benutzer konzipiert ist.

1975 – der erste kommerziell vertriebene Personalcomputer Altair-8800 erschien auf Basis des Intel-8080-Mikroprozessors. Dieser Computer hatte nur 256 Byte RAM und weder Tastatur noch Bildschirm.

Ende 1975 – Paul Allen und Bill Gates (zukünftige Gründer). Microsoft) erstellte einen Basic-Sprachinterpreter für den Altair-Computer, der es Benutzern ermöglichte, einfach mit dem Computer zu kommunizieren und problemlos Programme dafür zu schreiben.

August 1981 – IBM stellt den IBM PC vor. Als Hauptmikroprozessor des Computers kam ein 16-Bit-Intel-8088-Mikroprozessor zum Einsatz, der das Arbeiten mit 1 Megabyte Speicher ermöglichte.

1980er Jahre - Computer der 4. Generation, basierend auf großen integrierten Schaltkreisen. Mikroprozessoren werden als Einzelchip in Massenproduktion verkauft persönliche Computer.

1990er Jahre — 5. Computergeneration, ultragroße integrierte Schaltkreise. Prozessoren enthalten Millionen von Transistoren. Die Entstehung des Globalen Computernetzwerke Massengebrauch.

2000er Jahre — 6. Computergeneration. Computerintegration und Haushaltsgeräte, eingebettete Computer, Entwicklung von Netzwerk-Computing.

Richtung „Informatik und Technische Informatik“- einer der stabilsten im Hinblick auf die hohe Nachfrage weltweit. Der Bedarf an Fachkräften im Bereich Programmierung, Informatik und Arbeit mit Computertechnik (Ingenieure und Techniker) begann bereits in den 90er Jahren zu wachsen, in den 2000er Jahren stieg er stetig an und ist bis heute anhaltend. Und es ist offensichtlich, dass diese Situation noch mehr als ein Jahrzehnt anhalten wird.

"Informatik und Technische Informatik" - Schlüsselgruppe Spezialgebiete in der Computerbranche. Software ist die Grundlage für den Betrieb sowohl traditioneller Personalcomputer als auch leistungsfähigerer Computer, die für wissenschaftliche Zwecke oder zur Sicherstellung des Betriebs großer Unternehmen konzipiert sind. Hochschulabsolventen mit einem Abschluss in Informatik und Ingenieurwesen arbeiten in Unternehmen wie Microsoft, Oracle, Symantec, Intel, IBM, HP, Apple. Aber wenn die oben aufgeführten Unternehmen zur sogenannten „alten Garde“ gehören, dann arbeiten gute Programmierer heute auch in Unternehmen wie Google, Facebook, Amazon, PayPal, eBay, Twitter usw.

Absolventinnen und Absolventen eines Bachelor- oder Masterstudiums der Fachrichtung „Informatik und Technische Technische Informatik“ können Stellen in folgenden Bereichen besetzen:

  • Softwareentwicklung: Dazu gehören Systemanalytiker, Programmierer und Entwickler. Während der Ausbildung wird viel Wert auf das Studium von Programmiersprachen wie C++, Java usw. gelegt. Es ist wichtig zu verstehen, dass solche Spezialisten auch nach ihrem Abschluss ständig Auffrischungskurse absolvieren müssen, um mit neuen Trends und Veränderungen in den Programmiersprachen Schritt zu halten;
  • Software-Engineering (bzw Software Informatik und automatisierte Systeme) - dazu gehört eine komplexere Entwicklung Softwareprodukte an der Kreuzung Computertechnologie, Ingenieurwesen, Mathematik, Gestaltung und Organisation der Teamarbeit;
  • Qualitätskontrolle und Prüfung;
  • Entwicklung technischer Dokumentation;
  • technischer Support;
  • große Datenbankverwaltung;
  • Webdesign;
  • Projektmanagement;
  • Marketing und Vertrieb.

In den letzten Jahrzehnten hat die Welt rasant neue Technologien erworben und es werden immer mehr Spezialisten auf dem Gebiet der Informatik und Computertechnologie benötigt. Absolventen haben Karrieremöglichkeiten als Softwareentwickler, Webdesigner, Videospielentwickler, Systemanalytiker, Datenbankmanager und Netzwerkadministratoren.

Eine weitere Spezialrichtung ist die direkte Arbeit mit Computern, Komplexen, Systemen und Netzwerken. Dies ist ein bedeutender Teilsektor der Computerindustrie. Ingenieure und Techniker erlernen den Umgang mit Hardware, also bei der Herstellung von Geräten und Computern, sowie einer Vielzahl von Geräten wie Druckern, Scannern usw.
Die Computerentwicklung beginnt in den Forschungs- und Entwicklungsabteilungen großer Unternehmen. Ingenieurteams (Mechanik, Elektronik, Elektrik, Fertigung, Programmierung) arbeiten zusammen, um Komponenten zu entwickeln, zu testen und herzustellen. Ein separater Bereich ist die Marktforschung und die Produktion des Endprodukts. In diesem Bereich besteht der größte Mangel an qualifizierten Fachkräften, die sich mit Programmierung, Robotik, Automatisierung usw. auskennen.

Wenn diese Spezialitäten jedoch eher den für diesen Bereich traditionellen Berufen zuzuordnen sind, erfreuen sich heute eine Reihe von Berufen immer größerer Beliebtheit, die es vor etwa 10 bis 15 Jahren einfach noch nicht gab.

  • Entwicklung Benutzeroberfläche: Diese Spezialisten werden in Unternehmen wie Electronic Arts, Apple, Microsoft und anderen benötigt, die sich mit der Entwicklung von Videospielen befassen. mobile Anwendungen usw.
  • Cloud Computing: Viele Unternehmen, darunter Google, Amazon, AT&T und Microsoft, benötigen Fachkräfte wie Cloud-Softwareentwickler, Cloud-Netzwerkingenieure und Cloud-Produktmanager.
  • Verarbeitung und Analyse großer Datenbanken: Big-Data-Verarbeiter können in den unterschiedlichsten Unternehmen arbeiten – im Wirtschafts- und Finanzsektor, im E-Commerce, öffentliche Einrichtungen, medizinische Organisationen, Telekommunikation usw.
  • Robotik: Diese Fachkräfte sind in großen Industrieunternehmen gefragt, beispielsweise im Maschinenbau (insbesondere in der Automobil- und Flugzeugindustrie).

Zu den Universitäten, die eine Ausbildung im Bereich „Informatik und Computertechnik“ anbieten, gehören: die Staatliche Technische Universität Moskau. N.E. Bauman, MEPhI, MIREA, MESI, MTUCI, NRU HSE, MPEI, MAI, MAMI, MIET, MISiS, MADI, MATI, LETI, Polytech (St. Petersburg) und viele andere.

Kommunizieren Sie persönlich mit Hochschulvertretern

Wie Sie sehen, gibt es in diesem Fachgebiet viele Universitäten und Programme. Daher ist es einfacher und schneller, eine Wahl zu treffen, indem Sie die kostenlose Ausstellung „Master- und Zusatzausbildung“ in oder besuchen.

Sobald jemand das Konzept der „Menge“ entdeckte, begann er sofort mit der Auswahl von Werkzeugen, die das Zählen optimieren und erleichtern. Heutzutage verarbeiten, speichern und übertragen superstarke Computer, die auf den Prinzipien mathematischer Berechnungen basieren, Informationen – die wichtigste Ressource und Motor des menschlichen Fortschritts. Es ist nicht schwer, sich ein Bild davon zu machen, wie die Entwicklung der Computertechnologie ablief, wenn man kurz die Hauptphasen dieses Prozesses betrachtet.

Die wichtigsten Etappen in der Entwicklung der Computertechnologie

Die beliebteste Klassifizierung schlägt vor, die Hauptstadien in der Entwicklung der Computertechnologie in chronologischer Reihenfolge herauszugreifen:

  • Manuelle Bühne. Es begann zu Beginn der menschlichen Epoche und dauerte bis zur Mitte des 17. Jahrhunderts. In dieser Zeit entstanden die Grundlagen des Kontos. Später, mit der Bildung von Positionszahlensystemen, erschienen Geräte (Abakus, Abakus und später - ein Rechenschieber), die das Rechnen nach Ziffern ermöglichten.
  • mechanische Bühne. Sie begann Mitte des 17. Jahrhunderts und dauerte fast bis zum Ende des 19. Jahrhunderts. Der Entwicklungsstand der Wissenschaft in dieser Zeit ermöglichte die Entwicklung mechanischer Geräte, die die Hauptaufgaben erfüllen Rechenoperationen und automatisches Speichern höherer Ziffern.
  • Die elektromechanische Bühne ist die kürzeste von allen, die die Geschichte der Entwicklung der Computertechnologie vereint. Es dauerte nur etwa 60 Jahre. Dies ist die Lücke zwischen der Erfindung des ersten Tabulators im Jahr 1887 und dem Erscheinen des allerersten Computers (ENIAC) im Jahr 1946. Neue Maschinen, die auf einem elektrischen Antrieb und einem elektrischen Relais basierten, ermöglichten es, Berechnungen viel schneller und genauer durchzuführen, der Zählvorgang musste jedoch immer noch von einer Person gesteuert werden.
  • Die elektronische Bühne begann in der zweiten Hälfte des letzten Jahrhunderts und dauert bis heute an. Dies ist die Geschichte von sechs Generationen elektronischer Computer – von den allerersten Rieseneinheiten, die darauf basierten elektronische Lampen, und zu superstarken modernen Supercomputern mit einer großen Anzahl paralleler Prozessoren, die viele Anweisungen gleichzeitig ausführen können.

Die Entwicklungsstadien der Computertechnik werden eher bedingt nach dem chronologischen Prinzip eingeteilt. Zu einer Zeit, als einige Computertypen verwendet wurden, wurden die Voraussetzungen für die Entstehung der folgenden aktiv geschaffen.

Die allerersten Zählgeräte

Das früheste Zählwerkzeug, das die Geschichte der Entwicklung der Computertechnologie kennt, sind zehn Finger an den Händen eines Menschen. Die Zählergebnisse wurden zunächst mit Hilfe von Fingern, Kerben in Holz und Stein, speziellen Stöcken und Knoten erfasst.

Mit dem Aufkommen der Schrift entstand und entwickelte sich verschiedene Wege Aufzeichnungen von Zahlen, Positionszahlensysteme wurden erfunden (dezimal - in Indien, sexagesimal - in Babylon).

Etwa im 4. Jahrhundert v. Chr. begannen die alten Griechen mit dem Abakus zu zählen. Ursprünglich handelte es sich um eine flache Tontafel, auf die mit einem scharfen Gegenstand Streifen aufgetragen wurden. Die Zählung erfolgte, indem kleine Steine ​​oder andere kleine Gegenstände in einer bestimmten Reihenfolge auf diese Streifen gelegt wurden.

In China erschien im 4. Jahrhundert n. Chr. ein siebenzackiger Abakus – Suanpan (Suanpan). Auf einen rechteckigen Holzrahmen wurden Drähte oder Seile gespannt – ab neun Stück. Ein weiterer Draht (Seil), der senkrecht zu den anderen gespannt war, teilte den Suanpan in zwei ungleiche Teile. Im größeren Fach, „Erde“ genannt, waren fünf Knochen an Drähten aufgereiht, im kleineren – „Himmel“ – waren es zwei davon. Jeder der Drähte entsprach einer Dezimalstelle.

Der traditionelle Soroban-Abakus erfreute sich in Japan ab dem 16. Jahrhundert großer Beliebtheit, da er aus China dorthin gelangte. Zur gleichen Zeit erschien in Russland der Abakus.

Im 17. Jahrhundert erfand der Engländer Edmond Gunther auf der Grundlage der vom schottischen Mathematiker John Napier entdeckten Logarithmen den Rechenschieber. Dieses Gerät wurde ständig verbessert und hat bis heute überlebt. Es ermöglicht Ihnen, Zahlen zu multiplizieren und zu dividieren, zu potenzieren, Logarithmen und trigonometrische Funktionen zu bestimmen.

Der Rechenschieber ist zu einem Gerät geworden, das die Entwicklung der Computertechnologie auf der manuellen (vormechanischen) Stufe abschließt.

Die ersten mechanischen Rechenmaschinen

Im Jahr 1623 entwickelte der deutsche Wissenschaftler Wilhelm Schickard den ersten mechanischen „Rechner“, den er Zähluhr nannte. Der Mechanismus dieses Geräts ähnelte einer gewöhnlichen Uhr, bestehend aus Zahnrädern und Sternen. Diese Erfindung wurde jedoch erst Mitte des letzten Jahrhunderts bekannt.

Ein qualitativer Sprung auf dem Gebiet der Computertechnologie war die Erfindung der Pascaline-Addiermaschine im Jahr 1642. Sein Schöpfer, der französische Mathematiker Blaise Pascal, begann mit der Arbeit an diesem Gerät, als er noch nicht einmal 20 Jahre alt war. „Pascalina“ war ein mechanisches Gerät in Form eines Kastens mit einer großen Anzahl miteinander verbundener Zahnräder. Die zu addierenden Zahlen wurden durch Drehen spezieller Räder in die Maschine eingegeben.

Im Jahr 1673 erfand der sächsische Mathematiker und Philosoph Gottfried von Leibniz eine Maschine, die vier grundlegende mathematische Operationen ausführte und in der Lage war, die Quadratwurzel zu ziehen. Das Funktionsprinzip basierte auf dem vom Wissenschaftler speziell erfundenen binären Zahlensystem.

Im Jahr 1818 erfand der Franzose Charles (Carl) Xavier Thomas de Colmar, basierend auf den Ideen von Leibniz, eine Additionsmaschine, die multiplizieren und dividieren kann. Und zwei Jahre später machte sich der Engländer Charles Babbage daran, eine Maschine zu entwerfen, die Berechnungen mit einer Genauigkeit von bis zu 20 Dezimalstellen durchführen konnte. Dieses Projekt blieb unvollendet, aber 1830 entwickelte sein Autor ein weiteres – eine Analysemaschine zur Durchführung genauer wissenschaftlicher und technischer Berechnungen. Es sollte die Maschine programmgesteuert steuern und für die Ein- und Ausgabe von Informationen sollten Lochkarten mit unterschiedlicher Lochanordnung verwendet werden. Babbages Projekt sah die Entwicklung der elektronischen Computertechnologie und der Aufgaben vor, die mit ihrer Hilfe gelöst werden könnten.

Es ist bemerkenswert, dass der Ruhm des ersten Programmierers der Welt einer Frau zusteht – Lady Ada Lovelace (geb. Byron). Sie war es, die die ersten Programme für Babbages Computer erstellte. Eine der Computersprachen wurde später nach ihr benannt.

Entwicklung der ersten Analoga eines Computers

Im Jahr 1887 trat die Geschichte der Entwicklung der Computertechnologie in eine neue Phase ein. Dem amerikanischen Ingenieur Herman Gollerith (Hollerith) gelang es, den ersten elektromechanischen Computer zu entwerfen – den Tabulator. In seinem Mechanismus befanden sich ein Relais sowie Zähler und eine spezielle Sortierbox. Das Gerät las und sortierte statistische Aufzeichnungen auf Lochkarten. Das von Gollerith gegründete Unternehmen wurde später zum Rückgrat des weltberühmten Computergiganten IBM.

1930 entwickelte der Amerikaner Vannovar Bush einen Differentialanalysator. Es wurde mit Strom betrieben und zur Datenspeicherung dienten elektronische Röhren. Diese Maschine war in der Lage, schnell Lösungen für komplexe mathematische Probleme zu finden.

Sechs Jahre später entwickelte der englische Wissenschaftler Alan Turing das Konzept der Maschine, das daraus wurde theoretische Basis für aktuelle Computer. Sie verfügte über alle wesentlichen Eigenschaften einer modernen Computertechnologie: Sie konnte Schritt für Schritt Vorgänge ausführen, die im internen Speicher programmiert waren.

Ein Jahr später erfand George Stibitz, ein US-amerikanischer Wissenschaftler, das erste elektromechanische Gerät des Landes, das eine binäre Addition durchführen konnte. Seine Handlungen basierten auf der Booleschen Algebra – mathematische Logik, Mitte des 19. Jahrhunderts von George Boole geschaffen: using logische Operatoren UND, ODER und NICHT. Später wurde der binäre Addierer ein integraler Bestandteil des Digitalrechners.

Im Jahr 1938 skizzierte ein Mitarbeiter der University of Massachusetts, Claude Shannon, die Prinzipien der logischen Struktur eines Computers Stromkreise zur Lösung von Problemen der Booleschen Algebra.

Beginn des Computerzeitalters

Die Regierungen der am Zweiten Weltkrieg beteiligten Länder waren sich der strategischen Rolle von Computern bei der Führung von Feindseligkeiten bewusst. Dies war der Anstoß für die Entwicklung und parallele Entstehung der ersten Computergeneration in diesen Ländern.

Konrad Zuse, ein deutscher Ingenieur, wurde ein Pionier auf dem Gebiet der Computertechnik. 1941 entwickelte er den ersten programmgesteuerten automatischen Computer. Die Z3 genannte Maschine war um Telefonrelais herum aufgebaut und die Programme dafür waren auf perforiertem Band kodiert. Dieses Gerät konnte funktionieren binäres System, sowie mit Gleitkommazahlen arbeiten.

Zuses Z4 wurde offiziell als erster wirklich funktionierender programmierbarer Computer anerkannt. Er ging auch als Schöpfer der ersten höheren Programmiersprache namens Plankalkul in die Geschichte ein.

Im Jahr 1942 entwickelten die amerikanischen Forscher John Atanasoff (Atanasoff) und Clifford Berry ein Computergerät, das mit Vakuumröhren arbeitete. Die Maschine wurde auch verwendet Binärcode, könnte eine Reihe logischer Operationen ausführen.

Im Jahr 1943 wurde in einer Atmosphäre der Geheimhaltung im britischen Regierungslabor der erste Computer namens „Colossus“ gebaut. Anstelle elektromechanischer Relais wurden 2.000 Elektronenröhren zur Speicherung und Verarbeitung von Informationen eingesetzt. Ziel war es, den Code geheimer Nachrichten zu knacken und zu entschlüsseln, die von der deutschen Chiffriermaschine Enigma, die in der Wehrmacht weit verbreitet war, übermittelt wurden. Die Existenz dieses Geräts ist lange Zeit wurde streng vertraulich behandelt. Nach Kriegsende wurde der Befehl zur Zerstörung persönlich von Winston Churchill unterzeichnet.

Architekturentwicklung

Im Jahr 1945 schuf John (Janos Lajos) von Neumann, ein amerikanischer Mathematiker ungarisch-deutscher Herkunft, einen Prototyp der Architektur moderner Computer. Er schlug vor, das Programm in Form von Code direkt in den Speicher der Maschine zu schreiben, was die gemeinsame Speicherung von Programmen und Daten im Speicher des Computers implizierte.

Die Von-Neumann-Architektur bildete die Grundlage des ersten Universalismus elektronischer Computer- ENIAC. Dieser Riese wog etwa 30 Tonnen und lag bei 170 Quadratmeter Bereich. Am Betrieb der Maschine waren 18.000 Lampen beteiligt. Dieser Computer könnte in einer Sekunde 300 Multiplikationen oder 5.000 Additionen durchführen.

Der erste universell programmierbare Computer in Europa wurde 1950 in der Sowjetunion (Ukraine) entwickelt. Eine Gruppe Kiewer Wissenschaftler unter der Leitung von Sergei Alexejewitsch Lebedew entwarf eine kleine elektronische Rechenmaschine (MESM). Seine Geschwindigkeit betrug 50 Operationen pro Sekunde, es enthielt etwa 6.000 Vakuumröhren.

Im Jahr 1952 wurde die heimische Computertechnologie durch BESM ergänzt – eine große elektronische Rechenmaschine, die ebenfalls unter der Leitung von Lebedev entwickelt wurde. Dieser Computer, der bis zu 10.000 Operationen pro Sekunde ausführte, war damals der schnellste in Europa. Informationen wurden per Lochstreifen in den Speicher des Geräts eingegeben, Daten per Fotodruck ausgegeben.

Im gleichen Zeitraum wurde in der UdSSR eine Reihe großer Computer unter dem allgemeinen Namen „Strela“ hergestellt (der Autor der Entwicklung war Yuri Yakovlevich Bazilevsky). Seit 1954 begann in Pensa unter der Leitung von Bashir Rameev die Serienproduktion des Universalcomputers „Ural“. Neueste Modelle Da Hardware und Software miteinander kompatibel waren, gab es eine große Auswahl an Peripheriegeräten, mit denen sich Maschinen unterschiedlicher Konfiguration zusammenstellen ließen.

Transistoren. Veröffentlichung der ersten serienmäßig hergestellten Computer

Allerdings fielen die Lampen sehr schnell aus, was das Arbeiten mit der Maschine sehr erschwerte. Der 1947 erfundene Transistor konnte dieses Problem lösen. Sie nutzte die elektrischen Eigenschaften von Halbleitern und erfüllte die gleichen Aufgaben wie Vakuumröhren, nahm jedoch ein viel kleineres Volumen ein und verbrauchte nicht so viel Energie. Zusammen mit dem Aufkommen von Ferritkernen zur Organisation des Computerspeichers ermöglichte der Einsatz von Transistoren eine deutliche Reduzierung der Maschinengröße und machte sie noch zuverlässiger und schneller.

1954 begann das amerikanische Unternehmen Texas Instruments mit der Massenproduktion von Transistoren, und zwei Jahre später erschien in Massachusetts der erste auf Transistoren basierende Computer der zweiten Generation, der TX-O.

Mitte des letzten Jahrhunderts nutzte ein erheblicher Teil der Regierungsorganisationen und großen Unternehmen Computer für wissenschaftliche, finanzielle und technische Berechnungen sowie für die Arbeit mit großen Datenmengen. Nach und nach erwarben Computer Funktionen, die wir heute kennen. In dieser Zeit erschienen Diagrammplotter, Drucker, Informationsträger auf Magnetplatten und Bändern.

Der aktive Einsatz der Computertechnologie hat zu einer Erweiterung ihrer Anwendungsbereiche geführt und die Entwicklung neuer Softwaretechnologien erforderlich gemacht. Es sind höhere Programmiersprachen erschienen, mit denen Sie Programme von einer Maschine auf eine andere übertragen und das Schreiben von Code vereinfachen können (Fortran, Cobol und andere). Es sind spezielle Übersetzerprogramme aufgetaucht, die den Code dieser Sprachen in Befehle umwandeln, die von der Maschine direkt wahrgenommen werden.

Das Aufkommen integrierter Schaltkreise

In den Jahren 1958-1960 wurde die Welt dank der Ingenieure aus den USA, Robert Noyce und Jack Kilby, auf die Existenz integrierter Schaltkreise aufmerksam. Auf Basis eines Silizium- oder Germaniumkristalls wurden Miniaturtransistoren und andere Bauteile montiert, teilweise bis zu Hunderten und Tausenden. Mikroschaltungen mit einer Größe von etwas mehr als einem Zentimeter waren viel schneller als Transistoren und verbrauchten viel weniger Strom. Mit ihrem Erscheinen verbindet sich die Entwicklungsgeschichte der Computertechnik mit der Entstehung der dritten Computergeneration.

1964 brachte IBM den ersten Computer der SYSTEM 360-Familie auf den Markt, der auf integrierten Schaltkreisen basierte. Seitdem kann mit der Massenproduktion von Computern gerechnet werden. Insgesamt wurden mehr als 20.000 Exemplare dieses Computers hergestellt.

1972 wurde in der UdSSR der ES-Computer (Single Series) entwickelt. Dabei handelte es sich um standardisierte Komplexe für den Betrieb von Rechenzentren, die über gemeinsames System Befehle. Als Basis diente das amerikanische System IBM 360.

Im folgenden Jahr veröffentlichte DEC den Minicomputer PDP-8, das erste kommerzielle Projekt in diesem Bereich. Die relativ geringen Kosten von Minicomputern machten es auch kleinen Organisationen möglich, sie zu nutzen.

Im gleichen Zeitraum wurde die Software ständig verbessert. Betriebssysteme wurden entwickelt, um die maximale Anzahl von zu unterstützen Externe Geräte neue Programme erschienen. Im Jahr 1964 wurde BASIC entwickelt – eine Sprache, die speziell für die Ausbildung von Programmieranfängern entwickelt wurde. Fünf Jahre später erschien Pascal, das sich zur Lösung vieler angewandter Probleme als sehr praktisch erwies.

Persönliche Computer

Nach 1970 begann die Veröffentlichung der vierten Computergeneration. Die Entwicklung der Computertechnologie ist zu dieser Zeit durch die Einführung großer integrierter Schaltkreise in die Computerproduktion gekennzeichnet. Solche Maschinen konnten nun Tausende Millionen Rechenoperationen in einer Sekunde ausführen, und die Kapazität ihres Arbeitsspeichers stieg auf 500 Millionen Bits. Eine deutliche Reduzierung der Kosten für Mikrocomputer hat dazu geführt, dass der Durchschnittsbürger nach und nach die Möglichkeit hat, sie zu kaufen.

Apple war einer der ersten Hersteller von Personalcomputern. Steve Jobs und Steve Wozniak, der ihn entwickelt hat, entwarfen 1976 den ersten PC und nannten ihn Apple I. Er kostete nur 500 US-Dollar. Ein Jahr später wurde das nächste Modell dieses Unternehmens, der Apple II, vorgestellt.

Der Computer dieser Zeit wurde zum ersten Mal ähnlich Haushaltsgerät A: Zusätzlich zu seiner kompakten Größe verfügt es über ein elegantes Design und eine benutzerfreundliche Oberfläche. Die Verbreitung von Personalcomputern Ende der 1970er Jahre führte dazu, dass die Nachfrage nach Großrechnern deutlich zurückging. Diese Tatsache beunruhigte den Hersteller IBM ernsthaft und brachte 1979 seinen ersten PC auf den Markt.

Zwei Jahre später erschien der erste Mikrocomputer mit offener Architektur des Unternehmens, der auf dem 16-Bit-Mikroprozessor 8088 von Intel basierte. Der Computer war mit einem monochromen Display, zwei Laufwerken für 5-Zoll-Disketten, RAM 64 Kilobyte. Im Auftrag des Herstellerunternehmens hat Microsoft speziell für diese Maschine ein Betriebssystem entwickelt. Zahlreiche Klone des IBM-PCs erschienen auf dem Markt, was das Wachstum der industriellen Produktion von Personalcomputern beflügelte.

Im Jahr 1984 von Apple wurde entwickelt und veröffentlicht Neuer Computer- Macintosh. Sein operationssystem war außerordentlich benutzerfreundlich: Es stellte Befehle in Form von grafischen Bildern dar und ermöglichte die Eingabe mit dem Manipulator – der Maus. Dadurch wurde der Computer noch zugänglicher, da vom Benutzer keine besonderen Fähigkeiten erforderlich waren.

Computer der fünften Generation der Computertechnik, einige Quellen stammen aus den Jahren 1992–2013. Kurz gesagt, ihr Hauptkonzept lautet wie folgt: Hierbei handelt es sich um Computer, die auf der Grundlage superkomplexer Mikroprozessoren mit einer Parallelvektorstruktur erstellt wurden, die es ermöglicht, Dutzende von in das Programm eingebetteten sequentiellen Befehlen gleichzeitig auszuführen. Maschinen mit mehreren hundert parallel laufenden Prozessoren ermöglichen eine noch präzisere und schnellere Verarbeitung von Daten sowie den Aufbau effizienter Netzwerke.

Die Entwicklung moderner Computertechnologie lässt uns bereits von Computern der sechsten Generation sprechen. Hierbei handelt es sich um elektronische und optoelektronische Computer, die auf Zehntausenden von Mikroprozessoren laufen, sich durch massive Parallelität auszeichnen und die Architektur neuronaler biologischer Systeme simulieren, wodurch sie komplexe Bilder erfolgreich erkennen können.

Nach konsequenter Betrachtung aller Entwicklungsstadien der Computertechnologie ist darauf hinzuweisen interessante Tatsache: Erfindungen, die sich auf jedem von ihnen bewährt haben, haben bis heute überlebt und werden weiterhin mit Erfolg eingesetzt.

Computerkurse

Es gibt verschiedene Möglichkeiten, Computer zu klassifizieren.

Je nach Zweck werden Computer also unterteilt:

  • zu universell – diejenigen, die in der Lage sind, eine Vielzahl mathematischer, wirtschaftlicher, technischer, wissenschaftlicher und anderer Probleme zu lösen;
  • problemorientiert - Lösung von Problemen einer engeren Richtung, die normalerweise mit der Verwaltung bestimmter Prozesse verbunden sind (Datenregistrierung, Akkumulation und Verarbeitung kleiner Informationsmengen, Berechnungen nach einfachen Algorithmen). Sie verfügen über begrenztere Software- und Hardwareressourcen als die erste Gruppe von Computern;
  • Spezialrechner lösen in der Regel streng definierte Aufgaben. Sie verfügen über eine hochspezialisierte Struktur und sind bei relativ geringer Geräte- und Steuerungskomplexität auf ihrem Gebiet recht zuverlässig und produktiv. Dabei handelt es sich beispielsweise um Controller oder Adapter, die mehrere Geräte steuern, aber auch um programmierbare Mikroprozessoren.

Nach Größe und Produktionskapazität werden moderne elektronische Computergeräte unterteilt in:

  • auf supergroßen (Supercomputern);
  • große Computer;
  • kleine Computer;
  • ultraklein (Mikrocomputer).

So haben wir gesehen, dass Geräte, die zunächst vom Menschen erfunden wurden, um Ressourcen und Werte zu erfassen und dann schnell und genau komplexe Berechnungen und Rechenoperationen durchzuführen, ständig weiterentwickelt und verbessert wurden.