Was ist die Hauptfunktion der hierarchischen Speicherstruktur? Zusammenfassung: Speicherhierarchie, Caching. Allgemeine Klassifizierung von Software

Der Speicher ist einer der Computerblöcke, der aus Speichergeräten (Speicher) besteht und zum Speichern, Speichern und Ausgeben von Informationen (Datenverarbeitungsalgorithmus und die Daten selbst) bestimmt ist.

Die Hauptmerkmale einzelner Speicher sind Speicherkapazität, Geschwindigkeit und Kosten für die Speicherung einer Informationseinheit (Bit).

Die Speicherleistung (Latenz) wird durch die Zugriffszeit und die Speicherzykluszeit bestimmt. Die Zugriffszeit ist das Zeitintervall zwischen der Ausgabe einer Leseanforderung und dem Zeitpunkt, an dem das angeforderte Wort aus dem Speicher eintrifft. Die Speicherzykluslänge wird durch die Mindestzeit zwischen zwei aufeinanderfolgenden Speicherzugriffen bestimmt.

Die Anforderungen an die Erhöhung der Kapazität und Geschwindigkeit des Speichers sowie an die Reduzierung seiner Kosten sind widersprüchlich: Je höher die Geschwindigkeit, desto technisch schwieriger ist sie zu erreichen und desto teurer ist die Erhöhung der Speicherkapazität.

Wie die meisten Computergeräte hat der Speicher eine hierarchische Struktur. Ein verallgemeinertes Modell einer solchen Struktur, das die Vielfalt der Speichergeräte und deren Interaktion widerspiegelt, ist in Abb. dargestellt. 36. Alle Speichergeräte haben unterschiedliche Geschwindigkeiten und Kapazitäten. Je höher die Hierarchieebene, desto höher ist die Geschwindigkeit des entsprechenden Speichers, desto geringer ist jedoch seine Kapazität.

Die höchste Ebene – superoperativ – umfasst Register der Steuer- und Betriebseinheiten des Prozessors, Super-RAM, Steuerspeicher, Pufferspeicher (Cache-Speicher).

Auf der zweiten Betriebsebene befindet sich der Arbeitsspeicher (Random Access Memory, RAM), der zur Speicherung aktiver Programme und Daten dient, also derjenigen Programme und Daten, mit denen der Computer arbeitet.

Die nächstniedrigere externe Schicht beherbergt den externen Speicher.

Reis. 36. Hierarchische Speicherstruktur

Der lokale Speicher (Prozessorregisterspeicher) ist Teil der CPU (Register der Steuer- und Betriebseinheiten des Prozessors) und dient der vorübergehenden Speicherung von Informationen. Es hat eine geringe Kapazität und die höchste Geschwindigkeit. Ein solcher Speicher basiert auf Allzweckregistern, die strukturell mit dem Computerprozessor verbunden sind. Dieser Speichertyp wird zum Speichern von Steuer- und Servicecodes sowie von Informationen verwendet, auf die der Prozessor bei der Ausführung eines Programms am häufigsten zugreift.

In einer Computerarchitektur ist der Registerspeicher manchmal in Form eines Superoperationsspeichers mit direkter Adressierung organisiert. In diesem Speicher werden vom Prozessor benötigte Operanden, Daten und Dienstinformationen gespeichert.

Der Steuerspeicher dient zum Speichern von Mikroprogrammen zur Prozessorsteuerung und wird in Form eines Nur-Lese-Speichers (ROM) oder eines programmierbaren Nur-Lese-Speichers (PROM) implementiert. In Systemen mit einer mikroprogrammierten Methode der Informationsverarbeitung wird das UE zum Speichern einmal aufgezeichneter Mikroprogramme, Steuerprogramme und Konstanten verwendet.

Funktional gesehen wird Cache-Speicher als Pufferspeicher betrachtet, der zwischen dem Hauptspeicher (RAM) und dem Prozessor liegt. Der Hauptzweck des Cache-Speichers ist die kurzfristige Speicherung und Übermittlung aktiver Informationen an den Prozessor, wodurch die Anzahl der Zugriffe auf den Hauptspeicher reduziert wird, der mit einer geringeren Geschwindigkeit als der Cache-Speicher arbeitet. Der Cache-Speicher ist nicht per Software zugänglich. Bei modernen Computern wird zwischen First- und Second-Level-Caches unterschieden. Der L1-Cache ist in die Befehls- und Daten-Prefetch-Einheit der CPU integriert und wird typischerweise zum Speichern der am häufigsten verwendeten Befehle verwendet. Der Second-Level-Cache dient als Puffer zwischen dem RAM und dem Prozessor. In einigen Computern gibt es einen Cache-Speicher, getrennt für Anweisungen und getrennt für Daten.

Direktzugriffsspeicher (RAM) werden zum Speichern von Informationen verwendet, die direkt am Rechenprozess beteiligt sind. Codes und Operanden werden vom RAM an den Prozessor gesendet, auf dem die vom Programm angegebenen Operationen ausgeführt werden; Zwischen- und Endergebnisse der Informationsverarbeitung werden vom Prozessor zur Speicherung an den RAM gesendet.

Externer Speicher (EMS) wird verwendet, um große Informationsmengen über einen längeren Zeitraum zu speichern. Normalerweise hat ein VnP keine direkte Verbindung mit dem Prozessor. Die verwendeten Medien sind Magnetplatten (flexibel und hart), Laserplatten usw.

Die relativ geringe Kapazität des Arbeitsspeichers (8 - 64 MB) wird durch die praktisch unbegrenzte Kapazität externer Speichergeräte ausgeglichen. Allerdings sind diese Geräte relativ langsam – die Datenzugriffszeit für Magnetplatten beträgt mehrere zehn Mikrosekunden. Zum Vergleich: Der Zugriffszyklus auf den Arbeitsspeicher (RAM) beträgt 50 ns. Auf dieser Grundlage sollte der Berechnungsprozess mit möglichst wenigen Aufrufen des erfolgen Externer Speicher.

). Bedeutet, dass Verschiedene Arten Erinnerungen bilden eine Hierarchie, auf deren verschiedenen Ebenen sich Erinnerungen mit unterschiedlichen Zugriffszeiten, Komplexität, Kosten und Volumen befinden. Die Möglichkeit, eine Speicherhierarchie aufzubauen, beruht auf der Tatsache, dass die meisten Algorithmen in jedem Zeitintervall auf einen kleinen Datensatz zugreifen, der in einem schnelleren, aber teuren und daher kleinen Speicher abgelegt werden kann (siehe en: Referenzort). Die Verwendung eines schnelleren Speichers erhöht die Leistung des Computersystems. Unter Speicher versteht man in diesem Fall ein Datenspeichergerät (Speichergerät) im Rechen- oder Computerspeicher.

Beim Entwurf von Hochleistungscomputern und -systemen müssen viele Kompromisse eingegangen werden, beispielsweise hinsichtlich Größe und Technologie für jede Ebene der Hierarchie. Sie können eine Reihe verschiedener Speicher (m 1 ,m 2 ,…,m n) betrachten, die sich in der Hierarchie befinden, d. h. jede m i-Ebene ist sozusagen der m i-1-Ebene der Hierarchie untergeordnet. Um die Wartezeit noch weiter zu verkürzen hohe Levels Untere Ebenen können Daten in großen Teilen durch Pufferung aufbereiten und bei vollem Puffer der oberen Ebene die Möglichkeit des Datenempfangs signalisieren.

Es gibt oft 4 Haupthierarchieebenen (erweiterte Ebenen):

  1. Interner Prozessorspeicher (Register organisiert in der Registerdatei und im Prozessor-Cache).
  2. System-RAM (RAM) und Zusatzspeicherkarten.
  3. Laufwerke mit „Hot“-Zugriff (Online-Massenspeicher) – oder sekundärer Computerspeicher. Festplatten und Solid-State-Laufwerke, die keine langen Aktionen (Sekunden oder mehr) erfordern, um mit dem Datenempfang zu beginnen
  4. Laufwerke, die einen Medienwechsel (Offline-Massenspeicher) oder Tertiärspeicher erfordern. Dazu gehören Magnetbänder, Band- und Plattenbibliotheken, die ein langwieriges Zurückspulen oder einen mechanischen (oder manuellen) Wechsel der Speichermedien erfordern.

Speicherhierarchie in modernen PCs

Die meisten modernen PCs berücksichtigen die folgende Speicherhierarchie:

  1. Am häufigsten sind es Prozessorregister, die in einer Registerdatei organisiert sind schneller Zugriff(ca. 1 Taktzyklus), aber nur wenige Hundert oder selten Tausende Bytes groß.
  2. Prozessor-Cache-Ebene 1 (L1) – die Zugriffszeit liegt in der Größenordnung von mehreren Taktzyklen und ist mehrere zehn Kilobyte groß
  3. Prozessor-Cache-Level 2 (L2) – längere Zugriffszeit (2 bis 10 Mal langsamer als L1), etwa ein halbes Megabyte oder mehr
  4. Prozessor-Cache Level 3 (L3) – die Zugriffszeit beträgt etwa hundert Taktzyklen, mehrere Megabyte groß (wird neuerdings in Massenprozessoren verwendet)
  5. System-RAM – Zugriffszeit von Hunderten bis vielleicht Tausenden von Zyklen, aber enorme Größen von mehreren Gigabyte bis hin zu Dutzenden. Bei NUMA-Klassenkomplexen (mit ungleichmäßigem Speicherzugriff) kann die RAM-Zugriffszeit für verschiedene Teile davon variieren.
  6. Festplattenspeicher – viele Millionen Zyklen, wenn die Daten nicht vorab zwischengespeichert oder gepuffert wurden, Größen bis zu mehreren Terabyte
  7. Tertiärer Speicher – Verzögerungen bis zu mehreren Sekunden oder Minuten, aber praktisch unbegrenzte Volumina (Bandbibliotheken).

Die meisten Programmierer gehen normalerweise davon aus, dass der Speicher in zwei Ebenen unterteilt ist: RAM und Festplattenlaufwerke, obwohl es in Assemblersprachen und Assembler-kompatiblen Sprachen (wie z. B. ) möglich ist, direkt mit Registern zu arbeiten. Die Nutzung der Speicherhierarchie erfordert die Zusammenarbeit zwischen dem Programmierer, der Hardware und den Compilern (sowie grundlegende Unterstützung in Betriebssystem):

  • Programmierer sind dafür verantwortlich, Datenübertragungen zwischen Festplatten und Speicher (RAM) mithilfe von Datei-E/A zu organisieren; Moderne Betriebssysteme implementieren dies auch als Paging.
  • Die Hardware ist für die Organisation der Datenübertragung zwischen Speicher und Caches verantwortlich.
  • Optimierende Compiler sind für die Generierung von Code verantwortlich, der es der Hardware ermöglicht, die Register und den Cache des Prozessors effizient zu nutzen.

Viele Programmierer berücksichtigen beim Programmieren nicht den mehrstufigen Speicher. Dieser Ansatz funktioniert so lange, bis die Anwendung aufgrund unzureichender Speicherwandleistung einen Leistungsabfall erfährt. Bei der Korrektur des Codes (Refactoring) ist es notwendig, das Vorhandensein und die Funktionsweise der oberen Ebenen der Speicherhierarchie zu berücksichtigen, um die höchste Leistung zu erzielen.

Literatur

  • Mikhail Guk „IBM PC Hardware“ St. Petersburg 1998

Anmerkungen


Wikimedia-Stiftung. 2010.

Sehen Sie in anderen Wörterbüchern, was „Speicherhierarchie“ ist:

    Speicherhierarchie- - Telekommunikationsthemen, Grundkonzepte EN Speicherhierarchie...

    Das Konzept des Aufbaus einer Beziehung zwischen Klassen unterschiedlicher Computerspeicherebenen basierend auf einer hierarchischen Struktur. Hierarchie des RAM, implementiert in einem prozessorbasierten Computersystem ... Wikipedia

    - (Speichergeräte) in der Informatik. Technologie (siehe Elektronischer Computer) Geräte zum Aufzeichnen, Speichern und Wiedergeben von Informationen. Als Informationsträger kann eine natürliche Person fungieren. Signal, das sich in einem Medium ausbreitet... Physische Enzyklopädie

    Dieser Begriff hat andere Bedeutungen, siehe Gerarchia. Hierarchie (von anderen griechischen ἱεραρχία, von ἱερός „heilig“ und ἀρχή „Herrschaft“) die Reihenfolge der Unterordnung niedrigerer Glieder unter höhere, ihre Organisation in einer baumartigen Struktur; Managementprinzip in ... Wikipedia

    Teil des Speichermanagers Computer Programm(sowohl Anwendung als auch Betriebssystem), Verarbeitung von Anfragen zum Zuweisen und Freigeben von RAM oder (für einige Computerarchitekturen) Anfragen zum Aktivieren eines bestimmten Speicherbereichs ... Wikipedia

    Ein Diagramm, das den Platz der Mikroarchitekturebene in der mehrstufigen Struktur eines Computers veranschaulicht. In der Computertechnik... Wikipedia

    Controller-Architektur Leitfaden für technische Übersetzer

    Controller-Architektur- Die Controller-Architektur ist die Gesamtheit ihrer Hauptkomponenten und der Verbindungen zwischen ihnen. Eine typische SPS umfasst einen zentralen Prozessor, Speicher, Netzwerkschnittstellen und Eingabe-/Ausgabegeräte. Typisch... ... Leitfaden für technische Übersetzer

    - << Intel 80486 >> Zentraleinheit... Wikipedia

    Dieser Artikel wird zur Löschung vorgeschlagen. Eine Erläuterung der Gründe und die entsprechende Diskussion finden Sie auf der Wikipedia-Seite: Zu löschen / 24. Dezember 2012. Während der Prozess diskutiert wird ... Wikipedia

Bücher

  • Vorträge zur Geschichte der Alten Kirche. In 4 Bänden (Anzahl der Bände: 4), Wassili V. V. Bolotov. Professor V. V. Bolotov (1854-1900) ist ein herausragender orthodoxer Kirchenhistoriker, ein Mann mit enzyklopädischem Wissen, der die antike Klassik und eine Reihe europäischer Sprachen hervorragend beherrschte Sprachen; studiert...
  • Informatik Einführung in die Informatik, Korolev L., Mikov A.. Das Lehrbuch diskutiert im Detail mathematisches Konzept Algorithmen, rekursive Algorithmen und rekursive Datenstrukturen, Sortier- und Suchalgorithmen. Die Grundlagen der Komplexitätstheorie werden erläutert...

Die Dezentralisierung des Managements beinhaltet hierarchische Organisation isierung der Rechnerstruktur . Das Steuergerät des Haupt- bzw. Zentralprozessors bestimmt lediglich den Arbeitsablauf der Slave-Module und deren Initialisierung, danach arbeiten diese nach ihren eigenen Steuerprogrammen weiter. Die Ergebnisse der Durchführung der erforderlichen Vorgänge werden von ihnen „hierarchisch nach oben“ präsentiert, um die korrekte Koordination aller Arbeiten zu gewährleisten.

Slave-Module (Controller, Adapter, KVV) können wiederum genutzt werden Spezialreifen oder Autobahnen zum Informationsaustausch. Standardisierung und Vereinheitlichung führten zur Entstehung einer Reifenhierarchie und ihrer Spezialisierung. Aufgrund unterschiedlicher Arbeitsgeschwindigkeiten einzelner Geräte und PC-Strukturen kam es zu folgenden Problemen:

    Systembus – für die Interaktion der Hauptgeräte;

    lokaler Bus – um den Videodatenaustausch zu beschleunigen;

    Peripheriebus – zum Anschluss „langsamer“ Peripheriegeräte.

Hierarchisches Konstruktions- und Verwaltungsprinzip charakteristisch nicht nur für die Computerstruktur als Ganzes, sondern auch für ihre einzelnen Subsysteme. Beispielsweise wird ein Computerspeichersystem nach dem gleichen Prinzip aufgebaut.

Das Prinzip der Speicherhierarchie

Es wird empfohlen, dass der Benutzer über einen Computer mit RAM, großer Informationskapazität und hoher Geschwindigkeit verfügt. Ein Single-Level-Speicherdesign ermöglicht es jedoch nicht, diese beiden widersprüchlichen Anforderungen gleichzeitig zu erfüllen. Daher ist der Speicher moderner Computer nach einem mehrstufigen Pyramidenprinzip aufgebaut.

Die Prozessoren können enthalten Super-Random-Access-Speicher kleine Kapazität, bestehend aus mehreren zehn oder mehreren hundert Registern mit einer schnellen Zugriffszeit von einem Prozessorzyklus (Nanosekunden, ns). Hier werden in der Regel Daten gespeichert, die direkt zur Verarbeitung dienen.

Es entsteht die nächste Ebene Cache-Speicher , oder Notizblockspeicher , Dabei handelt es sich um ein Pufferspeichergerät zum Speichern aktiver Seiten mit einem Volumen von mehreren zehn und mehreren Hundert Kilobyte. Bei modernen PCs wiederum ist er unterteilt in: L1-Cache (E p = 16-32 KB bei einer Zugriffszeit von 1-2 Prozessorzyklen); zum L2-Cache (E p = 128-512 KB bei einer Zugriffszeit von 3-5 Taktzyklen) und sogar zum L3-Cache (E p = 2-4 MB bei einer Zugriffszeit von 8-10 Taktzyklen). Da der Cache-Speicher schneller ist, soll er das Abrufen von Programmbefehlen und verarbeiteten Daten beschleunigen. Hier ist eine assoziative Datenerfassung möglich. Der Hauptumfang der Benutzerprogramme und Daten dafür befindet sich im Arbeitsspeicher (Kapazität – Millionen Maschinenwörter, Abtastzeit – 10–20 Prozessorzyklen).

Einige der konstanten Daten, die das Betriebssystem zur Verwaltung von Berechnungen benötigt und die am häufigsten verwendet werden, sind in zu finden permanentes Speichergerät(ROM). Auf niedrigeren Ebenen der Hierarchie befinden sich externe Speichergeräte auf magnetischen Medien. Sie können auf Festplatten und Floppy-Magnetplatten, Magnetbändern, magnetooptischen Platten usw. implementiert werden. Sie zeichnen sich durch niedrige Geschwindigkeit und sehr große Kapazität aus.

Die Organisation des Vorabaustauschs von Informationsflüssen zwischen Speichergeräten auf verschiedenen Ebenen mit ihrer dezentralen Verwaltung ermöglicht es uns, die Speicherhierarchie als einen abstrakten einzelnen scheinbaren (virtuellen) Speicher zu betrachten. Unter der Kontrolle von Betriebssystemprogrammen wird ein koordinierter Betrieb aller Ebenen sichergestellt. Aus diesem Grund übersteigt die verwendete Speichermenge die des RAM deutlich.

PC-Speicher ist eine Ansammlung einzelner Geräte, die Informationen speichern, speichern und bereitstellen. Einzelne Geräte Erinnerungen werden aufgerufen Speichergeräte (ZU). Die PC-Leistung hängt weitgehend von der Zusammensetzung und den Eigenschaften der Speichergeräte ab, die sich wiederum in ihrem Funktionsprinzip und Zweck unterscheiden. Die Hauptspeicheroperationen sind Prozeduren Aufzeichnungen Und Lektüre(Proben) . Der allgemeine Name dieser Verfahren heißt Zugriff auf den Speicher. Die Hauptmerkmale des Gedächtnisses sind Kapazität Und Leistung(Speicherzugriffszeit).

Die Speicherkapazität wird in Bytes (1 Byte = 8 Bits), Kilobytes (1 KB = 2 10 Bytes), Megabytes (1 MB = 2 10 KB), Gigabytes (1 GB = 2 10 MB) und Terabytes (1 TB = 2) gemessen 10 GB).

Die Leistung wird in Sekunden gemessen und liegt derzeit zwischen 10 – 2 und 10 – 9 Sekunden, abhängig von der Methode des Informationszugriffs.

Nach Zugriffsmethode Je nach den darin gespeicherten Informationen werden die Speicher unterteilt in: Speicher mit wahlfreiem Zugriff; Direktzugriffsspeicher; Speicher mit seriellem Zugriff.

IN Arbeitsspeicher Die Zugriffszeit ist unabhängig vom Speicherort der Daten. Dieser Zugriff wird in Registern implementiert allgemeiner Zweck, Cache-Speicher und interner PC-Speicher.

Speichermedium in Direktzugriffsspeicher rotiert kontinuierlich, sodass die Daten nach einem festgelegten Zeitraum verfügbar sind. Der Speicher mit direktem Zugriff umfasst HDD, NMHD, GCD.

Serieller Speicher Bevor es die notwendigen Daten findet, „durchsucht“ es alle bisherigen Speicherbereiche. Der sequentielle Zugriff wird in Speichergeräten implementiert, die Magnetbänder verwenden, beispielsweise in Bandlaufwerken.

Dabei ist zu beachten, dass sich die Anforderungen an Speicherkapazität und Geschwindigkeit aus Sicht der technischen Umsetzung widersprechen. Für eine effektive Funktion in einem PC ist der Speicher daher nach einem hierarchischen Prinzip aufgebaut, wobei sich auf verschiedenen Ebenen der Hierarchie Speichergeräte befinden unterschiedliche Eigenschaften. Die hierarchische Struktur des PC-Speichers ist in Abbildung 1 dargestellt.

Beim Übergang von der 1. zur 3. Hierarchieebene nimmt die Geschwindigkeit des Speichers ab und die Kapazität zu.

Hierarchische Organisation Speicher ermöglicht es Ihnen, die PC-Leistung zu steigern und dem Benutzer praktisch unbegrenzte Speicherkapazität zur Verfügung zu stellen.

Der Zweck und die Hauptmerkmale des Speichers der 1. Ebene wurden in Vorlesung 3 beschrieben. Betrachten wir die 2. und 3. Ebene der PC-Speicherhierarchie.

Externer Speicher bezieht sich auf externe PC-Geräte und dient der langfristigen Speicherung aller Informationen, die zur Lösung von Problemen benötigt werden. Externe Speicher enthalten verschiedene Arten von Speichergeräten, aber die gängigsten, die auf fast jedem Computer verfügbar sind, sind HDD, HDD und GCD. Diese Laufwerke sind für die Speicherung großer Informationsmengen, die Aufzeichnung und die Ausgabe gespeicherter Informationen auf Anfrage in einem Direktzugriffsspeichergerät konzipiert.

Festplatte- Festplatte) umgangssprachlich auch „Winchester“ genannt. Im Gegensatz zu RAM garantieren Festplatten Langzeitlagerung Informationen, die nicht erforderlich sind ständiges Essen Computer von einer externen Stromquelle. Zum Schreiben von Daten Festplatte Es wird eine Magnetschicht verwendet. Es umfasst die Festplatten, die sich in der Festplatte mit enormer Geschwindigkeit drehen. Schreib-/Leseköpfe bewegen sich entlang der Datenträger. Die Hauptmerkmale moderner Festplatten sind: Kapazität (bis zu 1 TB); Anzahl der Teller (bis zu 5); Anzahl der Köpfe (10 Köpfe); durchschnittliche Informationssuchzeit (weniger als 10 ms); Scheibenrotationsgeschwindigkeit (bis zu 10.000 U/min); Gewicht (weniger als 100 g). Die wichtigsten Hersteller von Festplatten sind IBM, Seegate, Toshiba, Fujitsu, Samsung.

FDD- Diskettenlaufwerk) ist ein Lese-/Schreibgerät für Wechseldisketten ( Disketten, Disketten). Bisher wurden Magnetplatten in zwei Größen verwendet: 5,25 Zoll (133 mm) und 3,5 Zoll (89 mm). Die ersten sind schon lange verschwunden und 3,5-Zoll-Festplatten werden nur noch für die Übertragung relativ kleiner (1,44 MB) Informationsmengen zwischen Computern verwendet. Daten auf Disketten werden ähnlich gespeichert wie Daten auf einer Festplatte, mit der einzigen Ausnahme, dass sich die Diskette im Diskettenlaufwerk deutlich langsamer dreht und nur eine Diskette vorhanden ist. Aufgrund unzureichender Abdichtung versagen Disketten am häufigsten. Somit ist die Diskette als Speichermedium äußerst unzuverlässig und wird immer seltener genutzt.

GCD sind derzeit die zuverlässigsten und am weitesten verbreiteten externen Speichergeräte. Das Lesen von Informationen von einer optischen Platte erfolgt durch das Aufzeichnen von Änderungen in der Intensität der von der Aluminiumschicht reflektierten Laserstrahlung geringer Leistung.

GCD sind unterteilt in: CD-ROM (kompakt Rabatt Lesen Nur Erinnerung) - Die CD ist schreibgeschützt; CD-R (kompakt Rabatt Aufnehmbar – Einmal beschreibbare CD; CD-RW (kompakt Rabatt wiederbeschreibbar)- wiederbeschreibbare CD; DVD(Digital Vielseitig Festplatte - universelle digitale Festplatte .

Eine herkömmliche optische Disc hat eine Kapazität von etwa 650-800 MB, eine DVD-Disc hat eine Kapazität von bis zu 17 GB.

DVD-Disc Sie hat die gleichen Abmessungen wie eine normale optische CD und fasst eine extrem große Menge an Informationen – von 4,7 bis 17 GB. Derzeit wird die DVD nur in zwei Bereichen verwendet: zum Speichern von Videofilmen (DVD-Video oder einfach DVD) und extrem großen Datenbanken (DVD-ROM, DVD-R). Im Gegensatz zu CD-ROM, DVDs werden beidseitig erfasst. Darüber hinaus können auf jeder Seite eine oder zwei Informationsebenen aufgebracht werden. So haben einseitige Single-Layer-Discs eine Kapazität von 4,7 GB (sie werden oft als DVD-5 bezeichnet, d. h. Discs mit einer Kapazität von etwa 5 GB), doppelseitige Single-Layer - 9,4 GB (DVD-10), einseitiger Double-Layer – 8,5 GB (DVD-9) und doppelseitiger Double-Layer – 17 GB (DVD-18). Abhängig von der Menge der zu speichernden Daten wird der Typ der DVD-Disc ausgewählt. Wenn wir reden über Bei Filmen enthalten doppelseitige Discs oft zwei Versionen desselben Films – eine im Breitbildformat, die andere im klassischen Fernsehformat.

Archivspeicher Ein PC ist für die langfristige und zuverlässige Speicherung von Programmen und Daten konzipiert. Wie aus Abbildung 2.3 ersichtlich ist, können Informationen gespeichert werden auf Disketten optische Datenträger, Wechselfestplatten, Magnetband und Flash-Speicher. Da oben die ersten drei Speichermedien beschrieben wurden und sich eine Wechselfestplatte nicht grundsätzlich von einer normalen Festplatte unterscheidet, beachten wir die wichtigsten Eigenschaften des Flash-Speichers.

Flash-Speicher ist ein spezieller Typ eines nichtflüchtigen, wiederbeschreibbaren Halbleiterspeichers. Das bedeutet, dass es keine zusätzliche Energie zum Speichern von Daten benötigt (Energie wird nur zum Schreiben benötigt), das Ändern (Überschreiben) der darin gespeicherten Daten ermöglicht, keine mechanisch beweglichen Teile enthält (wie herkömmliche Festplatten oder GCDs) und gebaut ist auf integrierten Schaltkreisen.

Auf dem Flash-Speicher aufgezeichnete Informationen können sehr gut gespeichert werden lange Zeit(mehrere Jahre) und ist in der Lage, erheblichen mechanischen Belastungen standzuhalten (5-10-mal höher als das für herkömmliche Festplatten zulässige Maximum).

Der Hauptvorteil von Flash-Speichern gegenüber herkömmlichen Laufwerken besteht darin, dass Flash-Speicher im Betrieb deutlich (etwa 10-20-mal oder mehr) weniger Energie verbrauchen. In HDD, HDD, GCD, Kassetten und anderen mechanischen Speichermedien, b Ö Der größte Teil der Energie wird für den Antrieb der Mechanik dieser Geräte aufgewendet. Darüber hinaus ist Flash-Speicher kompakter als die meisten anderen mechanischen Medien.

Die Größe von Flash-Speichermedien reicht von 20 bis 40 mm Länge, Breite und Dicke bis zu 3 mm, die Kapazität erreicht 1 GB, je nach Art des Flash-Speichers können Informationen 10.000 bis 1 Million Mal überschrieben werden.

Aufgrund seines geringen Stromverbrauchs, seiner Kompaktheit, Langlebigkeit und relativ hohen Leistung eignet sich Flash-Speicher ideal für den Einsatz als Speicher nicht nur in PCs, sondern auch in solchen tragbare Geräte, wie digitale Foto- und Videokameras, Handys, Laptop-Computer, MP3-Player, digitale Diktiergeräte usw. In den kommenden Jahren wird der Flash-Speicher das am weitesten verbreitete kompakte Speichergerät sein und nach und nach die herkömmlichen Disketten ersetzen.

Der Speicher moderner Computer ist nach einem hierarchischen Prinzip aufgebaut. Eines der für von Neumann-Computer charakteristischen Phänomene ist das Lokalitätsprinzip. Dies bedeutet, dass jedes ausführende Programm über einen begrenzten Zeitraum nicht gleichmäßig auf alle seine Daten und Anweisungen zugreift, sondern tendenziell auf einen begrenzten Teil seines Adressraums zugreift. Eine solche Situation entsteht beispielsweise bei wissenschaftlichen und technischen Berechnungen beim Lösen von Gleichungen, wenn kleine Codeabschnitte ausgeführt werden, die eine große Anzahl verschachtelter Schleifen und Unterprogramme enthalten, und mit deren Hilfe immer mehr relativ kleine Datenabschnitte unter häufiger Bezugnahme auf verarbeitet werden Zwischenergebnisse. Daraus folgt, dass Speicher nach einem hierarchischen Prinzip aufgebaut werden kann, um die Leistung zu steigern, ohne die Kosten wesentlich zu erhöhen. Dabei gibt es mehrere Ebenen der Speicherhierarchie mit unterschiedlichen Volumina und Zugriffszeiten. Die Informationen werden zur Speicherung entsprechend ihrer Wichtigkeit, der Häufigkeit des Zugriffs und der „Dringlichkeit“ des Dienstes an sie verteilt. Jede Ebene der Hierarchie zeichnet sich durch einen bestimmten Aufwand für die Speicherung eines Bytes (Wortes) und die Geschwindigkeit des Abrufs eines Bytes (Wortes) oder eines Blocks aus mehreren Bytes (Wörtern) aus.

Typischerweise wird die Interaktion innerhalb einer Speicherhierarchie zwischen zwei benachbarten Ebenen betrachtet.

Wir nennen die minimale Informationseinheit, die auf einer der beiden interagierenden Ebenen in der Hierarchie entweder vorhanden oder nicht vorhanden sein kann, einen Block. Die Blockgröße kann entweder fest oder variabel sein. Wenn diese Größe fest ist, beträgt die Speichergröße ein Vielfaches der Blockgröße.

Beim Zugriff auf jede Ebene der Hierarchie sind zwei Ergebnisse möglich. Entweder befindet sich der gewünschte Block auf der angeforderten Ebene (Hit) oder er fehlt (Miss) und Sie müssen zur nächsten Ebene der Hierarchie wechseln, die eine langsamere Abtastgeschwindigkeit aufweist. Die Effizienz des Datenspeichermechanismus kann durch die Trefferquote beschrieben werden. Der Mechanismus zum Organisieren jeder Ebene der Hierarchie muss die Möglichkeit bieten, jeden Block von mehr zu platzieren niedriges Niveau Hierarchie. Daher ist ein assoziativer Mechanismus erforderlich, um einen Block von einer niedrigeren Hierarchieebene auf eine höhere abzubilden.

Die Speicherhierarchie in einem Computer ist in Abb. dargestellt. 17. Die Speicherkapazität wächst in der Abbildung von oben nach unten, die Kosten für die Speicherung eines Bytes (Worts) und die Geschwindigkeit für den Zugriff auf ein Byte (Wort) wachsen von unten nach oben.

Am meisten Höchststufe Hierarchie - Registerspeicher. Die Kapazität des Registerspeichers überschreitet normalerweise nicht mehrere Dutzend (manchmal Hunderte) Bytes oder Wörter. Physikalisch befindet sich der Registerspeicher direkt im Zentralprozessor, sodass die Speicherzugriffszeit minimal ist und die Dauer eines Prozessorzyklus nicht überschreitet. Wie bereits erwähnt, speichert der Registerspeicher die wichtigsten Betriebsdaten, beispielsweise die Adressen der aktuell verarbeiteten Speicherzellen, Schleifenzähler und Operanden der aktuell ausgeführten arithmetischen Operationen.


Massen-RAM hat eine Kapazität von mehreren zehn Kilobyte bis zu mehreren hundert Megabyte. Aufgrund einer Reihe technologischer Merkmale wächst die Geschwindigkeit des RAM-Zugriffs viel langsamer als die Geschwindigkeit von Zentralprozessoren und normalerweise liegt die Zugriffszeit zwischen 5 und 15 Prozessorzyklen. Um den Informationsabruf zwischen Hauptspeicher und zu beschleunigen zentraler Prozessor Es wird eine weitere Hierarchieebene eingeführt – Zwischenspeicher, Direktzugriffsspeicher oder Cache-Speicher. Das aus dem Englischen übersetzte Wort Cache bedeutet Cache, geheimes Lagerhaus, versteckte Reserve. Dieser Begriff bedeutet, dass der Cache-Speicher unsichtbar und für den Zentralprozessor transparent ist. Der Cache-Speicher wird vom Cache-Controller gesteuert. Es untersucht den Zugriff der CPU auf den Hauptspeicher und ermittelt, ob die erforderlichen Daten im Cache gespeichert sind (Cache-Hit) und daher daraus gelesen werden können oder nicht (Cache-Miss) und daher auf den langsameren Hauptspeicher zugreifen müssen Erinnerung. Die Zugriffsgeschwindigkeit einer Cache-Speicherzelle kann zwischen 3 und 7 Prozessorzyklen liegen. Der Cache-Speicher wiederum kann nach einem hierarchischen Prinzip implementiert sein, d. h. kann in mehrere Ebenen unterteilt werden:

· First-Level-Cache, mehrere Kilobyte groß mit einer Zugriffszeit von 2-3 Taktzyklen, direkt im Prozessor eingebaut;

· Cache der zweiten Ebene mit einer Zugriffszeit von 3-5 Taktzyklen und einem Volumen von mehreren zehn Kilobyte, der sich auf derselben Platine wie der Zentralprozessor befindet;

· Third-Level-Cache mit einer Zugriffszeit von 5-7 Zyklen und einem Volumen von mehreren hundert Kilobyte pro Hauptplatine, Mainboard, Motherboard usw.

Später in diesem Abschnitt werden wir auf die Diskussion des Cache-Speichers zurückkommen und uns seine Funktionsweise genauer ansehen.

Die unterste Ebene der Speicherhierarchie ist der große externe Speicher. Sein Volumen ist um mehrere Größenordnungen größer als die Kapazität des Haupt-RAMs. Der Prozessor ist nicht in der Lage, schnell auf Daten im externen Speicher zuzugreifen und muss diese zur Verarbeitung in den Hauptspeicher übertragen. RAM und externer Speicher bilden zusammen den sogenannten virtuellen Speicher.

Kurzgeschichte Computertechnologie und Schöpfung Software ermöglichte es Computerentwicklern, eine wichtige Schlussfolgerung zu ziehen: auf dem Computer verfügbar physikalischer Speicher reicht nie aus, um die Bedürfnisse des Programmierers zu erfüllen . Computer liefern RAM Eine große Größe ist aus wirtschaftlichen Gründen unrentabel. Das Bewusstsein dieser Tatsache führte zu der Idee, sich zu organisieren virtueller Speicher . Virtuell bezeichnet eine abstrakte Ressource, die physisch nicht existiert, sondern mit verfügbaren technischen Mitteln modelliert wird.

In einem System mit virtuellem Speicher „glauben“ Programme, dass ihnen ein ziemlich großer Adressraum zur Verfügung gestellt wurde (der einem Programm oder einer Gruppe von Programmen zur Verfügung gestellte Speicherplatz kann die Menge des im Computer verfügbaren physischen Speichers erheblich übersteigen). In diesem Fall ist der Arbeitsbereich in Blöcke unterteilt – Seiten (typische Seitengröße beträgt 2–4 KB). Für die auszuführende Aufgabe relevante Seiten befinden sich teilweise im Hochgeschwindigkeitsspeicher, teilweise auf einem langsameren und günstigeren Speichergerät. Der virtuelle Speichermanager überwacht Speicherzugriffe und wenn sich die erforderliche Seite nicht im physischen Speicher befindet, tritt ein Interrupt auf. Der Interrupt-Handler ruft auf externes Gerät um die fehlende Seite zu lesen, woraufhin die Anweisung, die den Interrupt verursacht hat, erneut wiederholt wird. Somit „bemerkt“ das Anwendungsprogramm nicht, dass seine Seite im Speicher fehlt. Da bei fehlenden Seiten regelmäßig auf den externen Speicher zugegriffen werden muss, verringert sich natürlich die Geschwindigkeit der Programmausführung. Diese Geschwindigkeitsreduzierung ist ein „notwendiges Übel“ – ein Preis für die Größe des verfügbaren Adressraums. Entwickler virtuell adressierbarer Prozessoren bieten verschiedene Möglichkeiten, um den Verlangsamungseffekt zu minimieren.

Virtuelle Speichersysteme können in zwei Klassen eingeteilt werden: Systeme mit festen Blockgrößen, sogenannte Seiten, und Systeme mit variablen Blockgrößen, sogenannte Segmente. Beide Arten der Organisation des virtuellen Speichers werden im Folgenden erläutert.