Welches Gerät tastet den Ton ab. Computer-Soundsystem. Einige Audio-Digitalisierungsformate im Vergleich

PC-Soundsystem als Soundkarte erschien 1989 und erweiterte die Möglichkeiten des PC als technisches Mittel der Informatisierung erheblich.

PC-Soundsystem - eine Reihe von Software- und Hardware-Tools, die die folgenden Funktionen ausführen:

Aufnehmen von Audiosignalen von externen Quellen, wie z. B. einem Mikrofon oder Tonbandgerät, durch Umwandeln der analogen Audioeingangssignale in digitale und anschließendes Speichern auf einer Festplatte;

Wiedergabe aufgezeichneter Audiodaten über ein externes Lautsprechersystem oder Kopfhörer (Kopfhörer);

Wiedergabe von Audio-CDs;

Mischen (Mischen) beim Aufnehmen oder Wiedergeben von Signalen aus mehreren Quellen;

Gleichzeitige Aufnahme und Wiedergabe von Audiosignalen (Modus Voll Duplex);

Audiosignalverarbeitung: Bearbeiten, Kombinieren oder Aufteilen von Signalfragmenten, Filtern, Ändern des Pegels;

Verarbeitung eines Audiosignals nach Surround-Algorithmen (dreidimensional - 3 D- Klang) Klang;

Erzeugen des Tons von Musikinstrumenten sowie von menschlicher Sprache und anderen Tönen unter Verwendung eines Synthesizers;

Steuerung des Betriebs externer elektronischer Musikinstrumente über eine spezielle MIDI-Schnittstelle.

Das Soundsystem eines PCs ist strukturell eine Soundkarte, die entweder in einem Steckplatz auf dem Motherboard installiert oder auf dem Motherboard oder der Erweiterungskarte eines anderen PC-Subsystems integriert ist. Separate Funktionsmodule des Soundsystems können als Tochterplatinen implementiert werden, die in den entsprechenden Steckplätzen der Soundkarte installiert werden.

Das klassische Soundsystem, wie in Abb. 5.1 enthält:

Audioaufzeichnungs- und -wiedergabemodul;

    Synthesizer-Modul;

    Schnittstellenmodul;

    Mixer-Modul;

    akustisches System.

Die ersten vier Module sind normalerweise auf der Soundkarte installiert. Außerdem gibt es Soundkarten ohne Synthesizer-Modul oder Aufnahme-/Wiedergabe-Modul digitaler Ton. Jedes der Module kann entweder in Form einer separaten Mikroschaltung hergestellt werden oder Teil einer multifunktionalen Mikroschaltung sein. Somit kann der Chipsatz eines Soundsystems sowohl mehrere als auch einen Mikroschaltkreis enthalten.

Das Design des PC-Soundsystems unterliegt erheblichen Änderungen; Es gibt Motherboards mit einem darauf installierten Chipsatz für die Soundverarbeitung.

Der Zweck und die Funktionen der Module eines modernen Soundsystems (unabhängig von seiner Konstruktion) ändern sich jedoch nicht. Betrachtet man die Funktionsbausteine ​​einer Soundkarte, so ist es üblich, die Begriffe „PC-Soundsystem“ oder „Soundkarte“ zu verwenden.

2. Aufnahme- und Wiedergabemodul

Das Aufnahme- und Wiedergabemodul des Tonsystems führt Analog-zu-Digital- und Digital-zu-Analog-Umwandlungen im Modus der Programmübertragung von Audiodaten oder ihrer Übertragung über DMA-Kanäle durch (Direkte Erinnerung Zugang - direkter Speicherzugriffskanal).

Schall ist, wie Sie wissen, eine Longitudinalwelle, die sich daher frei in Luft oder einem anderen Medium ausbreitet Tonsignal sich ständig in Raum und Zeit verändern.

Tonaufzeichnung ist die Speicherung von Informationen über Schalldruckschwankungen zum Zeitpunkt der Aufzeichnung. Gegenwärtig werden analoge und digitale Signale verwendet, um Toninformationen aufzuzeichnen und zu übertragen. Mit anderen Worten kann das Audiosignal in analoger oder digitaler Form dargestellt werden.

Wenn Ton unter Verwendung eines Mikrofons aufgezeichnet wird, das ein zeitkontinuierliches Tonsignal in ein zeitkontinuierliches elektrisches Signal umwandelt, wird ein analoges Tonsignal erhalten. Da die Amplitude der Schallwelle die Lautstärke des Schalls und ihre Frequenz die Tonhöhe des Schalls bestimmt, muss die Spannung des elektrischen Signals proportional zum Schalldruck sein, um zuverlässige Informationen über den Schall zu erhalten seine Frequenz muss der Frequenz der Schalldruckschwingungen entsprechen.

In den meisten Fällen wird das Audiosignal in analoger Form dem Eingang einer PC-Soundkarte zugeführt. Da der PC nur mit digitalen Signalen arbeitet, muss das analoge Signal in ein digitales umgewandelt werden. Gleichzeitig nimmt das am Ausgang einer PC-Soundkarte installierte Lautsprechersystem nur analoge elektrische Signale wahr, daher ist es nach der Signalverarbeitung mit einem PC erforderlich, das digitale Signal in ein analoges umzuwandeln.

Analog-Digital-Wandlung stellt die Umwandlung eines analogen in ein digitales Signal dar und besteht aus den folgenden Hauptschritten: Sampling, Quantisierung und Codierung. Das Schema der Analog-Digital-Umwandlung eines Audiosignals ist in Abb. 2 dargestellt. 5.2.

Das voranaloge Audiosignal wird einem analogen Filter zugeführt, der die Bandbreite des Signals begrenzt.

Das Abtasten des Signals besteht aus dem Abtasten von Abtastwerten des analogen Signals mit einer bestimmten Periodizität und wird durch die Abtastfrequenz bestimmt. Außerdem muss die Abtastfrequenz mindestens doppelt so hoch sein wie die Frequenz der höchsten Harmonischen (Frequenzkomponente) des ursprünglichen Audiosignals. Da ein Mensch Töne im Frequenzbereich von 20 Hz bis 20 kHz hören kann, muss die maximale Abtastrate des ursprünglichen Audiosignals mindestens 40 kHz betragen, d. h. es müssen 40.000 Abtastungen pro Sekunde erfolgen. Daher haben die meisten modernen PC-Soundsysteme eine maximale Audio-Abtastrate von 44,1 kHz oder 48 kHz.

Amplitudenquantisierung ist eine Messung der Momentanwerte der Amplitude eines zeitdiskreten Signals und dessen Transformation in ein zeit- und amplitudendiskretes Signal. Auf Abb. Abbildung 5.3 zeigt den Quantisierungsprozess des analogen Signalpegels, wobei die momentanen Amplitudenwerte als 3-Bit-Zahlen codiert sind.

Die Codierung besteht darin, ein quantisiertes Signal in einen digitalen Code umzuwandeln. Die Messgenauigkeit bei der Quantisierung hängt dabei von der Anzahl der Bits des Codewortes ab. Wenn die Amplitudenwerte mit Binärzahlen geschrieben werden und die Länge des Codeworts festgelegt wird N Ziffern, die Anzahl der möglichen Werte von Codewörtern ist gleich 2 N . Es kann dieselbe Anzahl von Quantisierungspegeln der Ausleseamplitude geben. Wenn beispielsweise der Wert der Sample-Amplitude durch ein 16-Bit-Codewort dargestellt wird, beträgt die maximale Anzahl der Amplitudenabstufungen (Quantisierungsstufen) 2 16 = 65 536. Für eine 8-Bit-Darstellung erhalten wir jeweils 2 8 = 256 Amplitudenabstufungen.

Die Analog-Digital-Wandlung wird von einem speziellen elektronischen Gerät durchgeführt - Analog-Digital-WandlungFernseher(ADC), bei dem diskrete Signalabtastwerte in eine Folge von Zahlen umgewandelt werden. Der empfangene digitale Datenstrom, d.h. das Signal enthält sowohl nützliche als auch unerwünschte hochfrequente Interferenzen, zu deren Filterung die empfangenen digitalen Daten durch ein digitales Filter geleitet werden.

Digital-Analog-Wandlung erfolgt im Allgemeinen in zwei Phasen, wie in Abb. 5.4. In der ersten Stufe werden die Signalabtastwerte mit einem Digital-Analog-Wandler (DAC) der Abtastrate folgend aus dem digitalen Datenstrom selektiert. In der zweiten Stufe wird aus diskreten Abtastwerten durch Glättung (Interpolation) mit einem Niederfrequenzfilter ein kontinuierliches Analogsignal gebildet, das die periodischen Anteile des diskreten Signalspektrums unterdrückt.

Das Aufnehmen und Speichern von Audio in digitaler Form erfordert viel Speicherplatz. Beispielsweise benötigt ein 60 Sekunden langes Stereo-Audiosignal, digitalisiert mit einer Abtastfrequenz von 44,1 kHz bei 16-Bit-Quantisierung, etwa 10 MB auf der Festplatte zum Speichern.

Um die Menge an digitalen Daten zu reduzieren, die erforderlich sind, um ein Audiosignal mit einer bestimmten Qualität darzustellen, wird eine Komprimierung (Komprimierung) verwendet, die darin besteht, (die Anzahl der Abtastwerte und Quantisierungsstufen oder die Anzahl der Bits) zu reduzieren ich liegen auf einer Zählung.

Solche Verfahren zum Codieren von Audiodaten mit speziellen Encodern können die Menge des Informationsflusses auf fast 20 % des Originals reduzieren. Die Wahl des Codierungsverfahrens zum Aufzeichnen von Audioinformationen hängt von den Komprimierungsprogrammen ab - Codecs (Codierung-Decodierung), die mit der Soundkartensoftware geliefert oder im Betriebssystem enthalten sind.

Das digitale Audioaufzeichnungs- und -wiedergabemodul, das die Funktionen der Analog-Digital- und Digital-Analog-Signalwandlung durchführt, enthält einen ADC, einen DAC und eine Steuereinheit, die normalerweise in einem Chip integriert sind, der auch als Codec bezeichnet wird. Die Hauptmerkmale dieses Moduls sind: Abtastrate; Art und Kapazität von ADC und DAC; ein Verfahren zum Codieren von Audiodaten; die Fähigkeit, darin zu arbeiten Voll Duplex.

Die Abtastrate bestimmt die maximale Frequenz des aufgezeichneten oder wiedergegebenen Signals. Zur Aufzeichnung und Wiedergabe menschlicher Sprache sind 6 - 8 kHz ausreichend; Musik mit niedriger Qualität - 20 - 25 kHz; Für hochwertigen Ton (Audio-CD) muss die Abtastfrequenz mindestens 44 kHz betragen. Fast alle Soundkarten unterstützen die Aufnahme und Wiedergabe von Stereo-Audio mit Abtastraten von 44,1 kHz oder 48 kHz.

Die Bittiefe des ADC und DAC bestimmt die Bittiefe der digitalen Signaldarstellung (8, 16 oder 18 Bit). Die überwiegende Mehrheit der Soundkarten ist mit 16-Bit-ADCs und -DACs ausgestattet. Solche Soundkarten sind theoretisch der Hi-Fi-Klasse zuzuordnen, die Sound in Studioqualität liefern soll. Einige Soundkarten sind mit 20- und sogar 24-Bit-ADCs und -DACs ausgestattet, was die Qualität der Tonaufnahme / -wiedergabe erheblich verbessert.

Voll Duplex (Vollduplex) - ein Datenübertragungsmodus über einen Kanal, bei dem das Soundsystem gleichzeitig Audiodaten empfangen (aufzeichnen) und senden (wiedergeben) kann. Allerdings unterstützen nicht alle Soundkarten diesen Modus vollständig, da sie keine hohe Klangqualität bei intensivem Datenaustausch liefern. Solche Karten können verwendet werden, um mit Sprachdaten im Internet zu arbeiten, beispielsweise bei Telefonkonferenzen, wenn keine hohe Tonqualität erforderlich ist.

Mit unterschiedlicher Amplitude und Frequenz. Je höher die Amplitude des Signals ist, desto lauter wird es von einer Person wahrgenommen. Je höher die Frequenz des Signals, desto höher sein Ton.

Abbildung 1. Schwingungsamplitude von Schallwellen

Schallwellenfrequenz bestimmt durch die Anzahl der Schwingungen pro Sekunde. Dieser Wert wird in Hertz (Hz, Hz) gemessen.

Das menschliche Ohr nimmt Geräusche im Bereich von $20$ Hz bis $20$ kHz wahr, dieser Bereich wird genannt Klang. Die Anzahl der Bits, die einem Tonsignal zugeordnet sind, wird als bezeichnet Tiefe der Audiokodierung. Moderne Soundkarten bieten $16-$, $32-$ oder $64-Bit-Audiocodierungstiefe. Bei der Codierung solide Informationen das Dauersignal wird ersetzt diskret, das heißt, es wird in eine Folge von elektrischen Impulsen umgewandelt, die aus binären Nullen und Einsen besteht.

Audio-Samplingrate

Einer von wichtige Eigenschaften des Audiocodierungsprozesses ist die Abtastrate, die die Anzahl der Signalpegelmessungen pro $1$ Sekunde ist:

  • eine Messung pro Sekunde entspricht einer Frequenz von $1$ Gigahertz (GHz);
  • 1000$ Messungen pro Sekunde entsprechen einer Frequenz von 1$ Kilohertz (kHz) .

Bestimmung 2

Audio-Samplingrate ist die Anzahl der Messungen der Lautstärke in einer Sekunde.

Die Anzahl der Messungen kann im Bereich von 8 $ kHz bis 48 $ kHz liegen, wobei der erste Wert der Frequenz von Radiosendungen und der zweite der Klangqualität von Musikmedien entspricht.

Bemerkung 1

Je höher die Frequenz und Sampling-Tiefe des Sounds, desto besser klingt der digitalisierte Sound. Die niedrigste Qualität von digitalisiertem Audio, die der Qualität entspricht Telefonanschluss, stellt sich heraus, dass bei einer Abtastrate von 8000 Mal pro Sekunde die Abtasttiefe $8$ Bit beträgt, was der Aufnahme einer Audiospur entspricht („Mono“-Modus). Die meisten hohe Qualität digitalisierter Ton, der der Qualität einer Audio-CD entspricht, wird erreicht, wenn die Abtastrate 48.000 $ Mal pro Sekunde beträgt, die Abtasttiefe 16 $ Bit beträgt, was der Aufnahme von zwei entspricht Audiospuren(Stereomodus).

Informationsvolumen einer Sounddatei

Es ist zu beachten, dass je höher die Qualität des digitalen Tons ist, desto größer das Informationsvolumen der Tondatei ist.

Schätzen wir das Informationsvolumen einer Mono-Audiodatei ($V$) ab, dies kann mit der Formel erfolgen:

$V = N \cdot f \cdot k$,

wobei $N$ die Gesamtdauer des Tons ist, ausgedrückt in Sekunden,

$f$ - Abtastfrequenz (Hz),

$k$ - Codierungstiefe (Bits).

Beispiel 1

Wenn zum Beispiel die Dauer des Tons 1$ Minute beträgt und wir eine durchschnittliche Tonqualität haben, bei der die Abtastrate 24$ kHz und die Codierungstiefe 16$ Bit beträgt, dann:

$V=60 \cdot 24000 \cdot 16 \ bits=23040000 \ bits=2880000 \ bytes=2812.5 \ KB=2.75 \ MB.$

Bei der Codierung von Stereoton wird der Sampling-Vorgang getrennt und unabhängig für den linken und den rechten Kanal durchgeführt, wodurch die Lautstärke der Tondatei im Vergleich zu Monoton entsprechend verdoppelt wird.

Beispiel 2

Lassen Sie uns beispielsweise das Informationsvolumen einer digitalen Stereo-Sounddatei schätzen, deren Tondauer 1 $ Sekunde bei einer durchschnittlichen Tonqualität (16 $ Bits, 24000 $ Messungen pro Sekunde) beträgt. Multiplizieren Sie dazu die Codierungstiefe mit der Anzahl der Messungen pro $1$ Sekunde und multiplizieren Sie mit $2$ (Stereoton):

$V=16 \ Bits \cdot 24000 \cdot 2 = 768000 \ Bits = 96000 \ Bytes = 93,75 \ kb.$

Grundlegende Methoden zum Codieren von Audioinformationen

Es gibt verschiedene Verfahren zum Codieren von Audioinformationen mit einem Binärcode, unter denen es zwei Hauptrichtungen gibt: FM-Methode und Wavetable-Methode.

FM-Methode (Frequenzmodulation) basiert auf der Tatsache, dass theoretisch jeder komplexe Klang in eine Folge einfacher harmonischer Signale unterschiedlicher Frequenzen zerlegt werden kann, von denen jedes eine regelmäßige Sinuskurve ist, was bedeutet, dass es durch einen Code beschrieben werden kann. Der Prozess der Zerlegung von Tonsignalen in harmonische Reihen und deren Darstellung in diskreter Form digitale Signale tritt in speziellen Geräten auf, die als Analog-Digital-Wandler (ADCs) bezeichnet werden.

Abbildung 2. Umwandlung eines Audiosignals in ein diskretes Signal

Abbildung 2a zeigt das Audiosignal am Eingang des ADC und Abbildung 2b zeigt das bereits gewandelte diskrete Signal am Ausgang des ADC.

Zur Rückwandlung beim Abspielen von Ton, der in Form eines Zahlencodes dargestellt wird, werden Digital-Analog-Wandler (DACs) verwendet. Der Schallumwandlungsprozess ist in Abb. 3. Dieses Codierungsverfahren ergibt keine gute Tonqualität, liefert aber einen kompakten Code.

Abbildung 3. Konvertieren eines diskreten Signals in ein Audiosignal

Abbildung 3a zeigt das diskrete Signal, das wir am DAC-Eingang haben, und Abbildung 3b zeigt das Audiosignal am DAC-Ausgang.

Table-Wave-Methode (Wave-Tisch) basiert auf der Tatsache, dass Samples der Geräusche der umgebenden Welt in vorgefertigten Tabellen gespeichert werden, Musikinstrumente usw. Numerische Codes drücken die Tonhöhe, Dauer und Intensität des Tons und andere Parameter aus, die die Merkmale des Tons charakterisieren. Da als Samples „echte“ Klänge verwendet werden, ist die Qualität des durch die Synthese erhaltenen Klangs sehr hoch und nähert sich der Klangqualität echter Musikinstrumente.

Beispiele für Audiodateiformate

Sounddateien gibt es in verschiedenen Formaten. Die beliebtesten davon sind MIDI, WAV, MP3.

MIDI-Format(Musical Instrument Digital Interface) wurde ursprünglich zur Steuerung von Musikinstrumenten entwickelt. Derzeit im Bereich der elektronischen Musikinstrumente und verwendet Computermodule Synthese.

WAV-Audiodateiformat(Wellenform) stellt einen beliebigen Ton als digitale Darstellung der ursprünglichen Schallwelle oder Schallwelle dar. Alles Standart Fenstergeräusche haben die Erweiterung .wav.

MP3-Format(MPEG-1 Audio Layer 3) ist eines der digitalen Formate zum Speichern von Toninformationen. Es bietet eine Codierung in höherer Qualität.

| Unterrichtsplanung und Unterrichtsmaterialien | 10 Klassen | Unterrichtsplanung für das Schuljahr | Darstellung von Text, Bild und Ton in einem Computer (§ 6)

Lektionen 10 - 12
Darstellung von Text, Bild und Ton in einem Computer (§ 6)

Fundierte Informationen

Fundierte Informationen

Die Prinzipien der Schalldiskretisierung („Digitalisierung“ von Schall) sind in Abb. 1.11.

Audio wird über ein Audiogerät (Mikrofon, Radio usw.), dessen Ausgang mit dem Anschluss verbunden ist, in den Computer eingegeben Soundkarte. Die Aufgabe einer Soundkarte besteht darin, den Pegel eines (in elektrische Schwingungen umgewandelten) Audiosignals mit einer bestimmten Frequenz zu messen und die Messergebnisse im Speicher des Computers abzulegen. Dieser Vorgang wird als Audiodigitalisierung bezeichnet.

Der zeitliche Abstand zwischen zwei Messungen wird als Messperiode bezeichnet - τ Mit. Der Kehrwert wird aufgerufen Beispielrate - 1/τ (Hertz). Je höher die Messfrequenz, desto höher die digitale Audioqualität.

Die Ergebnisse solcher Messungen werden durch positive ganze Zahlen mit endlicher Stellenzahl dargestellt. Sie wissen bereits, dass Sie in diesem Fall eine diskrete endliche Menge von Werten in einem begrenzten Bereich erhalten. Die Größe dieses Bereichs hängt von der Kapazität der Zelle ab - dem Speicherregister der Soundkarte. Die Formel 2 i funktioniert wieder, wobei i die Kapazität des Registers ist. Die Zahl i wird auch Abtasttiefe genannt. Die aufgezeichneten Daten werden in speziellen Audioformatdateien gespeichert.

Es gibt Tonverarbeitungsprogramme - Toneditoren, mit denen Sie verschiedene Musikeffekte erstellen, Ton von Rauschen bereinigen, mit Bildern koordinieren können, um Multimediaprodukte zu erstellen usw. Mit Hilfe spezieller Geräte, die Ton erzeugen, können Tondateien in Ton umgewandelt werden Wellen, die vom menschlichen Gehör wahrgenommen werden.

Beim Speichern von digitalisiertem Audio müssen Sie das Problem der Reduzierung der Lautstärke lösen Tondateien. Dazu wird neben der verlustfreien Datencodierung, die eine hundertprozentige Datenwiederherstellung aus einem komprimierten Stream ermöglicht, eine verlustbehaftete Datencodierung verwendet. Der Zweck einer solchen Codierung besteht darin, die Ähnlichkeit des Klangs des wiederhergestellten Signals mit dem Originalsignal zu erreichen maximale Kompression Daten. Dies wird durch die Verwendung verschiedener Algorithmen erreicht, die das Originalsignal komprimieren, indem schwer hörbare Elemente daraus entfernt werden. Es gibt viele Komprimierungsmethoden sowie Programme, die diese Methoden implementieren.

Verwendet ein universelles Audioformat, um verlustfreies Audio zu speichern WAV-Dateien. Die meisten bekanntes Format"komprimiertes" Audio (verlustbehaftet) - MP3. Es bietet eine Datenkomprimierung um das 10-fache oder mehr.


Fragen und Aufgaben

1. Seit wann arbeiten Computer mit Text, mit Grafiken, mit Ton?
2. Was ist eine Kodiertabelle? Was sind die Codierungstabellen?
3. Worauf basiert die diskrete Darstellung eines Bildes?
4. Was ist das RGB-Farbmodell?
5. Schreiben Sie einen 8-stelligen Code für Hellblau, Hellgelb (eine Mischung aus Rot und Grün), Hellgelb.
6. Warum wird beim Drucken nicht das RGB-Modell verwendet?
7. Was ist CMYK?
8. Welches Gerät im Computer digitalisiert das eingehende Audiosignal?
9. Wie (qualitativ) hängt die Qualität von digitalem Audio von der Abtastrate und der Abtastrate ab?
10. Was ist der Vorteil des MP3-Formats?

Nächste Seite

Prinzipien der Audiodigitalisierung

digitaler Ton ist ein analoges Audiosignal, das durch diskrete numerische Werte seiner Amplitude dargestellt wird.

Audio-Digitalisierung- Technologie des geteilten Zeitschritts und anschließende Aufzeichnung der erhaltenen Werte in numerischer Form.
Ein anderer Name für Audiodigitalisierung ist Analog-Digital-Wandlung Klang.

Die Audiodigitalisierung umfasst zwei Prozesse:

  • der Prozess des Abtastens (Sampling) eines Signals über die Zeit
  • Amplitudenquantisierungsprozess.

Zeitdiskretisierung

Zeitdiskretisierungsprozess - der Prozess des Erhaltens der Werte des Signals, das konvertiert wird, mit einem bestimmten Zeitschritt - Abtastschritt. Die Anzahl der in einer Sekunde durchgeführten Messungen der Signalstärke wird genannt Beispielrate oder Abtastrate, oder Beispielrate(aus dem englischen "sampling" - "sample"). Je kleiner der Abtastschritt, desto höher die Abtastfrequenz und desto genauer die Darstellung des Signals, das wir erhalten.
Dies wird durch den Satz von Kotelnikov bestätigt (in der ausländischen Literatur findet man ihn als Satz von Shannon, Shannon). Demnach wird ein analoges Signal mit begrenztem Spektrum durch eine diskrete Folge von Werten seiner Amplitude genau beschrieben, wenn diese Werte bei einer Frequenz genommen werden, die mindestens doppelt so hoch ist wie die höchste Frequenz des Signalspektrums. Das heißt, ein analoges Signal, in dem die höchste Frequenz des Spektrums F m ist, kann durch eine Folge von diskreten Amplitudenwerten genau dargestellt werden, wenn die Abtastfrequenz F d ist: F d > 2F m .
In der Praxis bedeutet dies, dass, damit das digitalisierte Signal Informationen über den gesamten hörbaren Frequenzbereich des ursprünglichen analogen Signals (0 - 20 kHz) enthält, eine Abtastrate von mindestens 40 kHz gewählt werden muss. Die Anzahl der Amplitudenabtastungen pro Sekunde wird aufgerufen Beispielrate(wenn der Abtastschritt konstant ist).
Die Hauptschwierigkeit der Digitalisierung ist die Unmöglichkeit, die gemessenen Signalwerte mit perfekter Genauigkeit aufzuzeichnen.

Lineare (homogene) Amplitudenquantisierung

Lassen Sie uns N Bits zuweisen, um einen Wert der Signalamplitude im Computerspeicher aufzuzeichnen. Das bedeutet, dass mit Hilfe eines N-Bit-Wortes 2 N verschiedene Positionen beschrieben werden können. Die Amplitude des digitalisierten Signals soll von -1 bis 1 einiger herkömmlicher Einheiten reichen. Lassen Sie uns diesen Bereich der Amplitudenänderung - den Dynamikbereich des Signals - in Form von 2 N -1 gleichen Intervallen darstellen und ihn in 2 N Stufen - Quanten - unterteilen. Um nun jeden einzelnen Amplitudenwert aufzuzeichnen, muss er auf die nächste Quantisierungsstufe gerundet werden. Dieser Vorgang wird als Amplitudenquantisierung bezeichnet. Amplitudenquantisierung – der Prozess des Ersetzens der realen Werte der Signalamplitude durch Werte, die mit einiger Genauigkeit angenähert wurden. Jeder der 2 N möglichen Pegel wird als Quantisierungspegel bezeichnet, und der Abstand zwischen den beiden nächsten Quantisierungspegeln wird als Quantisierungsschritt bezeichnet. Wenn die Amplitudenskala linear in Stufen unterteilt wird, wird die Quantisierung als linear (homogen) bezeichnet.
Die Rundungsgenauigkeit hängt von der gewählten Anzahl (2 N) von Quantisierungsstufen ab, die wiederum von der Anzahl von Bits (N) abhängt, die der Aufzeichnung des Amplitudenwerts zugeordnet sind. Die Nummer N wird aufgerufen Quantisierungsbittiefe(was die Anzahl der Ziffern, dh Bits, in jedem Wort impliziert) und die Zahlen, die sich aus der Rundung der Amplitudenwerte ergeben - Zählungen oder Proben(aus dem englischen „sample“ - „messung“). Es wird angenommen, dass die aus der 16-Bit-Quantisierung resultierenden Quantisierungsfehler für den Zuhörer fast nicht wahrnehmbar bleiben. Dieses Verfahren der Signaldigitalisierung - zeitliche Signalabtastung in Kombination mit dem homogenen Quantisierungsverfahren - wird genannt Pulscodemodulation, PCM(engl. Pulse Code Modulation - PCM).
Das digitalisierte Signal als Satz aufeinanderfolgender Amplitudenwerte kann bereits im Speicher des Computers abgelegt werden. In dem Fall, in dem die Absolutwerte der Amplitude aufgezeichnet werden, wie z Aufnahmeformat genannt PCM(Pulscodemodulation). Die seit den frühen 1980er Jahren verwendete Standard-Audio-CD (CD-DA) speichert Informationen im PCM-Format mit einer Abtastrate von 44,1 kHz und einer Quantisierungsbittiefe von 16 Bit.

Andere Möglichkeiten der Digitalisierung

Analog-Digital-Wandler (ADC)

Der obige Audio-Digitalisierungsprozess wird von Analog-Digital-Wandlern (ADCs) durchgeführt.
Diese Transformation umfasst die folgenden Operationen:

  1. Die Bandbegrenzung wird mit einem Tiefpassfilter durchgeführt, um Spektralanteile zu unterdrücken, deren Frequenz die halbe Abtastfrequenz überschreitet.
  2. Zeitliche Diskretisierung, dh das Ersetzen eines kontinuierlichen analogen Signals durch eine Folge seiner Werte zu diskreten Zeitpunkten - Samples. Dieses Problem wird gelöst, indem eine spezielle Schaltung am Eingang des ADC verwendet wird - ein Sample-and-Hold-Gerät.
  3. Die Pegelquantisierung ist das Ersetzen des Signalabtastwertes durch den nächsten Wert aus einem Satz fester Werte - Quantisierungspegel.
  4. Kodierung oder Digitalisierung, wodurch der Wert jedes quantisierten Abtastwerts als Zahl dargestellt wird, die der Ordnungszahl des Quantisierungspegels entspricht.

Dies geschieht folgendermaßen: Ein kontinuierliches analoges Signal wird in Abschnitte „geschnitten“, mit einer Abtastfrequenz wird ein digitales diskretes Signal erhalten, das mit einer bestimmten Bittiefe den Quantisierungsprozess durchläuft und dann codiert, dh ersetzt wird durch eine Folge von Codesymbolen. Um Ton im Frequenzband von 20-20.000 Hz aufzunehmen, ist eine Abtastfrequenz von 44,1 und höher erforderlich (derzeit sind ADCs und DACs mit einer Abtastfrequenz von 192 und sogar 384 kHz erschienen). Für eine qualitativ hochwertige Aufnahme ist eine Bittiefe von 16 Bit ausreichend, zur Erweiterung des Dynamikumfangs und zur Verbesserung der Tonaufnahmequalität wird jedoch eine Bittiefe von 24 (selten 32) Bit verwendet.

Codieren von digitalisiertem Audio, bevor es auf einem Medium aufgezeichnet wird

Um digitales Audio zu speichern, gibt es viele verschiedene Wege. Digitalisierter Ton ist eine Reihe von Signalamplitudenwerten, die in bestimmten Zeitintervallen aufgenommen werden.

Terminologie

  • Encoder – ein Programm (oder Gerät), das einen bestimmten Datencodierungsalgorithmus implementiert (z. B. ein Archivierer oder ein MP3-Encoder), der Quellinformationen als Eingabe akzeptiert und verschlüsselte Informationen in einem bestimmten Format als Ausgabe zurückgibt.
  • Decoder - ein Programm (oder Gerät), das die umgekehrte Transformation eines codierten Signals in ein decodiertes Signal implementiert.
  • Codec (vom englischen "Codec" - "Coder / Decoder") - eine Software- oder Hardwareeinheit zum Codieren / Decodieren von Daten.

Die gängigsten Codecs

  • MP3 - MPEG-1-Schicht 3
  • OGG - Ogg-Vorbis
  • WMA- Windows Media Audio
  • MPC-MusePack
  • AAC - MPEG-2/4 AAC (erweiterte Audiokodierung)
    • MPEG-2 AAC-Standard
    • MPEG-4 AAC-Standard

Einige Audio-Digitalisierungsformate im Vergleich

Hauptartikel: Vergleich der Tonformate

Formatname Quantisierung, bisschen Abtastfrequenz, kHz Anzahl der Kanäle Disk-Datenstrom, kbit/s Kompressions-/Packungsverhältnis
16 44,1 2 1411,2 1:1 verlustfrei
DolbyDigital (AC3) 16-24 48 6 bis 640 ~12:1 verlustbehaftet
DTS 20-24 48; 96 bis zu 8 vor 1536 ~3:1 verlustbehaftet
DVD-Audio 16; 20; 24 44,1; 48; 88,2; 96 6 6912 2:1 verlustfrei
DVD-Audio 16; 20; 24 176,4; 192 2 4608 2:1 verlustfrei
MP3 schwebend bis 48 2 bis 320 ~11:1 verlustbehaftet
Unterstützte Kommunikation schwebend bis 96 bis 48 bis 529 mit Verlusten
AAC+ (SBR) schwebend bis 48 2 bis 320 mit Verlusten
Ogg Vorbis bis 32 bis 192 bis 255 bis 1000 mit Verlusten
WMA bis 24 bis 96 bis zu 8 bis 768 2:1 gibt es eine verlustfreie Version

Vollständiger Audiokonvertierungszyklus: von der Digitalisierung bis zur Wiedergabe beim Verbraucher

Vollständiger Audiokonvertierungszyklus: von der Digitalisierung bis zur Wiedergabe

1. Welches Computergerät modelliert das menschliche Denken?
-ZENTRALPROZESSOR

2. Aktionen auf die ursprünglichen Informationen (Fakten) in Übereinstimmung mit einigen Regeln sind
-Datenverarbeitung

3. Wählen Sie eine Regel aus den vorgeschlagenen Nachrichten aus
- Beim Multiplizieren einfacher Brüche werden deren Zähler und Nenner multipliziert

4. Für wen ist die folgende Aussage am wahrscheinlichsten informativ: „Ein Programm ist ein Algorithmus, der in einer Programmiersprache geschrieben ist“?
- Programmieranfänger

5.Wo ist die ausführbare Datei gespeichert? dieser Moment das Programm und die Daten, die es verarbeitet?
- im Arbeitsspeicher

6. Welches Computergerät führt den Sound-Sampling-Prozess durch?
-Soundkarte

7. Die Aussagekraft einer von einer Person empfangenen Nachricht wird bestimmt
- neues Wissen und Verständnis

8.Fügen Sie anstelle von Auslassungspunkten die entsprechenden Konzepte ein: "Das Verzeichnis enthält Informationen über ... gespeichert in ..."
A) Dateien Externer Speicher

9. Geben Sie den/die Befehl(e) an, bei deren Ausführung das ausgewählte Fragment in die Zwischenablage gelangt
B) ausschneiden und kopieren

10.Welche der folgenden Aktionen beziehen sich auf die Textformatierung?
- Ausrichtungsmodus einstellen

11.Angewandt Software beinhaltet:
B) Texteditoren

12. Das Betriebssystem ist
- eine Reihe von Programmen, die die Verwaltung des Computers und seine Interaktion mit dem Benutzer organisieren

13. Vorgeschlagene Befehle
5 Schalten Sie Laufwerk A auf Strom.
2Verzeichnis STADT erstellen
3 Erstellen Sie das STREET-Verzeichnis
1Erstellen Sie die Home.txt-Datei
4Geben Sie das erstellte Verzeichnis ein
Ordnen Sie die nummerierten Befehle so an, dass Sie einen Algorithmus erhalten, der auf einer leeren Diskette eine Datei mit dem vollständigen Namen A:\ORT\STREET\Home.txt erstellt
B) 5,2,3,1

14. Es dauert 84000 Bits, um Text zu speichern. Wie viele Seiten nimmt dieser Text ein, wenn die Seite 30 Zeilen mit 70 Zeichen pro Zeile enthält? Zur Codierung des Textes wird eine aus 256 Zeichen bestehende Codiertabelle verwendet.
84000/(log(256)/log(2))/30/70 = 5

15. Das Buch besteht aus 64 Seiten. Jede Seite hat 256 Zeichen. Wie viele Informationen enthält das Buch, wenn das Alphabet 32 ​​Zeichen lang ist?
A) 81920 Bytes B) 40 KB C) 10 KB D) 16 KB E) 64 KB
64*256*(log(32)/log(2)) /8/1024 = 10

16. Wie viele Zeichen enthält eine mit dem 16-Zeichen-Alphabet geschriebene Nachricht, wenn ihr Umfang 1/16 Megabyte beträgt?
(1/16)*1024*1024*8/(log(16)/log(2)) = 131072

17. Wie viel Speicher benötigt ein Grafikbild, wenn es 40 x 60 groß ist und Pixelfarbe zum Codieren verwendet wird? Binärcode ab 32 Bit.
A) 2400 Bytes B) 2100 Bytes C) 960 Bytes D) 9600 Bytes E) 12000 Bytes
40*60*32/8 = 9600

18. Der Text benötigt 0,25 KB Speicherplatz. Wie viele Zeichen enthält dieser Text, wenn eine Kodiertabelle mit 256 Zeichen verwendet wird?
0,25*1024*8/(log(256)/log(2)) = 256

19. Wie viele Informationsbits sind in einer Viertel-Kilobyte-Nachricht enthalten?
1/4*1024*8 = 2048