原文 Core Audio Glossary (http://developer.apple.com/documentation/MusicAudio/Reference/CoreAudioGlossary/index.html)
Core Audio用語集は、他のCore Audio関連文章の手引きとなるものです。 この用語集は、Appleのリファレンスライブラリ中で使用されているオーディオ関連用語を定義します。 中には異なる技術では異なる意味で使用される単語もあります。その場合は複数の意味を記載しています。
単語にはCore Audio特有の定義がされているものもありますし、またオーディオ界で一般的に使用されるものもあります。 音声処理の概念についての更なる知識(例えば倍音分析(harmonic analysis)など)は、これら単語を完全に理解するために必要と
なるかもしれません。
Core Audioや他のオーディオ関連文章で使用される専門用語の、より一層の理解のために、この文章を用いることができます。
5.1チャンネルサラウンド音声 ある円周に沿った特定の位置に配置される5つのスピーカーと、1つのサブウーファー("0.1"と数えられる)で構成される、サラウ
ンド音声スピーカーの設定方法。 通常、スピーカーのチャンネルは次のように示される:左/中央/右/右サラウンド/左サラウンド/LFE(低音効果用)
知覚符号化理論を利用した不可逆圧縮符号。 元はMPEG-2規格の構成要素MPEG-2 AACとして、1997年にISO/IEC 13818-7の一部として定義され、後にMPEG-4規格のためにMPEG-4
AACとして拡張される。 MPEG-2 AACは同一ビットレートのMPEG-1 Audio Layer-3(MP3)と比較して、高音質であるとされる。 MPEG-4 AACはISO/IEC JTC1/SC29/WG11, N2006 (February 1998)に準拠する。 MPEG-4 AACはMPEG-2 AACにいくつかの符号化方法を追加・拡張したものである。 関連:不可逆圧縮
Dolby Laboratories, Incによって開発された、知覚符号化理論に基づく不可逆圧縮圧縮方式。 Dolby DigitalやDolby Surround AC-3とも呼ばれる。 関連:不可逆圧縮 知覚符号化
アナログ-デジタル変換器 アナログ信号を標本化と量子化で以て、対応するデジタル符号へと変換する回路。 ADCの特性は、標本化周波数、ビット数で表わされる振幅分解能、量子化誤差や他の歪み特性、信号埋没レベル(noise floor)で
決まる。 通常、音響専門用途には線型応答タイプのADCが用いられる。 比較:デジタル-アナログ変換器 関連:サンプル 量子化
適応的差分パルス符号変調 信号レベルを予測し、その値と実際の信号の値の差分を符号とする、不可逆のアナログ-デジタル変換および圧縮方式。 例えば、あるアルゴリズムは推測値として直前の信号値を用い、その値と新たに計測した値の差分を符号化する。 関連:IMA ADPCM 不可逆圧縮
音響専門家達の国際組織。デジタルオーディオに関連した重要な多くの標準規格を制定している。
Audio Engineering Societyが定義した、標準デジタルオーディオ転送規格。1992年策定。 IEC 60958 Part 4と同等である。 AES-3規格は平衡型撚り対線、同軸ケーブル、光ファイバを含む様々な物理的な接続方法を包含する。 AES-3はS/PDIF (Sony/Phillips Digital Interface)規格の技術が元となっている。
機器セット アプリケーションからは1つの装置として扱う事の出来る、相互接続された2つ以上の機器からなる集合体。 関連:装置
Electronic Arts, Inc.が開発したInterchange File Format (IFF)を元に、Apple Computer, Inc.が開発したデジタル音声ファ
イル形式。 データはAIFFファイルのチャンクへ、無圧縮で格納される。 関連:チャンク
折り返し ナイキスト周波数以上の成分を持つ信号を標本化した結果生じる歪み。 オーディオにおいては、折り返しの結果、ナイキスト周波数以下に本来は存在しない信号を混入することになる。これは折り返
し歪みとも呼ばれる。 折り返しを回避するには、標本化の前に音声信号に低域通過フィルタを掛け、ナイキスト周波数以上の成分を除去しなければな
らない。
Apple Core Audio形式 Appleの汎用音声ファイル形式。 Apple Core Audio形式はCore Audio形式、あるいはCAFとも呼ばれる。 CAFファイルはチャンクベースのファイルで、AAC、MP3、PCM、他の多くの音声データ形式やMIDIデータまでも同様に含むことが
Apple Computer, Inc.が規定した、可逆圧縮の音声符号化形式。 関連:可逆圧縮
非同期転送 送信側と受信側が同一クロックである必要がない転送方式。
音声処理グラフ Audio Unitの相互接続からなる信号チェーンの名称。 Core Audioは、このような相互接続ネットワークをAUGraphオブジェクトとして表現する。 音声処理グラフは出力ユニットで終端していなければならない。AUGraphとも呼ぶ。
Mac OS Xアプリケーションにオーディオ機能を付加する、Component Managerベースのプラグイン。 Audio Unitはフィルタリングやリバーブと言ったエフェクト、MIDIベースの音楽シンセサイザ、音声データ形式の変換、ミック
ス、定位、生成、再生などを提供する。 アプリケーション固有のプラグインと違い、Audio Unitはシステム全体で利用可能である。 1つのAudio Unitから生成した複数の実体は、同時に動作することが出来る。
Apple提供のAudio Unitで、ハードウェアの入出力とのインターフェースとなる。 ハードウェア抽象化層と相互に作用しているため、この名称がついている。
IEEEが策定したAV/C規格の事。 FireWire(IEEE1394)接続上の、音楽デバイスと音声デバイスの命令プロトコルを提供する。
平均ビットレート エンコード済み音声の表現方法の1つで、フレームごとのビットレートは様々だが、長い時間間隔(概して10~60秒)で具体的な
平均ビットレートを扱う。 ABRに特化した(ABR-savvy)エンコーダを用いる事で、録音データを予め決めておいたファイルサイズに収める事ができる。 関連:constant bit rate (CBR) variable bit rate (VBR)
Microsoft Corporationが1992年に策定した、チャンクベースのコンテナファイル形式。 AVIはRIFF (Resource Interchange File Format)を特殊化したもので、そしてまたIFF (Interchange File Format)に
基づく。
帯域幅 1.アナログオーディオにおいて、伝送チャンネルの周波数の幅(下限周波数から上限周波数までの幅)のこと。 限界は、信号の帯域中央レベルからの減衰率をデシベルで比較し、定義される。 関連:デシベル 2.デジタルデータ転送において、転送チャンネルのデータ送信能力のこと。デジタル帯域幅は一般的に、1秒当たりのビット数ま
たはバイト数で表現される。関連:ビットレート
拍 音楽における基本的な時間単位。一般的に拍子記号の下の数。 Core AudioのMusic Playerは、テンポトラックで拍の概念を使う。
ビット深度 サンプルの分解能。サンプル毎のビット数で表す。 いくつかの他の要因と共に、ビット深度はデジタルシステムのダイナミックレンジを決定する。
ビットレート 1秒あたりのビット数で表される、デジタルチャンネルのデータ率(あるいは帯域幅)。
バッファ データの源とその行き先の間で、一時的にデータを保持して置く為に割り当てられたメモリ領域。 他の目的として、Core AudioはバッファをAudio Unit間でのデータの送受信に使用する。
最大許容レベル 信号の最大許容レベルと信号埋没レベル(noise floor)の比率がダイナミックレンジである。 ダイナミックシーリングとも呼ばれる。
チャンネル 音声の分離したトラックのこと。 モノラルでの録音やライブパフォーマンスでは、きっちり1チャンネルを持つ。 ステレオでの録音やライブパフォーマンスでは2チャンネル持つ。 マルチトラックでの録音やパフォーマンスでは、複数のチャンネルを持つことが出来る。 Audio Unitにおいては、1つの接続が1つ以上のチャンネルを持つ。 関連:チャンネル配分
チャンネル配分 音声録音において、そのチャンネルが受け持つ再生の役割を設定したもの。 例えばステレオ録音では、チャンネル1が「左前方」を、チャンネル2が「右前方」の再生を担う。
チャンク 短いデータから成る連続したデータの塊。ヘッダの記述に続いてデータの記述がある。 チャンクベースのファイルはチャンクの連続として適切に配置され、ディスク上に存在する。
チャンクヘッダ 説明用のチャンク始めのメタデータ部。 チャンクヘッダ中の情報の各々の要素は、フィールドと呼ばれる。 The descriptive, metadata section at the start of a chunk. Each element of information in a chunk header is called
a field.
チャンクデータ領域 チャンクに含まれるデータ。 データ形式は、チャンクヘッダで定義されるチャンクの型に依存する。
クリップ 信号の振幅が特定の限界レベルに達した際に起こる波形の歪み。 関連:歪み
クロック デジタルオーディオシステムにおいて、音声の録音・再生速度に関係する規則正しい周期的な信号。
The deviation, over time, of one clock relative to another, due to differing counting rates. Clock drift interferes
with synchronization.
クロック復元 データストリームからタイミング情報を引き抜き、再構築すること。
コーデック ハードウェアやソフトウェアで実装されている可逆・不可逆音声圧縮技術に関する総称。 コーデックはファイル形式とは区別される。 エンコード済みのデータは、そのデータに適した形でファイル形式で以て包まれ、またそのようなファイル形式からデコードさ
れる。 例えばMP3ファイル形式は、知覚的にエンコードされた音声データを保持することの出来る、ラッパーである。
コンポーネント Mac OS Xでは、プラグインのインターフェースはComponent Managerによって定義される。 Audio Unitはコンポーネントである。
圧縮器 データまたは音声レベルの圧縮機能を実装したハードウェアまたはソフトウェア。 データ圧縮器とそれに対応する伸張器は、コーデックと呼ばれることもある。
接続 Core Audioにおいて、Audio Unitに音声データが出入りする際の出入り口となる点。 1つの接続は1つ以上のチャンネルを持つ。
固定ビットレート An encoding bit rate that can be transmitted over a data channel with a constant bit rate while supporting real-
time decoding. 固定ビットレートは、各パケットの大きさが同じである事を保証するものではない、という点に留意されたい。 パルス符号変調のようないくつかの符号化方式は、CBRエンコードにしか対応していない。 比較:平均ビットレート 可変ビットレート
MIDI装置の制御・通信を行うための、AppleのプログラミングAPI。
デジタル-アナログ変換器 デジタルデータを対応するアナログ信号へと変換する回路。 DACの特性は、最大標本化周波数、ビット数で表される振幅分解能、単調増加性、歪み特性、信号埋没レベルで決まる。 比較:アナログ-デジタル変換器
An absolute measure of RMS voltage level in decibels relative to 0.775 Volts RMS. dBu measurements assume a circuit
load with infinite impedance. See also RMS (root mean square).
A dimensionless unit for expressing the ratio of two quantities, abbreviated as dB. The decibel difference between
two power levels is equal to 10 times the common logarithm of their ratio. The decibel difference between two
voltage levels is equal to 20 times the common logarithm of their ratio. Decibel values are typically associated
with a standard voltage or power level. For example, dB SPL (sound pressure level) is referenced to 0 dB SPL,
equivalent to 20 μPa (micropascals).
デフォルト出力ユニット ユーザーがデフォルト出力として指定したハードウェア装置と接続される、Apple提供のAudio Unit。
非インタリーブ化 A synonym for reverse multiplexing. In digital audio , retrieving discrete channels from an interleaved
representation. Compare interleaving.
The time lag between one audio event and another. In audio processing, the second event is typically a processed or
unprocessed copy of the original event. Delay is a settable parameter in the Delay audio unit provided by Core
Audio.
装置 デバイス、機器とも。 一般的に音響面においては、音声データの生成、転送、受信、保管を行う物理的な装置、もしくはそれらを実現するソフトウェ
アの事を指す。 MIDIにおいては、MIDI制御信号への反応あるいはMIDIデータを提供する装置、もしくはそれらを実現するソフトウェアを指す。
デジタル著作権管理 DRMとも。 電子コンテンツの使用について埋め込まれている、電子的規制技術の総称。 通常、著作権保護されているものに対して適用される。 関連:FairPlay
デジタル信号処理 デジタルで表現される音声について解析や変換を行うこと。 このような変換には、フィルタリングやイコライジング、リバーブ、音声レベル圧縮、データ圧縮などや、ピッチシフトなどの
サウンドエフェクト処理も含まれる。 デジタル信号処理は、ハードウェアやソフトウェアあるいはそれらの組み合わせで実行される。
歪み 概して、オーディオデバイスの入出力間で意図的ではなく望まずに生じる、信号の差、違い。 一般的に測定される歪みの種類には、高調波歪み(harmonic distortion)、相互変調歪み(intermodulation distortion)、量子化
歪み(quantization distortion)、ジッタがある。 レベルやイコライズの違いなどにおける入出力間の意図的な信号差は、歪みとは言わない。 比較:雑音
ディザ 量子化誤差を除去するために信号に加える低レベルの雑音。 関連:量子化雑音
ダイナミックレンジ オーディオデバイスやシステムの性能基準の1つで、その装置が出力することの出来る、最大信号と最小信号の差を表す。 ダイナミックレンジは、最大許容レベル(dynamic ceiling)と信号埋没レベル(noise floor)の比と等しく、通常、デシベルで表
す。 関連:最大許容レベル 信号埋没レベル decibelデシベル
欧州放送連合(European Broadcasting Union) ヨーロッパを主体とする国際的なオーディオや放送の規格化団体。
An audio unit programming context analogous to a device signal bus. Compare scope,
Algorithmic conversion of a signal from one representation to another. For example, compressing linear PCM data to
AAC format is a form of encoding. Can be applied to perceptual data compression, lossless compression, and so on.
See also codec (coder/decoder), decode. Compare data compression.
A stream of MIDI or event data, which can be played using a music player. See also sequence.
Describes a variable bit rate (VBR) audio format where information about the sizes of the frames is transmitted
separately from the audio data stream. Compare internally framed. See also frame.
AppleのQuickTime技術に組み込まれているデジタル著作権管理(DRM)機構。 AACファイルを暗号化し、再生を認証されたコンピュータだけに制限するために、iPod、iTunes、iTunes storeで使用されている
。
In electronics generally, to direct an output signal to multiple inputs. Note that Core Audio audio units cannot
fan out an output to multiple inputs. The only way to drive multiple inputs is to direct the output to a buffer
(such as a splitter unit) containing multiple outputs, each of which can connect to separate input.
カメラやHDDと言ったデジタル装置を接続するための、IEEE1394標準シリアルバスのAppleによる実装。
A set of samples containing one sample from each channel in an audio data stream. In the most common case, all the
samples in a frame are coincident that is, sampled at the same moment. For example, in a stereo audio file each
frame contains one sample from the left channel and a coincident sample from the right channel. But the various
channels in a file, and therefore in a frame, may be from unrelated sources and may have originated at unrelated
times. Not to be confused with a video frame. Compare packet.
フレームレート 1秒間に再生する音声データストリームのフレーム数。 標本化速度も参照のこと。 ビデオ再生におけるフレームレートと混同しないよう注意されたい。こちらは1秒間に表示するビデオフレームの数を表す。
The number of times a repeating phenomenon or activity occurs per unit time. The frequency of a sound wave is
determined by the number of wavelengths (or fractions thereof) that pass a particular point per unit time. The
sampling frequency indicates the number of digital samples measured per unit time. Frequency is typically measured
in Hertz (cycles per second).
The ratio of output level to the corresponding input level for a device. Level is typically represented in terms of
power or voltage, but gain is unitless and is identical whether voltages or powers were used to calculate it.
Because gain is a ratio, it is usually described using decibels. A gain of 0 dB indicates no change in level, while
a gain of 10 dB is perceived as approximately a doubling in loudness depending on the nature of the sound and on
the initial loudness.
An object-like interface between Core Audio objects and hardware. The hardware abstraction layer typically
addresses hardware by means of an I/O Kit driver, but this is not a requirement. This gives applications a
consistent way to communicate with external devices insulating them from the complexity of addressing multiple,
specialized hardware drivers.
先端ノード The final node in an audio processing graph in terms of signal flow; the output node of a graph.
The range, expressed in decibels, between a standard reference signal level and the maximum allowable signal level
(the ceiling). See also dynamic range.
ホストアプリケーション Audio Unitを読み込み、活用するアプリケーションのこと。
ホスト時間 オーディオアプリケーションを実行しているコンピュータで使用されるクロック時間のこと。
(International Electrotechnical Commission) The IEC collaborates with ISO on defining a wide variety of perceptual
coding formats.
An organization of electronics professionals that has established many technology and audio-related standards.
Pronounced “eye triple-e.”
メディアコンテンツを格納するための、柔軟性に富むチャンクベースのファイル形式。 Electronic Arts, Inc.によって開発され、AppleのAIFF (Audio Interchange File Format)はこれより技術的着想を得てい
る。
IMA is the abbreviation for Interactive Multimedia Association. ADPCM is the abbreviation for adaptive delta pulse
-code modulation. A lossy, 16-bit audio compression format that provides 4:1 compression. The format is sometimes
referred to as “IMA” or “IMA4.” See also ADPCM (adaptive delta pulse code modulation).
The amount of opposition a circuit presents to an AC (alternating current) signal at a given frequency. The
impedance includes both a resistive and a reactive (frequency-dependent) component.
初期化 Audio Unitを使用するための設定を行うこと。
A synonym for multiplexing. In digital audio, converting a set of data streams representing discrete channels into
a single stream that retains the ability to convert back to separate channels. In Core Audio’s Audio Converter
service and in audio file formats such as CAF, interleaving involves placing one sample from each channel in
sequence such that a set of coincident samples, one from each channel represented in the data stream, appears in
each frame. Compare deinterleaving.
Describes a variable-bit-rate audio format where information about the sizes of the frames is included in the audio
data stream. Compare externally framed. See also frame, variable bit rate (VBR).
A generic term for software- or hardware-based audio inputs and outputs of a device. Pronounced “EYE-oh.”
ISO, based in Geneva, Switzerland, collaborates with the IEC on defining a wide variety of perceptual coding
formats. Pronounced “EYE-so.”
Time-based inconsistencies in the clock signal or clock component in a digital signal stream. In digital audio,
jitter can result in audible distortion.
In digital audio processing, the time required for an audio sample to proceed from an input to a corresponding
output. Total latency, depending on the scope of the system under consideration, can include unavoidable hardware
latency (sometimes called “I/O latency”), safety offset latency (required for robust driver operation), and
buffer latency (typically software controlled; dependent on digital signal processing requirements).
A description of the nominal audio signal strength resulting from a given input level and gain in an audio device
or system. Level within analog audio circuitry is often measured in dBu. The instantaneous signal strength, for any
nominal level, can vary from the noise floor to the dynamic ceiling. Professional “line level” typically
indicates a nominal level of +4 dBu, while “consumer level” typically indicates a nominal level of 10 dBu. See
also dBu, noise floor, ceiling.
Reduction of the dynamic range of an audio signal, typically by reducing the gain ratio for amplitudes above a
specific level. Compare limiting.
Circuitry or software that limits signal amplitude to a user-defined maximum.
The process of preventing signal amplitude from exceeding a user-defined maximum.
Describes a transfer function whose output signal is directly proportional to the input.
Short for linear pulse code modulation A linear and lossless uncompressed audio data format. PCM is usually
assumed to mean linear PCM, but sometimes the adjective linear is used to differentiate from nonlinear formats such
as ADPCM (adaptive delta pulse code modulation). See also pulse-code modulation (PCM) .
An excerpt of a recording, often a few seconds long or shorter, intended to be played repeatedly as part of a
larger composition.
Data size reduction without loss of information. Common lossless audio compression formats include FLAC (free
lossless audio codec) and Apple Lossless .
Data size reduction that entails loss of information. Common lossy audio compression formats include MP3 and IMA.
See also IMA ADPCM, perceptual coding.
A subjective term to describe sound intensity as perceived by the human ear. For example, the actual (SPL (sound
pressure level)) has to increase by a factor of 10 to double the subjective loudness (which is one reason why SPL
is measured in decibels). Loudness can also vary according to the frequency of the sound.
See linear PCM.
A standard data protocol for communication between computers and electronic music instruments, first adopted in
1983 by the AES. MIDI data describes musical events, such as the starting or stopping of an instrument note.
Pronounced “MID-ee.”
Core MIDIで使用する、1つのMIDIケーブル接続(またはMIDIポート)の抽象化表現。
A logical grouping of MIDI endpoints in Core MIDI. For example, a MIDI driver may group a MIDI -in and a MIDI-out
endpoint together in a MIDI entity. See also MIDI endpoint .
MIDIポート ハードウェアまたは仮想MIDIネットワークにおける、1方向(送信または受信)の接続点。 各ポートは16チャンネルまでのMIDIデータに対応する。 Core MIDIでは、ポートはMIDIエンドポイントによってソフトウェアの中で、抽象的に表される。 関連:MIDI (Musical Instrument Digital Interface)
A music synchronization protocol, defined as part of the MIDI protocol. MIDI timecode emulates SMPTE timecode. See
also timecode.
複数チャンネルの音声とMIDIを1本のケーブル上に載せることの出来る、FireWireベースの相互接続プロトコル。 関連:MIDI (Musical Instrument Digital Interface)
Common short form for MPEG-1, audio layer 3. A lossy, perceptual compression format that can achieve 10:1 data
compression with usable sound quality. Note that MPEG-1 does not define a standard encoding algorithm for MP3; it
specifies only the decoding algorithm, the bit stream (packet) format, and the file format. See also perceptual
coding.
The MPEG-4 audio/video container format, also known as MPEG-4 Part 14. MP4 files can hold many different types of
data, such as AAC and MP3 audio, or MPEG-2 and H.264 video. Typically, files with the .mp4 extension contain both
audio and video data, while .m4a denotes files containing only audio data.
(Moving Picture Experts Group) An international working group of ISO/IEC that develops standards for digitally-
coded representations of audio and video. MPEG is part of the names of many perceptual coding formats published by
the group. Pronounced “EM-peg.”
A set of audio and video perceptual coding formats, formally designated as ISO/IEC-11172. MPEG-1 encompasses the
Video CD and MP3 formats.
→MP3
A set of audio and video perceptual coding formats, formally designated as ISO/IEC-13818, first published in 1994.
MPEG-2 encompasses formats of generally higher quality than MPEG-1, including broadcast-quality video and (with
modifications) DVD movies.
A set of audio and video perceptual coding formats, formally designated as ISO/IEC-14496, first published in 1998.
MPEG-4 encompasses many of the features introduced in MPEG-1 and MPEG-2 and adds features useful for streaming
media and broadcast, among others.
→MP4
A synonym for interleaving.
The Core Audio programming construct that applications use to play MIDI or other event data.
An algorithm or object used to avoid concurrent use of unsharable resources in a multithreaded environment.
An audio unit in an audio processing graph. Each node has one or more inputs and outputs that must be connected to
other audio units. See also head node.
Undesired energy or data components in a communication channel included with the signal that the channel is
carrying. See also noise floor, quantization noise. Compare distortion.
信号埋没レベル The amplitude of the noise in a communication channel, typically measured as a scalar, absolute level in decibels
relative to a standard level such as using dBu. Noise can vary according to frequency, and perceived noise is
subject to psychoacoustics, so the derivation of a single number to describe noise floor can entail weighting.
Common weighting schemes are dBA, dBC, and unweighted.
The highest frequency signal that can be faithfully recorded for a given sampling rate. Attempts to sample a signal
containing higher frequencies results in the generation of an alias signal below the Nyquist frequency. The Nyquist
frequency is half the sampling rate.
A free collection of digital codecs for multimedia, including Ogg Vorbis for lossy compression of audio at medium-
to-high bitrates, and Ogg FLAC for lossless audio.
A free open source lossless audio codec. Ogg FLAC typically compresses CD-quality audio by 50% with no data loss.
FLAC is an acronym for Free Lossless Audio Codec.
A free, open source, lossy audio codec intended to compete with MP3. See also MP3.
出力ユニット An audio unit of type kAudioUnitType_Output. Output units can start and stop the flow of audio data in the signal
chain. Examples include the system output unit and the AUHAL .
In Core Audio, an encoding-defined unit of audio information. For PCM audio data, each packet corresponds to a
frame. For compressed audio data, each packet corresponds to an encoding-defined number of uncompressed frames. For
example, one packet of MPEG-2 AAC audio data decompresses to 1,024 frames of PCM audio data.
In an audio unit, a variable that defines some realtime behavior such as volume, pitch, or filter cutoff frequency.
Each parameter has a name, a unit (such as Hertz or decibels), a default value and a value range, and an optional
set of flags. Compare property, scope, element.
Lossy compression that takes advantage of limitations in human perception. In perceptual coding, audio data is
selectively removed based on how unlikely it is that a listener will notice the removal. MP3, MPEG-2 AAC, and ATRAC
are popular examples of perceptual coding. See also lossy compression.
In psychoacoustics, a perceptual sound attribute that is roughly correlated with frequency. In general, pitch
increases as the sound frequency increases. The strength of a pitch sensation depends on the sound character;
noise-like sounds cause a weak pitch sensation, while pure tones evoke a strong pitch sensation.
A portable collection of code that applications can load and access through a standardized interface. For example,
audio units are plug-ins with interfaces defined by the Component Manager.
A predefined set of parameter values for an audio unit.
When decompressing audio data, adding dummy frames to the beginning of a buffer to compensate for latency in a
particular decoder.
A frame containing no audio data that precedes the actual audio data frames. The number of priming frames depends
on the audio format. See also frame.
In Core Audio, a key value pair that declares an attribute or behavior, such as audio data stream format or
latency. Each property has an associated data type to hold its value. Properties are typically non-time-varying and
not directly settable by the user. Compare parameter.
The study of the perception of sound. The development of perceptual coding techniques relies on psychoacoustics.
A lossless encoding technique widely used for working with audio, invented by Alec H. Reeves in 1937. Sometimes
called LPCM for linear pulse-code modulation, which distinguishes the process from ADPCM. In pulse-code modulation,
an analog signal is linearly encoded to a series of binary numbers by sampling an analog signal at regular
intervals. See also encoding, linear, quantization. Compare ADPCM (adaptive delta pulse code modulation).
In Core Audio, to request and receive audio data, typically from a buffer. Data typically moves through an audio
processing graph by way of a cascade of pull requests initiated by the head node. The head node pulls, and each
object upstream passes on the pull until the cascade reaches an audio data source. See also buffer, graph, head
node.
The process of representing an analog value on a continuous scale by a digital value on a discrete scale.
Quantization is characterized by a bit depth, which determines the dynamic range that can be represented, and a
scaling factor, which determines the ratio between the analog and digital scales.
The difference between the original analog signal value and its quantized digital representation. Quantization can
sometimes results in a signal-correlated noise called quantization noise. See also dither.
Signal-correlated noise resulting from rounding errors when quantizing a series of data samples. Application of a
dither signal during analog-to-digital conversion can decorrelate quantization noise from the signal. The
perceptual result is noise instead of distortion.
To apply a recipe or specification for signal processing to some audio data. Audio units typically contain a
rendering method to obtain audio data and perform any processing.
The process of taking samples of a digitized signal at a rate different from that of the original recording.
Specific types of resampling include downsampling (resampling at a rate lower than the original) and upsampling
(resampling at a higher rate).
1. For audio units, to return an audio unit to its just-initialized state. 2. For codecs, to clear the codec’s
input buffer and return the codec to its just-initialized state.
→リバーブ
An acoustic phenomenon produced by the cumulative addition of multiple sound reflections. Apple supplies the matrix
reverb audio unit to simulate reverberation using digital signal processing (DSP).
A synonym for deinterleaving.
A minor variation on IFF (Interchange File Format) that uses little-endian integers.
A statistical measure of time-varying value, such as voltage, current, or sound pressure. An RMS value is derived
as the square root of the mean of the squares of a series of values. In the case of a continuously varying value,
it is derived from an integration of the transfer function. For the special case of a sine wave signal, the
calculation simplifies to Vrms = 0.707 * Vpeak. May also be written in lowercase as rms.
A property of an audio unit or other audio device that specifies a time lag, in samples, to improve the robustness
of driver operation. The safety offset required for a given architecture includes time needed for memory access and
to account for inaccuracies in a driver’s timestamp resolution. Safety offset contributes to latency.
1. (noun) An instantaneous amplitude of the signal in a single audio channel, represented as an integer or a
floating-point number. 2. (verb) To collect samples from an audio source, typically an analog audio source.
Sampling typically involves collecting samples at regular, very brief intervals such as 1/44,100 seconds. 3. (noun)
An excerpt of a longer recording. When the excerpt is intended to be played repeatedly, it is called aloop. 4.
(verb) To record a sample to use as a loop or for inclusion in a another recording.
標本化速度の別名。
The time span from one sample to the next. The inverse of sampling rate.
During playback, the number of samples per second for each channel of an audio file during playback. During
recording, the number of samples acquired per second for each channel. Also called sampling rate. More properly,
but less commonly, called sampling frequency. Compare frame rate.
A technique used in AAC (Advanced Audio Coding) encoding (among other encoding technologies) to improve perceived
audio quality.
In Core Audio, a programmatic context within an audio unit. Unlike the general computer science notion of scopes,
however, audio unit scopes cannot be nested. Each scope is a discrete context. You use scopes when writing code
that sets or retrieves values of parameters or properties. Compare element. See also parameter, property.
To set an audio file or buffer’s read position to a specified frame.
In Core Audio, a collection of tracks to be played by a music player. A sequence always contains one or more event
tracks and a tempo track. See also event track.
Software or hardware for recording, playback, and editing of MIDI data or audio samples (excerpts or loops).
The range, expressed in decibels, between a nominal signal level and the noise floor. Compare dynamic range.
The number of frames requested and processed during one rendering cycle of an audio unit. See also frame.
A US association of media professionals that publishes standards related to film, television, and audio. Pronounced
“SIMP-tea,”
A standard, time-based format for tagging film, video, and audio recordings to support synchronization and editing.
The SMPTE timecode represents a given time in the format: hours:minutes:seconds:frames.
A consumer version of the AES-3 format and part of the IEC-60958 standard. Devices such as CD players and DAT
recorders use S/PDIF.
A measure of sound intensity. SPL is commonly expressed as a ratio in decibels relative to 0 dB SPL, or as an
absolute level in Pascals (Pa). While SPL is sometimes used generically to indicate loudness, the correlation of
SPL to loudness is more complex. See weighting.
1. (noun) A continuous flow of data that can be interpreted as it is received. 2. (verb) To send data as a stream.
The process of ensuring that the clocks of two or more systems remain locked together, counting at the same rate.
See also clock, clock drift, SMPTE timecode.
システム出力 Mac OS Xの全てのシステム音声の出力先ハードウェア。
システム出力ユニット An Apple-supplied audio unit that connects with whichever hardware device the user has designated to be the system
output .
The time, beyond an audio unit’s latency, for a nominal-level signal to decay to silence at an audio unit’s
output after it has gone instantaneously to silence at the input. Tail time is significant for audio units
performing an effect such as delay or reverberation. An audio unit declares its tail time as a property.
A method of combining multiple digital signals in a single data stream by interleaving samples of each signal in
time. For example, to carry a stereo signal on a single stream, the stream can alternatively interleave samples of
the left and right channels: L R L R L R.
The general speed of a piece of music, often described in beats per minute (BPM).
A special track used to synchronize all the other tracks in a sequence. See also event track.
A preset signal level at which some sort of processing is activated. For example, a compressor audio unit can allow
you to specify the threshold at which compression begins.
A standardized indexing value that identifies a specific portion of a audio file. Timecodes are often used for
synchronizing or editing audio data.
A visual representation of an audio signal over time.
An optical cable standard used to transmit digital audio signals. Short for ToshibaLink.
See event track.
Frames added to the beginning or end of a buffer to pad the audio data. Trim frames added before the audio data are
typically used to prime an audio decompressor. See also priming, priming frame.
To return an audio unit to an unconfigured state. Compare reset.
A gain of 0 dB.
A serial bus standard for connecting hardware devices, such as computers, input devices, and audio processors.
An encoding feature available for some compression formats, such as AAC, that allows bit rate to vary according to
the source material with the aim of achieving constant audio quality. Increasing the bit rate for difficult to
encode portions and decreasing it for simpler ones allows for an overall smaller file size at a given perceived
audio quality. Compare average bit rate, constant bit rate (CBR).
A designation by a software MIDI device indicating that it can receive MIDI data. Compare virtual source.
A designation by a software MIDI device indicating that it can transmit MIDI data. Compare virtual destination.
Audio Unitインターフェースの最初のバージョンで、Mac OS X v10.2で廃止された。 V1 Audio Unitは出力対多接続(fan out:1出力に対し複数のモジュールを接続する)を許可し、V2とは違う手法のコンポーネン
トタイプ・サブタイプを使う。 新規開発はV2 Audio Unitインターフェースを使用するべきである。
Audio Unitインターフェースの現在のバージョンで、Mac OS X v10.2から対応している。
A chunk-based digital audio file format originally developed for IBM-compatible PCs. While WAV files can hold
compressed audio data, they most commonly hold uncompressed linear PCM data. WAV is a variant of the RIFF bitstream
format. See also RIFF (Resource Interchange File Format).
The shape of a signal, typically displayed as a graph showing its variation in amplitude over time.
The span of one complete cycle in a repeating waveform.
Systematic adjustment of a measurement to highlight a particular criterion. For example, sound measurements are
often weighted to approximate how the human ear actually perceives sounds, placing more emphasis on midrange
frequencies than higher or lower ones.