Strict Standards: Declaration of action_plugin_redirect::register() should be compatible with DokuWiki_Action_Plugin::register($controller) in /home/suginokareha/www/cocoa/wiki/lib/plugins/redirect/action.php on line 15

Warning: Cannot modify header information - headers already sent by (output started at /home/suginokareha/www/cocoa/wiki/lib/plugins/redirect/action.php:15) in /home/suginokareha/www/cocoa/wiki/inc/auth.php on line 339

Warning: Cannot modify header information - headers already sent by (output started at /home/suginokareha/www/cocoa/wiki/lib/plugins/redirect/action.php:15) in /home/suginokareha/www/cocoa/wiki/inc/actions.php on line 162
翻訳文章:オーディオ:core_audio用語集 [林檎、中途半端に訳しちゃってます(現在進行形)。]
 

Strict Standards: Declaration of Doku_Renderer_metadata::table_open() should be compatible with Doku_Renderer::table_open($maxcols, $numrows, $pos) in /home/suginokareha/www/cocoa/wiki/inc/parser/metadata.php on line 24

Strict Standards: Declaration of Doku_Renderer_metadata::table_close() should be compatible with Doku_Renderer::table_close($pos) in /home/suginokareha/www/cocoa/wiki/inc/parser/metadata.php on line 24
目次

Core Audio用語集

はじめに

Core Audio用語集は、他のCore Audio関連文章の手引きとなるものです。 この用語集は、Appleのリファレンスライブラリ中で使用されているオーディオ関連用語を定義します。 中には異なる技術では異なる意味で使用される単語もあります。その場合は複数の意味を記載しています。

単語にはCore Audio特有の定義がされているものもありますし、またオーディオ界で一般的に使用されるものもあります。 音声処理の概念についての更なる知識(例えば倍音分析(harmonic analysis)など)は、これら単語を完全に理解するために必要と

なるかもしれません。

Core Audioや他のオーディオ関連文章で使用される専門用語の、より一層の理解のために、この文章を用いることができます。

用語集

5.1 Surround Sound

5.1チャンネルサラウンド音声 ある円周に沿った特定の位置に配置される5つのスピーカーと、1つのサブウーファー("0.1"と数えられる)で構成される、サラウ

ンド音声スピーカーの設定方法。 通常、スピーカーのチャンネルは次のように示される:左/中央/右/右サラウンド/左サラウンド/LFE(低音効果用)

AAC (Advanced Audio Coding)

知覚符号化理論を利用した不可逆圧縮符号。 元はMPEG-2規格の構成要素MPEG-2 AACとして、1997年にISO/IEC 13818-7の一部として定義され、後にMPEG-4規格のためにMPEG-4

AACとして拡張される。 MPEG-2 AACは同一ビットレートのMPEG-1 Audio Layer-3(MP3)と比較して、高音質であるとされる。 MPEG-4 AACはISO/IEC JTC1/SC29/WG11, N2006 (February 1998)に準拠する。 MPEG-4 AACはMPEG-2 AACにいくつかの符号化方法を追加・拡張したものである。 関連:不可逆圧縮

AC-3

Dolby Laboratories, Incによって開発された、知覚符号化理論に基づく不可逆圧縮圧縮方式。 Dolby DigitalやDolby Surround AC-3とも呼ばれる。 関連:不可逆圧縮 知覚符号化

ADC (analog-to-digital converter)

アナログ-デジタル変換器 アナログ信号を標本化と量子化で以て、対応するデジタル符号へと変換する回路。 ADCの特性は、標本化周波数、ビット数で表わされる振幅分解能、量子化誤差や他の歪み特性、信号埋没レベル(noise floor)で

決まる。 通常、音響専門用途には線型応答タイプのADCが用いられる。 比較:デジタル-アナログ変換器 関連:サンプル 量子化

ADPCM (adaptive delta pulse code modulation)

適応的差分パルス符号変調 信号レベルを予測し、その値と実際の信号の値の差分を符号とする、不可逆のアナログ-デジタル変換および圧縮方式。 例えば、あるアルゴリズムは推測値として直前の信号値を用い、その値と新たに計測した値の差分を符号化する。 関連:IMA ADPCM 不可逆圧縮

AES (Audio Engineering Society)

音響専門家達の国際組織。デジタルオーディオに関連した重要な多くの標準規格を制定している。

AES-3

Audio Engineering Societyが定義した、標準デジタルオーディオ転送規格。1992年策定。 IEC 60958 Part 4と同等である。 AES-3規格は平衡型撚り対線、同軸ケーブル、光ファイバを含む様々な物理的な接続方法を包含する。 AES-3はS/PDIF (Sony/Phillips Digital Interface)規格の技術が元となっている。

AES/EBU Interface

AES/EBUインターフェース AES-3の別名。 関連:EBU

aggregate device

機器セット アプリケーションからは1つの装置として扱う事の出来る、相互接続された2つ以上の機器からなる集合体。 関連:装置

AIFF (Audio Interchange File Format)

Electronic Arts, Inc.が開発したInterchange File Format (IFF)を元に、Apple Computer, Inc.が開発したデジタル音声ファ

イル形式。 データはAIFFファイルのチャンクへ、無圧縮で格納される。 関連:チャンク

aliasing

折り返し ナイキスト周波数以上の成分を持つ信号を標本化した結果生じる歪み。 オーディオにおいては、折り返しの結果、ナイキスト周波数以下に本来は存在しない信号を混入することになる。これは折り返

し歪みとも呼ばれる。 折り返しを回避するには、標本化の前に音声信号に低域通過フィルタを掛け、ナイキスト周波数以上の成分を除去しなければな

らない。

Apple Core Audio Format

Apple Core Audio形式 Appleの汎用音声ファイル形式。 Apple Core Audio形式はCore Audio形式、あるいはCAFとも呼ばれる。 CAFファイルはチャンクベースのファイルで、AAC、MP3、PCM、他の多くの音声データ形式やMIDIデータまでも同様に含むことが

出来る。 関連:チャンク パルス符号変調

Apple Lossless

Apple Computer, Inc.が規定した、可逆圧縮の音声符号化形式。 関連:可逆圧縮

asynchronous

非同期転送 送信側と受信側が同一クロックである必要がない転送方式。

audio processing graph

音声処理グラフ Audio Unitの相互接続からなる信号チェーンの名称。 Core Audioは、このような相互接続ネットワークをAUGraphオブジェクトとして表現する。 音声処理グラフは出力ユニットで終端していなければならない。AUGraphとも呼ぶ。

audio unit

Mac OS Xアプリケーションにオーディオ機能を付加する、Component Managerベースのプラグイン。 Audio Unitはフィルタリングやリバーブと言ったエフェクト、MIDIベースの音楽シンセサイザ、音声データ形式の変換、ミック

ス、定位、生成、再生などを提供する。 アプリケーション固有のプラグインと違い、Audio Unitはシステム全体で利用可能である。 1つのAudio Unitから生成した複数の実体は、同時に動作することが出来る。

AUGraph

AUHAL

Apple提供のAudio Unitで、ハードウェアの入出力とのインターフェースとなる。 ハードウェア抽象化層と相互に作用しているため、この名称がついている。

AV/C (Audio/Video Control)

IEEEが策定したAV/C規格の事。 FireWire(IEEE1394)接続上の、音楽デバイスと音声デバイスの命令プロトコルを提供する。

average bit rate

平均ビットレート エンコード済み音声の表現方法の1つで、フレームごとのビットレートは様々だが、長い時間間隔(概して10~60秒)で具体的な

平均ビットレートを扱う。 ABRに特化した(ABR-savvy)エンコーダを用いる事で、録音データを予め決めておいたファイルサイズに収める事ができる。 関連:constant bit rate (CBR) variable bit rate (VBR)

AVI (Audio Video Interleave)

Microsoft Corporationが1992年に策定した、チャンクベースのコンテナファイル形式。 AVIはRIFF (Resource Interchange File Format)を特殊化したもので、そしてまたIFF (Interchange File Format)

基づく。

bandwidth

帯域幅 1.アナログオーディオにおいて、伝送チャンネルの周波数の幅(下限周波数から上限周波数までの幅)のこと。 限界は、信号の帯域中央レベルからの減衰率をデシベルで比較し、定義される。 関連:デシベル 2.デジタルデータ転送において、転送チャンネルのデータ送信能力のこと。デジタル帯域幅は一般的に、1秒当たりのビット数ま

たはバイト数で表現される。関連:ビットレート

beat

音楽における基本的な時間単位。一般的に拍子記号の下の数。 Core AudioのMusic Playerは、テンポトラックで拍の概念を使う。

bit depth

ビット深度 サンプルの分解能。サンプル毎のビット数で表す。 いくつかの他の要因と共に、ビット深度はデジタルシステムのダイナミックレンジを決定する。

bit rate

ビットレート 1秒あたりのビット数で表される、デジタルチャンネルのデータ率(あるいは帯域幅)。

buffer

バッファ データの源とその行き先の間で、一時的にデータを保持して置く為に割り当てられたメモリ領域。 他の目的として、Core AudioはバッファをAudio Unit間でのデータの送受信に使用する。

CAF

ceiling

最大許容レベル 信号の最大許容レベルと信号埋没レベル(noise floor)の比率がダイナミックレンジである。 ダイナミックシーリングとも呼ばれる。

channel

チャンネル 音声の分離したトラックのこと。 モノラルでの録音やライブパフォーマンスでは、きっちり1チャンネルを持つ。 ステレオでの録音やライブパフォーマンスでは2チャンネル持つ。 マルチトラックでの録音やパフォーマンスでは、複数のチャンネルを持つことが出来る。 Audio Unitにおいては、1つの接続が1つ以上のチャンネルを持つ。 関連:チャンネル配分

channel layout

チャンネル配分 音声録音において、そのチャンネルが受け持つ再生の役割を設定したもの。 例えばステレオ録音では、チャンネル1が「左前方」を、チャンネル2が「右前方」の再生を担う。

chunk

チャンク 短いデータから成る連続したデータの塊。ヘッダの記述に続いてデータの記述がある。 チャンクベースのファイルはチャンクの連続として適切に配置され、ディスク上に存在する。

chunk header

チャンクヘッダ 説明用のチャンク始めのメタデータ部。 チャンクヘッダ中の情報の各々の要素は、フィールドと呼ばれる。 The descriptive, metadata section at the start of a chunk. Each element of information in a chunk header is called

a field.

chunk data section

チャンクデータ領域 チャンクに含まれるデータ。 データ形式は、チャンクヘッダで定義されるチャンクの型に依存する。

clipping

クリップ 信号の振幅が特定の限界レベルに達した際に起こる波形の歪み。 関連:歪み

clock

クロック デジタルオーディオシステムにおいて、音声の録音・再生速度に関係する規則正しい周期的な信号。

clock drift

The deviation, over time, of one clock relative to another, due to differing counting rates. Clock drift interferes

with synchronization.

clock recovery

クロック復元 データストリームからタイミング情報を引き抜き、再構築すること。

codec (coder/decoder)

コーデック ハードウェアやソフトウェアで実装されている可逆・不可逆音声圧縮技術に関する総称。 コーデックはファイル形式とは区別される。 エンコード済みのデータは、そのデータに適した形でファイル形式で以て包まれ、またそのようなファイル形式からデコードさ

れる。 例えばMP3ファイル形式は、知覚的にエンコードされた音声データを保持することの出来る、ラッパーである。

component

コンポーネント Mac OS Xでは、プラグインのインターフェースはComponent Managerによって定義される。 Audio Unitはコンポーネントである。

compression

compressor

圧縮器 データまたは音声レベルの圧縮機能を実装したハードウェアまたはソフトウェア。 データ圧縮器とそれに対応する伸張器は、コーデックと呼ばれることもある。

connection

接続 Core Audioにおいて、Audio Unitに音声データが出入りする際の出入り口となる点。 1つの接続は1つ以上のチャンネルを持つ。

constant bit rate (CBR)

固定ビットレート An encoding bit rate that can be transmitted over a data channel with a constant bit rate while supporting real-

time decoding. 固定ビットレートは、各パケットの大きさが同じである事を保証するものではない、という点に留意されたい。 パルス符号変調のようないくつかの符号化方式は、CBRエンコードにしか対応していない。 比較:平均ビットレート 可変ビットレート

Core Audio Format

Core MIDI

MIDI装置の制御・通信を行うための、AppleのプログラミングAPI。

DAC (digital-to-analog converter)

デジタル-アナログ変換器 デジタルデータを対応するアナログ信号へと変換する回路。 DACの特性は、最大標本化周波数、ビット数で表される振幅分解能、単調増加性、歪み特性、信号埋没レベルで決まる。 比較:アナログ-デジタル変換器

data compression

データ圧縮 格納・転送効率を改善するためにデータサイズを削減するアルゴリズム的手法。 可逆圧縮と不可逆圧縮がある。 圧縮は符号化の特別なケースである。 関連:可逆圧縮 不可逆圧縮 知覚符号化

dBu

An absolute measure of RMS voltage level in decibels relative to 0.775 Volts RMS. dBu measurements assume a circuit

load with infinite impedance. See also RMS (root mean square).

decibel

A dimensionless unit for expressing the ratio of two quantities, abbreviated as dB. The decibel difference between

two power levels is equal to 10 times the common logarithm of their ratio. The decibel difference between two

voltage levels is equal to 20 times the common logarithm of their ratio. Decibel values are typically associated

with a standard voltage or power level. For example, dB SPL (sound pressure level) is referenced to 0 dB SPL,

equivalent to 20 μPa (micropascals).

decode

復号 符号化された信号から元の信号を取り出すこと。 MP3のような不可逆圧縮方式では、取り出された信号は元の信号に近似したものになる。 関連:コーデック 符号化

default output unit

デフォルト出力ユニット ユーザーがデフォルト出力として指定したハードウェア装置と接続される、Apple提供のAudio Unit。

deinterleaving

非インタリーブ化 A synonym for reverse multiplexing. In digital audio , retrieving discrete channels from an interleaved

representation. Compare interleaving.

delay

The time lag between one audio event and another. In audio processing, the second event is typically a processed or

unprocessed copy of the original event. Delay is a settable parameter in the Delay audio unit provided by Core

Audio.

device

装置 デバイス、機器とも。 一般的に音響面においては、音声データの生成、転送、受信、保管を行う物理的な装置、もしくはそれらを実現するソフトウェ

アの事を指す。 MIDIにおいては、MIDI制御信号への反応あるいはMIDIデータを提供する装置、もしくはそれらを実現するソフトウェアを指す。

digital rights management

デジタル著作権管理 DRMとも。 電子コンテンツの使用について埋め込まれている、電子的規制技術の総称。 通常、著作権保護されているものに対して適用される。 関連:FairPlay

digital signal processing (DSP)

デジタル信号処理 デジタルで表現される音声について解析や変換を行うこと。 このような変換には、フィルタリングやイコライジング、リバーブ、音声レベル圧縮、データ圧縮などや、ピッチシフトなどの

サウンドエフェクト処理も含まれる。 デジタル信号処理は、ハードウェアやソフトウェアあるいはそれらの組み合わせで実行される。

distortion

歪み 概して、オーディオデバイスの入出力間で意図的ではなく望まずに生じる、信号の差、違い。 一般的に測定される歪みの種類には、高調波歪み(harmonic distortion)、相互変調歪み(intermodulation distortion)、量子化

歪み(quantization distortion)、ジッタがある。 レベルやイコライズの違いなどにおける入出力間の意図的な信号差は、歪みとは言わない。 比較:雑音

dither

ディザ 量子化誤差を除去するために信号に加える低レベルの雑音。 関連:量子化雑音

DRM

DSP

dynamic range

ダイナミックレンジ オーディオデバイスやシステムの性能基準の1つで、その装置が出力することの出来る、最大信号と最小信号の差を表す。 ダイナミックレンジは、最大許容レベル(dynamic ceiling)と信号埋没レベル(noise floor)の比と等しく、通常、デシベルで表

す。 関連:最大許容レベル 信号埋没レベル decibelデシベル

EBU

欧州放送連合(European Broadcasting Union) ヨーロッパを主体とする国際的なオーディオや放送の規格化団体。

element

An audio unit programming context analogous to a device signal bus. Compare scope,

encoding

Algorithmic conversion of a signal from one representation to another. For example, compressing linear PCM data to

AAC format is a form of encoding. Can be applied to perceptual data compression, lossless compression, and so on.

See also codec (coder/decoder), decode. Compare data compression.

endpoint

entity

event track

A stream of MIDI or event data, which can be played using a music player. See also sequence.

externally framed

Describes a variable bit rate (VBR) audio format where information about the sizes of the frames is transmitted

separately from the audio data stream. Compare internally framed. See also frame.

FairPlay

AppleのQuickTime技術に組み込まれているデジタル著作権管理(DRM)機構。 AACファイルを暗号化し、再生を認証されたコンピュータだけに制限するために、iPod、iTunes、iTunes storeで使用されている

fan out

In electronics generally, to direct an output signal to multiple inputs. Note that Core Audio audio units cannot

fan out an output to multiple inputs. The only way to drive multiple inputs is to direct the output to a buffer

(such as a splitter unit) containing multiple outputs, each of which can connect to separate input.

FireWire

カメラやHDDと言ったデジタル装置を接続するための、IEEE1394標準シリアルバスのAppleによる実装。

frame

A set of samples containing one sample from each channel in an audio data stream. In the most common case, all the

samples in a frame are coincident that is, sampled at the same moment. For example, in a stereo audio file each

frame contains one sample from the left channel and a coincident sample from the right channel. But the various

channels in a file, and therefore in a frame, may be from unrelated sources and may have originated at unrelated

times. Not to be confused with a video frame. Compare packet.

frame rate

フレームレート 1秒間に再生する音声データストリームのフレーム数。 標本化速度も参照のこと。 ビデオ再生におけるフレームレートと混同しないよう注意されたい。こちらは1秒間に表示するビデオフレームの数を表す。

frequency

The number of times a repeating phenomenon or activity occurs per unit time. The frequency of a sound wave is

determined by the number of wavelengths (or fractions thereof) that pass a particular point per unit time. The

sampling frequency indicates the number of digital samples measured per unit time. Frequency is typically measured

in Hertz (cycles per second).

gain

The ratio of output level to the corresponding input level for a device. Level is typically represented in terms of

power or voltage, but gain is unitless and is identical whether voltages or powers were used to calculate it.

Because gain is a ratio, it is usually described using decibels. A gain of 0 dB indicates no change in level, while

a gain of 10 dB is perceived as approximately a doubling in loudness depending on the nature of the sound and on

the initial loudness.

graph

HAL

Hardware Abstraction Layer (HAL)

An object-like interface between Core Audio objects and hardware. The hardware abstraction layer typically

addresses hardware by means of an I/O Kit driver, but this is not a requirement. This gives applications a

consistent way to communicate with external devices insulating them from the complexity of addressing multiple,

specialized hardware drivers.

head node

先端ノード The final node in an audio processing graph in terms of signal flow; the output node of a graph.

headroom

The range, expressed in decibels, between a standard reference signal level and the maximum allowable signal level

(the ceiling). See also dynamic range.

host application

ホストアプリケーション Audio Unitを読み込み、活用するアプリケーションのこと。

host time

ホスト時間 オーディオアプリケーションを実行しているコンピュータで使用されるクロック時間のこと。

IEC

(International Electrotechnical Commission) The IEC collaborates with ISO on defining a wide variety of perceptual

coding formats.

IEEE (Institute of Electrical and Electronic Engineers)

An organization of electronics professionals that has established many technology and audio-related standards.

Pronounced “eye triple-e.”

IEEE 1394

IFF (Interchange File Format)

メディアコンテンツを格納するための、柔軟性に富むチャンクベースのファイル形式。 Electronic Arts, Inc.によって開発され、AppleのAIFF (Audio Interchange File Format)はこれより技術的着想を得てい

る。

IMA ADPCM

IMA is the abbreviation for Interactive Multimedia Association. ADPCM is the abbreviation for adaptive delta pulse

-code modulation. A lossy, 16-bit audio compression format that provides 4:1 compression. The format is sometimes

referred to as “IMA” or “IMA4.” See also ADPCM (adaptive delta pulse code modulation).

impedance

The amount of opposition a circuit presents to an AC (alternating current) signal at a given frequency. The

impedance includes both a resistive and a reactive (frequency-dependent) component.

initialize

初期化 Audio Unitを使用するための設定を行うこと。

interleaving

A synonym for multiplexing. In digital audio, converting a set of data streams representing discrete channels into

a single stream that retains the ability to convert back to separate channels. In Core Audio’s Audio Converter

service and in audio file formats such as CAF, interleaving involves placing one sample from each channel in

sequence such that a set of coincident samples, one from each channel represented in the data stream, appears in

each frame. Compare deinterleaving.

internally framed

Describes a variable-bit-rate audio format where information about the sizes of the frames is included in the audio

data stream. Compare externally framed. See also frame, variable bit rate (VBR).

I/O (input/output)

A generic term for software- or hardware-based audio inputs and outputs of a device. Pronounced “EYE-oh.”

ISO (International Organization for Standardization)

ISO, based in Geneva, Switzerland, collaborates with the IEC on defining a wide variety of perceptual coding

formats. Pronounced “EYE-so.”

jitter

Time-based inconsistencies in the clock signal or clock component in a digital signal stream. In digital audio,

jitter can result in audible distortion.

latency

In digital audio processing, the time required for an audio sample to proceed from an input to a corresponding

output. Total latency, depending on the scope of the system under consideration, can include unavoidable hardware

latency (sometimes called “I/O latency”), safety offset latency (required for robust driver operation), and

buffer latency (typically software controlled; dependent on digital signal processing requirements).

level

A description of the nominal audio signal strength resulting from a given input level and gain in an audio device

or system. Level within analog audio circuitry is often measured in dBu. The instantaneous signal strength, for any

nominal level, can vary from the noise floor to the dynamic ceiling. Professional “line level” typically

indicates a nominal level of +4 dBu, while “consumer level” typically indicates a nominal level of  10 dBu. See

also dBu, noise floor, ceiling.

level compression

Reduction of the dynamic range of an audio signal, typically by reducing the gain ratio for amplitudes above a

specific level. Compare limiting.

limiter

Circuitry or software that limits signal amplitude to a user-defined maximum.

limiting

The process of preventing signal amplitude from exceeding a user-defined maximum.

linear

Describes a transfer function whose output signal is directly proportional to the input.

linear PCM

Short for linear pulse code modulation A linear and lossless uncompressed audio data format. PCM is usually

assumed to mean linear PCM, but sometimes the adjective linear is used to differentiate from nonlinear formats such

as ADPCM (adaptive delta pulse code modulation). See also pulse-code modulation (PCM) .

loop

An excerpt of a recording, often a few seconds long or shorter, intended to be played repeatedly as part of a

larger composition.

lossless compression

Data size reduction without loss of information. Common lossless audio compression formats include FLAC (free

lossless audio codec) and Apple Lossless .

lossy compression

Data size reduction that entails loss of information. Common lossy audio compression formats include MP3 and IMA.

See also IMA ADPCM, perceptual coding.

loudness

A subjective term to describe sound intensity as perceived by the human ear. For example, the actual (SPL (sound

pressure level)) has to increase by a factor of 10 to double the subjective loudness (which is one reason why SPL

is measured in decibels). Loudness can also vary according to the frequency of the sound.

LPCM

See linear PCM.

MIDI (Musical Instrument Digital Interface)

A standard data protocol for communication between computers and electronic music instruments, first adopted in

1983 by the AES. MIDI data describes musical events, such as the starting or stopping of an instrument note.

Pronounced “MID-ee.”

MIDI endpoint

Core MIDIで使用する、1つのMIDIケーブル接続(またはMIDIポート)の抽象化表現。

MIDI entity

A logical grouping of MIDI endpoints in Core MIDI. For example, a MIDI driver may group a MIDI -in and a MIDI-out

endpoint together in a MIDI entity. See also MIDI endpoint .

MIDI port

MIDIポート ハードウェアまたは仮想MIDIネットワークにおける、1方向(送信または受信)の接続点。 各ポートは16チャンネルまでのMIDIデータに対応する。 Core MIDIでは、ポートはMIDIエンドポイントによってソフトウェアの中で、抽象的に表される。 関連:MIDI (Musical Instrument Digital Interface)

MIDI timecode (MTC)

A music synchronization protocol, defined as part of the MIDI protocol. MIDI timecode emulates SMPTE timecode. See

also timecode.

mLAN (music local area network)

複数チャンネルの音声とMIDIを1本のケーブル上に載せることの出来る、FireWireベースの相互接続プロトコル。 関連:MIDI (Musical Instrument Digital Interface)

MP3

Common short form for MPEG-1, audio layer 3. A lossy, perceptual compression format that can achieve 10:1 data

compression with usable sound quality. Note that MPEG-1 does not define a standard encoding algorithm for MP3; it

specifies only the decoding algorithm, the bit stream (packet) format, and the file format. See also perceptual

coding.

MP4

The MPEG-4 audio/video container format, also known as MPEG-4 Part 14. MP4 files can hold many different types of

data, such as AAC and MP3 audio, or MPEG-2 and H.264 video. Typically, files with the .mp4 extension contain both

audio and video data, while .m4a denotes files containing only audio data.

MPEG

(Moving Picture Experts Group) An international working group of ISO/IEC that develops standards for digitally-

coded representations of audio and video. MPEG is part of the names of many perceptual coding formats published by

the group. Pronounced “EM-peg.”

MPEG-1

A set of audio and video perceptual coding formats, formally designated as ISO/IEC-11172. MPEG-1 encompasses the

Video CD and MP3 formats.

MPEG-1, audio layer 3

MP3

MPEG-2

A set of audio and video perceptual coding formats, formally designated as ISO/IEC-13818, first published in 1994.

MPEG-2 encompasses formats of generally higher quality than MPEG-1, including broadcast-quality video and (with

modifications) DVD movies.

MPEG-2 AAC

MPEG-4

A set of audio and video perceptual coding formats, formally designated as ISO/IEC-14496, first published in 1998.

MPEG-4 encompasses many of the features introduced in MPEG-1 and MPEG-2 and adds features useful for streaming

media and broadcast, among others.

MPEG-4 AAC

MPEG-4 Part 14

MP4

MTC

multiplexing

A synonym for interleaving.

music player

The Core Audio programming construct that applications use to play MIDI or other event data.

mutex (mutual exclusion)

An algorithm or object used to avoid concurrent use of unsharable resources in a multithreaded environment.

node

An audio unit in an audio processing graph. Each node has one or more inputs and outputs that must be connected to

other audio units. See also head node.

noise

Undesired energy or data components in a communication channel included with the signal that the channel is

carrying. See also noise floor, quantization noise. Compare distortion.

noise floor

信号埋没レベル The amplitude of the noise in a communication channel, typically measured as a scalar, absolute level in decibels

relative to a standard level such as using dBu. Noise can vary according to frequency, and perceived noise is

subject to psychoacoustics, so the derivation of a single number to describe noise floor can entail weighting.

Common weighting schemes are dBA, dBC, and unweighted.

Nyquist frequency

The highest frequency signal that can be faithfully recorded for a given sampling rate. Attempts to sample a signal

containing higher frequencies results in the generation of an alias signal below the Nyquist frequency. The Nyquist

frequency is half the sampling rate.

Ogg

A free collection of digital codecs for multimedia, including Ogg Vorbis for lossy compression of audio at medium-

to-high bitrates, and Ogg FLAC for lossless audio.

Ogg FLAC

A free open source lossless audio codec. Ogg FLAC typically compresses CD-quality audio by 50% with no data loss.

FLAC is an acronym for Free Lossless Audio Codec.

Ogg Vorbis

A free, open source, lossy audio codec intended to compete with MP3. See also MP3.

output unit

出力ユニット An audio unit of type kAudioUnitType_Output. Output units can start and stop the flow of audio data in the signal

chain. Examples include the system output unit and the AUHAL .

packet

In Core Audio, an encoding-defined unit of audio information. For PCM audio data, each packet corresponds to a

frame. For compressed audio data, each packet corresponds to an encoding-defined number of uncompressed frames. For

example, one packet of MPEG-2 AAC audio data decompresses to 1,024 frames of PCM audio data.

parameter

In an audio unit, a variable that defines some realtime behavior such as volume, pitch, or filter cutoff frequency.

Each parameter has a name, a unit (such as Hertz or decibels), a default value and a value range, and an optional

set of flags. Compare property, scope, element.

perceptual coding

Lossy compression that takes advantage of limitations in human perception. In perceptual coding, audio data is

selectively removed based on how unlikely it is that a listener will notice the removal. MP3, MPEG-2 AAC, and ATRAC

are popular examples of perceptual coding. See also lossy compression.

PCM

pitch

In psychoacoustics, a perceptual sound attribute that is roughly correlated with frequency. In general, pitch

increases as the sound frequency increases. The strength of a pitch sensation depends on the sound character;

noise-like sounds cause a weak pitch sensation, while pure tones evoke a strong pitch sensation.

player

plug-in

A portable collection of code that applications can load and access through a standardized interface. For example,

audio units are plug-ins with interfaces defined by the Component Manager.

port

preset

A predefined set of parameter values for an audio unit.

priming

When decompressing audio data, adding dummy frames to the beginning of a buffer to compensate for latency in a

particular decoder.

priming frame

A frame containing no audio data that precedes the actual audio data frames. The number of priming frames depends

on the audio format. See also frame.

property

In Core Audio, a key value pair that declares an attribute or behavior, such as audio data stream format or

latency. Each property has an associated data type to hold its value. Properties are typically non-time-varying and

not directly settable by the user. Compare parameter.

psychoacoustics

The study of the perception of sound. The development of perceptual coding techniques relies on psychoacoustics.

pulse-code modulation (PCM)

A lossless encoding technique widely used for working with audio, invented by Alec H. Reeves in 1937. Sometimes

called LPCM for linear pulse-code modulation, which distinguishes the process from ADPCM. In pulse-code modulation,

an analog signal is linearly encoded to a series of binary numbers by sampling an analog signal at regular

intervals. See also encoding, linear, quantization. Compare ADPCM (adaptive delta pulse code modulation).

pull

In Core Audio, to request and receive audio data, typically from a buffer. Data typically moves through an audio

processing graph by way of a cascade of pull requests initiated by the head node. The head node pulls, and each

object upstream passes on the pull until the cascade reaches an audio data source. See also buffer, graph, head

node.

quantization

The process of representing an analog value on a continuous scale by a digital value on a discrete scale.

Quantization is characterized by a bit depth, which determines the dynamic range that can be represented, and a

scaling factor, which determines the ratio between the analog and digital scales.

quantization error

The difference between the original analog signal value and its quantized digital representation. Quantization can

sometimes results in a signal-correlated noise called quantization noise. See also dither.

quantization noise

Signal-correlated noise resulting from rounding errors when quantizing a series of data samples. Application of a

dither signal during analog-to-digital conversion can decorrelate quantization noise from the signal. The

perceptual result is noise instead of distortion.

render

To apply a recipe or specification for signal processing to some audio data. Audio units typically contain a

rendering method to obtain audio data and perform any processing.

resampling

The process of taking samples of a digitized signal at a rate different from that of the original recording.

Specific types of resampling include downsampling (resampling at a rate lower than the original) and upsampling

(resampling at a higher rate).

reset

1. For audio units, to return an audio unit to its just-initialized state. 2. For codecs, to clear the codec’s

input buffer and return the codec to its just-initialized state.

reverb

reverberation

An acoustic phenomenon produced by the cumulative addition of multiple sound reflections. Apple supplies the matrix

reverb audio unit to simulate reverberation using digital signal processing (DSP).

reverse multiplexing

A synonym for deinterleaving.

RIFF (Resource Interchange File Format)

A minor variation on IFF (Interchange File Format) that uses little-endian integers.

RMS (root mean square)

A statistical measure of time-varying value, such as voltage, current, or sound pressure. An RMS value is derived

as the square root of the mean of the squares of a series of values. In the case of a continuously varying value,

it is derived from an integration of the transfer function. For the special case of a sine wave signal, the

calculation simplifies to Vrms = 0.707 * Vpeak. May also be written in lowercase as rms.

safety offset

A property of an audio unit or other audio device that specifies a time lag, in samples, to improve the robustness

of driver operation. The safety offset required for a given architecture includes time needed for memory access and

to account for inaccuracies in a driver’s timestamp resolution. Safety offset contributes to latency.

sample

1. (noun) An instantaneous amplitude of the signal in a single audio channel, represented as an integer or a

floating-point number. 2. (verb) To collect samples from an audio source, typically an analog audio source.

Sampling typically involves collecting samples at regular, very brief intervals such as 1/44,100 seconds. 3. (noun)

An excerpt of a longer recording. When the excerpt is intended to be played repeatedly, it is called aloop. 4.

(verb) To record a sample to use as a loop or for inclusion in a another recording.

sampling frequency

標本化速度の別名。

sample period

The time span from one sample to the next. The inverse of sampling rate.

sampling rate

During playback, the number of samples per second for each channel of an audio file during playback. During

recording, the number of samples acquired per second for each channel. Also called sampling rate. More properly,

but less commonly, called sampling frequency. Compare frame rate.

SBR (Spectral Bandwidth Replication)

A technique used in AAC (Advanced Audio Coding) encoding (among other encoding technologies) to improve perceived

audio quality.

scope

In Core Audio, a programmatic context within an audio unit. Unlike the general computer science notion of scopes,

however, audio unit scopes cannot be nested. Each scope is a discrete context. You use scopes when writing code

that sets or retrieves values of parameters or properties. Compare element. See also parameter, property.

seek

To set an audio file or buffer’s read position to a specified frame.

sequence

In Core Audio, a collection of tracks to be played by a music player. A sequence always contains one or more event

tracks and a tempo track. See also event track.

sequencer

Software or hardware for recording, playback, and editing of MIDI data or audio samples (excerpts or loops).

signal-to-noise ratio (SNR)

The range, expressed in decibels, between a nominal signal level and the noise floor. Compare dynamic range.

slice

The number of frames requested and processed during one rendering cycle of an audio unit. See also frame.

SMPTE (Society of Motion Picture and Television Engineers)

A US association of media professionals that publishes standards related to film, television, and audio. Pronounced

“SIMP-tea,”

SMPTE timecode

A standard, time-based format for tagging film, video, and audio recordings to support synchronization and editing.

The SMPTE timecode represents a given time in the format: hours:minutes:seconds:frames.

S/PDIF (Sony/Phillips Digital Interface)

A consumer version of the AES-3 format and part of the IEC-60958 standard. Devices such as CD players and DAT

recorders use S/PDIF.

SPL (sound pressure level)

A measure of sound intensity. SPL is commonly expressed as a ratio in decibels relative to 0 dB SPL, or as an

absolute level in Pascals (Pa). While SPL is sometimes used generically to indicate loudness, the correlation of

SPL to loudness is more complex. See weighting.

stream

1. (noun) A continuous flow of data that can be interpreted as it is received. 2. (verb) To send data as a stream.

synchronization

The process of ensuring that the clocks of two or more systems remain locked together, counting at the same rate.

See also clock, clock drift, SMPTE timecode.

system output

システム出力 Mac OS Xの全てのシステム音声の出力先ハードウェア。

system output unit

システム出力ユニット An Apple-supplied audio unit that connects with whichever hardware device the user has designated to be the system

output .

tail time

The time, beyond an audio unit’s latency, for a nominal-level signal to decay to silence at an audio unit’s

output after it has gone instantaneously to silence at the input. Tail time is significant for audio units

performing an effect such as delay or reverberation. An audio unit declares its tail time as a property.

TDM (time division multiplexing)

A method of combining multiple digital signals in a single data stream by interleaving samples of each signal in

time. For example, to carry a stereo signal on a single stream, the stream can alternatively interleave samples of

the left and right channels: L R L R L R.

tempo

The general speed of a piece of music, often described in beats per minute (BPM).

tempo track

A special track used to synchronize all the other tracks in a sequence. See also event track.

threshold

A preset signal level at which some sort of processing is activated. For example, a compressor audio unit can allow

you to specify the threshold at which compression begins.

timecode

A standardized indexing value that identifies a specific portion of a audio file. Timecodes are often used for

synchronizing or editing audio data.

timeline

A visual representation of an audio signal over time.

TosLink

An optical cable standard used to transmit digital audio signals. Short for ToshibaLink.

track

See event track.

trim frames

Frames added to the beginning or end of a buffer to pad the audio data. Trim frames added before the audio data are

typically used to prime an audio decompressor. See also priming, priming frame.

uninitialize

To return an audio unit to an unconfigured state. Compare reset.

unity gain

A gain of 0 dB.

Universal Serial Bus (USB)

A serial bus standard for connecting hardware devices, such as computers, input devices, and audio processors.

USB

variable bit rate (VBR)

An encoding feature available for some compression formats, such as AAC, that allows bit rate to vary according to

the source material with the aim of achieving constant audio quality. Increasing the bit rate for difficult to

encode portions and decreasing it for simpler ones allows for an overall smaller file size at a given perceived

audio quality. Compare average bit rate, constant bit rate (CBR).

VBR

virtual destination

A designation by a software MIDI device indicating that it can receive MIDI data. Compare virtual source.

virtual source

A designation by a software MIDI device indicating that it can transmit MIDI data. Compare virtual destination.

V1

Audio Unitインターフェースの最初のバージョンで、Mac OS X v10.2で廃止された。 V1 Audio Unitは出力対多接続(fan out:1出力に対し複数のモジュールを接続する)を許可し、V2とは違う手法のコンポーネン

トタイプ・サブタイプを使う。 新規開発はV2 Audio Unitインターフェースを使用するべきである。

V2

Audio Unitインターフェースの現在のバージョンで、Mac OS X v10.2から対応している。

WAV

A chunk-based digital audio file format originally developed for IBM-compatible PCs. While WAV files can hold

compressed audio data, they most commonly hold uncompressed linear PCM data. WAV is a variant of the RIFF bitstream

format. See also RIFF (Resource Interchange File Format).

waveform

The shape of a signal, typically displayed as a graph showing its variation in amplitude over time.

wavelength

The span of one complete cycle in a repeating waveform.

weighting

Systematic adjustment of a measurement to highlight a particular criterion. For example, sound measurements are

often weighted to approximate how the human ear actually perceives sounds, placing more emphasis on midrange

frequencies than higher or lower ones.

 
翻訳文章/オーディオ/core_audio用語集.txt · 最終更新: 2007/06/01 05:28 by decomo
 
特に明示されていない限り、本Wikiの内容は次のライセンスに従います:CC Attribution-Noncommercial-Share Alike 3.0 Unported
Recent changes RSS feed Donate Powered by PHP Valid XHTML 1.0 Valid CSS Driven by DokuWiki