2018/12/12

チュートリアル:REAPERでIEM Pluginを使うための基本的なルーティング

IEM Plug-in Suite




このチュートリアルでは、誰でも自由に利用することができる「オープン・ ソース」としてリリースされている高次アンビソニックス制作プラグイン「IEM Plug-in Suite」を使い、球体の音場に自由に音を配置し360°の音楽作品を作ることができる、Ambisonics(アンビソニックス)の面白さを皆さんに体験していただく為に、REAPERを使ったアンビソニック・プロダクションのセッションをゼロからセットアップする方法をご紹介いたします。


目次:
  • 行うこと/必要なもの
  • ルーティング
  • ステップ1:3つのメインバスを作成
  • ステップ2:バスの接続
  • ステップ3:スピーカー用のハードウェア・アウトプットを作成
  • ステップ4:ソーストラックを追加
  • ステップ5:ルーティングをテスト/テンプレートとして保存
  • テンプレートをダウンロード

行うこと/必要なもの

このチュートリアルでは、REAPERで高次アンビソニック(Higher Order Ambisonic = HOA)のテンプレート・プロジェクトを作成し、スピーカー及びヘッドフォン両方の再生に必要なルーティングを行います。このチュートリアルの最後に完成したREAPERプロジェクトのダウンロード・リンクがありますが、REAPERのルーティング機能を理解するためにも、少なくとも一度は、空のプロジェクトからスタートし、自身でルーティングを行ってみることをお勧めします。


必要なものはこれで全てです:


ルーティング

まず始めに、このチュートリアルで完成させるルーティングについて説明します。
多目的なプロジェクトにするために、今回は、アンビソニックのメイン・バスを1つと、それに対して個別の2系統のアウトプット・バス(スピーカー再生用とヘッドフォン再生用)を作成します。こうすることにより、アンビソニック化された音源が、スピーカー用にチャンネル・ベースの音源としてデコードされると同時に、ヘッドホン再生用としてバイノーラルでもデコードされ、モニタリングを行うことができます。


次の配線図を参照してください。



IEM Plug-inでは、ミックス/録音済のアンビエンス音源や、アンビソニックスに変換したい単一のオーディオ・ファイルなど、一般的なオーディオ・データであれば、おおよそ全て扱うことが可能です。従って、アンビソニックス専用のマイクロフォンなどを使わなくても、通常のマイクで収録した音源や、今まで録りためてきたオーディオ・ファイルなど、なんでも簡単にアンビソニックス化できる訳です。素晴らしいですね!

音源のオーディオ信号は、全てアンビソニック・バスにルーティングされ、このチャンネル上で、プラグインを使った全体のコンプレッション処理を行なったり、EnergyVisualizerを使用い再生音を視覚的に確認したりと、様々なアンビソニックスの処理を行う事ができます。

最後に、このアンビソニック・バスをレンダリング / バウンス / エクスポートすることにより、世界中の人が「デコード」すると、実際に「聴く」ことができるマルチ・チャンネルのAmbisonicsオーディオ・ファイルを書き出すことができるということになります。

アンビソニックス・ファイルは「デコード」を行わないと「聴く」ことができませんので、スピーカーモニター用のデコード・バス、ヘッドフォンモニター用のバイノーラル・バスを用意する必要があります。最終的にデコードされた信号はオーディオ・インターフェイスに送られ、スピーカーで再生されるようになります。

イマーシブ・サラウンドのモニタリング環境として、多数のスピーカーを用意することが難しい場合、また、電車や飛行機に乗っている時などでも、アンビソニックスをモニターすることは可能です。これには、バイノーラルという技術が必要です。バイノーラルは、立体的な音像をヘッドフォンで再現する技術で、アンビソニック・ミックスを誰でも簡単にヘッドフォンで聴くことができます。

このチュートリアルで作成するセッション ファイルでは、アンビソニック・バスからルーティングされたアンビソニック信号を、別に用意したバスにルーティングし、そのバス上で「BinauralDecoder」を使い、バイノーラルのヘッドフォン信号にデコードします。ここでは、IEM Plug-in Suiteに入っている「BinauralDecoder」を使いますが、もしその他のバイノーラル・デコーダーを持っている場合、それらを使用することも可能です。


ステップ1:3つのメイン バスを作成

REAPERで新規プロジェクトを開き(File > New Project)、3つのメイン・バス(Ambisonics busLoudspeakers busHeadphones bus)を作成します。バス トラックの作成は、Mixerウィンドウ(View > Mixer)にて、空のエリアをダブルクリックするだけです。バスにはそれぞれ名前を付けておくと便利です。



REAPERでは、トラックを作成すると自動的にステレオ・トラックが作成され、自動的にMASTERトラックにルーティングされます。今回のプロジェクトでは、各トラックの[ ROUTING ]ボタンをクリックして、チャンネルのルーティング・ダイアログを開き変更を行います。

Ambisonics Busでは、左上の[ Master send ](マスターへ送信)のチェックボックスを無効にします。

次に、[ Track channels ] にて、チャンネル数を希望する次元のアンビソニックスに必要なチャンネル数へと設定します。

アンビソニックスへとエンコードを行うためには、1トラック内に複数のバス・チャンネルが必要です。通常のDAWソフトウェアですとおおよそ16chが限界ですが、REAPERの場合は、最大64chまで1トラック内に展開することができるため、高次アンビソニックスにも対応しているのが特徴です。

1次アンビソニックス →  4チャンネル
2次アンビソニックス →  9 チャンネル
3次アンビソニックス →    16 チャンネル
4次アンビソニックス →    25 チャンネル
5次アンビソニックス →    36 チャンネル
6次アンビソニックス →    49 チャンネル
7次アンビソニックス →    64 チャンネル

このチュートリアルでは、5次でアンビソニックスを作成する流れを説明します。

以下のスクリーンショットでは、Ambisonics Busが5次アンビソニックス用に準備されていることがわかります。
Headphones busの[ Master Send ]チェックボックスを有効にします。バイノーラル化された2chのオーディオ信号はマスター・トラックに送られ、オーディオ・インターフェイスのメイン・ステレオ・アウトプットに直接送られます。

Loudspeakers busの設定は後ほど行います。


ステップ2:バスの接続

それでは、実際にルーティングを行ってみましょう。REAPERでは、とても直感的にルーティングを行うことができます。下のビデオのように、任意のトラックの[ ROUTING ] ボタンを別のトラックの[ ROUTING ] ボタンにドラッグするだけで、最初のトラックの出力は2番目のトラックにルーティングされます。まず始めに、Ambisonics Busの出力をLoudspeakers busの入力に接続してみましょう。



ルーティングのポップアップ・ウィンドウが開いたら、ウィンドウの1番下にある[ Audio ] と書かれた部分で「Multichannel source → 1-36」を選択し、36(または希望する次元の)チャンネルがすべて接続されるようにします。

ここで、先述の配線図に従って、それぞれのバスに色を割り当てましょう。(上記のビデオではすでに色がバスに割り当たっています)

トラックカラーを変更するには、トラック上で右クリックをし、表示されたメニューから[ Track color ]を選択します。

そして、次に、それぞれのバスに必要なプラグインをインサートします。

  • Ambisonics Bus:「EnergyVisualizer」音をの位置を視覚化するプラグイン
  • Loudspeakers Bus:「SimpleDecoder」スピーカーでの再生用デコーダー・プラグイン
  • Headphones Bus:「BinauralDecoder」ヘッドフォン再生用デコーダー・プラグイン



ステップ3:スピーカー用のハードウェア・アウトプットを作成

まず、最初にお使いのオーディオ インターフェイスをREAPERに認識させる必要があります。

[REAPER] メニューより[Preferences...]を選択し、左のカラムより[Audio > Device]を選択します。そして、右カラムの[Audio Device:]にてご希望のオーディオ・インターフェイスを選択します。ここでは、1台で最大7.1.4 (12ch)イマーシブ・セットアップが可能なRMEのFireface UFXシリーズを使い説明を行います。



Loudspeakers bus のルーティング・ダイアログを開き:


  1. [ Audio Hardware Outputs ]セクションにてオーディオインターフェイスの最初のチャンネル「1: Analog 1 / Analog 2」を選択します。

  2. 表示されたセクションの一番左下にある「1/2」と表示されたプルダウンメニューより、スピーカーの数に合ったチャンネル数をアサインします。


ここでは、7.1.4 イマーシブ サラウンドのスピーカー・レイアウトを作成しますので、7 + 1 + 4 = 12チャンネル必要になります。[Multichannel Source]にて[12 Channels] > [1-12]を選択します。

Fireface UFXシリーズの場合、この設定を行うと、各スピーカーの信号は、Analog 1からPhones 12で出力されますので、実際の結線は、以下のようになります。



*Phones 9/10、11/12は、Yケーブルを使って接続します。接続に関する詳細は、こちらをご参照ください。

イマーシブ・サラウンドの環境を構築する際は、DSPで各スピーカーの周波数やボリュームを調節することができる機能をもつアクティブ・スピーカーがおすすめです。例えば、GenelecのSAMシリーズを使用すると、専用マイクを立てて測定を行うだけで、全てのスピーカーが正しく設定されるため、より正確なアンビソニックスの球体音場の再現が可能です。

このチュートリアルでは、事前に7.1.5フォーマットで作成したプリセットファイルを読み込んでお使いください。

7.1.5フォーマットのプリセットファイルをダウンロード

Genelec 7.1.4 layout.json


ダウンロードが完了すると「Genelec 7.1.4 layout.json」というファイルが保存されますので、このファイルを先ほどLoudspeakers busにインサートした「SimpleDecoder」にファイルを読み込んでお使いください。



SimpleDecoderのウィンドウから[Load configuration]をクリックしてダウンロードした「Genelec 7.1.4 layout.json」ファイルをLoadするだけでOKです。

[AllRADecoder]は、このプリセットファイル(.json: ジェイソン ファイル)を作成するのに使用するプラグインです。このプラグインにダウンロードした「Genelec 7.1.4 layout.json」ファイルを[Import]すると、スピーカーレイアウトの情報が確認できます。
AllRADecoderでのjsonファイルの作成方法は、多少解説が長くなりますので、後日詳細を掲載しようと思いますが、今回のプリセットを読み込み、ご自宅の環境に合わせてスピーカー配置や角度を調整し[EXPORT]すると、よりご自身の環境に合ったjsonファイルを作成することができますので是非お試しください。


ステップ4:ソース(音源)トラックの追加


ここまでのステップで、オーディオをアンビソニックス化する下準備は全て整いましたので、ここから実際にトラックを追加し音源を配置していきます。

Ambisonics Busの下の空いているエリアをダブルクリックし、新規トラックを必要数(複数)追加します。REAPERには非常に手軽で直感的なグルーピング機能があり、新たに追加作成したトラックをShift+クリックで複数選択し、Ambisonics Busの上にドラッグするだけでトラックがグルーピングされ、各トラックの出力が自動的にAmbisonics Busに流れるように設定されます(デフォルトで設定されていますので、特に確認する必要はありませんが、各トラックの[Parent Send]は有効になっている必要があります)。任意のアンビソニックの次元に従って各トラックのサイズを設定することを忘れないようにしましょう。



各トラックの[ ROUTING ]ボタンをクリックして、表示されたウィンドウで36chを選択してください(このチュートリアルでは5次のアンビソニックスを作成しているため、36chを選択しています。次数に合わせてチャンネル数は変更してください。)。




これらのソーストラックには、音源ファイルを配置すると同時に、チャンネルや用途に合ったエンコーダー プラグインをインサートし、音源ファイルをアンビソニックス化します。

IEM Plug-in Suiteには、用途に合わせた3種類のエンコードプラグインが収められています。

  • SimpleEncoder:monoまたはstereoファイルをアンビソニックスにエンコードします。
  • MultiEncoder:3チャンネル以上のインターリーブ・ファイルをアンビソニックスにエンコードします。
  • RoomEncoder:部屋の反射などをシミュレートするプラグインです
。

このチュートリアルでは、SimpleEncoderとMultiEncoderを使います(3つ目のRoomEncoderは、また別の機会に詳しく解説します)。

SimpleEncoder

SimpleEncoderは、monoまたはstereoファイルに対して使います。操作はシンプルです。ウィンドウの左側の円はパンナーとなっており、「白い玉」をマウスで掴んで自由に動かすことができます。アンビソニックスは360°の球体の音場で、このパンナーはその球体を真上からみている図です。下半球にパンニングが移動した場合は、「白い玉」は「R」と書かれた赤字の表示になります。[Elevation]ノブを動かすと全球を縦方向にパンニングできます。

MultiEncoder

MultiEncoderは、3チャンネル以上のインターリーブ・ファイルに対して使ってください。例えば、Dolby AtmosやAuro 3Dなどのイマーシブのインターリーブ・ファイルや、22.2chのイマーシブのインターリーブ・ファイルなどには、MultiEncoderを使います。

使い方は、最初にオーディオ・ファイルのチャンネル数に合わせて、左肩の数字を調整するだけで、あとはSimpleDecoderと基本的には同じです。

これらのパラメーターは、もちろんオートメーションが可能ですので、オブジェクトベースのイマーシブオーディオのように自由に音源を立体的にパンニングさせることが可能です。


ステップ5:テンプレートとして保存

これで全ての準備が整いました。それでは実際にトラックにオーディオ ファイルをドラッグしてアンビソニックスに変換しアンビソニックスの効果を確認してみましょう!

Loudspeakers busもしくはHeadphones busのどちらかを忘れずにミュートしてください(同時に使用したい場合を除く)。





結果に満足したら、テンプレートとしてこのREAPERプロジェクトを保存することをお勧めします。

File(ファイル) → Project template(プロジェクト・テンプレート) → Save project as template(プロジェクトをテンプレートとして保存)

「Ambisonic Production 05(5次アンビソニック制作)」など、分かりやすい名前を付けておけば、新しいアンビソニック・プロダクションをスタートする場合も、このテンプレートを読み込めばすぐに作業が始められます。

テンプレートをダウンロード

3次/5次/7次のアンビソニック制作用のテンプレートをダウンロードして頂けます。

Ambisonic_Production_Templates.zip

Loudspeakers bus にハードウェア・アウトプットを忘れずに追加するようにしてください。






最後に




このブログで紹介しております「IEM Plug-in Suite」は「オープン・ ソース」です。

つまり、誰でも自由にダウンロードして使用することができます。

そして、このコンテンツは、IEM Plug-in Suiteのオフィシャルページのコンテンツの一部グラーツ国立音楽大学のダニエル・ルードリッヒ氏(Daniel Rudrich)の了承・監修の元、作成されております。


音楽の国として世界的に有名なオーストリアにて200年以上の歴史を持つグラーツ国立音楽大学は、オーストリアに存在する3つの国立音楽大学の1校であり、現代音楽をリードする音楽学校として広く知られています。そして、このグラーツ国立音楽大学では、実は、過去20年の間、積極的にAmbisonicsの研究が行われており、この「IEM Plug-in Suite」は、その貴重な研究結果を、全ての人が簡単に体験できるようにと、汎用性の高いVSTプラグインの形にまとめられたものとなります。少し難しい話になってしまいますが、近代Ambisonicsのフォーマットとして有名な「AmbiX」も、実はこのグラーツ国立音楽大学にて生まれています。そういう意味では、この「IEM Plug-in Suite」は、まさにAmbisonicsの「正統」であり「源泉」であると言えます。



専用マイクや高価なハードウェアなどは必要ありません。実は、誰でも簡単に、すでにお手持ちのオーディオファイルを「アンビソニック化」することができます。

皆さんも是非この機会にAmbisonicsをお試しください!




イマーシブオーディオ、Ambisonics(アンビソニックス)に関するソリューションをご検討の際は、ご気軽に下記までご連絡ください。


「IEM Plug-in Suite」のデモンストレーションや解説から、オーディオインターフェイスやコンバーターの選定、スピーカーの選定まで、専任のスタッフが詳しくご案内いたします。

--------------------------------------------------------------------------------------------------------------------------------------------------------
本ドキュメントの著作権は株式会社シンタックスジャパンと著作者に帰属します。無断複写・転載を禁じます。
ドキュメントの記載事項は制作時点のものであり、将来的に予告なく変更される場合があります。
また内容を保証するものではありません。文中の会社名および製品名は各社の商標または登録商標です。


Copyright (c) 2018 Synthax Japan Inc. , author by Takeshi Mitsuhashi



2018/11/12

イマーシブ・サラウンドの概要と、快適な環境構築

イマーシブ再生環境を構築する方法


「イマーシブ・サラウンド」という言葉を耳にしたことがありますでしょうか?

映画館やライブコンサート、VRのオーディオに使われる、この「イマーシブ」という言葉は、英語では「Immersive Surround」と表記します。

「Immersive」とは「没入」という意味になり、つまり、「Immersive Surround」は、「没入型サラウンド」と訳すことができます。



では、「没入型サラウンド」とはどのようなサラウンドなのか……?
言葉にすると、例えば、下記ような説明になるかと思います。

「リスナーを包み込むような立体的な音により没入感を提供するサラウンドの手法」

今までの5.1chや7.1chというサラウンドは、平面にリスナーを「囲む」ようにスピーカーを配置しますが、「イマーシブ・サラウンド」は、5.1chや7.1chに加え、さらに上層にもスピーカーを配置し、リスナーを「包み込む」ようにスピーカーを配置し、今までのサラウンドに比べ圧倒的に高い臨場感を演出することが可能です。

なお、立体音響、3Dサラウンド、Spatial Audioなど様々な呼び名がありますが、基本的に全て同義語となります。




イマーシブ・サラウンド、3つの「方式」                     


次に、イマーシブ・サラウンドの方式について簡単に説明をします。

一言に「イマーシブ・サラウンド」と言っても、実は、大きく分けて以下の3種類の「方式」があり、それぞれ長所と短所があります。




1. チャンネルベース


事前に想定される出力チャンネルの数に合わせた形で音声をあらかじめ制作し、それぞれのチャンネルを対応する各スピーカーから再生する方式。 チャンネルベースは別名「心理音響モデル」と呼ばれることがあり、収録を行なった場所(コンサートホールやライブ会場など)の音場をそのまま再現したい場合に効果的で、いわゆる “聴かせるための音”=音楽の再生に向いていると言えます。


2. オブジェクトベース


音源に「位置情報」を持たせ、各スピーカーからどのような音を出すかというパンニング情報をリアルタイムに計算(レンダリング)して再生する方式。例えば、ヘリコプターの音、車のクラクションと言った、動きを伴う映画の効果音に対して有効となり、それぞれの音を「オブジェクト」として捉え、それぞれのオブジェクトがどのように動き、音量がどのように変化するかというデータ音声情報に含ませ、再生時には、アンプなどの機器側で、スピーカーの位置や数にあわせて最適なレンダリングを行い再生するため、再生時のチャンネル数=スピーカーの数に依存しない制作が可能だが、制作時にはDolby AtomosやAuro 3Dと言った特定のフォーマットを使いエンコードを行い、再生時には、それぞれのフォーマットに対応した AVアンプなどが必要になる。なお、オブジェクトベースは、純粋な音楽コンテンツの再生よりは、映画の効果音など音が空間を移動するような表現に向いていると言われています。

3. シーンベース(Ambisonics)

リスナー=マイク位置を取り巻く、その空間全体の物理情報を記録再生する方式。一般的にはAmbisonics(アンビソニックス)と呼ばれることが多く、Ambisonicsに対応した特殊なマイクを使い、その空間のアンビエンス全てを録音し、その音声情報を制作時に自由に動かす(回転させる)ことがでるフォーマット。その為、VRなどの音響に使われることが多い方式となります。


イマーシブ・サラウンドの主なフォーマット                     



イマーシブ・サラウンド市場には、現状、いくつかの標準フォーマットが存在しています。ここでは、主な3種のフォーマットをご紹介いたします。


*上記の他に「DTS:X」というオブジェクトベースの規格もありますが、ここでは説明を割愛いたします。




1. NHK 22.2ch


3種のフォーマットの中で最もチャンネル数の多いフォーマットがNHK22.2です。このフォーマットでは、チャンネルベースが基本の考え方になります。

このフォーマットは3層構造となっており、下層はフロントのみの3.2ch、中層はBack Centerを含む10ch、そして上層は8chに天井中央にTop Center (Voice of God)と呼ばれる天頂スピーカーという構成になっています。

このフォーマットで再生環境を作る場合、当然22.2チャンネル、つまり24チャンネル分の出力を持つオーディオ・インターフェイスが必要です。一般的なオーディオ・インターフェイスの場合24チャンネルの出力を持つものは大変少ない為、MADIやDanteなどのマルチチャンネルの伝送方式を使い、それぞれに対応したDAコンバーターを使うのが一般的です。

おすすめのインターフェイス:



おすすめのDAコンバーター:

M-32 DA Pro (MADI)




2. Dolby ATMOS3. Auro 3D


NHKの22.2chフォーマットの再生環境を構築するのは、スピーカーの数も多い為、どうしてもハードルが高くなってしまいますが、Dolby ATMOSやAuro 3Dなどで使われている、5.1.4(ごーてん、いちてん、よん)や7.1.4(ななてん、いちてん、よん)と言ったスピーカー配置であれば、少し機材を買い足したり、または、現在お手持ちの機材を応用したりすることで、比較的簡単に再生・制作環境を整えることができます。

そして、この5.1.4や7.1.4というスピーカー配置は、イマーシブ・サラウンドの再生・制作に置いてもっともポピュラーなものとなります。 

簡単に説明しますと、既存の5.1chのサラウンド、または7.1chのサラウンドに対して、上層のレイヤー(Top Layer)に4つのスピーカーを足したスピーカー配置となり、チャンネル数は、それぞれ、5.1.4 = 10ch 、7.1.4 = 12chとなります。


5.1.4 フォーマット                                              7.1.4 フォーマット

Auro 3DもDolby ATMOSも上記よりスピーカー数の多いフォーマットが存在しているのですが、一般的にイマーシブ・サラウンドによる「没入感」を再現するためには、この5.1.4もしくは7.1.4というスピーカー配置が最低限必要になり、現在、家庭にてイマーシブ・サラウンドを体験する為に発売されているAuro 3D、Dolby ATMOS対応のAVアンプも、基本的にこれらのスピーカー配置を「基本」としている為、5.1.4もしくは7.1.4のスピーカー配置でイマーシブ・サラウンドの再生・制作環境を構築することは非常に理にかなった選択と言えると思います。

さて、では、この5.1.4もしくは7.1.4という再生環境をどのような機材構成で構築するのが良いのかという部分についてお話しいたします。

まず、22.2chフォーマットの再生環境構築の際にご紹介した、インターフェイスとDAを使うパターンで考えてみましょう。ただ、今回は、24chも必要がない為、一般的な16chのDAが1台あれば良いため、22.2chに比べ機材のコストもケーブルの本数も少なくてOKです。


おすすめのインターフェイス:


Fireface UFX+ (MADI)

DIGIface Dante (Dante)

おすすめのDAコンバーター:







スピーカーとオーディオインターフェイスの接続方法                   


ここまで読み進めていただき、勘の良い方ならきっと下記のように思われたと思います。

「この5.1.4もしくは7.1.4というスピーカー配置の場合、必要なチャンネル数は、10chもしくは12chなので……上手にやりくりすれば、UFX1台でできるのでは???」


答えは……


はい。できます。上手にやりくりすれば、UFX1台でイマーシブ・サラウンドの再生・制作環境を作ることは可能です。

となります。

では、どのように「上手にやりくり」すれば良いのでしょうか?
答えはズバリ、「ヘッドフォン出力」を使う!です。



RMEのオーディオインターフェイスに搭載されているヘッドフォン出力は、通常のライン出力としてもお使いいただる為、背面にある1~8chの出力に追加して、2系統のヘッドフォン出力=4chを足して、合計で12chの出力が可能となります。

下記は、Fireface UFX IIのマニュアルからの抜粋となります。

ーーーーーーーーーーーーーーーーーーーー

Fireface のチャンネル 9 ~ 12 はフロント・バネルに 1/4"TRS ジャックで配置されています。これらのチャンネルは、他のライン出力と同じコンバーターを使用するので、技術仕様のデータも同じです(118 dBA SNR)。

ハードウェアベースのリファレンス・レベルが 2 つ用意されています(TotalMix の出力チャンネル [Settings] > [Level] で設定、High または Low)。High は他のチャンネルの設定 Hi Gain に相当し、Low は -10 dBV(上の表参照)でデジタル・フル・スケールで+4 dBu に相当します。このように、これらは高品質のライン出力(アンバランスですが)としても使用可能です。


Phones 出力をライン出力として使用する場合、TRS プラグ⇔ RCA フォノプラグ、もしくは TRS プラグ⇔ TS プラグのアダプターが必要となります。

ピンの割り当ては国際標準に準拠します。左チャンネルを TRS ジャック / プラグの tip に、右チャンネルを ring に接続します。
ーーーーーーーーーーーーーーーーーーーー


これらのケーブルはその形状から通称「Yケーブル」と呼ばれており、ケーブルを自作しなくても販売店などで購入することが可能です。

そして、実際のオーディオ・インターフェイスとスピーカーの接続は、下記のようになります。


5.1.4フォーマット(ヘッドフォン有り)

7.1.4フォーマット

この接続方法で使用可能なRMEオーディオ・インターフェイスはこちら:







この際、Fireface UFX IIとUFX+のMain(1-2ch)は、XLR端子となっており、その他のチャンネルに比べ高いレベル(+24dB)で出力ができる為、注意が必要です。

またFireface 802でも背面のTRS出力とヘッドフォン出力は若干出力レベルが異なりますので、各出力チャンネルにて同じレベルが出力されるように調整をする必要が有ります。






AVアンプと一緒に使う方法                     



イマーシブ・サラウンドの制作環境を構築するに辺り、制作用のソフトウェア(DAWソフトウェアなど)からの再生をオーディオ・インターフェイスを通じてスピーカーから再生することはもちろん必要なのですが、同時に、実際にその制作中のコンテンツをエンドユーザーがどのような機材を使い鑑賞するのかを考え、その環境と同等の環境も同時に構築し、制作中の音源が、エンドユーザーの環境でどのように聞こえるのかを確認する必要が出てきます。

具体的には、すでに発売されているブルーレイなどのイマーシブ・コンテンツを、Dolby ATMOSやAuro 3Dに対応したAVアンプを使って再生し、そのコンテンツを調査研究する必要もあるかと思います。つまり、同じスピーカーを使い、制作中の音(オーディオ・インターフェイスの再生)とAVアンプ、両方の音を切り替えながらモニターできる環境が必要となるわけです。


では、ブルーレイ・プレイヤー、オーディオ・インターフェイス、イマーシブ対応のAVアンプ。この3種の機材をどう接続するのが良いのか?

下記のようにオーディオ・インターフェイスをアナログで12チャンネル、AVアンプのアナログ入力に接続し、同時にブルーレイ・プレイヤーなど民生の再生機をHDMIケーブルでAVアンプに接続し、AVアンプでPCの再生とブルーレイ・プレイヤーの再生を切り替えることができれば一番良いのですが、AVアンプの機種によっては、アナログ入力のポートがAVアンプ側に十分な数用意されておらず、オーディオ・インターフェイスからの出力をアナログでAVアンプに12チャンネル分接続することができなかったりします。





例えば、ATMOSとAuro 3D両方に対応したAVアンプとして、マランツの「AV8805」が有りますが、この機種においても、アナログの入力自体は7.1ch(8ch)までしかなく、ハイトの4チャンネル分のアナログ入力がないため、その分をどう接続するのか……という部分が問題となります。

  
マランツの「AV8805」のアナログ入力部




この問題は、UFXを高品位なデジタル・ミキサーとして使うことで解決します。

RMEのオーディオ・インターフェイスをお使いのユーザーの皆さんであればすでにお馴染みかと思いますが、インターフェイスをPCに接続すると立ち上がってくるミキサー・ソフトウェア「TotalMix FX」を使い、Top Layerの4chのみ、AVアンプからではなく、UFXから直接出力するように接続行うことにより回避することができます。

もちろん、AVアンプからのアナログ出力を全て一旦UFXで受けて、全てのスピーカーを直接UFXに接続するという環境を構築する事もできますが、そうしてしまうと、入力も出力も全て使い果たしてしまうため、PCでの録音作業、ミキシング作業に支障が出てしまいます。このセットアップは、あくまでもPCにて通常の音効作業を行いつつ、同時にAVアンプを通してブルーレイ・プレイヤーを聞くといった用途の為のセットアップとなりますので、UFXのアナログ入力はできるだけ空けておく前提で下記のように配線を行います。

下図の緑色の線の部分、AVアンプのハイトチャンネル用のアナログアウトを、UFXのアナログインプットにそれぞれ接続します。そして、UFXのヘッドフォンからの出力は、ハイト用のスピーカーへと接続。具体的には、下記のような接続となります。


ここで肝になるのは、TotalMixでのルーティングの組み方となります。

Software Playbackの9~12chは、もちろん、Hardware Outputの9~12chにルーティングするのですが、同時に、AVアンプのTop Layer 4ch分のアナログ出力を受けているUFXのHardware Input 1~4chもHardware Outputの9~12chにルーティングする必要があります。

文字にすると判りにくい為、チャートにしてみました。これで少しは判りやすくなったかと思います。

TotalMixのルーティングがあまり得意でない方は、下記よりTotalMixのWorkSpace Fileをダウンロードして読み込んでいただく方法もありますので、是非ご活用ください。

※Fireface 802用WorkSpace Fileは現在準備中です

いかがでしたでしょうか。

このブログは特に、ゲームのサウンドに携わるエンジニアやクリエーターのみなさまには、いくらか有益な情報になったのではないか思います。 

ゲームの業界だけに留まらず、今後ますます需要が高まることが予想されるイマーシブサラウンド。 RMEは、その柔軟なTotalMix ミキサーと正確な再生、また、MADIやDante/AVBといったデジタル伝送フォーマットにより、今後もハイレゾフォーマットでのマルチチャンネル再生をサポートしてゆきます。また、イマーシブサラウンド、アンビソニックス、バイノーラルと言った、エンジニアやクリエーターのみなさまが「今」必要としているな情報も、引き続きご紹介してゆく予定です。 


2018/10/12

進化するDAC - RME ADI-2 Pro / ADI-2 DAC をWindows Wasapi排他モードで使用する


ADI-2 DAC

ADI-2 Pro / ADI-2 DACのクラス・コンプライアントの互換性を拡張

先日はADI-2 Proに新しく追加された「DACモード」を紹介しましたが、今回はWindowsユーザーの皆様へ朗報です。ファームウェア・アップデートによりADI-2 Pro / ADI-2 DACのWindows 10クラス・コンプライアント環境での互換性が拡張され、ASIO/WDMドライバーをインストールしない状態でも、クラス・コンプライアントで2チャンネル再生が行えるようになりました。  
クラス・コンプライアント環境ではWasapi排他モード*にも対応するため、ASIO同様にADI-2 Pro / DACのサンプル・レートを再生ファイルのサンプル・レートに追従させることができます。
実際にWasapi排他モード対応の再生ソフト「Foobar2000」と「JRiver Media Center」で試してみました。

  • *ASIOとWASAPI排他モードについて(クリックしてください):

    • ・ASIO(Audio Stream Input/Output)はドイツのSteinberg Media Technnologies GmbHより提唱された規格です。ハードウェアに直接アクセスし、高音質、低レイテンシー、安定性を提供するASIOは20年以上の歴史があり、ミュージシャン、エンジニア、またオーディオ・リスナーの間で広く普及しています。

    • ・WASAPI(Windows Audio Session API)はWindows Vista以降Windowsに標準搭載された規格です。WASAPI共有モード(Shared)とWASAPI排他(Exclusive)モードがあり、共有モードはオーディオをWindowsのオーディオ・ミキサーを介してレンダリングする一方、排他モードは1つの再生ソフトがDACを排他的に使用し、Windowsのオーディオ・ミキサーを介さずにオーディオ・デバイスにレンダリングするため、共有モードに比べて高音質が期待できるモードです。

1.  ADI-2 Pro / DACをクラス・コンプライアント環境で使用する 

(実際に操作する前に、必ず下に記載されている注意事項をご確認ください)
本体をWindowsのクラス・コンプライアント環境で動作させるには、先ず最新のファームウェアに更新します。その後に、コンピューターにインストールされているRMEドライバーを完全に削除してから、コンピューターを再起動します。
再起動後にADI-2 Proを再接続すると、コントロール・パネルのスピーカーのプロパティーに対応する全てのサンプル・レート(下の画面:48 kHz〜384 kHz*)が表示されるようになり、これでクラス・コンプライアント環境で使用できていることを確認できます。
*クラス・コンプライアント環境ではPCMは最大384 kHzまで対応します。
ご注意:排他モードで使用する際には、サンプル・レートの下にある排他モードのチェック・ボックスが
両方ともチェックされていることをご確認ください。


参考までに、RMEドライバーがインストールされている場合はサウンド・プロパティーには1つのサンプル・レートのみが表示されます(例では44100 Hz):

2. 再生ソフトを設定する

foobar2000 / JRiver Media Center等のWasapi排他モード対応ソフトで出力デバイスの設定をします。  

foobar2000 

Preferecesの[Output]の項目で「DSD:WASAPI(push):スピーカー(ADI-2 Pro(xxxxシリアル番号xxx))」を選択し、[Output format]を[32-bit]にします*。

*事前にfoobar2000にWASAPI output supportプラグインとDSD再生用のSuper Audio CD Decoderプラグインをそれぞれインストールしています。 
https://www.foobar2000.org/components/view/foo_out_wasapi 
https://sourceforge.net/projects/sacddecoder/files/foo_input_sacd/ 


JRiver Media Center

OptionのAudio Device画面で「スピーカー(ADI-2 Pro(xxxシリアル番号xxx))」[WASAPI]を選択します。

3. ファイルを再生して本体のサンプル・レートを確認

ファイルを再生すると、画面右下に本体のサンプル・レートが表示されます。音源のサンプル・レートに従ってADI-2 Pro / DACのサンプル・レートが追従することを確認してください。
 192 kHzファイル再生(右下に192.0と表示)
 

 DSD256ファイル再生(705.6と表示)
DSD音源では、レベル・メーターが青色に変わり、
DSD128は352.8 kHz、DSD256は705.6 kHzで追従して再生します。

  • *ADI-2 Pro / DACをクラス・コンプライアントで使用する際の注意事項
    (クリックしてください):

    • ・ADI-2 Pro / DACをWindows 10のクラス・コンプライアント環境で使用するには、コンピューターからRMEのWindowsドライバーを完全に削除する必要があります。 

    • ・コンピューターにRMEドライバーがインストールされている場合もWASAPIには対応しますが、本体がサンプル・レートが追従するWASAPI排他モードは利用できません。その場合はASIOのみが追従します。 

    • ・最新のWindows 10のクラス・コンプライアント環境でPCM最大384 kHz、DSD最大DSD256までの2チャンネル録音 / 2チャンネル再生に対応します(ASIO環境では768 kHzに対応、クラス・コンプライアントではWindowsの制限で384 kHzまで対応)。 

    • ・ネイティブにUSB AUDIO CLASS2.0(UAC2)に対応している最新のWindows 10環境でご利用ください。 

    • ・現時点ではクラス・コンプライアント環境ではADI-2 Proのマルチチャンネル・モードには対応しません。 

    • ・ADI-2 Pro / DACの次の機能を使用するにはRMEドライバーがインストールされている必要があります(ASIO環境での使用【768 kHzに対応】、ファームウェアの更新 、Digicheckの使用、ADI-2 Proをマルチチャンネル・モードで使用)。

※ ADI-2 Pro / ADI-2 DACの操作や設定方法について以下のページに掲載しています。

※「開発者マティアス・カーステンズに訊くADI-2 DAC」インタビュー