2021/12/17

WOWOWがハイレゾ/3Dオーディオ再生アプリ「ωプレーヤー」を発表



WOWOWとNTTスマートコネクトが、Auro-3D再生機能を持つ「ω(オメガ)プレーヤー」アプリを開発し、ハイレゾ / 3Dオーディオ配信の実証実験のベータ・テスターの募集を行っています。HPL & MQAやAuro-CodecとMPEG-4 ALSロスレス圧縮技術を組み合わせてエンコードされたコンテンツのVOD配信と、MQAおよびAURO-3Dの同時ライブ配信を世界で初めて実証実験し、ハイレゾ / 3Dオーディオ配信サービスの受容性を検証するとのことです。

Mac版のアプリではMacとマルチチャンネル・オーディオ・インターフェイスだけで直接Auro-3D信号のハイレゾ再⽣が行えるため、例えばMacと高品位なRMEインターフェイスのシンプルな構成で96 kHz / 24 bitのハイレゾ・イマーシブ・オーディオの再生が行えることになります。

MacとFireface UFX IIの11.1chセットアップ例
例ではUFX IIのヘッドフォン出力から4ch分をライン出力しています。背面のTRS出力とヘッドフォン出力は出力レベルが異なりますので、各出力チャンネルにて同じレベルが出力されるように調整が必要です。なお、UFX IIのヘッドフォン出力は他のライン出力と同じコンバーターを使用するので基本的な技術仕様は同じです。

なお、Auro-3Dの再生には11.1や9.1チャンネルを再生できるだけの出力数やスピーカーを用意するのが最も効果的ですが、ωプレーヤーには3Dオーディオをダウンミックスしてバーチャル・スピーカー技術で再⽣する「Auro-Scene」機能や、ヘッドホンから3Dオーディオ再⽣する「Auro-HeadPhones」機能が搭載されているため、少ないスピーカーやヘッドホンでも、今までと一線を画する臨場感を体験できるようです。

以下が株式会社WOWOW技術局の募集要項です。MacやiPhoneをお持ちの方ならどなたでも参加できるので、是非試してみてはいかがでしょうか?


2020/03/06

ホームシアター/オーディオ・エコシステム

本ブログでは、ハイレゾ音源の再生方法やPCオーディオのご紹介を多くしておりました。

高音質配信、映像配信を始めスマート家電などが充実した今日ですが、今回はミニマムな機材で映画配信などの映像と手軽な音楽再生環境の紹介をさせて頂きたいと思います。

必要な機材

  • テレビ
  • Fire TV、Apple TV、Chromecastなどの動画再生端末
  • ADI-2 DAC FS(オーディオ・インターフェイス)
  • Genelec Gシリーズ(アクティブ・スピーカー)
  • Olasonic NA-BTR1(Bluetoothレシーバー)
  • スマホ、DAPなどの

接続例


まず、パワードスピーカー(アンプを必要としない電源内蔵型スピーカー)を使うことがポイントです。ここでご紹介するGenelec Gシリーズは、搭載されるそれぞれのウーファーとツイーターに最適化されたパワー・アンプを内蔵しているので、スピーカー本来の性能を最大限に引き出すことができます。上位機種のThe Onesシリーズを使用すると、家の環境に合わせてキャリブレーションを行うことも可能なため、どんなに歪な部屋でも原音に忠実に再生させることが可能です。



テレビにはFire Stick、Apple TV、Chromecastなどの動画・音楽配信端末を接続します。Amazon Music HDがアナウンスされたのは記憶に新しいですが、多くの映画や音楽を楽しめるサービスが多く存在しています。これらのサービスを最も高音質にお楽しみ頂くためには、上の接続図のようにTOSLINKケーブルでテレビとADI-2 DAC FSを接続します。

また、スマホやDAPなどから音楽を楽しむケースも増えてきています。音質劣化がなく音楽を楽しむためには、USBケーブルでADI-2 DAC FSと接続することがベストですが、若干の音質のロスが気にならない場合は、高音質なBluetoothレシーバーを導入することで、ワイヤレスで音楽をADI-2 DAC FS経由で楽しむことができます。ここでご紹介するのはOlasonic社のNA-BTR1です。この製品は現状最も高音質なコーデックに対応していることも重要ですが、コアキシャルで出力できることがポイントです。コアキシャル・ケーブルでADI-2 DAC FSと接続することで、機器間のオーディオ伝送時のロスをなくすことができます。
ADI-2 DAC FSは、入力された信号に自動的に切り替わりますので、テレビ、スマホ、DAPなどを再生させるだけで自動的に入力を切り替えてくれますので、従来のオーディオシステムのように入力を切り替える必要がありません。

最後に、部屋自体の音の反射や振動で聞こえにくくなる音を解消するために、最近はインテリアとしても注目されているVicousticの吸音材、拡散材などで音のトリートメントをすることも非常に効果的です。


シンプル且つモダンで超精密、高音質なホーム・エンターテイメント・システム例をご紹介させていただきましたが、いかがでしたでしょうか。是非お楽しみください。

2019/04/05

Ambisonicsとは




VR(仮想現実)、AR(拡張現実)、MR(複合現実)、360度ビデオなど新しい体感型コンテンツの普及にともない、 音楽やサウンドにも同様の表現力が求められており、今まさに様々な試みが行われています。

サラウンドに高さの表現を追加しサウンドに包み込まれる立体的な音響を再現するイマーシブ・オーディオ、立体音響をヘッドフォンで聞くことのできるバイノーラルなど、様々な再生方法やそれらを実現するテクノロジーが開発され、私たちの身の回りでも採用が進んでいます。

その中でもYouTubeやFacebookに採用された「Ambisonics」(アンビソニックス)が現在大きな注目を集めています。

アンビソニックスを簡単に説明すると、次の3点に集約することができます。

  • アンビソニックスとは、イマーシブ3Dオーディオのフォーマットの一種
  • アンビソニックスでは、360°球体の音場で、録音と再生が可能
  • アンビソニックスは、シーンベースのフォーマット


アンビソニックスとは、イマーシブ3Dオーディオのフォーマットの一種


「イマーシブ」(Immersive)とは、日本語では「没入」とか「没入型の」と翻訳されます。つまりイマーシブ3Dオーディオでは、一般的なステレオやサラウンドでは得られない高い「没入感」に浸ることができます。

またアンビソニック以外の著名なイマーシブ3Dオーディオのフォーマットとして、ハリウッド映画で広く採用されている「Dolby Atmos」「DTS:X」、ヨーロッパで開発され音楽コンテンツのリリースが多い「Auro-3D」などがあります。

アンビソニックスでは、360°球体の音場で、録音と再生が可能




一般的なステレオ再生の場合、リスナーの前面から再生される平面的な音場ですが、5.1chや7.1chのサラウンドになると、リスナーを360°取り巻くようになります。さらに「Dolby Atomos」や「Auro-3D」といった3Dサラウンドの場合は、高さを加えたドーム型の半球面に音場が広がります。そしてAmbisonicsでは、360°全球面となり、リスナーをすべて包み込む球体が完成します。

アンビソニックスは、シーンベースのフォーマット


「シーンベース」(scene-based)とは何かを理解するためには、イマーシブ3Dオーディオ以外のフォーマットについて少し説明する必要があります。

イマーシブ3Dオーディオには、大きく分けて以下の3種類の方式があります。

  • チャンネルベース
  • オブジェクトベース
  • シーンベース(Ambisonics)


チャンネルベース



チャンネルベースとは、再生システム内のそれぞれのチャンネルに1:1で対応する再生方式です。

2台のスピーカーをつかって表現を行うステレオフォニックもチャンネルベースです。録音の段階から2台のスピーカーで再生することを想定し制作が行われています。
ステレオだけではなく、5.1chや7.1chといったサラウンドも基本的にはチャンネルベースで制作され、もちろんイマーシブサラウンドでもチャンネルベースの考え方を使うことができます。

主要なイマーシブ3Dオーディオのフォーマットである、NHKの22.2chマルチチャンネル音響や、ヨーロッパを中心に人気のあるAuro-3Dなどは、このチャンネルベース方式を使ったフォーマットとなります。

オブジェクトベース



オブジェクトベースとは、音源(音声信号)の他に音響メタデータを付随させリアルタイムに各スピーカーからの出力する音を計算して再生する方式です。

例えば頭上を通過するヘリコプターの音のような動きを伴う効果音に対して有効で、それぞれの音を「オブジェクト」として捉え、オブジェクトがどのように動き、その結果音量がどのように変化するかをスピーカーレイアウトにあわせてデコードを行い再生します。

Dolby Atmosでは、オブジェクトベースとチャンネルベースの両方を使ったフォーマットです。

シーンベース



シーンベースは、リスナーを取り巻く空間全体の物理情報を360°の全天球空間に記録再生する方式です。

シーンベースに属するAmbisonicsでは、マイクを使ってその空間の音場(アンビエンス)のすべてを360°の球体の中に取り込むこともできますし、個別に収録した音を自由に球体の中に配置し、オブジェクトベースのように自由に動かすこともできます。

またAmbisonicsの最大の特徴は、それぞれの音の動きや位置を球体の中に有したまま、その球体を自由に回転させることができます。この特徴によりVRコンテンツや360°動画などの音響として使われることが多い方式となっています。

Ambisonicsはスピーカーレイアウトに依存せず、チャンネルベースを含まないため、どのようなスピーカーレイアウトであっても1つのAmbisonicsフォーマットのファイルで対応することができます。



High Order Ambisonics


FacebookやYouTubeなどに採用されたことでAmbisonicsの音源を聴く環境が増えつつありますが、多くのAmbisonics音源はFirst Order Ambisonics、日本語では「1次アンビソニックス」と呼ばれるものです。

1次アンビソニックスでは全方位から聞こえる0次アンビソニックス(下図のW-channel)に水平方向、垂直方向、そして奥行きが加わります。


この状態でも上下・左右・前後という3次元の位置情報があるため、360度球体音場の再現は可能です。

ただしAmbisonicsの最大の特徴でもある音の動きや、球体音場の回転などを伴う場合ではそれぞれのチャンネル*の隙間が生じてしまい、音像の位置再現性が落ちてしまいます。
* ここでのチャンネルは、スピーカーの数ではなく空間を埋める方向とお考えください。

この問題を解決するのがHigh Order Ambisonics(通称:HOA)、日本語では「高次アンビソニックス」と呼ばれます。



IEM Plug-inを使用してAmbisonicsを制作するチュートリアルをご確認いただけます。


2019/02/01

レコードをDSD 11.2 MHzで高音質録音



「アナログ・レコードの音をキャプチャーして、デジタルプレイヤーで再現したい」という方は、多いのではないでしょうか。

DSDは一般的には録音後に編集ができないため、一般的な音楽制作のスタジオ録音にはなかなか採用されない規格ではありますが、手持ちのアナログ音源の「アナログらしい音」をデジタル化して再生するには、最適な規格ではないかと思います。

今回は、ADI-2 Proと付属の録音・再生ソフト「Sound It! for ADI-2 Pro』を使ってアナログ・レコードを高音質録音して、デジタルプレイヤーで楽しむ方法をまとめてみました。


必要なもの

  • DSD対応オーディオ・インターフェイス
  • 録音ソフト
  • コンピューター
  • レコードプレイヤー(およびプリアンプ)

前準備

ADI-2 Proのインストールガイドを参照してドライバをコンピューターにインストールしてください。

製品パッケージに記載される手順に従い「Sound It! for ADI-2 Pro」をインストールしてください。

製品に付属のセットアップガイドに従いADI-2 Proをお使いのコンピューターと接続してください。


機器の接続

まず典型的な接続例はこのようになるかと思います。


レコードプレイヤーからの出力はレベルが低いため、フォノイコライザーを搭載したプリアンプに接続して、レベルを上げる必要があります。最近のレコードプレイヤーの中にはフォノイコライザーを搭載したモデルもありますので、その場合はプリアンプを通さずにADI-2 Proに直接接続できます。

プリアンプからADI-2 Proへの接続は、アナログでもデジタル接続でも問題ありません。プリアンプのADコンバーターを使いたいか、ADI-2 ProのADコンバーターを使いたいかでお好きな方をお選びください。わからない場合はアナログ接続でADI-2 ProのADコンバーターで録音することをお勧めします。

スピーカーへの接続は、パッシブスピーカーの場合は上の図のようにアンプを経由する必要があります。パワードスピーカーをお使いの場合はADI-2 Proから直接接続することができます。

各所の接続端子の形(RCA、TS/TRS、XLR)が合わない場合は、市販のアダプターまたは、端子の合った正しい変換ケーブルをお使いください。


録音のセットアップ

機器の接続が終わったらソフトウェアを立ち上げて録音の準備を始めます。

  1. 必要のないソフトウェアが立ち上がっていないことを確認します。
  2. Sound It! for ADI-2 Proを立ち上げます。
  3. 起動時にオーディオポートの設定が表示されますので、出力デバイス入力デバイス共にADI-2 Proを選択します。Core Audio設定の画面が表示されたらOKボタンを押します。
※Windowsの場合はASIO Madiface USBを選択してからASIO設定OKボタンを押します。

  1. ファイルメニューもしくは下の図のアイコンからファイルを新規作成します。

  2. オーディオファイルの新規作成画面が表示されますので、左下のフォーマット変更ボタンを押します。
  3. 表示される画面でDSDにチェックをいれて、サンプリングレートを11.28MHz(DSD256)を選択し、OKボタンを押します。
  4. 表示されるオーディオファイルの新規作成画面のOKボタンを押すと録音画面が表示されます。

  5. レコードをクリーナーなどで丁寧に掃除してください。
  6. ADI-2 ProのフロントパネルにあるI/Oボタンを押して、Analog Inputページ内の最下部にあるAD ConversionDSDに設定されていることをご確認ください。



  7. 家庭用のプリアンプはRMEのリファレンスレベルを+4dBu(1.78dBvまたは1.23 V RMSに相当)に設定します。
  8. DSDは録音後にレベルの変更を含む調整ができないため、ベストなレベル(ボリューム)で録音するためには、Sound It!上のレベルメーターを見ながら曲中のレベルの一番大きな箇所がピークしない(0dBを超えない)程度、プリアンプのボリュームで音量を上げます。

  9. レベルが決定したらSound It!の録音ボタンを押して、同時にレコードを再生します。
    後でトリミング(最初、最後の空白部分をカット)することはできませんので、タイミングよく再生、録音を開始してください。
  10. 録音が終わったら、ファイルメニューから名前をつけて保存を選んで保存します。
  11. 以上でDSD録音が完成しました。

前途で書いた通り、DSDの特徴は編集ができないということです。つまりアナログレコードをカッティングするのと同じことで録音時の再生音が最終のファイルとなります。よってボリュームの設定やレコードのクリーニングが綺麗な録音をするための重要なポイントです。


録音した音源を再生する

ADI-2 Pro / ADI-2 DACでDSD音源を再生すると、レベル・メーターが緑色から青色に変わるため、すぐに確認できます。


PCM再生時のレベルメーター

DSD再生時のレベルメーター

録音したDSD音源を再生するには、様々な方法があります。
Sound It! for ADI-2 Proでそのまま再生することもできますし、JRiver Media Center、Audirvana +、Foobar2000(拡張プラグインが必要)等のDSD対応メディア・プレイヤーで再生することもできます。

また、DSDやハイ・サンプルレートの音源を管理するにはどうしても大容量のハードディスクが必要になりますが、その場合、IODATA SoundgenicやDELA等の大容量のNASネットワーク・オーディオ・サーバーで音源を管理し、サーバーのUSB端子にRMEのインターフェイスを直接接続してパソコンなしでiPadから操作することもできます。この方法については、下にリンクした別の記事で詳しくご紹介していますので、是非ご覧ください。

それでは、皆様お楽しみください!



「Soundgenicで音楽をさらに楽しもう!」
https://audio.synthax.jp/content/rme-with-soundgenic/
















2018/12/12

チュートリアル:REAPERでIEM Pluginを使うための基本的なルーティング

IEM Plug-in Suite




このチュートリアルでは、誰でも自由に利用することができる「オープン・ ソース」としてリリースされている高次アンビソニックス制作プラグイン「IEM Plug-in Suite」を使い、球体の音場に自由に音を配置し360°の音楽作品を作ることができる、Ambisonics(アンビソニックス)の面白さを皆さんに体験していただく為に、REAPERを使ったアンビソニック・プロダクションのセッションをゼロからセットアップする方法をご紹介いたします。


目次:
  • 行うこと/必要なもの
  • ルーティング
  • ステップ1:3つのメインバスを作成
  • ステップ2:バスの接続
  • ステップ3:スピーカー用のハードウェア・アウトプットを作成
  • ステップ4:ソーストラックを追加
  • ステップ5:ルーティングをテスト/テンプレートとして保存
  • テンプレートをダウンロード

行うこと/必要なもの

このチュートリアルでは、REAPERで高次アンビソニック(Higher Order Ambisonic = HOA)のテンプレート・プロジェクトを作成し、スピーカー及びヘッドフォン両方の再生に必要なルーティングを行います。このチュートリアルの最後に完成したREAPERプロジェクトのダウンロード・リンクがありますが、REAPERのルーティング機能を理解するためにも、少なくとも一度は、空のプロジェクトからスタートし、自身でルーティングを行ってみることをお勧めします。


必要なものはこれで全てです:


ルーティング

まず始めに、このチュートリアルで完成させるルーティングについて説明します。
多目的なプロジェクトにするために、今回は、アンビソニックのメイン・バスを1つと、それに対して個別の2系統のアウトプット・バス(スピーカー再生用とヘッドフォン再生用)を作成します。こうすることにより、アンビソニック化された音源が、スピーカー用にチャンネル・ベースの音源としてデコードされると同時に、ヘッドホン再生用としてバイノーラルでもデコードされ、モニタリングを行うことができます。


次の配線図を参照してください。



IEM Plug-inでは、ミックス/録音済のアンビエンス音源や、アンビソニックスに変換したい単一のオーディオ・ファイルなど、一般的なオーディオ・データであれば、おおよそ全て扱うことが可能です。従って、アンビソニックス専用のマイクロフォンなどを使わなくても、通常のマイクで収録した音源や、今まで録りためてきたオーディオ・ファイルなど、なんでも簡単にアンビソニックス化できる訳です。素晴らしいですね!

音源のオーディオ信号は、全てアンビソニック・バスにルーティングされ、このチャンネル上で、プラグインを使った全体のコンプレッション処理を行なったり、EnergyVisualizerを使用い再生音を視覚的に確認したりと、様々なアンビソニックスの処理を行う事ができます。

最後に、このアンビソニック・バスをレンダリング / バウンス / エクスポートすることにより、世界中の人が「デコード」すると、実際に「聴く」ことができるマルチ・チャンネルのAmbisonicsオーディオ・ファイルを書き出すことができるということになります。

アンビソニックス・ファイルは「デコード」を行わないと「聴く」ことができませんので、スピーカーモニター用のデコード・バス、ヘッドフォンモニター用のバイノーラル・バスを用意する必要があります。最終的にデコードされた信号はオーディオ・インターフェイスに送られ、スピーカーで再生されるようになります。

イマーシブ・サラウンドのモニタリング環境として、多数のスピーカーを用意することが難しい場合、また、電車や飛行機に乗っている時などでも、アンビソニックスをモニターすることは可能です。これには、バイノーラルという技術が必要です。バイノーラルは、立体的な音像をヘッドフォンで再現する技術で、アンビソニック・ミックスを誰でも簡単にヘッドフォンで聴くことができます。

このチュートリアルで作成するセッション ファイルでは、アンビソニック・バスからルーティングされたアンビソニック信号を、別に用意したバスにルーティングし、そのバス上で「BinauralDecoder」を使い、バイノーラルのヘッドフォン信号にデコードします。ここでは、IEM Plug-in Suiteに入っている「BinauralDecoder」を使いますが、もしその他のバイノーラル・デコーダーを持っている場合、それらを使用することも可能です。


ステップ1:3つのメイン バスを作成

REAPERで新規プロジェクトを開き(File > New Project)、3つのメイン・バス(Ambisonics busLoudspeakers busHeadphones bus)を作成します。バス トラックの作成は、Mixerウィンドウ(View > Mixer)にて、空のエリアをダブルクリックするだけです。バスにはそれぞれ名前を付けておくと便利です。



REAPERでは、トラックを作成すると自動的にステレオ・トラックが作成され、自動的にMASTERトラックにルーティングされます。今回のプロジェクトでは、各トラックの[ ROUTING ]ボタンをクリックして、チャンネルのルーティング・ダイアログを開き変更を行います。

Ambisonics Busでは、左上の[ Master send ](マスターへ送信)のチェックボックスを無効にします。

次に、[ Track channels ] にて、チャンネル数を希望する次元のアンビソニックスに必要なチャンネル数へと設定します。

アンビソニックスへとエンコードを行うためには、1トラック内に複数のバス・チャンネルが必要です。通常のDAWソフトウェアですとおおよそ16chが限界ですが、REAPERの場合は、最大64chまで1トラック内に展開することができるため、高次アンビソニックスにも対応しているのが特徴です。

1次アンビソニックス →  4チャンネル
2次アンビソニックス →  9 チャンネル
3次アンビソニックス →    16 チャンネル
4次アンビソニックス →    25 チャンネル
5次アンビソニックス →    36 チャンネル
6次アンビソニックス →    49 チャンネル
7次アンビソニックス →    64 チャンネル

このチュートリアルでは、5次でアンビソニックスを作成する流れを説明します。

以下のスクリーンショットでは、Ambisonics Busが5次アンビソニックス用に準備されていることがわかります。
Headphones busの[ Master Send ]チェックボックスを有効にします。バイノーラル化された2chのオーディオ信号はマスター・トラックに送られ、オーディオ・インターフェイスのメイン・ステレオ・アウトプットに直接送られます。

Loudspeakers busの設定は後ほど行います。


ステップ2:バスの接続

それでは、実際にルーティングを行ってみましょう。REAPERでは、とても直感的にルーティングを行うことができます。下のビデオのように、任意のトラックの[ ROUTING ] ボタンを別のトラックの[ ROUTING ] ボタンにドラッグするだけで、最初のトラックの出力は2番目のトラックにルーティングされます。まず始めに、Ambisonics Busの出力をLoudspeakers busの入力に接続してみましょう。



ルーティングのポップアップ・ウィンドウが開いたら、ウィンドウの1番下にある[ Audio ] と書かれた部分で「Multichannel source → 1-36」を選択し、36(または希望する次元の)チャンネルがすべて接続されるようにします。

ここで、先述の配線図に従って、それぞれのバスに色を割り当てましょう。(上記のビデオではすでに色がバスに割り当たっています)

トラックカラーを変更するには、トラック上で右クリックをし、表示されたメニューから[ Track color ]を選択します。

そして、次に、それぞれのバスに必要なプラグインをインサートします。

  • Ambisonics Bus:「EnergyVisualizer」音をの位置を視覚化するプラグイン
  • Loudspeakers Bus:「SimpleDecoder」スピーカーでの再生用デコーダー・プラグイン
  • Headphones Bus:「BinauralDecoder」ヘッドフォン再生用デコーダー・プラグイン



ステップ3:スピーカー用のハードウェア・アウトプットを作成

まず、最初にお使いのオーディオ インターフェイスをREAPERに認識させる必要があります。

[REAPER] メニューより[Preferences...]を選択し、左のカラムより[Audio > Device]を選択します。そして、右カラムの[Audio Device:]にてご希望のオーディオ・インターフェイスを選択します。ここでは、1台で最大7.1.4 (12ch)イマーシブ・セットアップが可能なRMEのFireface UFXシリーズを使い説明を行います。



Loudspeakers bus のルーティング・ダイアログを開き:


  1. [ Audio Hardware Outputs ]セクションにてオーディオインターフェイスの最初のチャンネル「1: Analog 1 / Analog 2」を選択します。

  2. 表示されたセクションの一番左下にある「1/2」と表示されたプルダウンメニューより、スピーカーの数に合ったチャンネル数をアサインします。


ここでは、7.1.4 イマーシブ サラウンドのスピーカー・レイアウトを作成しますので、7 + 1 + 4 = 12チャンネル必要になります。[Multichannel Source]にて[12 Channels] > [1-12]を選択します。

Fireface UFXシリーズの場合、この設定を行うと、各スピーカーの信号は、Analog 1からPhones 12で出力されますので、実際の結線は、以下のようになります。



*Phones 9/10、11/12は、Yケーブルを使って接続します。接続に関する詳細は、こちらをご参照ください。

イマーシブ・サラウンドの環境を構築する際は、DSPで各スピーカーの周波数やボリュームを調節することができる機能をもつアクティブ・スピーカーがおすすめです。例えば、GenelecのSAMシリーズを使用すると、専用マイクを立てて測定を行うだけで、全てのスピーカーが正しく設定されるため、より正確なアンビソニックスの球体音場の再現が可能です。

このチュートリアルでは、事前に7.1.5フォーマットで作成したプリセットファイルを読み込んでお使いください。

7.1.4フォーマットのプリセットファイルをダウンロード

Genelec 7.1.4 layout.json


ダウンロードが完了すると「Genelec 7.1.4 layout.json」というファイルが保存されますので、このファイルを先ほどLoudspeakers busにインサートした「SimpleDecoder」にファイルを読み込んでお使いください。



SimpleDecoderのウィンドウから[Load configuration]をクリックしてダウンロードした「Genelec 7.1.4 layout.json」ファイルをLoadするだけでOKです。

[AllRADecoder]は、このプリセットファイル(.json: ジェイソン ファイル)を作成するのに使用するプラグインです。このプラグインにダウンロードした「Genelec 7.1.4 layout.json」ファイルを[Import]すると、スピーカーレイアウトの情報が確認できます。
AllRADecoderでのjsonファイルの作成方法は、多少解説が長くなりますので、後日詳細を掲載しようと思いますが、今回のプリセットを読み込み、ご自宅の環境に合わせてスピーカー配置や角度を調整し[EXPORT]すると、よりご自身の環境に合ったjsonファイルを作成することができますので是非お試しください。


ステップ4:ソース(音源)トラックの追加


ここまでのステップで、オーディオをアンビソニックス化する下準備は全て整いましたので、ここから実際にトラックを追加し音源を配置していきます。

Ambisonics Busの下の空いているエリアをダブルクリックし、新規トラックを必要数(複数)追加します。REAPERには非常に手軽で直感的なグルーピング機能があり、新たに追加作成したトラックをShift+クリックで複数選択し、Ambisonics Busの上にドラッグするだけでトラックがグルーピングされ、各トラックの出力が自動的にAmbisonics Busに流れるように設定されます(デフォルトで設定されていますので、特に確認する必要はありませんが、各トラックの[Parent Send]は有効になっている必要があります)。任意のアンビソニックの次元に従って各トラックのサイズを設定することを忘れないようにしましょう。



各トラックの[ ROUTING ]ボタンをクリックして、表示されたウィンドウで36chを選択してください(このチュートリアルでは5次のアンビソニックスを作成しているため、36chを選択しています。次数に合わせてチャンネル数は変更してください。)。




これらのソーストラックには、音源ファイルを配置すると同時に、チャンネルや用途に合ったエンコーダー プラグインをインサートし、音源ファイルをアンビソニックス化します。

IEM Plug-in Suiteには、用途に合わせた3種類のエンコードプラグインが収められています。

  • SimpleEncoder:monoまたはstereoファイルをアンビソニックスにエンコードします。
  • MultiEncoder:3チャンネル以上のインターリーブ・ファイルをアンビソニックスにエンコードします。
  • RoomEncoder:部屋の反射などをシミュレートするプラグインです
。

このチュートリアルでは、SimpleEncoderとMultiEncoderを使います(3つ目のRoomEncoderは、また別の機会に詳しく解説します)。

SimpleEncoder

SimpleEncoderは、monoまたはstereoファイルに対して使います。操作はシンプルです。ウィンドウの左側の円はパンナーとなっており、「白い玉」をマウスで掴んで自由に動かすことができます。アンビソニックスは360°の球体の音場で、このパンナーはその球体を真上からみている図です。下半球にパンニングが移動した場合は、「白い玉」は「R」と書かれた赤字の表示になります。[Elevation]ノブを動かすと全球を縦方向にパンニングできます。

MultiEncoder

MultiEncoderは、3チャンネル以上のインターリーブ・ファイルに対して使ってください。例えば、Dolby AtmosやAuro 3Dなどのイマーシブのインターリーブ・ファイルや、22.2chのイマーシブのインターリーブ・ファイルなどには、MultiEncoderを使います。

使い方は、最初にオーディオ・ファイルのチャンネル数に合わせて、左肩の数字を調整するだけで、あとはSimpleDecoderと基本的には同じです。

これらのパラメーターは、もちろんオートメーションが可能ですので、オブジェクトベースのイマーシブオーディオのように自由に音源を立体的にパンニングさせることが可能です。

ステップ5:テンプレートとして保存

これで全ての準備が整いました。それでは実際にトラックにオーディオ ファイルをドラッグしてアンビソニックスに変換しアンビソニックスの効果を確認してみましょう!

Loudspeakers busもしくはHeadphones busのどちらかを忘れずにミュートしてください(同時に使用したい場合を除く)。





結果に満足したら、テンプレートとしてこのREAPERプロジェクトを保存することをお勧めします。

File(ファイル) → Project template(プロジェクト・テンプレート) → Save project as template(プロジェクトをテンプレートとして保存)

「Ambisonic Production 05(5次アンビソニック制作)」など、分かりやすい名前を付けておけば、新しいアンビソニック・プロダクションをスタートする場合も、このテンプレートを読み込めばすぐに作業が始められます。

テンプレートをダウンロード

3次/5次/7次のアンビソニック制作用のテンプレートをダウンロードして頂けます。

Ambisonic_Production_Templates.zip

Loudspeakers bus にハードウェア・アウトプットを忘れずに追加するようにしてください。






最後に




このブログで紹介しております「IEM Plug-in Suite」は「オープン・ ソース」です。

つまり、誰でも自由にダウンロードして使用することができます。

そして、このコンテンツは、IEM Plug-in Suiteのオフィシャルページのコンテンツの一部グラーツ国立音楽大学のダニエル・ルードリッヒ氏(Daniel Rudrich)の了承・監修の元、作成されております。


音楽の国として世界的に有名なオーストリアにて200年以上の歴史を持つグラーツ国立音楽大学は、オーストリアに存在する3つの国立音楽大学の1校であり、現代音楽をリードする音楽学校として広く知られています。そして、このグラーツ国立音楽大学では、実は、過去20年の間、積極的にAmbisonicsの研究が行われており、この「IEM Plug-in Suite」は、その貴重な研究結果を、全ての人が簡単に体験できるようにと、汎用性の高いVSTプラグインの形にまとめられたものとなります。少し難しい話になってしまいますが、近代Ambisonicsのフォーマットとして有名な「AmbiX」も、実はこのグラーツ国立音楽大学にて生まれています。そういう意味では、この「IEM Plug-in Suite」は、まさにAmbisonicsの「正統」であり「源泉」であると言えます。



専用マイクや高価なハードウェアなどは必要ありません。実は、誰でも簡単に、すでにお手持ちのオーディオファイルを「アンビソニック化」することができます。

皆さんも是非この機会にAmbisonicsをお試しください!





イマーシブオーディオ、Ambisonics(アンビソニックス)に関するソリューションをご検討の際は、ご気軽に下記までご連絡ください。


「IEM Plug-in Suite」のデモンストレーションや解説から、オーディオインターフェイスやコンバーターの選定、スピーカーの選定まで、専任のスタッフが詳しくご案内いたします。

--------------------------------------------------------------------------------------------------------------------------------------------------------
本ドキュメントの著作権は株式会社シンタックスジャパンと著作者に帰属します。無断複写・転載を禁じます。
ドキュメントの記載事項は制作時点のものであり、将来的に予告なく変更される場合があります。
また内容を保証するものではありません。文中の会社名および製品名は各社の商標または登録商標です。


Copyright (c) 2018 Synthax Japan Inc. , author by Takeshi Mitsuhashi



2018/11/12

イマーシブ・サラウンドの概要と、快適な環境構築


イマーシブ再生環境を構築する方法




「イマーシブ・サラウンド」や「空間オーディオ」という言葉を耳にしたことがありますでしょうか?

映画館やライブ・コンサート、VRのオーディオに使われる、この「イマーシブ」という言葉は、英語では「Immersive Surround」と表記します。

「Immersive」とは「没入」という意味になり、つまり、「Immersive Surround」は、「没入型サラウンド」と訳すことができます。



では、「没入型サラウンド」とはどのようなサラウンドなのか……?
言葉にすると、例えば、下記ような説明になるかと思います。

「リスナーを包み込むような立体的な音により没入感を提供するサラウンドの手法」

今までの5.1chや7.1chというサラウンドは、平面にリスナーを「囲む」ようにスピーカーを配置しますが、「イマーシブ・サラウンド」は、5.1chや7.1chに加え、さらに上層にもスピーカーを配置し、リスナーを「包み込む」ようにスピーカーを配置し、今までのサラウンドに比べ圧倒的に高い臨場感を演出することが可能です。

なお、空間オーディオ、イマーシブ・オーディオ、立体音響、3Dサラウンド、Spatial Audioなど様々な呼び名がありますが、基本的に全て同義語となります。




イマーシブ・サラウンド、3つの「方式」                     


次に、イマーシブ・サラウンドの方式について簡単に説明をします。

一言に「イマーシブ・サラウンド」と言っても、実は、大きく分けて以下の3種類の「方式」があり、それぞれ長所と短所があります。



1. チャンネルベース


事前に想定される出力チャンネルの数に合わせた形で音声をあらかじめ制作し、それぞれのチャンネルを対応する各スピーカーから再生する方式。 チャンネルベースは別名「心理音響モデル」と呼ばれることがあり、収録を行なった場所(コンサートホールやライブ会場など)の音場をそのまま再現したい場合に効果的で、いわゆる “聴かせるための音”=音楽の再生に向いていると言えます。


2. オブジェクトベース


音源に「位置情報」を持たせ、各スピーカーからどのような音を出すかというパンニング情報をリアルタイムに計算(レンダリング)して再生する方式。例えば、ヘリコプターの音、車のクラクションと言った、動きを伴う映画の効果音に対して有効となり、それぞれの音を「オブジェクト」として捉え、それぞれのオブジェクトがどのように動き、音量がどのように変化するかというデータ音声情報に含ませ、再生時には、アンプなどの機器側で、スピーカーの位置や数にあわせて最適なレンダリングを行い再生するため、再生時のチャンネル数=スピーカーの数に依存しない制作が可能だが、制作時にはDolby AtomosやAuro 3Dと言った特定のフォーマットを使いエンコードを行い、再生時には、それぞれのフォーマットに対応した AVアンプなどが必要になる。なお、オブジェクトベースは、純粋な音楽コンテンツの再生よりは、映画の効果音など音が空間を移動するような表現に向いていると言われています。

3. シーンベース(Ambisonics)

リスナー=マイク位置を取り巻く、その空間全体の物理情報を記録再生する方式。一般的にはAmbisonics(アンビソニックス)と呼ばれることが多く、Ambisonicsに対応した特殊なマイクを使い、その空間のアンビエンス全てを録音し、その音声情報を制作時に自由に動かす(回転させる)ことがでるフォーマット。その為、VRなどの音響に使われることが多い方式となります。


イマーシブ・サラウンドの主なフォーマット                     


イマーシブ・サラウンド市場には、現状、いくつかの標準フォーマットが存在しています。ここでは、主な3種のフォーマットをご紹介いたします。


*上記の他に「DTS:X」というオブジェクトベースの規格もありますが、ここでは説明を割愛いたします。



1. NHK 22.2ch


3種のフォーマットの中で最もチャンネル数の多いフォーマットがNHK22.2です。このフォーマットでは、チャンネルベースが基本の考え方になります。

このフォーマットは3層構造となっており、下層はフロントのみの3.2ch、中層はBack Centerを含む10ch、そして上層は8chに天井中央にTop Center (Voice of God)と呼ばれる天頂スピーカーという構成になっています。

このフォーマットで再生環境を作る場合、当然22.2チャンネル、つまり24チャンネル分の出力を持つオーディオ・インターフェイスが必要です。一般的なオーディオ・インターフェイスの場合24チャンネルの出力を持つものは大変少ない為、MADIやDanteなどのマルチチャンネルの伝送方式を使い、それぞれに対応したDAコンバーターを使うのが一般的です。


おすすめのインターフェイス:




おすすめのDAコンバーター:

M-32 DA Pro (MADI)






2. Dolby ATMOS3. Auro 3D


NHKの22.2chフォーマットの再生環境を構築するのは、スピーカーの数も多い為、どうしてもハードルが高くなってしまいますが、Dolby ATMOSやAuro 3Dなどで使われている、5.1.4(ごーてん、いちてん、よん)や7.1.4(ななてん、いちてん、よん)と言ったスピーカー配置であれば、少し機材を買い足したり、または、現在お手持ちの機材を応用したりすることで、比較的簡単に再生・制作環境を整えることができます。

そして、この5.1.4や7.1.4というスピーカー配置は、イマーシブ・サラウンドの再生・制作に置いてもっともポピュラーなものとなります。 

簡単に説明しますと、既存の5.1chのサラウンド、または7.1chのサラウンドに対して、上層のレイヤー(Top Layer)に4つのスピーカーを足したスピーカー配置となり、チャンネル数は、それぞれ、5.1.4 = 10ch 、7.1.4 = 12chとなります。

5.1.4 フォーマット

 7.1.4 フォーマット
                      

Auro 3DもDolby ATMOSも上記よりスピーカー数の多いフォーマットが存在しているのですが、一般的にイマーシブ・サラウンドによる「没入感」を再現するためには、この5.1.4もしくは7.1.4というスピーカー配置が最低限必要になり、現在、家庭にてイマーシブ・サラウンドを体験する為に発売されているAuro 3D、Dolby ATMOS対応のAVアンプも、基本的にこれらのスピーカー配置を「基本」としている為、5.1.4もしくは7.1.4のスピーカー配置でイマーシブ・サラウンドの再生・制作環境を構築することは非常に理にかなった選択と言えると思います。

さて、では、この5.1.4もしくは7.1.4という再生環境をどのような機材構成で構築するのが良いのかという部分についてお話しいたします。

まず、22.2chフォーマットの再生環境構築の際にご紹介した、インターフェイスとDAを使うパターンで考えてみましょう。ただ、今回は、24chも必要がない為、一般的な16chのDAが1台あれば良いため、22.2chに比べ機材のコストもケーブルの本数も少なくてOKです。


おすすめのインターフェイス:


Fireface UFX+ (MADI)



DIGIface Dante (Dante)

おすすめのDAコンバーター:








スピーカーとオーディオ・インターフェイス1台での接続方法                   



ここまで読み進めていただき、勘の良い方ならきっと下記のように思われたと思います。

「この5.1.4もしくは7.1.4というスピーカー配置の場合、必要なチャンネル数は、10chもしくは12chなので……上手にやりくりすれば、UFX1台でできるのでは???」


答えは……


はい。できます。上手にやりくりすれば、UFX1台でイマーシブ・サラウンドの再生・制作環境を作ることは可能です。



では、どのように「上手にやりくり」すれば良いのでしょうか?
答えはズバリ、「ヘッドフォン出力」を使う!です。

上記例ではUFX IIのヘッドフォン出力から4ch分をライン出力しています。RMEのオーディオ・インターフェイスに搭載されているヘッドフォン出力は、通常のライン出力としてもお使いいただる為、背面にある1~8chの出力に追加して、2系統のヘッドフォン出力=4chを足して、合計で12chの出力が可能となります。

UFX IIのヘッドフォン出力は他のライン出力と同じコンバーターを使用するので基本的な技術仕様は同じです。なお、背面のTRS出力とヘッドフォン出力は出力レベルが異なりますので、各出力チャンネルが同じレベルで出力されるように調整が必要です。

下記は、Fireface UFX IIのマニュアルからの抜粋となります。

ーーーーーーーーーーーーーーーーーーーー
Fireface のチャンネル 9 ~ 12 はフロント・バネルに 1/4"TRS ジャックで配置されています。これらのチャンネルは、他のライン出力と同じコンバーターを使用するので、技術仕様のデータも同じです(118 dBA SNR)。

ハードウェアベースのリファレンス・レベルが2つ用意されています(TotalMixの出力チャンネル [Settings] > [Level] で設定、High または Low)。High は他のチャンネルの設定 Hi Gain に相当し、Low は -10 dBV(上の表参照)でデジタル・フル・スケールで+4 dBu に相当します。このように、これらは高品質のライン出力(アンバランスですが)としても使用可能です。

Phones 出力をライン出力として使用する場合、TRS プラグ⇔ RCA フォノプラグ、もしくは TRS プラグ⇔ TS プラグのアダプターが必要となります。

ピンの割り当ては国際標準に準拠します。左チャンネルを TRS ジャック / プラグの tip に、右チャンネルを ring に接続します。
ーーーーーーーーーーーーーーーーーーーー





これらのケーブルはその形状から通称「Yケーブル」と呼ばれており、ケーブルを自作しなくても販売店などで購入することが可能です。


この一台のみでの接続方法で使用可能なRMEオーディオ・インターフェイスはこちら:





この際、Fireface UFX IIとUFX+のMain(1-2ch)は、XLR端子となっており、その他のチャンネルに比べ高いレベル(+24dB)で出力ができる為、注意が必要です。

またFireface 802でも背面のTRS出力とヘッドフォン出力は若干出力レベルが異なりますので、各出力チャンネルにて同じレベルが出力されるように調整をする必要が有ります。




AVアンプと一緒に使う方法                     



イマーシブ・サラウンドの制作環境を構築するに辺り、制作用のソフトウェア(DAWソフトウェアなど)からの再生をオーディオ・インターフェイスを通じてスピーカーから再生することはもちろん必要なのですが、同時に、実際にその制作中のコンテンツをエンドユーザーがどのような機材を使い鑑賞するのかを考え、その環境と同等の環境も同時に構築し、制作中の音源が、エンドユーザーの環境でどのように聞こえるのかを確認する必要が出てきます。

具体的には、すでに発売されているブルーレイなどのイマーシブ・コンテンツを、Dolby ATMOSやAuro 3Dに対応したAVアンプを使って再生し、そのコンテンツを調査研究する必要もあるかと思います。つまり、同じスピーカーを使い、制作中の音(オーディオ・インターフェイスの再生)とAVアンプ、両方の音を切り替えながらモニターできる環境が必要となるわけです。


では、ブルーレイ・プレイヤー、オーディオ・インターフェイス、イマーシブ対応のAVアンプ。この3種の機材をどう接続するのが良いのか?

下記のようにオーディオ・インターフェイスをアナログで12チャンネル、AVアンプのアナログ入力に接続し、同時にブルーレイ・プレイヤーなど民生の再生機をHDMIケーブルでAVアンプに接続し、AVアンプでPCの再生とブルーレイ・プレイヤーの再生を切り替えることができれば一番良いのですが、AVアンプの機種によっては、アナログ入力のポートがAVアンプ側に十分な数用意されておらず、オーディオ・インターフェイスからの出力をアナログでAVアンプに12チャンネル分接続することができなかったりします。


例えば、ATMOSとAuro 3D両方に対応したAVアンプとして、マランツの「AV8805」が有りますが、この機種においても、アナログの入力自体は7.1ch(8ch)までしかなく、ハイトの4チャンネル分のアナログ入力がないため、その分をどう接続するのか……という部分が問題となります。











マランツの「AV8805」のアナログ入力部







この問題は、UFXを高品位なデジタル・ミキサーとして使うことで解決します。

RMEのオーディオ・インターフェイスをお使いのユーザーの皆さんであればすでにお馴染みかと思いますが、インターフェイスをPCに接続すると立ち上がってくるミキサー・ソフトウェア「TotalMix FX」を使い、Top Layerの4chのみ、AVアンプからではなく、UFXから直接出力するように接続行うことにより回避することができます。

もちろん、AVアンプからのアナログ出力を全て一旦UFXで受けて、全てのスピーカーを直接UFXに接続するという環境を構築する事もできますが、そうしてしまうと、入力も出力も全て使い果たしてしまうため、PCでの録音作業、ミキシング作業に支障が出てしまいます。このセットアップは、あくまでもPCにて通常の音効作業を行いつつ、同時にAVアンプを通してブルーレイ・プレイヤーを聞くといった用途の為のセットアップとなりますので、UFXのアナログ入力はできるだけ空けておく前提で下記のように配線を行います。

下図の緑色の線の部分、AVアンプのハイトチャンネル用のアナログアウトを、UFXのアナログインプットにそれぞれ接続します。そして、UFXのヘッドフォンからの出力は、ハイト用のスピーカーへと接続。具体的には、下記のような接続となります。


ここで肝になるのは、TotalMixでのルーティングの組み方となります。

Software Playbackの9~12chは、もちろん、Hardware Outputの9~12chにルーティングするのですが、同時に、AVアンプのTop Layer 4ch分のアナログ出力を受けているUFXのHardware Input 1~4chもHardware Outputの9~12chにルーティングする必要があります。

文字にすると判りにくい為、チャートにしてみました。これで少しは判りやすくなったかと思います。



TotalMixのルーティングがあまり得意でない方は、下記よりTotalMixのWorkSpace Fileをダウンロードして読み込んでいただく方法もありますので、是非ご活用ください。

※Fireface 802用WorkSpace Fileは現在準備中です

いかがでしたでしょうか。

このブログは特に、ゲームのサウンドに携わるエンジニアやクリエーターのみなさまには、いくらか有益な情報になったのではないか思います。 

ゲームの業界だけに留まらず、今後ますます需要が高まることが予想されるイマーシブサラウンド。 RMEは、その柔軟なTotalMix ミキサーと正確な再生、また、MADIやDante/AVBといったデジタル伝送フォーマットにより、今後もハイレゾフォーマットでのマルチチャンネル再生をサポートしてゆきます。また、イマーシブサラウンド、アンビソニックス、バイノーラルと言った、エンジニアやクリエーターのみなさまが「今」必要としているな情報も、引き続きご紹介してゆく予定です。