

作品をリリースするため、Dolby Atmos Musicミックスを完成させ、Dolby Atmos ® Renderer(レンダラー)またはPro ToolsからADMにバウンスし、Avid Playに楽曲をデリバリーしました。しかし、この後、いったい何が起こっているのでしょう?ミックスはどのようにリスナーに届けられるでしょう?配信方法によってミックスの聴こえ方が異なるのでしょうか?これらの質問に対する答えを知っていると、ミキシングの過程において、十分な情報に基づいた判断を下すのに役立ちます。このブログでは、それらの点を説明していきます。
配信の仕組み
Dolby Atmosでのミックスを聴くには、スピーカーまたはヘッドフォンを使用するという2つの方法があります。それぞれがどのように機能するかを詳しく知ることは、エンコードの過程の違いを理解するのに役立ち、同様に、Dolby Atmos Musicをミキシングするアプローチに役立ちます。
スピーカーの場合は、物理的に適切に配置された場所から、分離した形で音を再生できますので、没入型体験のために特別なエミュレート処理を行う必要はありません。 ただし、ヘッドフォンでの配信はまったく別になります。 ヘッドフォンでの没入型ミックスを配信するには、バイノーラルにレンダリングする必要があるのです。
これは、バイノーラル・オーディオの基本についての非常に広範囲にわたる説明です。(英語版)
再生フォーマットには、スピーカー配信用にデザインされた EC-3 とヘッドフォン配信用に設計された AC-4 IMS という2つの主要な圧縮コーデックがあります。ミックスをチェックする際、リスナーが聴く状態にできるだけ近い方法で確認できることが望ましいわけですが、話はそれほど単純ではありません。詳しくはこの記事の後半で説明します。
先に進む前に、そもそもなぜデータを圧縮する必要があるのかを理解しておく必要があるでしょう。
データサイズを減らす理由
圧縮する最も大きな理由は、リスナーに配信されるデータサイズを減らす必要性があるためです。つまり、 そのままのデータ・ストリームでは大きすぎるのです。 4分半の曲のDolby Atmosミックスを考えると、使用するオブジェクトの数にもよりますが、ファイルサイズは概ね1.8〜2.5GBになります。 Dolby Atmosのデータ・ストリームを送信するには、どのくらいの帯域幅が必要でしょうか? 簡単な式 [48000 x 24 x 128 /(1024 x 1024)] を使用すると、データレートは140.625Mbpsになります。 オーディオ配信でこの帯域幅を確保/処理するのは難しいため、送信するデータの量を減らす必要があるのです。 これを行うには、クラスタリングとエンコーディングの2つのステップがあります。
クラスタリングについて
データ・ストリームを削減するための最初のステップは、クラスタリングです。 クラスタリングは、オブジェクトとベッドによって使用されるデータの量を減らすために、エンコードの過程で使用されます。これに関しては、Dolby Atmos RendererでSpatial Coding Emulation (空間コーディング・エミュレーション)を有効にすることで、クラスタリングを使用してミックスをモニタリングすることができます。
クラスタリングの基本的な法則は、同様の空間位置を占める複数のオブジェクトを、空間オブジェクト・グループと呼ばれるグループに、知的にグループ化することです。 空間オブジェクト・グループは、元のオーディオ・オブジェクトの複合セットです。 一般的なリスナー向けのDolby Atmosのセットアップでは、映画館に比べてスピーカーの数がはるかに少ないため、ミックスの全体的なサウンドに悪影響を与えることなくこれを行うことができます。 チェックすべき構成部分の数は、空間コーディング・エミュレーションが有効になっている場合、Dolby Atmos Rendererの設定で決定されます。 これに関連する値には12、14、16の3つがあります。これらの値は通常、送信されるビットレートに基づいて選択します。 どれを選べば良いか定かでない場合は、多くの配信プラットフォームで使用されている16を使用すると良いでしょう。
以下の図は、クラスタリングがどのように実装されているかを理解するのに役立ちます。 左の画像は、オブジェクトを青で、ベッドの位置を赤で示しています。 10個のオブジェクト、9個のベッドチャンネル、およびLFEチャンネルがあります。 仮にクラスター数を12に設定した場合、右側の画像で、それらがどのように集約されているかを確認できます。 一部のオブジェクトはグループ化され、一部はクラスター間で共有されます。 これにより、合計トラック数を20から12に減らすことができるのです。(厳密には、LFEチャンネルは、位置クラスターがなくても変更されないままであるため、使用可能なクラスターは11 と LFEになります)。
Dolby Atmos Renderer設定上のSpatial cording emulation(空間コーディング・エミュレーション)を有効にしてミックスをモニタリングすることは重要です。 オブジェクトのサイズ、ポジション、エレメント数などが、エンコードされたミックスのサウンドにどのように影響するかを確認できる為です。 例えば、オブジェクトのサイズ値を20以上にすると、同じオブジェクトが複数のクラスター内に表示され、非相関のアーティファクトが発生し、ミックスのサウンドが歪む可能性が生じます。クラスタリングはオブジェクト、コンテンツ、ポジション、音量などに基づいているため、すべてのミックス・エレメントが設定されてから、このエミュレーションを有効にした方が良いでしょう。すべてのミックス・エレメントが設定されていない状態でオプションを有効にしても、 そのミックスが最終的にどのように聴こえるかを想定することはできません。また、この空間コーディング・エミュレーションはモニター専用であり、最終的にADMまたはDolby Atmosマスター・ファイルにはエクスポートされないということに留意することも重要です。
エンコードについて
エンコード処理は、クラスター化された信号を使ってエンコードし、ファイルサイズを縮小する目的で行われます。エンジニアがそれについて知っておくことが重要である理由を、エンコード・フォーマット(英文)を見て理解しましょう。 最もよく使用される2つのコーデックであるAC-4とEC-3に焦点を当てます。
AC-4 IMS – ヘッドフォン用の配信フォーマット
AC-4 は、従来のチャンネル・ベースのコンテンツ、没入型チャンネル・ベースのコンテンツ、オブジェクト・ベースの没入型コンテンツ、およびパーソナライズ化をサポートするオーディオ用のオーディオ・コーデックです。 上記で説明したように、オブジェクト・ベースのコンテンツを個別のオブジェクトまたは空間オブジェクト・グループ(Spatial Object Groups)としてサポートします。 AC-4は、ミックスが最初に7.1バージョンにダウンミックスされ、オブジェクトの詳細がメタデータとして追加されるAdvanced Joint Object Coding(A-JOC)と呼ばれる方法を使用してオブジェクトを処理します。 次に、これは再生段階でデコードされます。
AC-4は、配信プラットフォームを介してDolby Atmos MusicをAndroidデバイスに配信するために使用されるコーデックです。 AC-4は、Dolby Atmos Musicをミックス中に作成したバイノーラル・メタデータを伝送することもできます。 これは、ミックスをヘッドフォンで再生すると、ミックスの過程で設定されたバイノーラル・プロパティをリスナーが聴くことができるということを意味します。
EC-3(または拡張AC-3)–スピーカー用の配信フォーマット
EC-3 は、DD + JOC(Dolby Digital Plus、Joint Object Coding)と呼ばれるオブジェクトを処理するために、わずかに異なる方法を使用します。 EC-3は、Dolby AtmosのミックスをAppleデバイスに配信するために使用されます。
Apple TV 4Kでは、オーディオはAtmos対応のサウンドバーまたはAVレシーバーにHDMI経由で伝送されます。 EC-3は、本来、スピーカー配信用に設計されたフォーマットですが、Apple iPhoneでのヘッドフォン配信時にも使用されています。つまり、 iPhoneでの空間オーディオ再生時は、作成したADMファイルに内蔵するDolby Atmosバイノーラル設定を使用せず、その代わりに、まずDolby Atmosファイルを7.1.4ミックスにダウンミックスし、次にその7.1.4ミックスをバイノーラル・ミックスに仮想化することにより、ミックスのバイノーラル・バージョンを作成します。この処理はAirPods自体で行われています。
これは、Apple Music用のAtmosミックスを試聴するときに留意すべき非常に重要な情報です。 AtmosミックスがiPhoneでどのように聴こえるかを確認したい場合は、以下の手順で行います。
- DolbyレンダラーからMP4をエクスポートします。: Dolbyレンダラーでマスターを録音した後、[ファイル] > [オーディオをエクスポート] > [MP4] を選択し、[音楽] の設定を選択して、[OK] をクリックしてエクスポートします。
- このMP4をAppleデバイスに転送し、ファイルアプリに保存します。
- ファイルアプリからデバイス(iPhone等)内でMP4を再生し、AirPod ProまたはAirPod Maxヘッドフォンを使用してモニタリングします。ヘッド・トラッキングが無効になっていることを確認してください。
結論
ミキシング過程において注意すべきポイントをまとめます。
- バイノーラル・ミックスのNear、Mid、Farパラメータは、Androidデバイスへの配信に使用されるAC-4コーデックでのみ使用されます。
- EC-3は、Appleデバイスで使用されるスピーカー・ベースのフォーマットであり、ADMにエンコードされるバイノーラル・パラメーターは、再生中には使用されません。Appleデバイスで再生する際の試聴は、レンダラーからMP4をエクスポートし、上記の手順を行うことでテストできます。
- Atmosオブジェクトのサイズ値を20以上にすると、空間コーディング・プロセスで問題が発生する可能性があるため、避ける必要があります。
- 最終ミックスのすべてのエレメントが揃った状態時のみで、レンダラー上のSpatial Coding Emulation(空間コーディング・エミュレーション)をオンにします。これらの情報はミキシング過程において、どのように活用すれば良いのでしょうか?可能な限りリスナーが聴くのと同じ状態で、ミックスを確認したいと思うのは当然です。Dolby Atmos Renderer内では、クラスタリング・プロセスの効果をエミュレートできます。 また、上記のMP4の方法を使用して、Apple空間オーディオで再生されるEC-3コーデックのミックスを試聴することはできますが、AC-4コーデックのサウンドを簡単にエミュレートすることはできません。 より多くのAtmosコンテンツをミックスし、経験を重ねることで、ミックスがさまざまなプラットフォームにどのように変換されるかを、より理解できるようになります。 私は、多くの人がヘッドフォンで聴くことが想定できるコンテンツの場合は、こまめにミックスをスマートフォンに送ってチェックしています。 また、MTRX StudioのキャリブレーションEQも使用して、さまざまなタイプのヘッドフォンでのサウンドをエミュレートします。
この記事をお読みいただきありがとうございます。Dolby Atmos Music用ミックスを作成する際に役立つことを願っています。 また、このブログに貢献してくれた同僚のDave Tylerにも感謝します。
関連リンク:
Dolby Atmosは、Dolby Laboratoriesの登録商標です。