>>651
最近のサラウンドは『オブジェクトベース』って概念がベース。
要は、室内の反響や人の声、ヘリや車の駆動音とかを一個一個『オブジェクト』として定義し、音のパターンをコーディングしておく。
で、チャンネル数に合わせて再レンダリングし、どの方向のスピーカーからどういう音が鳴るのか割り当てる。
つまり、スピーカーからどういう音が鳴るかはそのホームシアターの構成環境に合わせてオブジェクト情報から生成し『後から決める』っての。
だから、現行技術じゃ11chとかなんて訳分からん数のスピーカーでも駆動出来る。
ガチで11個とかマイクで録音した環境をシミュレートしてコーディングするとキリ無いし、構成ごとに全部別々にコード作らないといけなくなって手間も容量も膨大になる。
ただ、オブジェクトベースの考え方なら、一個定義しとけば後はオートレンダリングで何chでも環境生成出来るって訳。