ステレオとモノラルの話(2)


 うんちくNo.416「ステレオとモノラルの話(1)」の続編である。



 「ステレオ」とは「stereo-phonic」のことであり、「立体音響」等と訳される。「stereo-」というのは「固い・立体の・実体の」等の意味を持つ連結形」で、「stereo-graphy」は「立体画法・実体画法」となり、「stereo-type」は「決まり文句・常用手段」の意味になる。

 まあ、英語に詳しくない私が、聞きかじりのうんちくを垂れてもしょうがないのだが‥‥(^^;)



 オーディオの場合は、スピーカー(またはヘッドフォン)から出る音が左右の広がりをもって定位し、立体的に聞こえることを「ステレオ」と呼んでいる。(と、一応、定義してもよいのではないだろうか)



 人間には2つの目と2つの耳がある。

 どちらの場合も、体の中心線から左右にずれて位置しているので、右の目と左の目の見え方は若干異なり、右の耳と左の耳の聞こえ方は若干異なる。

 左右の見え方・聞こえ方の違いを脳で比較・調整することで、自分からの方向や遠近を判断するのである。



 今回はオーディオの話なので、音に話題を絞って進めよう。

 下の図をご覧いただきたい。



 ギター・ベース・サックス・ドラム・ピアノという、5つの楽器を使ったコンポ編成のバンドがあり、図のような配置で演奏をしたとする。

 このバンドの正面で聞けば、サックスの音は左右の耳に同じ音量で聞こえる。また左端のギターの音は左の耳には大きく聞こえるが右の耳には聞こえにくい。同様に右端のキーボードの音は右の耳に大きく聞こえ左の耳には聞こえにくい。

 これによって、目をつむって演奏を聞いても、それぞれの楽器がどの方向にあるかということが分かるのである。(ベースが正面より若干左にあるということや、ドラムが若干右にあるということも聞き取れるはずである。



 このバンドの演奏を、耳で聞こえるままに録音するには、下の図のようにマイクを配置する。



 右側のマイクが受けた音をステレオ録音機の右チャンネル、左側のマイクが受けた音を左チャンネルに保存し、今度は左右のスピーカーを持つステレオ装置で再生すれば、下の図のように聞こえるわけである。



 この場合、左右のスピーカーから出るそれぞれの楽器の音量は下の表のようになる。(どの楽器の音量も同じにした場合)

楽器の名前ギターベースサックスドラムピアノ
左チャンネルの音量+10+7+5+3
右チャンネルの音量+3+5+7+10
聴感上の音量(絶対値)1010101010




 ところが、ステレオ装置の接続を誤って、右チャンネルの「+・−」の極性を逆にしてしまったらどうだろう。

 右チャンネルから出る音と左チャンネルから出る音の位相が逆になってしまうために、この例のサックスのように左右から同じ音量が再生され、中央に定位する音は、左右の逆位相の音が打ち消し合って消えてしまう。(このへんのことについては、うんちくNo.388「音の出口の話」もご参照いただきたい)

 したがって、聴感上の音量は下の表のようになってしまう。

楽器の名前ギターベースサックスドラムピアノ
左チャンネルの音量+10+7+5+3
右チャンネルの音量−3−5−7−10
聴感上の音量(絶対値)1010

逆位相の場合「−」(マイナス)にしてある。

 つまり、音の聞こえ方をイメージ図化すると、次のようになるのである。



 左右の端に位置するギターとピアノは、逆位相による左右の干渉がないのでちゃんと聞こえるが、中央に位置するサックスの音はほとんど聞こえなくなる。また中央より若干左右に振られて定位しているベースやドラムの音も小さくぼけてしまう。



 では、うんちくNo.416「ステレオとモノラルの話(1)」の例のように、ステレオ音源を強制的にモノラルにするために、アンプの左右のスピーカー出力のコードを、1つのスピーカーにつないでしまったらどうだろうか?

 これは絶対にやめるべきである。うんちくNo.416「ステレオとモノラルの話(1)」で書いたように、電気の世界では、1つの出力を2つに分配するのは問題がないのだが、2つの出力を1つにまとめるのは避けるべきだ言われている。どうしてもそれをやらなければならないのなら微弱な信号の段階で行うべきで(その場合も抵抗をかませる等の配慮があったほうがよい)、大出力が流れるスピーカー出力の段階でやると、下の図のようになる。



 もちろん、これはイメージ図なので大げさなのだが(^^;)、この図のようにスピーカーやコードが火を吹くことはなくても、ステレオのアンプが壊れてしまう可能性が大きい。つないだ瞬間は問題なく鳴っているようでも、使っているうちにアンプが壊れたり、アンプの保護回路が作動して出力が停止してしまうという現象が起きるかもしれない。そうなると左右の定位がどうのこうのという問題ではなくなってくる(^^;)



話はがらっと変わるのだが‥‥‥。

 スピーカーの(コーンの)動き方について、私は長い間、「規則正しく動いている」のだと思っていた。(下図参照)



 ところが、この図の上の波形(正弦波)のように前後に等間隔・等振幅で動くのであれば、「ピー」という単音しか表現できない。(ギターのチューニングに使う『A=440Hz』のような音である。電磁石を使ったブザーの振動片などもそういった動きをする)

 しかし、実際にはスピーカーからは「ピー」という音だけでなく、同時に「ポー」とか「ボーン」とか「チャリーン」といった音も再生されている。上の図の下の波形のような動きをしているわけである。



 このような複雑な動きは、コンピュータを使って計算式で表現しようとしても無理である。

 だとすれば、オーディオの再生装置はスピーカーに対してどのような動きをせよと命じているのだろうか。

 その答えは「マイクが受け取った原音のままに再生せよ」ということである。技術的に説明するのは私には無理なので、糸電話を例えに使うことにしよう。


 上の図が糸電話の仕組みを図示したものであるが、ご存じのように糸電話は「紙と糸」しか使わない原始的な構造であるため、「元の音を送話器の紙が受け取るとき」や「送話器の紙の振動を糸が受話器に伝えるとき」、「糸の振動を受話器の紙が音として再生するとき」等に著しいデータの減衰が起きてしまうが、基本的には「送話器が受けた空気の振動をそのまま受話器に伝えて振動させる」という働きを行っているのである。

 人間の顔のかたちなどをそのまま立体像に再現しようとするとき、一番簡単でしかも精度が高いのが、顔の型どりをして、それに石膏などを流し込んで複製するという方法である。微妙な顔のかたちや凹凸を数式で表現しようとしても無理な話である。

 糸電話の仕組みは、塑像の型どりに似ている。



 オーディオシステムも糸電話のようなものである。



 入力機器であるマイクロフォンの性能が良いほど原音となる空気の振動をありのままにとらえることができる。この空気の振動を減衰させず、必要によっては原音よりも大きな音量で表現できるようにするため、増幅機器のアンプは内部で電気的な操作を行うのである。

 原音に近い音を再生できるほど優れたオーディオ装置であるといえるのだが、この中で基本になっているのは、マイクの中で起きている「空気の振動を受け取った振動片が磁石の中で動くことで電流が生じる」というフレミングの右手の法則(電磁誘導)と、スピーカーで起きている「磁界の中に電流を通した振動片を置くと、電流に応じて振動が生じる」というフレミングの左手の法則(電磁力)の現象なのである。

 要はマイクの振動片(音を受け取る)の通りにスピーカーの振動片(音を生じる)が動けばよいということになる。

 音響技術にはデジタルの手法も多く取り入れられるようにはなったが、基本になるのは数式では表せないような微妙な空気の振動を受け取ったり再現したりするという極めてアナログ的なはたらきなのである。



 ところでいくつもの音源の波形を1つの複雑な波形に合成するという働きをしている張本人は誰なのであろうか?


 上の図のように3つの正弦波を合成しただけでも、出来上がる合成波はかなり複雑なものになる。この程度の合成であればコンピュータで処理することも可能であるが、私たちが日常耳にする自然音は、これよりもはるかに複雑である。

 その複雑な波形を合成しているのは、実は空気なのである。音源から発せられた振動は空気の中で混じり合い、耳に届く段階で1つの複雑な波形になる。この空気の振動は、聞く場所(耳の位置)によっても微妙に異なってくる。

 また音源から出た音は耳に届くまでに室内の壁面で反射したり吸収されたりして、複雑な要素を含んだ波形となる。これが臨場感のある音なのである。



 シンセサイザーの初期の頃(アナログシンセサイザー)は、電子的な発振音の正弦波(サイン波)を、電圧変化によって「音程」「音量」「倍音の割合」「音の立ち上がりや減衰の仕方」の面でコントロールし、楽器のような音を創り出していたのだが、「筐体や空気の響きがある生の楽器の音」とはほど遠い「電子的な音」であった。(それが魅力でもあったのだが)

 現在普及しているシンセサイザーの多くは、生楽器の音をサンプリングしたPCM(Pulse Code Modulation)音源を使っている。これは生の音を録音して、それを一定時間ごとに区切ってデジタル化するものなのだが、例えばシンセサイザーに「ピアノの音で『ド』を演奏せよ」という命令を出した場合、実際には、「どこかのあるピアノで、誰かが『ド』の音を弾いた」ものの録音(実際にはデジタル処理されて記録されているが)を再生しているのである。基本的には生の楽器の音を使っているわけである。



 オーケストラやフォークグループなどが生で演奏しているとき、演奏会場の中で、演奏者から数メートル(場合によっては数十メートル)離れて聞いている感じをそのまま録音するには、聞いている人の位置にマイクを2本立てるのが最も自然である。

 これによって、会場の中の響きや、細かい音(例えば演奏者の息づかいとか、弦と指が擦れる音とか)も入り混じった「空気的な音」が録音できるし、これを再生したときにも、あたかもその場にいるような感じで聞くことができる。



 ただ、オーディオ装置を通してこの録音を聞く場合、演奏の生音が聞く人の耳に届くまでの経路を考えると次のようになる。

 演奏の生音
   ↓
  空 気
   ↓
 マ イ ク
   ↓
 録 音 機 器
   ↓
 再 生 機 器
   ↓
 スピーカー
   ↓
  空 気
   ↓
 聞く人の耳

 このように、空気の層を2回通るために、音像はやや輪郭の甘いものになる。(聞きやすい音なのだが)

 また、聞く場合には、リスニングルームの壁の材質(音の反射や吸収はどうか等)や、聞く人の位置なども影響する。



 そこで、新しい音楽では、音のメリハリをはっきりさせ、パワーのある音にするために、マイクを近づけて(あるいは楽器の電気信号をダイレクトに)個々の楽器を録音し、それをミキサーを使って左右の任意の位置に定位させるという方法をとっている。

 つまり、オーディオ装置のスピーカーの場所に演奏楽器がそのままあるようなものである。

 ディスコ系のダンスミュージックやロック系の音楽などは、この方が迫力がありタイトな音になるので適しているが、大きな音で長い時間聴いていると疲れる感じもある(^^;)



 ステレオとモノラルの話から、オーディオ関係のことをあれこれと書いたが、私がいちばん強く感じているは、人間の耳の素晴らしさである。

 音は空気の振動ということなのだが、この信号はごく微弱なもので、目に見えたり肌で感じたりできるようなものではない。

 複雑で微弱な空気振動を2つの耳で聴きとって、音源の左右遠近の位置、音場の雰囲気まで判断するという、高感度で繊細な人間の感覚にあらためて驚嘆した次第である。

<03.11.01>

ホームページに戻るうんちく目次へ