JP2004077277A - 音源位置の可視化表示方法および音源位置表示装置 - Google Patents
音源位置の可視化表示方法および音源位置表示装置 Download PDFInfo
- Publication number
- JP2004077277A JP2004077277A JP2002237868A JP2002237868A JP2004077277A JP 2004077277 A JP2004077277 A JP 2004077277A JP 2002237868 A JP2002237868 A JP 2002237868A JP 2002237868 A JP2002237868 A JP 2002237868A JP 2004077277 A JP2004077277 A JP 2004077277A
- Authority
- JP
- Japan
- Prior art keywords
- sound source
- sound
- mark
- display
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
【課題】視覚の補助を用いて、空間分解能における人間の聴覚器官の限界を拡張し、音源の三次元位置を人間の意識に直観的に入力できるようにすること。
【解決手段】音源定位装置5は、複数のマイクロフォン4が収集する音場情報を処理し、音源の三次元位置を算出するとともに、音源2が発する音の音色(周波数スペクトル)、音の強弱、音源の広がり等の音源2の属性情報を算出する。画像処理装置6はカメラ3から送らてくる風景画像に、マーク8等により音源位置や、各音源の属性情報を重ねて表示する。また、マウス等により音源位置を選択すると、音合成装置9は音源定位装置5から送られてくる音色、音のレベルに応じた可聴音を合成し、スピーカ10から出力する。なお、上記ディスプレイ7の代わりに、眼鏡状の表示手段を用い、眼鏡を介して見える実画像に音源位置をマーク等により重ね合わせて表示するようにしてもよい。
【選択図】 図1
【解決手段】音源定位装置5は、複数のマイクロフォン4が収集する音場情報を処理し、音源の三次元位置を算出するとともに、音源2が発する音の音色(周波数スペクトル)、音の強弱、音源の広がり等の音源2の属性情報を算出する。画像処理装置6はカメラ3から送らてくる風景画像に、マーク8等により音源位置や、各音源の属性情報を重ねて表示する。また、マウス等により音源位置を選択すると、音合成装置9は音源定位装置5から送られてくる音色、音のレベルに応じた可聴音を合成し、スピーカ10から出力する。なお、上記ディスプレイ7の代わりに、眼鏡状の表示手段を用い、眼鏡を介して見える実画像に音源位置をマーク等により重ね合わせて表示するようにしてもよい。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、任意の音の発生源の位置を、実空間と対応付けることによってリアルタイムに可視化する音源位置の可視化表示方法および音源位置表示装置に関する。
【0002】
【従来の技術】
人間は体表面から離れた空間の情報をリアルタイムに収集するために、主に聴覚と視覚を用いる。聴覚は時間分解能にすぐれるが空間分解能に劣り、視覚は空間分解能にすぐれるが時間分解能においてきわめて貧弱である。これらふたつの互いに相補的な特性を持つ感覚の出力を併用することにより、人間の日々の生存および日常生活は維持される。
しかし、機械装置の中の異常動作箇所(たとえば異音を発する場合がある)の同定など、目に見えるほど大きな動きを伴わない音源の正確な定位が必要となる場合もある。
音源位置の三次元的な計測のみならば、従来各種の方法が提案され、実用化されてきた。しかし、従来の計測結果の出力は、あるものは数値情報、あるものは音源分布のみの画像、といったものばかりであって、音源の三次元位置を人間の意識に直観的に入力できるものは提案されていない。
【0003】
【発明が解決しようとする課題】
従来の計測結果の出力は、上記のように、数値情報、あるものは音源分布のみの画像といったものばかりであり、それだけではせっかく測定した三次元位置を人間の意識に直感的に入力することができない。
本発明はこのような観点からなされたものであって、本発明の目的は、視覚の補助を用いて、空間分解能における人間の聴覚器官の限界を拡張することにより、音源の三次元位置を人間の意識に直観的に入力することができる音源位置の可視化表示方法および音源位置表示装置を提供することである。
【0004】
【課題を解決するための手段】
上記課題を解決するため、本発明は、機械の助力によって得た三次元空間内の音源の位置を、以下のように、その音源が存在する地点の周辺の映像の中にて指し示すことにより人間の視覚入力と合成する。
(1)ひとつ以上の音(超音波等の人間が聞き取れない音も含む)を検知してそのそれぞれの音源の位置を突き止め、少なくとも上記音源の位置を含む音源に関する情報を可視情報に変換し、該音源周辺の実画像とリアルタイムに重ね合わせて表示手段に表示する。
(2)上記(1)において、人間の頭に装着できる形状の表示装置を用い、上記表示手段を介して見える目前の光景に重ね合わせて、上記可視情報に変換された少なくとも音源位置を含む音源に関する情報を表示する。
(3)上記(1)(2)において、上記表示手段に、上記音源位置を識別可能なマークで表示し、該音源の音色(周波数スペクトル)、音の強弱、音源の広がり等の物理的属性を、文字、図形もしくはマークの形状、色彩、明滅等の変化として表示する。
(4)上記(3)において、上記マークを指定したとき、指定されたマークに対応した音源が発する音を可聴音に変換して出力する。
以上のように、本発明においては、音源の位置を突き止め、少なくとも上記音源の位置を含む音源に関する情報を可視情報に変換し、該音源周辺の実画像とリアルタイムに重ね合わせて表示手段に表示するようにしたので、視覚の補助を用いて、人間の聴覚の空間分解能の限界を拡張することができる。
また、人間の頭に装着できる形状の表示装置を用い、上記表示手段を介して見える目前の光景に音源位置を重ね合わせて表示することにより、一層利便性を向上させることができ、例えば、水中等での使用も可能となる。
さらに、音源を指定したとき、指定された音源が発する音を可聴音に変換して出力することにより、特定の音源が発する音を選択的に聞くことができ、また、上記音源が発する音が、例えば、超音波であったり、人間には殆ど聞き取れない音であっても、これらの音を可聴音として容易に聞き取ることが可能となる。
【0005】
【発明の実施の形態】
以下、図面に基づいて、本発明の実施の形態を説明する。
図1は、本発明の第1の実施例の全体構成を示す図である。
図1において、1は被測定対象となる空間であり、該空間内には、音源2を有する各種機器等が置かれている。これらの機器は、例えば前記したように異常箇所等を有する機械装置等であり、上記音源が発する音は、超音波等を含む、例えば人間が聞き取りにくい異常音等である。
3はカメラであり、カメラ3が捉える上記空間の画像の中には、上記のようにカメラ3には不可視の音源2を有する機器等が存在し音を発している。カメラ3は被測定対象となる空間1の画像を画像処理装置6に出力する。
なお、以下では、上記空間の光景を風景とよび、カメラや眼鏡等を介して見える画像(コンピュータ等で合成された上記空間の光景に相当する画像を含む)を実画像あるいは風景画像という。
【0006】
また、カメラ3の近傍には、複数のマイクロフォン4が設置され、上記被測定空間1の音源2が発する音を収集する。マイクロフォン4で収集された音は、音源定位装置5に送られる。
音源定位装置5は、複数のマイクロフォン4が収集する音場情報を処理し、音源の三次元位置を算出するとともに、音源2が発する音の音色(周波数スペクトル)、音の強弱(音のレベル)、音源が点でない場合には音源の広がり等の音源2の属性情報を算出する。音源定位装置5で求めた音源の三次元位置、音源2が発する音の属性情報は画像処理装置6に送られる。
画像処理装置6はカメラ3から送られた風景画像に音源位置を合成し、ディスプレイ7に表示する。ディスプレイ7に映る風景画像には、図1に示すように、例えば輝点等のマーク8により、目には見えない音源2の位置が重なって表示される。また、画像処理装置6は、各音源の属性情報を文字、図形(周波数スペクトルのグラフ等)、あるいは、マークの形状、色彩、明滅等でディスプレイ7上に表示する。
なお、ディスプレイ7上の風景画像は、カメラ3が捉えた画像そのものであってもよいし、また、コンピュータ等で合成された画像であってもかまわない。
【0007】
また、ディスプレイ7に表示されるマーク8をマウス7a等のポインティングデバイスで選択すると、画像処理装置6は選択されたマーク8に対応する音源の位置を音源定位装置5に送る。
音源定位装置5は、音源が選択されると、ポインティングデバイスで選択された音源の音色、音のレベルを音合成装置9に送る。音合成装置9は音源定位装置5から送られてきた音色、音のレベルに対応した可聴音を合成し、音合成装置9で合成された可聴音は、スピーカ10から出力される。
すなわち、ユーザは、ディスプレイ7に表示された音源をマウス等で選択することにより、音源が複数であっても、特定の音源が発する音を選択的にスピーカ10から聞くことができる。また、上記音源が発する音が、例えば、超音波であったり、人間には殆ど聞き取れない音であっても、これらの音を可聴音として容易に聞き取ることができる。
なお、音源が発する音が可聴音の場合には、そのまま人が聞き取り可能な大きさの音に変換してスピーカ10から出力してもよいし、また、聞き取り易い周波数に変換して出力してもよい。
【0008】
図2は上記音源定位装置5の構成例を示す図、図3は音源定位装置5における処理を説明するフローチャートである。
図2に示すように、音源定位装置5は、フィルタ5aと、音源の位置を算出する音源位置分析部5bと、音色、音のレベル、音の広がり等を求める音色分析部5cと、インタフェース部5dから構成されており、音源位置分析部5bは、マイクロホン4で収集されフィルタ5aを介して入力される複数の音から音源位置を同定する。また、音色分析部5cは音源位置分析部5bで音源位置が同定された音について、音色(周波数スペクトル)、音のレベル、音源の広がりを求める。
以下、図3のフローチャートを参照しながら上記音源定位装置5における処理について説明する。
(i) フィルタ5aを収集する音の周波数帯域に設定する(図3のステップS1)。
(ii)n=1とする(ステップS2)。
(iii) 複数のマイロクホン4で音を収集する(ステップS3)。
【0009】
(iv)音源位置分析部5bでは、複数のマイクロホンで収録されフィルタを通過した音の任意の2つの音を取り、時間軸でずらし、各マイクロホンで収集した音の波形をマッチングさせる(ステップS4)。
すなわち、マイクロホンで収集した音を時間軸でずらしながら、差の絶対値の総和を求める。これにより、例えば図4に示すパターンが得られたとする。
このパターンにおいて、差の絶対値の総和が最小となるずらし量が、上記2つの音の音源から各マイクロホンまでの到達時間差となる。
同様にして各マイクロホンで収録した音の到達時間差を求めることによりnの音源位置を同定する(ステップS5)。 音色分析部5cは、上記マッチング処理によりマッチングがとれた波形を解析して周波数スペクトルを求め、これをnの音源が発している音の音色とするとともに、音源の広がり、音のレベル等を求める(ステップS6)。
すなわち、差の絶対値の総和が最小となるずらし量だけ各マイクロホンで収集した音をずらし、各マイクロホンで収集した音の波形を比較して、一致する成分を求めて、この周波数スペクトルを求め、nの音源が発している音の音色とする。音のレベルは、例えば、周波数スペクトルの各周波数成分の高さの平均値を求めることにより得られる。
さらに、上記パターンの広がり量からnの音源の広がりを求める。
例えば、前記差の絶対値の総和のパターンが、例えば図4のA,Bのようであった場合、パターンAの音源の広がりをaとし、パターンBの音源の広がりをbとする。
(v) 以上のようにしてnの音源位置、音色、音源の広がり、音のレベルが求まったら、音色分析部5cは、各マイロクフォンで収録した音から、既に分析が終わった1〜nまでの音の総和をそれぞれ引き、残差をもとめる(ステップS7)。
【0010】
(vi)残差が0に充分に近いと言えなければ、n=n+1として、フィルタを上記残差の音のみが通過するように調整し(ステップS8〜S10)、フィルタを通過した音について、上記(iii) 〜(vi)の処理を繰り返す。
(vii) 残差が0になるか、あいるは充分に0に近づいたら、全ての音源から発している音の分析が終わったとして、求めた1〜nの音源の位置と、各音源の広がり、音色、音のレベルを出力する(ステップS11)。なお、n=1であれば、音源は一つである。
インタフェース部5dは、上記のようにして求めた音源位置、音の広がりを画像処理装置6の座標系に変換し、音色、音のレベルとともに画像処理装置に送る。また、マウス7a等のポインティングデバイスで音源位置が選択され、画像処理装置6から音源の選択信号が送られてくると、選択された音源の音色、音のレベルを音合成装置9に送る。音合成装置9は、前記したように送られてきた音色、音のレベルに対応した可聴音を合成する。この可聴音は、スピーカ10から出力される。
【0011】
図5、図6は本発明の第2の実施例の構成を示す図である。
本実施例は図5に示すように、表示手段の形状を顔あるいは頭部に装着できる眼鏡状にし、眼鏡を介して見える実画像に重ねて音源位置を表示するように構成したものである。
眼鏡11の前面には、図5に示すように音源定位用のマイクロフォン12が互いに最大限可能な距離を取るよう配置されている。また、前記音源定位装置5、および画像処理装置6、音合成装置9は眼鏡11のフレーム部分に内蔵されており、フレーム部分にはイヤホン13が取り付けられている。
図6は本実施例の装置構成例を示す図である。
同図に示すように、本実施例では、図1に示した画像ディスプレイ7は持たず代わりに、眼鏡部分は半透明鏡11aと音源位置表示専用のディスプレイ11bから構成されている。
そして、半透明鏡11aを介して見える実画像とディスプレイ11bに表示される画像とが重ね合わされ、装着者の瞳14に入る。
【0012】
眼鏡11の前面に配置されたマイクロフォン12の出力は、前記図2に示したものと同様の構成を有する音源定位装置5に入力され、音源定位装置5は、前記したように複数のマイクロフォン12が収集する音場情報を処理し、音源の三次元位置を算出するとともに、音源が発する音の音色(周波数スペクトル)、音の強弱(音のレベル)、音源が点でない場合には音源の広がり等の音源の属性情報を算出する。音源定位装置5で求めた音源の三次元位置、音源が発する音の属性情報は画像処理装置6に送られる。
画像処理装置6は音源定位装置5で求めた音源位置が、上記半透明鏡11aの視野内の対応した位置にマーク等で表示されるように、ディスプレイ11b上に音源位置を表示するとともに、音源の属性情報を文字、図形(周波数スペクトルのグラフ等)、あるいは、マークの形状、色彩、明滅等で表示する。
【0013】
すなわち、図7(a)に示す装着者の瞳14の視線方向の光景と、音源位置表示専用のディスプレイ11bに表示された音源位置が、半透鏡11aによって重ね合わされ、結果として図7(b)に示すように音源位置が高空間分解能で表示された画像を装着者は見ることになる。
また、図6に示すように、眼鏡11には視線モニタ15が設けられ、装着者の視点の向きが該視線モニタ15によりモニタされる。視線モニタ15の出力は、画像処理装置6に入力され、画像処理装置6は視線方向にある音源の位置を音源定位装置5に送る。
音源定位装置5は、上記視線方向にある音源の音色、音のレベルを音合成装置9に送り、音合成装置9は前記したように、音源定位装置5から送られてきた音色、音のレベルに対応した可聴音を合成する。音合成装置9で合成された可聴音は、イヤホン13から出力される。
すなわち、視線を向ける方向にある音源が発する音を、装着者は選択的にイヤホン13で聞くことができる。また、上記音源が発する音が、例えば、超音波であったり、人間には殆ど聞き取れない音であっても、これらの音を可聴音として容易に聞き取ることができる。
【0014】
なお、本実施例のように、眼鏡11の前面にマイクロフォン13を取り付ける場合には、マイクロフォン相互の距離を大きくとることができない。このため、ある程度以上の高い周波数の音(例えば2kHz程度)でなければ、音源位置を精度よく同定することができない。このような場合には、必ずしも眼鏡にマイクロフォンを取り付ける必要はなく、顔の向きにかかわらず、眼鏡との相対位置が変わらない例えばヘルメット等にマイクロフォンを取り付けるようにしてもよい。また、本実施例の装置は、空気中だけでなく、水中でも使用可能であるが、水中の場合には音の伝搬速度が空気中より速いので、空気中で使用する場合より、高い周波数の音でなければ、音源位置を同定することが困難となる。
【0015】
【発明の効果】
以上説明したように、本発明においては、音源の三次元位置を求め、音源の位置を含む音源に関する情報を可視情報に変換し、該音源周辺の実画像とリアルタイムに重ね合わせて表示するようにしたので、視覚の補助を用いて、人間の聴覚の空間分解能の限界を拡張することができる。このため、例えば、人間が聞き取りにくい異常音や超音波等の発生位置等を容易に把握することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の全体構成を示す図である。
【図2】音源定位装置の構成例を示す図である。
【図3】音源定位装置における処理を説明するフローチャートである。
【図4】各マイクロホンで収集した音をマッチングさせたときに得られる差の絶対値の総和のパターン例を示す図である。
【図5】本発明の第2の実施例の眼鏡の構成例を示す図である。
【図6】本発明の第2の実施例の装置構成を示す図である。
【図7】眼鏡を通して見える光景と、該光景に音源位置を示すマークを重ねて表示した例を示す図である。
【符号の説明】
1 被測定対象となる空間(風景)
2 音源
3 カメラ
4 マイクロフォン
5 音源定位装置
6 画像処理装置
7 ディスプレイ
8 マーク
9 音合成装置
10 スピーカ
11 眼鏡
12 マイクロフォン
13 イヤホン
14 瞳
15 視線モニタ
【発明の属する技術分野】
本発明は、任意の音の発生源の位置を、実空間と対応付けることによってリアルタイムに可視化する音源位置の可視化表示方法および音源位置表示装置に関する。
【0002】
【従来の技術】
人間は体表面から離れた空間の情報をリアルタイムに収集するために、主に聴覚と視覚を用いる。聴覚は時間分解能にすぐれるが空間分解能に劣り、視覚は空間分解能にすぐれるが時間分解能においてきわめて貧弱である。これらふたつの互いに相補的な特性を持つ感覚の出力を併用することにより、人間の日々の生存および日常生活は維持される。
しかし、機械装置の中の異常動作箇所(たとえば異音を発する場合がある)の同定など、目に見えるほど大きな動きを伴わない音源の正確な定位が必要となる場合もある。
音源位置の三次元的な計測のみならば、従来各種の方法が提案され、実用化されてきた。しかし、従来の計測結果の出力は、あるものは数値情報、あるものは音源分布のみの画像、といったものばかりであって、音源の三次元位置を人間の意識に直観的に入力できるものは提案されていない。
【0003】
【発明が解決しようとする課題】
従来の計測結果の出力は、上記のように、数値情報、あるものは音源分布のみの画像といったものばかりであり、それだけではせっかく測定した三次元位置を人間の意識に直感的に入力することができない。
本発明はこのような観点からなされたものであって、本発明の目的は、視覚の補助を用いて、空間分解能における人間の聴覚器官の限界を拡張することにより、音源の三次元位置を人間の意識に直観的に入力することができる音源位置の可視化表示方法および音源位置表示装置を提供することである。
【0004】
【課題を解決するための手段】
上記課題を解決するため、本発明は、機械の助力によって得た三次元空間内の音源の位置を、以下のように、その音源が存在する地点の周辺の映像の中にて指し示すことにより人間の視覚入力と合成する。
(1)ひとつ以上の音(超音波等の人間が聞き取れない音も含む)を検知してそのそれぞれの音源の位置を突き止め、少なくとも上記音源の位置を含む音源に関する情報を可視情報に変換し、該音源周辺の実画像とリアルタイムに重ね合わせて表示手段に表示する。
(2)上記(1)において、人間の頭に装着できる形状の表示装置を用い、上記表示手段を介して見える目前の光景に重ね合わせて、上記可視情報に変換された少なくとも音源位置を含む音源に関する情報を表示する。
(3)上記(1)(2)において、上記表示手段に、上記音源位置を識別可能なマークで表示し、該音源の音色(周波数スペクトル)、音の強弱、音源の広がり等の物理的属性を、文字、図形もしくはマークの形状、色彩、明滅等の変化として表示する。
(4)上記(3)において、上記マークを指定したとき、指定されたマークに対応した音源が発する音を可聴音に変換して出力する。
以上のように、本発明においては、音源の位置を突き止め、少なくとも上記音源の位置を含む音源に関する情報を可視情報に変換し、該音源周辺の実画像とリアルタイムに重ね合わせて表示手段に表示するようにしたので、視覚の補助を用いて、人間の聴覚の空間分解能の限界を拡張することができる。
また、人間の頭に装着できる形状の表示装置を用い、上記表示手段を介して見える目前の光景に音源位置を重ね合わせて表示することにより、一層利便性を向上させることができ、例えば、水中等での使用も可能となる。
さらに、音源を指定したとき、指定された音源が発する音を可聴音に変換して出力することにより、特定の音源が発する音を選択的に聞くことができ、また、上記音源が発する音が、例えば、超音波であったり、人間には殆ど聞き取れない音であっても、これらの音を可聴音として容易に聞き取ることが可能となる。
【0005】
【発明の実施の形態】
以下、図面に基づいて、本発明の実施の形態を説明する。
図1は、本発明の第1の実施例の全体構成を示す図である。
図1において、1は被測定対象となる空間であり、該空間内には、音源2を有する各種機器等が置かれている。これらの機器は、例えば前記したように異常箇所等を有する機械装置等であり、上記音源が発する音は、超音波等を含む、例えば人間が聞き取りにくい異常音等である。
3はカメラであり、カメラ3が捉える上記空間の画像の中には、上記のようにカメラ3には不可視の音源2を有する機器等が存在し音を発している。カメラ3は被測定対象となる空間1の画像を画像処理装置6に出力する。
なお、以下では、上記空間の光景を風景とよび、カメラや眼鏡等を介して見える画像(コンピュータ等で合成された上記空間の光景に相当する画像を含む)を実画像あるいは風景画像という。
【0006】
また、カメラ3の近傍には、複数のマイクロフォン4が設置され、上記被測定空間1の音源2が発する音を収集する。マイクロフォン4で収集された音は、音源定位装置5に送られる。
音源定位装置5は、複数のマイクロフォン4が収集する音場情報を処理し、音源の三次元位置を算出するとともに、音源2が発する音の音色(周波数スペクトル)、音の強弱(音のレベル)、音源が点でない場合には音源の広がり等の音源2の属性情報を算出する。音源定位装置5で求めた音源の三次元位置、音源2が発する音の属性情報は画像処理装置6に送られる。
画像処理装置6はカメラ3から送られた風景画像に音源位置を合成し、ディスプレイ7に表示する。ディスプレイ7に映る風景画像には、図1に示すように、例えば輝点等のマーク8により、目には見えない音源2の位置が重なって表示される。また、画像処理装置6は、各音源の属性情報を文字、図形(周波数スペクトルのグラフ等)、あるいは、マークの形状、色彩、明滅等でディスプレイ7上に表示する。
なお、ディスプレイ7上の風景画像は、カメラ3が捉えた画像そのものであってもよいし、また、コンピュータ等で合成された画像であってもかまわない。
【0007】
また、ディスプレイ7に表示されるマーク8をマウス7a等のポインティングデバイスで選択すると、画像処理装置6は選択されたマーク8に対応する音源の位置を音源定位装置5に送る。
音源定位装置5は、音源が選択されると、ポインティングデバイスで選択された音源の音色、音のレベルを音合成装置9に送る。音合成装置9は音源定位装置5から送られてきた音色、音のレベルに対応した可聴音を合成し、音合成装置9で合成された可聴音は、スピーカ10から出力される。
すなわち、ユーザは、ディスプレイ7に表示された音源をマウス等で選択することにより、音源が複数であっても、特定の音源が発する音を選択的にスピーカ10から聞くことができる。また、上記音源が発する音が、例えば、超音波であったり、人間には殆ど聞き取れない音であっても、これらの音を可聴音として容易に聞き取ることができる。
なお、音源が発する音が可聴音の場合には、そのまま人が聞き取り可能な大きさの音に変換してスピーカ10から出力してもよいし、また、聞き取り易い周波数に変換して出力してもよい。
【0008】
図2は上記音源定位装置5の構成例を示す図、図3は音源定位装置5における処理を説明するフローチャートである。
図2に示すように、音源定位装置5は、フィルタ5aと、音源の位置を算出する音源位置分析部5bと、音色、音のレベル、音の広がり等を求める音色分析部5cと、インタフェース部5dから構成されており、音源位置分析部5bは、マイクロホン4で収集されフィルタ5aを介して入力される複数の音から音源位置を同定する。また、音色分析部5cは音源位置分析部5bで音源位置が同定された音について、音色(周波数スペクトル)、音のレベル、音源の広がりを求める。
以下、図3のフローチャートを参照しながら上記音源定位装置5における処理について説明する。
(i) フィルタ5aを収集する音の周波数帯域に設定する(図3のステップS1)。
(ii)n=1とする(ステップS2)。
(iii) 複数のマイロクホン4で音を収集する(ステップS3)。
【0009】
(iv)音源位置分析部5bでは、複数のマイクロホンで収録されフィルタを通過した音の任意の2つの音を取り、時間軸でずらし、各マイクロホンで収集した音の波形をマッチングさせる(ステップS4)。
すなわち、マイクロホンで収集した音を時間軸でずらしながら、差の絶対値の総和を求める。これにより、例えば図4に示すパターンが得られたとする。
このパターンにおいて、差の絶対値の総和が最小となるずらし量が、上記2つの音の音源から各マイクロホンまでの到達時間差となる。
同様にして各マイクロホンで収録した音の到達時間差を求めることによりnの音源位置を同定する(ステップS5)。 音色分析部5cは、上記マッチング処理によりマッチングがとれた波形を解析して周波数スペクトルを求め、これをnの音源が発している音の音色とするとともに、音源の広がり、音のレベル等を求める(ステップS6)。
すなわち、差の絶対値の総和が最小となるずらし量だけ各マイクロホンで収集した音をずらし、各マイクロホンで収集した音の波形を比較して、一致する成分を求めて、この周波数スペクトルを求め、nの音源が発している音の音色とする。音のレベルは、例えば、周波数スペクトルの各周波数成分の高さの平均値を求めることにより得られる。
さらに、上記パターンの広がり量からnの音源の広がりを求める。
例えば、前記差の絶対値の総和のパターンが、例えば図4のA,Bのようであった場合、パターンAの音源の広がりをaとし、パターンBの音源の広がりをbとする。
(v) 以上のようにしてnの音源位置、音色、音源の広がり、音のレベルが求まったら、音色分析部5cは、各マイロクフォンで収録した音から、既に分析が終わった1〜nまでの音の総和をそれぞれ引き、残差をもとめる(ステップS7)。
【0010】
(vi)残差が0に充分に近いと言えなければ、n=n+1として、フィルタを上記残差の音のみが通過するように調整し(ステップS8〜S10)、フィルタを通過した音について、上記(iii) 〜(vi)の処理を繰り返す。
(vii) 残差が0になるか、あいるは充分に0に近づいたら、全ての音源から発している音の分析が終わったとして、求めた1〜nの音源の位置と、各音源の広がり、音色、音のレベルを出力する(ステップS11)。なお、n=1であれば、音源は一つである。
インタフェース部5dは、上記のようにして求めた音源位置、音の広がりを画像処理装置6の座標系に変換し、音色、音のレベルとともに画像処理装置に送る。また、マウス7a等のポインティングデバイスで音源位置が選択され、画像処理装置6から音源の選択信号が送られてくると、選択された音源の音色、音のレベルを音合成装置9に送る。音合成装置9は、前記したように送られてきた音色、音のレベルに対応した可聴音を合成する。この可聴音は、スピーカ10から出力される。
【0011】
図5、図6は本発明の第2の実施例の構成を示す図である。
本実施例は図5に示すように、表示手段の形状を顔あるいは頭部に装着できる眼鏡状にし、眼鏡を介して見える実画像に重ねて音源位置を表示するように構成したものである。
眼鏡11の前面には、図5に示すように音源定位用のマイクロフォン12が互いに最大限可能な距離を取るよう配置されている。また、前記音源定位装置5、および画像処理装置6、音合成装置9は眼鏡11のフレーム部分に内蔵されており、フレーム部分にはイヤホン13が取り付けられている。
図6は本実施例の装置構成例を示す図である。
同図に示すように、本実施例では、図1に示した画像ディスプレイ7は持たず代わりに、眼鏡部分は半透明鏡11aと音源位置表示専用のディスプレイ11bから構成されている。
そして、半透明鏡11aを介して見える実画像とディスプレイ11bに表示される画像とが重ね合わされ、装着者の瞳14に入る。
【0012】
眼鏡11の前面に配置されたマイクロフォン12の出力は、前記図2に示したものと同様の構成を有する音源定位装置5に入力され、音源定位装置5は、前記したように複数のマイクロフォン12が収集する音場情報を処理し、音源の三次元位置を算出するとともに、音源が発する音の音色(周波数スペクトル)、音の強弱(音のレベル)、音源が点でない場合には音源の広がり等の音源の属性情報を算出する。音源定位装置5で求めた音源の三次元位置、音源が発する音の属性情報は画像処理装置6に送られる。
画像処理装置6は音源定位装置5で求めた音源位置が、上記半透明鏡11aの視野内の対応した位置にマーク等で表示されるように、ディスプレイ11b上に音源位置を表示するとともに、音源の属性情報を文字、図形(周波数スペクトルのグラフ等)、あるいは、マークの形状、色彩、明滅等で表示する。
【0013】
すなわち、図7(a)に示す装着者の瞳14の視線方向の光景と、音源位置表示専用のディスプレイ11bに表示された音源位置が、半透鏡11aによって重ね合わされ、結果として図7(b)に示すように音源位置が高空間分解能で表示された画像を装着者は見ることになる。
また、図6に示すように、眼鏡11には視線モニタ15が設けられ、装着者の視点の向きが該視線モニタ15によりモニタされる。視線モニタ15の出力は、画像処理装置6に入力され、画像処理装置6は視線方向にある音源の位置を音源定位装置5に送る。
音源定位装置5は、上記視線方向にある音源の音色、音のレベルを音合成装置9に送り、音合成装置9は前記したように、音源定位装置5から送られてきた音色、音のレベルに対応した可聴音を合成する。音合成装置9で合成された可聴音は、イヤホン13から出力される。
すなわち、視線を向ける方向にある音源が発する音を、装着者は選択的にイヤホン13で聞くことができる。また、上記音源が発する音が、例えば、超音波であったり、人間には殆ど聞き取れない音であっても、これらの音を可聴音として容易に聞き取ることができる。
【0014】
なお、本実施例のように、眼鏡11の前面にマイクロフォン13を取り付ける場合には、マイクロフォン相互の距離を大きくとることができない。このため、ある程度以上の高い周波数の音(例えば2kHz程度)でなければ、音源位置を精度よく同定することができない。このような場合には、必ずしも眼鏡にマイクロフォンを取り付ける必要はなく、顔の向きにかかわらず、眼鏡との相対位置が変わらない例えばヘルメット等にマイクロフォンを取り付けるようにしてもよい。また、本実施例の装置は、空気中だけでなく、水中でも使用可能であるが、水中の場合には音の伝搬速度が空気中より速いので、空気中で使用する場合より、高い周波数の音でなければ、音源位置を同定することが困難となる。
【0015】
【発明の効果】
以上説明したように、本発明においては、音源の三次元位置を求め、音源の位置を含む音源に関する情報を可視情報に変換し、該音源周辺の実画像とリアルタイムに重ね合わせて表示するようにしたので、視覚の補助を用いて、人間の聴覚の空間分解能の限界を拡張することができる。このため、例えば、人間が聞き取りにくい異常音や超音波等の発生位置等を容易に把握することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の全体構成を示す図である。
【図2】音源定位装置の構成例を示す図である。
【図3】音源定位装置における処理を説明するフローチャートである。
【図4】各マイクロホンで収集した音をマッチングさせたときに得られる差の絶対値の総和のパターン例を示す図である。
【図5】本発明の第2の実施例の眼鏡の構成例を示す図である。
【図6】本発明の第2の実施例の装置構成を示す図である。
【図7】眼鏡を通して見える光景と、該光景に音源位置を示すマークを重ねて表示した例を示す図である。
【符号の説明】
1 被測定対象となる空間(風景)
2 音源
3 カメラ
4 マイクロフォン
5 音源定位装置
6 画像処理装置
7 ディスプレイ
8 マーク
9 音合成装置
10 スピーカ
11 眼鏡
12 マイクロフォン
13 イヤホン
14 瞳
15 視線モニタ
Claims (5)
- ひとつ以上の音を検知してそのそれぞれの音源の位置を突き止め、
少なくとも上記音源の位置を含む音源に関する情報を可視情報に変換し、該音源周辺の実画像とリアルタイムに重ね合わせて表示する
ことを特徴とする音源位置の可視化表示方法。 - ひとつ以上の音を検知してそのそれぞれの発生源の位置を突き止める音源位置特定手段と、
上記音源位置特定手段により特定された、少なくとも音源位置を含む音源に関する情報を可視情報に変換し、該音源周辺の実画像とリアルタイムに重ね合わせて表示する表示手段とを備えた
ことを特徴とする音源位置表示装置。 - 少なくとも上記表示手段は人間の頭に装着できる形状であり、上記表示手段を介して見える目前の光景に重ね合わせて、上記可視情報に変換された少なくとも音源位置を含む音源に関する情報を表示する
ことを特徴とする請求項2の音源位置表示装置。 - 上記表示手段は、上記音源位置を識別可能なマークで表示し、該音源の物理的属性を、文字、図形もしくはマークの形状、色彩、明滅等の変化として表示する
ことを特徴とする請求項2または請求項3の音源位置表示装置。 - 上記マークが指定されたとき、指定されたマークに対応した音源が発する音を可聴音に変換して出力する手段を備えた
ことを特徴とする請求項4の音源位置表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002237868A JP2004077277A (ja) | 2002-08-19 | 2002-08-19 | 音源位置の可視化表示方法および音源位置表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002237868A JP2004077277A (ja) | 2002-08-19 | 2002-08-19 | 音源位置の可視化表示方法および音源位置表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004077277A true JP2004077277A (ja) | 2004-03-11 |
Family
ID=32021448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002237868A Withdrawn JP2004077277A (ja) | 2002-08-19 | 2002-08-19 | 音源位置の可視化表示方法および音源位置表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004077277A (ja) |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006038772A (ja) * | 2004-07-29 | 2006-02-09 | Nittobo Acoustic Engineering Co Ltd | 音圧測定方法 |
JP2006201124A (ja) * | 2005-01-24 | 2006-08-03 | Hajime Hatano | 音源位置検出装置 |
JP2007225590A (ja) * | 2006-01-30 | 2007-09-06 | Nissan Motor Co Ltd | 異音対策確認装置および異音対策確認方法 |
JP2008268176A (ja) * | 2007-04-17 | 2008-11-06 | Korea Inst Of Machinery & Materials | 音質表示装置、音質表示方法、音質表示プログラムを記録したコンピューターで読める媒体及び音響カメラ |
KR100911870B1 (ko) * | 2009-02-11 | 2009-08-11 | 김성완 | 음원 추적 장치 및 그 방법 |
JP2010169430A (ja) * | 2009-01-20 | 2010-08-05 | Nec System Technologies Ltd | 電子機器、および電子機器における機構部品の診断方法、ならびに診断プログラム |
JP2010197361A (ja) * | 2009-02-27 | 2010-09-09 | Brother Ind Ltd | 異音診断システム |
JP2010203785A (ja) * | 2009-02-27 | 2010-09-16 | Kumagai Gumi Co Ltd | 音源推定方法 |
JP2010203800A (ja) * | 2009-02-27 | 2010-09-16 | Kumagai Gumi Co Ltd | 音源の推定方法とその装置 |
JP2010236939A (ja) * | 2009-03-30 | 2010-10-21 | Chubu Electric Power Co Inc | 音源推定方法及び音源推定装置 |
JP2011163776A (ja) * | 2010-02-04 | 2011-08-25 | Ono Sokki Co Ltd | 音源モニタリング装置 |
KR101155610B1 (ko) * | 2010-04-30 | 2012-06-13 | 주식회사 에스원 | 음원 위치 표시 장치 및 그 방법 |
CN102543099A (zh) * | 2010-12-24 | 2012-07-04 | 索尼公司 | 声音信息显示装置、声音信息显示方法和程序 |
JP2012129873A (ja) * | 2010-12-16 | 2012-07-05 | Chubu Electric Power Co Inc | 指定領域からの伝播音の再生方法とその装置 |
US8363512B2 (en) | 2009-02-27 | 2013-01-29 | Honda Motors | Method and apparatus for estimating sound source |
JP2013250111A (ja) * | 2012-05-31 | 2013-12-12 | Ono Sokki Co Ltd | 音源探査装置 |
WO2014178479A1 (ko) * | 2013-04-30 | 2014-11-06 | 인텔렉추얼디스커버리 주식회사 | 헤드 마운트 디스플레이 및 이를 이용한 오디오 콘텐츠 제공 방법 |
JP2015152316A (ja) * | 2014-02-10 | 2015-08-24 | 株式会社小野測器 | 音源可視化装置 |
WO2016013286A1 (ja) * | 2014-07-25 | 2016-01-28 | シャープ株式会社 | 位相差算出装置、音源方向検知装置、および位相差算出方法 |
JP2017092938A (ja) * | 2016-07-12 | 2017-05-25 | パナソニックIpマネジメント株式会社 | 音源検知システム及び音源検知方法 |
JP2018101987A (ja) * | 2018-01-31 | 2018-06-28 | パナソニックIpマネジメント株式会社 | 監視エリアの音源表示システム及び音源表示方法 |
CN108852620A (zh) * | 2018-01-19 | 2018-11-23 | 郭磊 | 智能颈戴设备及其控制方法 |
EP3493554A4 (en) * | 2016-07-28 | 2019-08-21 | Panasonic Intellectual Property Management Co., Ltd. | UNMANUFACTURED AIRCRAFT RECOGNITION SYSTEM AND METHOD FOR DETECTING UNMANNED AIRCRAFT |
US10824876B2 (en) | 2015-11-06 | 2020-11-03 | Panasonic Intellectual Property Management Co., Ltd. | Pilotless flying object detection system and pilotless flying object detection method |
US10909384B2 (en) | 2015-07-14 | 2021-02-02 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring system and monitoring method |
JP2021018212A (ja) * | 2019-07-23 | 2021-02-15 | 株式会社ミツトヨ | 音響測定装置およびプログラム |
CN112739997A (zh) * | 2018-07-24 | 2021-04-30 | 弗兰克公司 | 用于可拆卸和可附接的声学成像传感器的系统和方法 |
US11913829B2 (en) | 2017-11-02 | 2024-02-27 | Fluke Corporation | Portable acoustic imaging tool with scanning and analysis capability |
-
2002
- 2002-08-19 JP JP2002237868A patent/JP2004077277A/ja not_active Withdrawn
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006038772A (ja) * | 2004-07-29 | 2006-02-09 | Nittobo Acoustic Engineering Co Ltd | 音圧測定方法 |
JP2006201124A (ja) * | 2005-01-24 | 2006-08-03 | Hajime Hatano | 音源位置検出装置 |
JP2007225590A (ja) * | 2006-01-30 | 2007-09-06 | Nissan Motor Co Ltd | 異音対策確認装置および異音対策確認方法 |
US8155325B2 (en) | 2007-04-17 | 2012-04-10 | Korea Institute Of Machinery & Materials | Sound quality display apparatus, sound quality display method, computer readable medium on which sound quality display program is recorded and sound camera |
JP2008268176A (ja) * | 2007-04-17 | 2008-11-06 | Korea Inst Of Machinery & Materials | 音質表示装置、音質表示方法、音質表示プログラムを記録したコンピューターで読める媒体及び音響カメラ |
JP4523966B2 (ja) * | 2007-04-17 | 2010-08-11 | コリア インスティチュート オブ マシナリー アンド マテリアルズ | 音質表示装置、音質表示方法、音質表示プログラムを記録したコンピューターで読める媒体及び音響カメラ |
JP2010169430A (ja) * | 2009-01-20 | 2010-08-05 | Nec System Technologies Ltd | 電子機器、および電子機器における機構部品の診断方法、ならびに診断プログラム |
KR100911870B1 (ko) * | 2009-02-11 | 2009-08-11 | 김성완 | 음원 추적 장치 및 그 방법 |
JP2010197361A (ja) * | 2009-02-27 | 2010-09-09 | Brother Ind Ltd | 異音診断システム |
JP2010203785A (ja) * | 2009-02-27 | 2010-09-16 | Kumagai Gumi Co Ltd | 音源推定方法 |
JP2010203800A (ja) * | 2009-02-27 | 2010-09-16 | Kumagai Gumi Co Ltd | 音源の推定方法とその装置 |
US8363512B2 (en) | 2009-02-27 | 2013-01-29 | Honda Motors | Method and apparatus for estimating sound source |
JP2010236939A (ja) * | 2009-03-30 | 2010-10-21 | Chubu Electric Power Co Inc | 音源推定方法及び音源推定装置 |
JP2011163776A (ja) * | 2010-02-04 | 2011-08-25 | Ono Sokki Co Ltd | 音源モニタリング装置 |
KR101155610B1 (ko) * | 2010-04-30 | 2012-06-13 | 주식회사 에스원 | 음원 위치 표시 장치 및 그 방법 |
JP2012129873A (ja) * | 2010-12-16 | 2012-07-05 | Chubu Electric Power Co Inc | 指定領域からの伝播音の再生方法とその装置 |
CN102543099A (zh) * | 2010-12-24 | 2012-07-04 | 索尼公司 | 声音信息显示装置、声音信息显示方法和程序 |
JP2013250111A (ja) * | 2012-05-31 | 2013-12-12 | Ono Sokki Co Ltd | 音源探査装置 |
WO2014178479A1 (ko) * | 2013-04-30 | 2014-11-06 | 인텔렉추얼디스커버리 주식회사 | 헤드 마운트 디스플레이 및 이를 이용한 오디오 콘텐츠 제공 방법 |
JP2015152316A (ja) * | 2014-02-10 | 2015-08-24 | 株式会社小野測器 | 音源可視化装置 |
WO2016013286A1 (ja) * | 2014-07-25 | 2016-01-28 | シャープ株式会社 | 位相差算出装置、音源方向検知装置、および位相差算出方法 |
JP2016031243A (ja) * | 2014-07-25 | 2016-03-07 | シャープ株式会社 | 位相差算出装置、音源方向検知装置、および位相差算出方法 |
US10909384B2 (en) | 2015-07-14 | 2021-02-02 | Panasonic Intellectual Property Management Co., Ltd. | Monitoring system and monitoring method |
US10824876B2 (en) | 2015-11-06 | 2020-11-03 | Panasonic Intellectual Property Management Co., Ltd. | Pilotless flying object detection system and pilotless flying object detection method |
JP2017092938A (ja) * | 2016-07-12 | 2017-05-25 | パナソニックIpマネジメント株式会社 | 音源検知システム及び音源検知方法 |
EP3493554A4 (en) * | 2016-07-28 | 2019-08-21 | Panasonic Intellectual Property Management Co., Ltd. | UNMANUFACTURED AIRCRAFT RECOGNITION SYSTEM AND METHOD FOR DETECTING UNMANNED AIRCRAFT |
US11913829B2 (en) | 2017-11-02 | 2024-02-27 | Fluke Corporation | Portable acoustic imaging tool with scanning and analysis capability |
CN108852620A (zh) * | 2018-01-19 | 2018-11-23 | 郭磊 | 智能颈戴设备及其控制方法 |
JP2018101987A (ja) * | 2018-01-31 | 2018-06-28 | パナソニックIpマネジメント株式会社 | 監視エリアの音源表示システム及び音源表示方法 |
CN112739997A (zh) * | 2018-07-24 | 2021-04-30 | 弗兰克公司 | 用于可拆卸和可附接的声学成像传感器的系统和方法 |
CN112739996A (zh) * | 2018-07-24 | 2021-04-30 | 弗兰克公司 | 用于分析和显示声学数据的系统和方法 |
JP2021532358A (ja) * | 2018-07-24 | 2021-11-25 | フルークコーポレイションFluke Corporation | 標的シーンからの音響シグネチャを表すためのシステムおよび方法 |
JP2021532359A (ja) * | 2018-07-24 | 2021-11-25 | フルークコーポレイションFluke Corporation | 取り外し可能および取り付け可能な音響撮像センサのためのシステムおよび方法 |
US11762089B2 (en) | 2018-07-24 | 2023-09-19 | Fluke Corporation | Systems and methods for representing acoustic signatures from a target scene |
JP7403526B2 (ja) | 2018-07-24 | 2023-12-22 | フルークコーポレイション | 取り外し可能および取り付け可能な音響撮像センサのためのシステムおよび方法 |
US11960002B2 (en) | 2018-07-24 | 2024-04-16 | Fluke Corporation | Systems and methods for analyzing and displaying acoustic data |
US11965958B2 (en) | 2018-07-24 | 2024-04-23 | Fluke Corporation | Systems and methods for detachable and attachable acoustic imaging sensors |
JP7493491B2 (ja) | 2018-07-24 | 2024-05-31 | フルークコーポレイション | 標的シーンからの音響シグネチャを表すためのシステムおよび方法 |
JP7295732B2 (ja) | 2019-07-23 | 2023-06-21 | 株式会社ミツトヨ | 音響測定装置およびプログラム |
JP2021018212A (ja) * | 2019-07-23 | 2021-02-15 | 株式会社ミツトヨ | 音響測定装置およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004077277A (ja) | 音源位置の可視化表示方法および音源位置表示装置 | |
CA2898750C (en) | Devices and methods for the visualization and localization of sound | |
JP6904963B2 (ja) | 拡張現実システムにおいてオーディオを指向させるための技法 | |
KR102433613B1 (ko) | 개인 특징을 반영한 바이노럴 오디오 신호 처리 방법 및 장치 | |
JP2019536395A (ja) | 耳介の画像を撮像し、耳介の画像を用いて人間の聴覚の解剖学的構造の特徴を示すためのシステムおよび方法 | |
US10088868B1 (en) | Portable electronic device for acustic imaging and operating method for the same | |
EP3935873A1 (en) | Determination of spatialized virtual acoustic scenes from legacy audiovisual media | |
JP2022534833A (ja) | 個人化されたオーディオ拡張のためのオーディオプロファイル | |
JP2013008031A (ja) | 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム | |
US20210029484A1 (en) | Remote inference of sound frequencies for determination of head-related transfer functions for a user of a headset | |
US11531389B1 (en) | Systems and methods for electric discharge-based sensing via wearables donned by users of artificial reality systems | |
US11175731B1 (en) | Apparatus, system, and method for directional acoustic sensing via wearables donned by users of artificial reality systems | |
US11596301B2 (en) | Device for the determination and analysis of the motor skill and the oculomotor skill of a person | |
CN109932054B (zh) | 可穿戴式声学检测识别系统 | |
JP2022519153A (ja) | 頭部伝達関数へのヘッドセットの影響を補償すること | |
KR100917100B1 (ko) | 입체 영상 디스플레이 장치 및 그 입체 영상 디스플레이장치에서의 표시부 위치 조절 방법 | |
US20130215010A1 (en) | Portable electronic equipment and method of visualizing sound | |
CA2762296A1 (en) | Seeing or other sensory aid for activities such as electric arc welding | |
JP2011163776A (ja) | 音源モニタリング装置 | |
US20240056756A1 (en) | Method for Generating a Personalised HRTF | |
Matta et al. | Auditory eyes: Representing visual information in sound and tactile cues | |
US11967335B2 (en) | Foveated beamforming for augmented reality devices and wearables | |
US11287885B1 (en) | Apparatus, system, and method for determining the position of wearables donned by users of artificial reality systems | |
KR20130054569A (ko) | 머리 위치에 따른 3차원 음향 구현장치 및 그 방법 | |
CN103294880B (zh) | 一种信息输出方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20051101 |