JP3714706B2 - 音抽出装置 - Google Patents

音抽出装置 Download PDF

Info

Publication number
JP3714706B2
JP3714706B2 JP21785995A JP21785995A JP3714706B2 JP 3714706 B2 JP3714706 B2 JP 3714706B2 JP 21785995 A JP21785995 A JP 21785995A JP 21785995 A JP21785995 A JP 21785995A JP 3714706 B2 JP3714706 B2 JP 3714706B2
Authority
JP
Japan
Prior art keywords
sound
target person
extraction
microphone
sound data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21785995A
Other languages
English (en)
Other versions
JPH08286680A (ja
Inventor
健一 原川
憲男 井川
大作 荘
健二 影山
立美 中島
義孝 脇中
祐生 山田
健一 海野
信義 村井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Takenaka Corp
Original Assignee
Takenaka Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Takenaka Corp filed Critical Takenaka Corp
Priority to JP21785995A priority Critical patent/JP3714706B2/ja
Publication of JPH08286680A publication Critical patent/JPH08286680A/ja
Application granted granted Critical
Publication of JP3714706B2 publication Critical patent/JP3714706B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、音抽出装置に係り、より詳しくは、オブジェクト(本発明では、音を発すると予想される人間又は物体)の発する音を抽出する音抽出装置に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】
従来、建物や橋等の建造物の老朽化の度合いを検査する場合、該建造物の所定の部位から発せられるきしみ音等を主にシミュレーションにより算出することにより老朽化の度合いを検査していた。しかし前記シミュレーションにより算出される値はあくまでも予測値であるので、より厳密な検査を行うためには該建造物の所定の部位から発せられる実際のきしみ音を周辺の雑音と弁別して抽出することが望まれていた。
【0003】
一方、上記に関連して、複数のマイクロフォンにより集音された音の音声信号を同じ時間軸上に重ね、それらの音の各々に対しマイクロフォンと目的とする音源との距離に応じて適切な遅延操作を行ってから加算平均することにより、目的とする音源から発せられた音のみを抽出する技術が知られている。またこの技術を撮影と録音とを同時に行う手持ち式のビデオカメラに適用し、撮影における被写体から発せられた音を抽出することにより、被写体の映像の焦点と録音の焦点とを一致させる技術が知られている(特開平5−308553号公報参照)。
【0004】
しかし、上記の手持ち式のビデオカメラに関する技術は、実際には当該ビデオカメラの撮影視野内という狭い領域内に位置する単一の被写体に対してのみ有効であり、手持ち式であるためにビデオカメラに付属したマイクロフォンは少数であり、それらの配置間隔が狭いため、雑音の影響が大きく、臨場感の高い音声を集音することは比較的困難であった。
【0005】
ところで、従来より天井に複数のテレビカメラを配置し、該複数のテレビカメラにより撮影した画像情報に基づいて、部屋の中に存在するオブジェクトの位置を検出する画像認識技術が存在する。
【0006】
しかしながら、オブジェクトが移動する場合、この移動するオブジェクトに合わせて複数のテレビカメラを動かし且つ焦点調整を行うことにより、当該移動するオブジェクトを撮影していた。このように、テレビカメラを動かし焦点調整を行う必要があるので、オブジェクトを含む画像データを得るまでに遅延時間が発生するという問題点があった。
【0007】
本発明は、上記のような事実を考慮して成されたものであり、上記の位置の検出に関する画像認識技術と音抽出技術とを組合せ、位置が不確定であるオブジェクトの位置を検出し且つその位置に基づいてオブジェクトが発する音を抽出することができる音抽出装置を提供することを第1の目的とする。また、より効率的にオブジェクトの位置検出を行った上で、その検出位置に基づいてオブジェクトが発する音を抽出することができる音抽出装置を提供することを第2の目的とする。
【0008】
【課題を解決するための手段】
上記第1の目的を達成するために、請求項1記載の発明は、複数の撮影手段と、画像認識手段と、複数のマイクロフォンと、抽出手段とを備えた音抽出装置であって、前記複数の撮影手段の各々は、他の撮影手段と重複する領域を撮影するように設置され、前記画像認識手段は、前記複数の撮影手段撮影複数の画像情報に基づいて、対象人物の頭部の位置を認識すると共に、該対象人物の頭部の方向を推定し、頭部の位置より頭部の方向に向かって所定距離離間した位置を対象人物位置として認識し、前記複数のマイクロフォンの各々は、予め定められた位置に配置され、採取音データを出力し、抽出手段は、第1処理〜第4処理を行い、第1処理では、採取音データのうち複数の採取音データを選択し、第2処理では、選択した各採取音データ毎に、対象人物位置及び当該採取音データのマイクロフォンの位置に基づいてシフト量を決定し、第3処理は、前記選択した採取音データを、該採取音データ毎に決定されたシフト量だけシフトして補正を行い、第4処理では、補正された各採取音データを平均出力することを特徴とする。
【0009】
この請求項1記載の発明では、複数の撮影手段の各々他の撮影手段と重複する領域を撮影し、画像認識手段が複数の撮影手段撮影した複数の画像情報より対象人物位置を認識する。
【0010】
例えば、図2に示すように天井52に設置された複数のテレビカメラ16の各々により撮影された部屋50の中の画像情報より以下のようにして、対象人物Aの頭部Pの位置を認識する。即ち、画像情報より、表面の多くが毛髪で覆われており黒色部分が多い略球状である等のように人間の頭部に特有の特徴量を備えた領域を、対象人物Aの頭部Pに相当する領域として抽出する。そして、抽出した頭部Pに相当する領域が、部屋50を矢印X方向、矢印Y方向、矢印Z方向の各々に沿って仮想的に等分割することにより得られる多数の直方体状の領域のうち何れの領域に相当するかを認識する。
【0011】
一方、対象人物の発した音は、予め定められた位置に配置された複数のマイクロフォン(以下、マイクと略称する)により採取される。例えば、図2に示すように2人の人物が存在する部屋の天井に配置されたマイクにより2人の対象人物A、Bの声と若干の雑音とを含んだ採取音が集音される。各マイクにより集音された採取音データが図1(A)に示す波形であるとする(なお、説明の都合上マイク数は7個としているが、本発明はこれに限定されるものでなくその数はもっと増やすこともできる)。
【0012】
図1(A)に示すように、各マイクで集音される採取音データの波形における対象人物Aの声や対象人物Bの声に対応する部分は、各マイク毎に時間軸(横軸)に沿ってずれる。即ち、各対象人物と各マイクとの距離の大小により、対象人物の声がマイクに到達する時間が異なるためである。例えば、マイク1は対象人物Aに近く対象人物Bからは遠いため、該マイク1での採取音データは時間軸に沿って先に対象人物Aの声に対応する部分が表れ、後に対象人物Bの声に対応する部分が表れることになる。
【0013】
抽出手段は、複数のマイクの各々により採取された採取音データのうち複数の採取音データを選択する。ここでは、全てのマイクにより採取された採取音データを選択しても良いし、後述する請求項4記載の発明のように、オブジェクトの位置から所定距離以上離れたマイクにより採取された採取音データを除外し、それ以外の採取音データを選択しても良い。
【0014】
そして、抽出手段は、選択した採取音データを、画像認識手段により認識された対象人物位置及び選択した採取音データの採取音を採取したマイクロフォンの位置に基づいて、選択した複数の採取音データの位相が揃うように各採取音データのシフト量を決定し、決定されたシフト量だけシフトして補正を行う
【0015】
例えば、図2の対象人物Aの声の抽出を例にして説明すると、対象人物Aの頭部Pと各マイクとの距離を音速で除算することにより、対象人物Aの発した声に対する各マイクでの集音の遅延時間を求める。そして、図1(B)に示すように各マイクについて、該マイクにより集音された採取音データを時間軸に沿って遅延時間だけシフトさせた採取音データを求める。これにより、各マイクで対象人物Aの声に対応する部分が時間軸に沿ってほぼ同期する(同じ位相に揃う)ことになる。一方、当該対象人物Aの声以外の対象人物Bの声やその他の雑音に対応する部分は時間軸に沿って位相が揃わない状態のままである。
【0016】
さらに、抽出手段は、補正された各採取音データを平均することにより、対象人物が発する音を抽出する。例えば、図1(B)に示すマイク1〜7における採取音データを全て同期加算(重畳)し、加算した後の波形の振幅をマイク数「7」で除算する。これにより、相加平均した採取音データは図1(C)に示すように、対象人物Aの声以外の対象人物Bの声やその他の雑音に対応する部分ではその振幅が極めて小さくなりほぼ誤差の範囲内の振幅値となるため、対象人物Aの声に対応する部分のみが抽出されることになる。
【0017】
以上のように、請求項1記載の発明によれば、対象人物の位置を認識し且つその位置に基づいて対象人物が発する音を周囲の雑音と弁別して抽出することができる。
【0019】
また、請求項1記載の発明では、画像認識手段は、複数の撮影手段が撮影した複数の画像情報より、該対象人物の頭部の位置を認識し、認識された頭部の方向を推定する。例えば、図2に示す対象人物Aが音(声)を発する方向は、以下のようにして認識する。即ち、まず頭部Pを前述した要領で認識した後、その頭部Pの下に位置する胴体Sを認識し、その胴体Sにおいて胸幅L2は肩幅L1よりも小さいということから、対象人物Aは矢印V方向又はその逆方向を向いていると推定する。次に、頭部Pの表面における毛髪の占める比率は顔の位置する側よりも顔の位置しない側の方が高いという一般的特徴に基づいて、図2において紙面奥側の方が紙面手前側よりも黒色の度合いが高いことから、頭部Pは矢印V方向を向いていると推定し、対象人物Aが声を発する方向は矢印V方向であると認識する。
【0020】
さらに、画像認識手段は、対象人物位置及び該対象人物の頭部の方向に基づいて、該対象人物位置より前記頭部の方向に向かって所定距離離間した位置、即ち低周波域〜高周波域にわたる全ての周波数成分をもれなく原音と略同一レベルで抽出できる位置(例えば対象人物の位置から前記頭部の向きに所定距離(数十cm)離間した位置)を対象人物位置と認識する。
【0021】
このようにして認識された対象人物位置、即ち対象人物が発する音を良好に抽出可能な位置に基づいて、前述したような音の抽出を行うので、特に対象人物が発する音の指向性が強い場合等には、より高い精度の音の抽出を行うことができる。
【0026】
また、第1の目的を達成するために、請求項2記載の発明は、請求項1記載の発明において、速及び音伝搬経路の少なくとも一方に影響を及ぼす要因とされる音響環境状態を検出する音響環境状態検出手段を更に備え、前記抽出手段における前記第2処理では、前記音響環境状態検出手段によって検出された音響環境状態に基づいて各採取音データのシフト量を補正することを特徴とする。
【0027】
この請求項2記載の発明では、音響環境状態検出手段が、音速及び音伝搬経路の少なくとも一方に影響を及ぼす要因とされる音響環境状態、例えば温度や風力、風向を検出する。そして、抽出手段は、音響環境状態検出手段によって検出された音響環境状態に基づいて、例えば以下のようにして採取音データのシフトを補正する。
【0028】
即ち、予め算出された検出温度に対応した音速と標準音速との比が、該検出温度に対応させて予め記憶された音速補正テーブルを参照することにより、検出温度に対応した音速と標準音速との比を得て、その比に基づいて各マイクでの集音の遅延時間を補正し、この補正された遅延時間に従ってシフト操作を行う。又は、検出温度に対応した音速によって、対象人物の位置と各マイクの位置との距離を除算することにより、各マイクでの集音の遅延時間を補正し、この補正された遅延時間に従ってシフト操作を行う。
【0029】
また、例えば、検出した風力、風向の下での対象人物の位置から各マイクの位置への音の伝搬経路を、予め各種の風力値、風向値を想定してシミュレーションすることにより求められた伝搬経路の曲がり(変化)に関する情報に基づいて推定し、推定された伝搬経路に沿った距離を音速で除算することにより、各マイクでの集音の遅延時間を補正し、この補正された遅延時間に従ってシフト操作を行う。
【0030】
以上のようにして、音響環境状態に応じて精度の高い音の抽出を行うことができる。
【0031】
また、第1の目的を達成するために、請求項3記載の発明は、請求項1記載の発明において、抽出手段における前記第2処理では、選択した各採取音データ毎に、対象人物位置と当該採取音データのマイクロフォンの位置とに基づいて、指向性に関する高周波成分補正量を決定し、前記第3処理では、選択した各採取音データを、該採取音データ毎に決定された高周波成分補正量に基づいて高周波成分のレベルを増減、又は、減縮して補正を行うことを特徴とする。
【0032】
図11に音の周波数帯毎の成分が伝搬する領域を示す。高音域は殆ど音の方向(矢印D)にのみ伝搬するのに対し、低音域ほどより広い範囲に伝搬することがわかる。即ち、音の指向性は、周波数帯により異なり、低音域ほど指向性が緩く、高音域は指向性が強くなるのが一般的である。よって、対象人物の頭部の向きに位置するマイクでは、低音域から高音域までほぼ全域の周波数成分が集音されるのに対し、その他のマイクでは低音域は集音されるものの高音域はあまり集音されない。
【0033】
ところが、この請求項3記載の発明では、抽出手段の第2処理で選択した各採取音データ毎に、対象人物位置と採取音データのマイクロフォンの位置とに基づいて、指向性に関する高周波成分補正量を決定し、対象人物の頭部の方向に位置するマイクによる高音域の採取音と、他のマイクによる高音域の採取音と、の不均衡を是正すべく、第3処理で高周波成分補正量に基づいて高周波成分のレベルを増減、又は、減縮して補正を行う。これにより、高音域が低音域よりも相対的に弱くなることを防止することができる。
【0038】
また、第1の目的を達成するために、請求項4記載の発明は、請求項1記載の発明において、前記抽出手段の第1処理は、前記対象人物位置から所定距離以上離れて位置するマイクロフォンの採取音データを選択の対象から除外することを特徴とする。
【0039】
一般的に音はその伝搬距離に応じて減衰するため、対象人物の発した音が長い伝搬距離を経てマイクに集音された場合に、当該マイクにより集音された採取音は、該対象人物の発した音の成分を少ししか含んでいないため、対象人物の採取音データを求める際に、該採取音データの形成に寄与する度合いが小さい。
【0040】
そこで、この請求項4記載の発明では、抽出手段は、複数のマイクのうち対象人物位置から遠いマイク、即ち予め実験により求められた所定距離以上離れて位置するマイクによって採取された採取音データを、選択の対象から除外する。これにより、音の抽出の精度を低下させることなく、音の抽出に係る処理(抽出手段によるシフト及び平均処理)の負荷を軽減することができる。
【0041】
なお、上記と同じ目的で、複数のマイクのうち、該マイクによって取られた採取音の音量が小さいマイク、即ち採取音の音量が予め実験により求められた所定音量レベルより小さいマイクによって取られた採取音を、選択の対象から除外するようにしても良い。
【0043】
ところで、請求項1記載の発明では、対象人物の近くに配置されたより多くのマイクで取られた採取音の時系列データに対して上記のようにシフト及び平均を行うことにより、信号対雑音比を改善させて対象人物の音を抽出することができる。しかも通常のマイクで集音した音よりも信号対雑音比が高い音を抽出することも可能である。このように良質な音は、音声認識装置への入力として活用することができる。
【0044】
そこで、出力手段が抽出手段により抽出された対象人物からの音を所定の音声認識装置へ出力、音抽出装置により音の抽出が可能な領域内にいる人(一人又は複数人)が発した声を音声認識装置へ入力することができる。特に、身体の不自由な老人や障害者が音声認識装置を用いて声により家庭内の電気製品等のスイッチのオン/オフ等を制御する場合に、適用することができる。
【0081】
【発明の実施の形態】
〔第1の実施形態〕
以下、図面を参照して本発明の第1の実施形態を説明する。本第1の実施形態では、図2に示す所定の部屋50の中にいる対象人物Aの声のみを抽出する例を示す。
【0082】
図2及び図3に示すように、第1の実施形態に係る音抽出装置10は、部屋50の天井52の所定位置に配置された複数のテレビカメラ16と、各テレビカメラ16に接続され該テレビカメラ16により撮影された画像情報に基づいて音の抽出位置を設定する抽出位置演算プロセッサ14と、天井52に略等間隔にマトリックス状に配置された複数(n個、図2には8×8個の例を示す)のマイク22を含むマイクロフォンアレイ部18と、各マイク22に接続され該マイク22により集音された音から対象人物の声を抽出する音声抽出ボード12と、抽出された音を出力するための出力端子ボード20と、を備えている。
【0083】
各マイク22は、集音部24と、該集音部24に接続され音声信号のノイズカット及び増幅を行うアンプフィルタ26と、該アンプフィルタ26に接続されアナログ信号のデジタル信号への変換を行うA/Dコンバータ28と、を含んで構成されている。また、抽出位置演算プロセッサ14は、CPU14Aと、ROM14Bと、作業用記憶域として主に用いられるRAM14Cと、入出力コントローラ(以後、I/Oと称す)14Dと、を含んで構成されており、これらのCPU14A、ROM14B、RAM14C及びI/O14Dは互いにバス14Eによって接続されている。
【0084】
また、音声抽出ボード12には、デジタル回線30を介して各マイク22と一対一の対応で接続され該マイク22から送信されてきた音声データを一時記憶するためのn個の入力バッファメモリi(i:1、2・・・n)から構成された入力バッファメモリ群32と、各入力バッファメモリiに接続され音声抽出ボード12全体の制御等を行うプロセッサ34と、プロセッサ34に各々接続されプロセッサ34から出力された各マイク22に対応する音声データを一時記憶するためのn個の出力バッファメモリi(i:1、2・・・n)から構成された出力バッファメモリ群44と、各出力バッファメモリiに接続され各出力バッファメモリiから出力された各マイク22に対応する音声データを加算するための加算器46と、加算器46に接続されデジタル信号のアナログ信号への変換を行うD/Aコンバータ48と、が設けられている。なお、プロセッサ34は、上記抽出位置演算プロセッサ14と同様に、CPU38、ROM40、RAM42及びI/O36を含んで構成されており、これらは互いにバス37によって接続されている。I/O36には上記の各入力バッファメモリi、各出力バッファメモリi及び抽出位置演算プロセッサ14が接続されている。また、プロセッサ34は、音抽出装置10における各構成機器の動作の同期を取るための制御信号等を各構成機器に送信するために、各構成機器、即ち各マイク22、入力バッファメモリ群32、出力バッファメモリ群44、加算器46、及びD/Aコンバータ48、の各々と制御信号線43を介して接続されている。なお、上記ROM40には、後述する音声抽出処理の制御プログラム、上記マイク22の各々の配置位置に関する位置情報、後述する遅延テーブル等が予め記憶されている。
【0085】
また、出力端子ボード20は音声出力端子21を備えており、該音声出力端子21は音声抽出ボード12のD/Aコンバータ48に接続されている。
【0086】
なお、抽出位置演算プロセッサ14に内蔵されたROM14Bには、上記テレビカメラ16の各々の配置位置を表す位置情報や後述する抽出位置演算処理の制御プログラム等が予め記憶されている。
【0087】
次に、本第1の実施形態の作用を説明する。音抽出装置10の図示しないスタートボタンがオペレータによりオンされると、図4に示す抽出位置演算処理の制御ルーチンが抽出位置演算プロセッサ14のCPU14Aにより、図5に示す音声抽出処理の制御ルーチンが音声抽出ボード12のCPU38により、それぞれ実行される。なお、これらの制御ルーチンは何れも所定時間間隔で繰り返し実行される。
【0088】
まず、図4に示す抽出位置演算処理の制御ルーチンから説明する。ステップ102では、各テレビカメラ16からの撮影情報を取り込む。次のステップ104では取り込んだ撮影情報より対象人物A(図2参照)の頭部Pの位置を演算する。なお、この時の位置としては、一例として図2に示すように部屋50を矢印X方向、矢印Y方向、矢印Z方向の各々に沿って仮想的に等分割することにより得られる多数の直方体状の領域のうち何れの領域内に対象人物Aが位置するかを表す情報を用いることができる。図2では部屋50を各方向に16等分した場合を例として示している。即ちステップ104では、撮影画像から、表面の多くが毛髪で覆われており黒色部分が多い略球状である等のように人間の頭部に特有の特徴量を備えた領域を、対象人物Aの頭部Pに相当する領域として抽出し、抽出した領域の撮影画像上における位置に基づいて上述した仮想的な3次元座標上における頭部Pの位置を演算する。
【0089】
また、ステップ104では対象人物Aの頭部Pの向きの推定も行う。即ち、まず図2に示す頭部Pの下に位置する胴体Sを認識し、その胴体Sにおいて胸幅L2は肩幅L1よりも小さいという一般的な特徴に基づいて、胸幅L2及び肩幅L1の大きさから対象人物Aが矢印V方向又はその逆方向を向いていると推定する。次に、頭部Pの表面における毛髪の占める比率は顔の位置する側よりも顔の位置しない側の方が高いという一般的特徴に基づいて、図2において紙面奥側の方が紙面手前側よりも黒色の度合いが高いことから、対象人物Aは矢印V方向を向いていると推定する。
【0090】
次のステップ106では、ステップ104で求めた頭部Pの位置から矢印V方向に所定距離(例えば約30センチメートル)離間した位置を、対象人物Aに対する抽出位置として設定する。そして次のステップ108で、設定した抽出位置の位置情報を音声抽出ボード12へ送信する。
【0091】
次に図5に示す、音声抽出ボード12に備えられたプロセッサ34のCPU38により実行される音声抽出処理の制御ルーチンを説明する。ステップ200では、上記のステップ108で抽出位置演算プロセッサ14から送信された抽出位置の情報を受信したか否かを判定する。抽出位置の情報を受信していない場合は制御ルーチンを終了し、抽出位置の情報を受信した場合はステップ202へ進む。ステップ202では、ROM40から取り出した各マイク22の設置位置情報と受信した抽出位置情報とに基づいて、抽出位置から所定距離以上離れた位置に設置されたマイク22を除外することにより抽出位置の音の抽出に適したマイク22を選択する。
【0092】
一方、対象人物Aから発せられた音は、まずマイク22の集音部24により捉えられ、さらにアンプフィルタ26によりノイズがカットされると共に所定増幅率で増幅されて図1(A)に示すような音声信号となる。そしてそれらの音声信号はA/Dコンバータ28によりデジタル化された音声データに変換される。
【0093】
そして、音声抽出処理のステップ203において、ステップ202で選択したマイク22の各々からデジタル回線30を介して、上記のようにして集音され変換された音声データを取り込み、該音声データを各マイク22に対応した入力バッファメモリiへ書き込む。即ち、図1(A)に示すような音声信号に対応する音声データが入力バッファメモリiへ書き込まれる。この際、入力バッファメモリiの所定の基準アドレスから順に書き込まれる。そして次に音声抽出処理ルーチンを実行する時には、前記基準アドレスから所定アドレスだけずらした新たな基準アドレスを設定し、該新たな基準アドレスから順に書き込まれる。そして入力バッファメモリiへの書き込みが3回終了したときには、次の4回目には新たな基準アドレスを入力バッファメモリiの先頭アドレスへ戻し、先頭アドレスから順に音声データが書き込まれる。このように入力バッファメモリiは所謂リングバッファとして使用される。
【0094】
次のステップ212では、選択したマイク22のうちの1つのマイク22の位置と抽出位置との距離に対応する遅延時間を、ROM40に予め記憶された遅延テーブルから取り込む。なお、遅延テーブルは、部屋50の範囲内で変動しうる抽出位置の個々の抽出位置について、該抽出位置と各マイク22との距離を標準室温における音速で除算することにより予め求められた音の伝搬時間(遅延時間)を記録したテーブルであり、部屋50の範囲内で変動しうる抽出位置の候補数だけ予め準備されている。
【0095】
次のステップ214では、当該1つのマイク22からの音声データを、前記所定の基準アドレス(即ち入力バッファメモリiへの書き込み開始アドレス)から遅延時間に対応するメモリアドレスだけずらしたアドレスを取り出しの先頭として、入力バッファメモリiから取り出す。これにより、対象人物Aが発した音が当該1つのマイク22に到達する前に入力バッファメモリiに書き込まれた音声データが切捨てられ、対象人物Aが発し当該1つのマイク22に到達した音が取り出されることになる。
【0096】
そして次のステップ216では、取り出した音声データを、該1つのマイク22に対応する出力バッファメモリiへ書き込む。即ち、図1(B)に示すような音声信号に対応する音声データが出力バッファメモリiへ書き込まれる。なお、出力バッファメモリiも上記の入力バッファメモリiと同様に所謂リングバッファとして使用される。
【0097】
そして、上記のステップ212、214、216は、選択したマイクの全てに対して実行される。ステップ212、214、216の処理が、選択したマイクの全てに対して実行されると、ステップ218で肯定され、ステップ220へ進み選択したマイクの各々に対応する音声データを加算器46により加算処理させる。
【0098】
次のステップ222では、加算された音声データをINT(log2 M)の桁数だけ小数点位置を上位にずらしてD/Aコンバータ48へ出力する。これにより、加算された音声データをマイク数Mで除算した場合と略同様の結果を得ることができる。なお、ここでは上記以外に、加算器46の演算結果をプロセッサ34で取り込み通常の除算を行っても良い。
【0099】
その後加算器46から出力された音声データは、D/Aコンバータ48により図1(C)に示すようなアナログの音声信号に変換され、変換された音声信号は出力端子ボード20の音声出力端子21へ送出される。なお、この音声出力端子21には、音声再生装置等を接続することにより、抽出された対象人物Aの声を再生し聞くことができる。
【0100】
以上の説明から明らかなように、複数の(図1の例では7個の)マイク22により集音された音に対し上記のような遅延操作及び加算平均を行うことにより、目的とする対象人物Aの声以外の雑音成分はその振幅が極めて小さくなってしまうため、対象人物Aの声のみを抽出することができる。
【0101】
また、上記の抽出位置演算処理(図4)及び音声抽出処理(図5)は、所定時間間隔で繰り返し実行される。これにより、対象人物Aが移動した場合、複数のテレビカメラ16により部屋50の内部が継続して撮影され、その画像情報に基づいて上記対象人物Aの移動に伴い変化する頭部Pの位置及び向きが求められ、その時点の頭部Pの位置及び向きに応じた抽出位置が設定される。そして音声抽出ボード12で、その抽出位置に応じて上記の音声抽出処理を行うことにより、対象人物Aが移動した場合でも、その声を抽出することができる。
【0102】
なお、本第1の実施形態の音声抽出処理では、設定された抽出位置に近いマイク(例えば7個のマイク)を選択し、選択したマイクからの音声データのみを取り込み、入力バッファメモリへ書き込む例を示したが、一旦全ての(n個の)マイクからの音声データを取り込んで各入力バッファメモリへ書き込み、選択したマイク(例えば7個のマイク)からの音声データのみを、遅延時間に対応するメモリアドレスだけずらして入力バッファメモリから取り出すようにしても良い。
【0103】
また、本発明の音声抽出処理では、抽出位置の近くに配置された多数のマイクで対象人物(又は対象物)の音を集音し、集音された音声信号を前述したように遅延操作及び加算平均を行うことにより、信号対雑音比の改善された音の抽出を行うことができる。しかも通常のマイクで集音した音よりも信号対雑音比が高い音を抽出することも可能である。このように良質な音は、音声認識装置への入力として活用することができる。即ち、音抽出装置で音の抽出が可能な領域内にいる人(一人又は複数人)が話した声を音声認識装置へ入力することができる。
【0104】
〔第2の実施形態〕
次に、本発明の第2の実施形態を説明する。本第2の実施形態では、図2に示す所定の部屋50の中にいる対象人物Aの声と対象人物Bの声とを別々に抽出する例を示す。なお、第1の実施形態と同一の部分には同一の符号を付し、説明を省略する。
【0105】
図6に示すように、本第2の実施形態における音抽出装置10には、第1の実施形態で説明した音声抽出ボード12が複数個(N個)備えられており、さらに各マイク22と各音声抽出ボード12とを接続するための音声データ中継ボード56が設置されている。また、抽出位置演算プロセッサ14は各音声抽出ボード12に備えられたプロセッサ34に接続されている。さらに、出力端子ボード20には各音声抽出ボード12に対応する音声出力端子21が設置されており、各音声出力端子21は対応する音声抽出ボード12のD/Aコンバータ48に接続されている。
【0107】
図7に示す抽出位置演算処理の制御ルーチンから説明する。なお、以下の説明では、対象人物A、Bをそれぞれ対象人物1、2と便宜上称する。ステップ102で各テレビカメラ16からの撮影情報を取り込み、次のステップ103では対象人物の数として「2」を変数Kに代入すると共に変数Lを「1」に初期設定する。
【0108】
次のステップ105では、対象人物L(即ち対象人物1)の頭部の位置の演算と向きの推定を上記第1の実施形態と同じ要領で行い、次のステップ107では当該対象人物Lの声を抽出するための抽出位置L(即ち抽出位置1)を設定する。そして、次のステップ109でその抽出位置Lの情報を、対応する音声抽出ボードLへ送信する。
【0109】
次のステップ110では変数Lが対象人物の数を示す変数Kに等しいか否かを判定することにより、全ての対象人物に対して上記ステップ105、107、109の処理が完了したか否かを判定する。この場合初めは否定され、ステップ112へ進み、変数Lを増分1だけインクリメントする。これにより変数Lの値は「2」となる。
【0110】
その後ステップ105へ戻り対象人物L(即ち対象人物2)に対して、上記のステップ105、107、109の処理を行う。それらの処理が完了すると、ステップ110では、変数Lと変数Kとが等しいため肯定され、制御ルーチンを終了する。
【0111】
対象人物1、2にそれぞれ対応する音声抽出ボード12では、上記ステップ109により抽出位置演算プロセッサ14から送信された抽出位置1又は抽出位置2の情報をそれぞれ受信し、該受信した情報に基づいて、第1の実施形態と同じ図5に示す音声抽出処理を実行する。説明は省略するが、対象人物1、2にそれぞれ対応する各音声抽出ボード12での音声抽出処理により、対象人物1、2の声をそれぞれ独立に抽出することができる。
【0112】
なお、本第2の実施形態では、複数の音声抽出ボード12を備え、各音声抽出ボード12で1つの抽出位置から音を抽出する例を示したが、音声抽出の即時性があまり高く要求されない場合等には、単一の音声抽出ボード12において複数の抽出位置の各々に対する音声抽出処理を順次実行するようにしても良い。
【0113】
〔第3の実施形態〕
次に、本発明の第3の実施形態を説明する。本第3の実施形態では、図2に示す部屋50内の温度変化による影響を考慮して該部屋50の中にいる対象人物Aの声のみを抽出する例を示す。なお、第1の実施形態と同一の部分には同一の符号を付し、説明を省略する。
【0114】
図8に示すように、本第3の実施形態における音抽出装置10は、複数の温度センサ58を備えており、該温度センサ58は部屋50内の複数の温度測定地点に1台ずつ設置されている。各温度センサ58はプロセッサ34内のI/O36に接続されている。また、プロセッサ34内のROM40には、温度センサ58により測定された部屋50の複数の温度測定地点の温度に基づいて、部屋50内の温度分布を推定するための温度分布情報が予め記憶されている。
【0115】
次に本第3の実施形態の作用を説明する。音抽出装置10の図示しないスタートボタンがオペレータによりオンされると、図4に示す上記第1の実施形態と同じ抽出位置演算処理の制御ルーチンが抽出位置演算プロセッサ14のCPU14Aにより、図9に示す音声抽出処理の制御ルーチンが音声抽出ボード12のCPU38により、それぞれ実行される。以下では、抽出位置演算処理の説明は省略し、図9を用いて本第3の実施形態における音声抽出処理について説明する。
【0116】
ステップ203では、選択したマイク22の各々について、該マイク22からの音声データの取り込みと、取り込んだ音声データの入力バッファメモリiへの書き込みと、を実行し、次のステップ204では選択したマイク22のうちの1つのマイク22に対して、該マイク22と抽出位置との距離を算出する。
【0117】
次のステップ205で複数の温度センサ58の各々から部屋50の所定の温度測定地点における温度を取り込み、次のステップ206では、取り込んだ複数の温度測定地点の温度に基づき、ROM40に記憶された上記の温度分布情報を参照することによって、部屋50内の温度分布を推定し、抽出位置から発せられた音が該マイク22に到達するまでの音伝搬経路上の平均温度を算出する。
【0118】
次のステップ207で音伝搬経路上の平均温度に基づいて該音伝搬経路上の音速を算出し、次のステップ208では、ステップ204で算出した該マイク22と抽出位置との距離を、ステップ207で算出した音速で除算することにより、該マイク22に到達する音の伝搬時間、即ち該マイク22についての遅延時間を算出する。そして次のステップ209では、算出した遅延時間を該マイク22の識別番号と対応付けた形で、RAM42に確保された遅延テーブルへ記憶する。なお、本第3の実施形態における遅延テーブルは、算出した各マイク22についての遅延時間を一時記憶するための一時記憶域として使用される。
【0119】
上記ステップ204〜209は、選択したマイク22の各々に対して実行される。選択したマイク22の全てに対して実行が完了すると、選択したマイク22の各々についての遅延時間が記録された遅延テーブルが完成する。その後、上記第1の実施形態と同様に、ステップ214で1つのマイク22からの音声データを上記遅延テーブルから得られた該マイク22に対する遅延時間に対応するメモリアドレスだけずらして入力バッファメモリiから取り出す。次のステップ216では取り出した音声データを出力バッファメモリiへ書き込む。
【0120】
これらのステップ214、216の処理を、選択したマイク22の全てに対して実行完了すると、ステップ218で肯定され、ステップ220へ進む。ステップ220、222では、選択したマイク22の各々における音声データを加算平均し、D/Aコンバータ48へ出力する。音声データは、D/Aコンバータ48によりアナログの音声信号に変換され、変換された音声信号は出力端子ボード20の音声出力端子21へ出力される。
【0121】
このように本第3の実施形態によれば、部屋50内の温度の変化に応じて精度の高い音の抽出を行うことができる。
【0122】
なお、本発明の音抽出装置10は、上記と同様の要領で風(風向、風力)の影響による音の伝搬経路の曲がりを考慮して音の抽出を行うことができる。例えば図10に示すように、矢印R方向に走行する列車64が鉄橋66を渡る時に鉄橋66の特定の測定部位66Aが発するきしみ音を抽出する場合について説明する。この場合、屋外の音響環境であるので、音の伝搬に対し温度以外に風の影響が生じる。例えば、鉄橋66の測定部位66Aから発せられ1つのマイク22Aに到達する音の伝搬経路が、破線K1で示す直線経路ではなく実線K2で示す曲線経路となり、音の伝搬経路長L1(曲線経路の長さ)が測定部位66Aとマイク22Aとの距離L2(直線経路の長さ)よりも長くなる。そこで、音抽出装置10では、風力計60により風力を、風向計62により風向を、それぞれ検出する。そして、音の伝搬経路が風力及び風向の影響でどのような経路(曲線経路)に変わり、その伝搬経路長L1は距離L2に比べどの程度長くなるかを、抽出位置演算プロセッサ14又は音声抽出ボード12のプロセッサ34で演算して求め、求められた伝搬経路長L1に基づいてマイク22Aにおける遅延時間を算出する。他のマイク22についても同様に音の伝搬経路長を求め、遅延時間を算出する。そして、算出した遅延時間に基づいて、以後の遅延操作及び加算平均を行い、測定部位66Aから発せられる音の抽出を行う。このようにして、風(風向、風力)の影響による音の伝搬経路の曲がりを考慮して音の抽出を行うことができる。
【0123】
〔第4の実施形態〕
次に、本発明の第4の実施形態を説明する。本第4の実施形態では、音声における周波数による指向性の違いを考慮した上で図11に示す部屋50の中にいる対象人物Cの声を抽出する例を示す。なお、第1の実施形態と同一の部分には同一の符号を付し、説明を省略する。
【0124】
本第4の実施形態における音抽出装置10の構成は、前述した第1の実施形態における音抽出装置10の構成と同一であるので、その説明は省略する。但し、音声抽出ボード12のプロセッサ34内のROM40には、後述する重み付け定数が記録された重み付けテーブルが予め記憶されている。
【0125】
次に本第4の実施形態の作用を説明する。まず、音における周波数による指向性の違いについて説明する。図11に示すように音の指向性は、周波数により異なり、低い周波数ほど指向性が緩く、高い周波数では指向性が強くなるのが一般的である。従って、対象人物Cが声を発する方向Dに位置するマイクでは、低周波数から高周波数までほぼ全域の周波数の音が集音されるのに対し、その他のマイクでは低周波数の音は集音されるものの高周波数の音はあまり集音されないことになる。
【0126】
そこで、本第4の実施形態では、上記の方向Dに位置するマイク22により集音された採取音の高音域の音量と、他のマイク22により集音された採取音の高音域の音量と、の不均衡を是正すべく、両者に重み付け操作をすることにより、上記の課題を解消する例を示す。
【0127】
なお、抽出位置演算処理は第1の実施形態と同一であるので説明は省略し、音声抽出処理について図12を用いて説明する。
【0128】
ステップ200、202、203では、第1の実施形態と同様に抽出位置演算プロセッサ14から受信した抽出位置情報に基づいてマイクを選択し、選択したマイクからの音声データの取り込みと該音声データの入力バッファメモリiへの書き込みとを行う。次のステップ213では、1つのマイク22に対する抽出位置の相対的位置に対応した遅延テーブルから遅延時間を取り込むと共に、該マイク22に対する抽出位置の相対的位置及び音の方向に対応した重み付けテーブルから重み付け定数を取り込む。なお、人物Cが声を発する方向Dに位置するマイク22に対応する重み付け定数には、方向Dから外れた位置に位置するマイク22に対応する重み付け定数よりも相対的に小さい値が設定されている。
【0129】
次のステップ214では第1の実施形態と同様に、該マイク22からの音声データを上記遅延時間に対応するメモリアドレスだけずらして入力バッファメモリiから取り出し、次のステップ217では取り出した音声データにおける高周波数成分に対して、上記重み付け定数に従って重み付けして(レベルの増幅又は減縮を行って)出力バッファメモリiへ書き込む。
【0130】
上記ステップ213、214、217は、選択したマイク22の各々に対して実行される。こうして、方向Dに位置するマイク22により集音された採取音の高周波数成分はレベルが減縮される一方、方向Dから外れた位置に位置するマイク22により集音された採取音の高周波数成分はレベルが増幅される。
【0131】
次のステップ220、222では選択したマイク22の各々における音声データを加算平均し、D/Aコンバータ48へ出力する。音声データは、D/Aコンバータ48によりアナログの音声信号に変換され、変換された音声信号は出力端子ボード20の音声出力端子21へ出力される。
【0132】
本第4の実施形態によれば、方向Dに位置するマイクにより集音された採取音の高周波数成分と、方向Dから外れた位置に位置するマイク22により集音された採取音の高周波数成分と、でレベルの不均衡が改善され、高周波数の音の有する強い指向性に起因した高周波数の音の低周波数の音に対する相対的なレベル低下を防止することができる。
【0133】
なお、上記第1乃至第4の実施形態では、対象人物(又は対象物)から発せられマイクに直接到達する直接音のみを抽出する例を示した。一般に、反射面としての壁面等から反射された後マイクに到達した反射音は、その大きさが上記直接音に比べ非常に小さいため、加算平均を行うことにより他の雑音成分と共に除去される。
【0134】
しかし、壁面が対象人物から近い位置であり且つ該対象人物が音を発する方向に位置している場合には、壁面での反射音は直接音よりも大きくなるため、むしろ該反射音を集音した方が対象人物が発する音の抽出効果が高いと言える。
【0135】
従って、テレビカメラ16により撮影された画像情報に基づいて、壁面が対象人物から近い位置であり且つ該対象人物が音を発する方向に位置していると認識された場合、プロセッサ34のCPU38で実行される音声抽出処理において、各マイクについての遅延時間を演算するためのマイクと抽出位置との距離として両者の直接の距離ではなく、壁面で反射された反射音の伝搬距離を採用し、該反射音の伝搬距離に応じた遅延時間を算出し、そしてこの反射音の伝搬距離に応じた遅延時間に従って遅延操作を行えば良い。
【0136】
これにより、対象人物から各マイクに直接到達した音は雑音成分として除去され、代わりに壁面で反射された後各マイクに到達した反射音が対象人物の音として抽出される。このように、各マイクに到達した反射音の方が直接音よりも対象人物(対象物)の音の抽出のために適当である場合には、反射音の方を抽出することができる。
【0137】
なお、本発明の音抽出装置は、上記の各種の実施形態以外にも以下のように適用することができる。例えば、講演会場において聴衆の中の質問者の声を拡声する場合、聴衆を複数のテレビカメラで撮影しておき、係員が該質問者の映った画面で該質問者の口元付近をマウス等でポイントすると、抽出位置演算プロセッサが該質問者の口元付近を抽出位置に設定する。そして、音声抽出ボードでその抽出位置からの音の抽出を行い、所定のスピーカから抽出された音を出力する。これにより、聴衆の中の質問者の位置まで都度マイクを持っていく必要は無くなり、スムーズな講演会の進行の一助となる。
【0138】
また、例えば図10に示す列車64のように移動経路の定まった移動体から発せられる音を時間の経過と共に抽出し続ける(トレースする)場合には、移動経路上に略等間隔の複数の抽出位置(例えば鉄橋の部位66B、66C、66D)を予め設定し、これらの抽出位置における音を時間の経過に沿って順に抽出すれば良い。こうすれば、抽出位置を設定するために移動体の動きをテレビカメラ16により撮影された画像から把握する処理は不要となり、移動体の速い動きに追随して音をトレースすることができる。
【0139】
〔第5の実施形態〕
次に、本発明に係る第5の実施形態を説明する。本第5の実施形態では、オブジェクトの音の抽出を行うにあたり、広角固定焦点レンズを備えた複数のテレビカメラによりオブジェクトを含む画像を撮影し、その画像データに基づいてオブジェクトの位置を認識する例を示す。
【0140】
図13に示すように、天井52には、テレビカメラ16が複数台(一例として4台)設置されており、各テレビカメラ16には、広角固定焦点レンズとしての魚眼レンズ16Aが設置されている。各魚眼レンズ16Aの視野角は90°以上に予め設定されている。よって、オブジェクトが移動している場合、静止している場合を問わず、テレビカメラ16を動かさずに該オブジェクトを撮影可能となっている。
【0141】
この魚眼レンズとしては、例えば、等距離射影(equidistanceprojection)型、立体射影型、等立体角射影型、正射影型等の種々の種類があり、本実施形態では何れの魚眼レンズも使用可能であるが、以下、等距離射影型の魚眼レンズを使用した例を説明する。また、各テレビカメラ16はCCD(Charge−Coupled Device)エリアイメージセンサ16B(図18参照)を備えている。
また、物や人・動物等のオブジェクトは床や地面からの高さが概ね決まっており、更に、広角固定焦点レンズとしての魚眼レンズ16Aは焦点深度が大きいという特性を有しているので、テレビカメラ16が焦点調整機構を有していなくても、鮮明にCCDエリアイメージセンサ16B上にオブジェクト像を結像することができる。このようにして、複数のテレビカメラ16の各々により、オブジェクトを含む所定の領域が各々異なる位置から撮影される。
【0142】
次に、本第5の実施形態の作用を説明する。オペレータが、オブジェクトとして対象人物Aを指定し、音抽出装置10の図示しないスタートボタンをオンすると、前述した第1の実施形態と同じ図5に示す音声抽出処理の制御ルーチンが音声抽出ボード12のCPU38により実行開始されると共に、図14に示す抽出位置演算処理の制御ルーチンがCPU14Aにより実行開始される。以下では、音声抽出処理の説明は省略し、図14〜24を用いて本第5の実施形態における抽出位置演算処理について説明する。
【0143】
図14に示すステップ120では、オブジェクト分別処理が行われる。このオブジェクト分別処理では、図15に示すサブルーチンが実行される。図15のステップ140では、オブジェクト(対象人物A)が部屋50内に存在しないときの画像データAをROM14Bから読み出し、次のステップ142において各テレビカメラ16で撮影した画像データBを各々取り込んでRAM14Cに記憶する。次のステップ144では画像データBと画像データAとの差をとって部屋50に存在する対象人物Aを認識する(図17参照)。
【0144】
次にステップ146では所定時間Tのタイマを設定し、次のステップ148では、所定時間Tの時間待ちに入り、タイムアウトになると、ステップ150へ進む。
【0145】
ステップ150では、各テレビカメラ16で撮影した画像データC(即ち、画像データBから所定時間T経過後の画像データ)を取り込む。そして、次のステップ152では、RAM14Cに記憶した画像データBを読み出し、画像データBと画像データCとを比較し、次のステップ154ではこの比較結果に基づいて対象人物Aが移動しているか否かを判断する。
【0146】
対象人物Aが移動していない(静止している)場合は、ステップ154で否定判断され図14のメインルーチンへリターンする。一方、対象人物Aが移動している場合は、ステップ154で肯定判断されステップ156へ進み、画像データBと画像データCとの差異から対象人物Aの進行方向を求め(図17参照)、求めた進行方向から対象人物Aの前後を判断する。そして、次のステップ158で、対象人物Aの進行方向及び前後に関する情報をRAM14Cに記憶し、図14のメインルーチンへリターンする。
【0147】
次のステップ122では、対象人物Aの位置及び高さを演算する。図18に示すように、点Oに固定された等距離射影型魚眼レンズ16Aの焦点距離をf、点Oから部屋50の床面54に垂直に下ろした点Qまでの距離をH、点Qから対象人物Aの床面54上の点Pまでの距離をR、対象人物Aの高さ(対象人物Aの天井方向の先端を点P’としたときに点P’と点Pとの距離)をhとする。また、点POQのなす角をθ、点P’OQのなす角をθ’、CCDエリアイメージセンサ16BのCCD面上のオブジェクト像の高さに対応する距離をh’、オブジェクト像h’のうち点Pに対応して結像した点をp、オブジェクト像h’のうち点P’に対応して結像した点をp’、CCD面の画像中心(CCD面の中心)oから点pまでの距離をr、CCD面の画像中心oから点p’までの距離をr’とすると、角θ、θ’、距離r、r’は次式(1)〜(4)により求めることができる。
【0148】
θ=tan-1(R/H) ・・・・・(1)
θ’=tan-1{R/(H−h)} ・・・・・(2)
r=fθ ・・・・・(3)
r’=fθ’ ・・・・・(4)
従って、高さh及び距離Rは次式(5)及び(6)により求めることができる。
【0149】
h=H{1−tan(r/f)/tan(r’/f)}・・・(5)
R=Htan(r/f) ・・・・・(6)
なお、距離H及び焦点距離fは予め定められており、式(5)及び式(6)はROM14Bに記憶されている。このため、このステップ122では、式(5)をROM14Bから読み出して1台のテレビカメラ16のCCD面上の情報から高さhを演算し、式(6)を読み出して2台のテレビカメラ16のCCD面上の情報からそれぞれ距離Rを求め、求めた2つの距離Rから対象人物Aの2次元位置を演算する。
【0150】
次のステップ124では、上記ステップ122で演算した位置を中心として3次元空間をX方向、Y方向及びZ方向に沿って仮想的に細分割したマトリクス状の微小空間(以後、ボクセルと称す)を設定する。これにより、画像データCはボクセルの集合体に変換される。図19は4台のテレビカメラA、B、C及びDから対象人物Aを投影したとき、対象人物Aが占有するボクセルを概念的に示す。
【0151】
即ち、各テレビカメラから対象人物Aを投影したときの、対象人物Aの視野角内に位置するボクセルは、影(死角)の部分RA 、RB 、RC 、RD も含めて、対象人物Aが占有するボクセルとして設定される。なお、ボクセルは、CCDエリアイメージセンサ16Bの解像度の限界まで細分割することが可能である。
【0152】
次のステップ126では、画像データのうち対象人物Aが占有するボクセルを、対象人物Aの高さhに基づいて以下のようにして限定する第1次絞り込みを行う。
【0153】
対象人物Aの高さhは、成人の平均身長から概ねその値が予め設定可能であるので、図20(A)〜(D)に示すように各テレビカメラから対象人物Aを投影したときに対象人物Aの視野角内に位置するボクセルのうち、高さが0〜hの範囲のものを、対象人物Aが占有するボクセルとして絞り込む。なお、ここで絞り込まれたボクセルで形成される領域を第1次絞り込み領域とする。
【0154】
次にステップ128では各画像データにおける第1次絞り込み領域から、それら全てに重複する領域に絞り込む第2次絞り込みを行う。これにより、図19に示した影の領域RA 、RB 、RC 及びRD は対象人物Aが占有するボクセルから排除され、図21に示すように、対象人物Aが占めるボクセル70に絞りこまれる。次のステップ130では、このボクセル70によって、オブジェクトの位置及び形状を正確に認識する。なお、ボクセルはCCDエリアイメージセンサ16Bの解像度の限界まで細分化することができるので、オブジェクトの形状を細部まで認識することも可能である。
【0155】
次のステップ132では、図22に示すように、ボクセル70の高さ、太さ等の寸法や、予めROM14Bに記憶された頭部の色差、目、鼻、口、耳の位置、腕の長さや位置、つま先の向き、関節の自由度等の人間の特徴に関する情報、さらに対象人物Aが移動している場合にはRAM14Cに記憶した対象人物Aの進行方向や前後に関する情報に基づいて、ダミーモデル72へ変換する。
【0156】
次のステップ134では、図16に示す抽出位置設定処理のサブルーチンを実行する。図16のステップ160では、対象人物Aの頭部を撮影対象とした所定数(一例として2台)のテレビカメラの選択を行い、選択した各テレビカメラのCCD面上における対象人物Aの頭部の位置に対応する2次元座標を取り込む。なお、テレビカメラの選択においては、例えば、対象人物Aを写した際のオブジェクト像が大きい順に選択してもよいし、対象人物Aの正面を捉えたテレビカメラを選択してもよい。また、選択された2台のテレビカメラをそれぞれカメラL、カメラRとする。
【0157】
次のステップ162では3次元座標を演算する。図23に示すように、カメラLの3次元座標Cを(X,0,Z)、カメラRの3次元座標C’を(X’,0,Z)とする。また、対象人物Aの頭部の位置に対応するカメラLのCCD面上の座標PL を(α1 ,β1 )、カメラLのCCD面の画像中心OL から座標PL までの距離をr、対象人物Aの頭部の位置に対応するカメラRのCCD面上の座標PR を(α1 ’,β1 ’)、カメラRのCCD面の画像中心OR から座標PR までの距離をr’、座標PL 及び座標PR から出た光を仮想したときに2つの光が交わる点、即ち、対象人物Aの頭部の3次元座標Pを(x,y,z)とする。
【0158】
また、カメラLの3次元座標位置からZ軸に平行に下ろした垂線の足と、点Pを含みZ軸に垂直な平面と、の交点Sの座標を(X,0,z)とし、カメラRの3次元座標位置からZ軸に平行に下ろした垂線の足と、点Pを含みZ軸に垂直な平面と、の交点S’の座標を(X’,0,z)とする。更に、点PCSのなす角をθ1 、点PC’S’のなす角をθ1 ’、点PSS’のなす角をφ、点PS’Sのなす角をφ’とする。
【0159】
CCD面上で画像中心OL から像までの距離rは、上述した式(3)により、
r=fθ1
として求められる。
【0160】
また、それぞれα1 、β1 は、
α1 =fθ1 cos(π−φ)=−fθ1 cosφ
β1 =fθ1 sin(π−φ)=fθ1 sinφ ・・・(7)
である。ここで、
sinφ=y/{(x−X)2 +y2 1/2 ・・・(8)
cosφ=(x−X)/{(x−X)2 +y2 1/2
であるので、α1 、β1 は、
α1 =−fθ1 (x−X)/{(x−X)2 +y2 1/2 ・・・・(9)
β1 =fθ1 y/{(x−X)2 +y2 1/2 ・・・(10)
として求めることができる。式(10)を式(9)で割ることにより、
y=(β1 /α1 )(X−x) ・・・(11)
同様に、
y=(β1 ’/α1 ’)(X’−x) ・・・(12)
式(11)と式(12)とからyを消去して、
x=(α1 β1 ’X’−α1 ’β1 X)/(α1 β1 ’−α1 ’β1 )・・・(13)
により3次元座標PのX座標を求めることができる。
【0161】
次に、式(11)と式(13)とからxを消去して、
y=β1 β1 ’(X−X’)/(α1 β1 ’−α1 ’β1 )・・(14)
により3次元座標PのY座標を求めることができる。
【0162】
ところで、
θ1 =tan-1[{(x−X)2 +y2 1/2 /(Z−z)]
であるので、式(7)、式(8)から
Figure 0003714706
従って、
Figure 0003714706
また、式(11)から
{(x−X)2 +y2 1/2 =(x−X)×{1+(β1 /α1 2 1/2
式(11)と式(14)とから
(x−X)=(X’−X)/{1−(α1 ’/α1 )×(β1 /β1 ’)}
であるので、式(15)は、
Figure 0003714706
と表すことができ、3次元座標PのZ座標を求めることができる。
【0163】
なお、各テレビカメラ16の3次元座標は予め定められているので、ステップ162では、ROM14Bから式(13)、(14)及び(16)を読み出し、ステップ160で取り込んだカメラLのCCD面上の座標PL (α1 ,β1 )及びカメラRのCCD面上の座標PR (α1 ’,β1 ’)の値を、式(13)、(14)及び(16)に代入することにより、対象人物Aの頭部の3次元座標P(x,y,z)を求めることができる。
【0164】
次のステップ164では、前述した第1の実施形態と同様に(図4のステップ104における処理と同様に)対象人物Aの頭部の向きを推定する。次のステップ166では、ステップ162で求めた頭部の位置から矢印V方向(図13参照)に所定距離(例えば約30センチメートル)離間した位置を、対象人物Aに対する抽出位置として設定する。そして次のステップ168で、前記設定した抽出位置の位置情報を音声抽出ボード12へ送信してリターンする。
【0165】
このように本第5の実施形態によれば、広角固定焦点レンズ16Aを用いて撮影しているので、テレビカメラ16を動かしたり焦点調整を行う必要はない。このため、オブジェクト(対象人物A)を捉えるまでの時間を短縮することができ、速やかにオブジェクトの位置を認識することができる。
【0166】
また、テレビカメラの向きを変えたり焦点を調整調整するための機構が不要となるので、オブジェクトを捉える作業を自動化することができると共に、駆動部分がなくなるので、テレビカメラの耐久性や信頼性を高めることができる。
【0167】
また、1つのオブジェクトに対して複数のテレビカメラにより撮影しているので、例えば家具等の視野を遮る障害物や他のオブジェクトが存在していても、3次元座標を演算することができる。
【0168】
また、テレビカメラは3次元空間を構成する部屋の天井に配置されているので、壁面を有効に使用することができる。
【0169】
なお、本第5の実施形態では複数のテレビカメラ16を天井52に配置したが、図24の(A)〜(F)に示すように、壁の近くに配置したり壁に埋め込んで配置してもよく、天井と壁で構成される2面のコーナー部や天井と2面の壁で構成される3面のコーナー部に配置してもよい。更に、図24の(M)〜(O)に示すように、等距離射影型魚眼レンズ16Aを部屋の中心に向けるようにしてもよい。
【0170】
また、本第5の実施形態では、図15に示すオブジェクト分別処理におけるステップ140で、オブジェクトが部屋50内に存在しないときの画像データAを読み出したが、このステップ140を行わないで、テレビカメラ16で撮影した画像データBと画像データBから所定時間T経過後の画像データCとに基づいて、オブジェクトを認識するようにしてもよい。
【0171】
また、本第5の実施形態では2台のテレビカメラを用いてオブジェクトを含む画像を撮影したが、3台以上のテレビカメラを用いても良い。
【0172】
また、本第5の実施形態では、等距離射影型魚眼レンズを用いたが、上述したように等立体角射影型魚眼レンズ、立体射影型魚眼レンズや正射影型魚眼レンズを用いても、上記と同様に対象人物Aの頭部の3次元座標を演算することができる。以下に等立体角射影型魚眼レンズを用いたときの式(1)〜式(6)に相当する式をそれぞれ次の式(1)’〜式(6)’を示す。
【0173】
Figure 0003714706
〔第6の実施形態〕
次に、本発明に係る第6の実施形態について説明する。本第6の実施形態では、オブジェクトの音の抽出を行うにあたり、1台のテレビカメラと1枚の鏡とを用いて得たオブジェクトを含む画像データに基づいて、オブジェクトの3次元座標を演算し、オブジェクトの位置を認識する例を示す。なお、本第6の実施形態は前記第5の実施形態と略同一であるので、図13乃至図16において同一の部分には同一の符号を付し、説明を省略する。
【0174】
図25に示すように、各テレビカメラ16の1側面には、CCDエリアイメージセンサ16Bの1端面の方向(X方向)と平行で鉛直方向(Z方向)に縦長の鏡74が天井52に固設されている。
【0175】
次に、本第6の実施形態の等距離射影型魚眼レンズ16A、CCDエリアイメージセンサ16B及び鏡74の位置、距離及び角度等の諸量を図25、26を参照して説明する。なお、図26は等距離射影型魚眼レンズ16AとCCDエリアイメージセンサ16Bとの距離は微小であるものとして無視したときの上記諸量の詳細を表したものである。
【0176】
図25に示すように、CCDエリアイメージセンサ16BのCCD面と同一のXY平面上にある鏡74の上端部の中央を3次元座標の原点O(0,0,0)にとる。CCD面の画像中心Hは原点OからY方向に距離hだけ離れており、画像中心Hの3次元座標を(0,h,0)にとる。なお、対象人物Aの所定部位(例えば頭部)Pの3次元座標を(x,y,z)とし、点Pから出た光は等距離射影型魚眼レンズ16Aで屈折してCCD面上の点Dに結像する。このCCD面上の点Dの2次元座標を(αD ,βD )とする。また、点Pから出た光で鏡74により反射した光は等距離射影型魚眼レンズ16Aで屈折してCCD面上の点Rに結像する。このCCD面上の点Rの2次元座標を(αR ,βR )とする。なお、鏡74がないときの仮想のテレビカメラ17を想定し、CCD面の画像中心H’の3次元座標を(0,−h,0)にとったときに、点Pから出た光は仮想の等距離射影型魚眼レンズ17Aで屈折して仮想のCCDエリアイメージセンサ17BのCCD面上の点R’に結像するものとし、上述した点Rと仮想した点R’とは鏡74に対して対称であるものとする。また、CCD面上の画像中心Hから点Dまでの距離をrD 、CCD面上の画像中心Hから点Rまでの距離をrR とする。
【0177】
図26に示したように、点HからZ方向に下ろした垂線上にある任意の点を点Vとし、点H’からZ方向に下ろした垂線上にある任意の点を点V’としたとき、点PHVのなす角を角θD 、点PH’V’のなす角を角θR'とする。また、3次元座標(x,y,0)で表される点を点S、点Sと点Hとの距離を距離BR 、点Sと点H’との距離を距離BR'、点Pと点Hとの距離を距離AD 、点Pと点H’との距離を距離AR'とする。
【0178】
次に、本第6の実施形態の作用について説明する。図16に示す抽出位置設定処理におけるステップ160では、対象人物Aを撮影するための1台のテレビカメラ16を選択(例えば距離rD が最も小さいテレビカメラを選択)し、対象人物Aの頭部の位置に対応するCCD面上の点D(αD ,βD )及び点R(αR ,βR )の各々の2次元座標値を取り込む。
【0179】
次のステップ162では、3次元座標を演算する。ここで、図25及び26を参照して上述した諸量について更に説明する。
【0180】
角θD 及びθR'はそれぞれ、
Figure 0003714706
により求めることができるので、上記式(3)から距離rD 及びrR は次式により表される。
【0181】
D =f・tan-1[{(y−h)2 +x2 1/2 /z]
R =f・tan-1[{(y+h)2 +x2 1/2 /z]
ところで、
αD =rD cos(π−φD )=−rD cosφD ・・・(17)
βD =rD sin(π−φD )=rD sinφD ・・・(18)
αR =rR cosφR' (∵φR'=φR ) ・・・(19)
βR =rR sinφR' (∵φR'=φR ) ・・・(20)
また、
cosφD =(y−h)/{(y−h)2 +x2 1/2 ・・・(21)
sinφD =x/{(y−h)2 +x2 1/2 ・・・(22)
cosφR'=(y+h)/{(y+h)2 +x2 1/2 ・・・(23)
sinφR'=x/{(y+h)2 +x2 1/2 ・・・(24)
であるので、式(17)及び式(21)並びに式(18)及び式(22)から、
αD =−fθD (y−h)/{(y−h)2 +x2 1/2 ・・・(25)
βD =fθD x/{(y−h)2 +x2 1/2 ・・・(26)
と表すことができる。この2つの式からfθD を消去すると、
y=h−(αD /βD )x ・・・(27)
同様に、
αR =fθR'(y+h)/{(y+h)2 +x2 1/2 ・・・(28)
βR =fθR'x/{(y+h)2 +x2 1/2 ・・・(29)
y=−h+(αR /βR )x ・・・(30)
式(27)及び(30)から
x=2hβD βR /(αD βR +αR βD ) ・・・(31)
により3次元座標PのX座標を求めることができる。
【0182】
次に、式(31)を式(27)に代入して、
y=h(αR βD −αD βR )/(αD βR +αR βD )・・・(32)
により3次元座標PのY座標を求めることができる。
【0183】
また、
Figure 0003714706
この式を変形して、
Figure 0003714706
ところで、式(31)及び式(32)から、
{(y−h)2 +x2 1/2 =2hβR (αD 2 +βD 2 1/2 /(αD βR +αR βD )であるので、
Figure 0003714706
により3次元座標PのZ座標を求めることができる。
【0184】
なお、鏡74からのCCD面の画像中心Hまでの距離hは予め定められている。従って、ステップ162では、ROM14Bから式(31)、(32)及び(33)を読み出し、ステップ160で取り込んだCCD面上の点D(αD ,βD )及び点R(αR ,βR )の各々の2次元座標値を代入して対象人物Aの頭部の3次元座標P(x,y,z)を演算する。
【0185】
このように本第6の実施形態によれば、1台のテレビカメラによって対象人物Aの頭部の3次元座標を演算することができるので、天井52に設置するテレビカメラの台数を少なくすることができる。
【0186】
なお、本第6の実施形態では、天井52に設置された1台のテレビカメラ及び1枚の鏡によりオブジェクトの3次元座標を演算する例を示したが、図24の(G)〜(L)に示したように、鏡を壁面に取付けるようにしてもよいし、1台のテレビカメラ及び複数の鏡を使用してもよい。また、湾曲した鏡を使用してもよい。複数の鏡を使用した場合、CCD面にはより多くのオブジェクト像が形成されるので、他の物体(例えば家具や柱等)により死角が生じても、上記のようにして3次元座標を演算することができる。
【0187】
〔第7の実施形態〕
次に、本発明に係る第7の実施形態について説明する。本第7の実施形態では、オブジェクトの音の抽出を行うにあたり、ボクセルを設定することなくオブジェクトの形状を認識する例を示す。なお、本第7の実施形態は上記第5の実施形態と略同一であるので、図13及び図16の同一の部分には同一の符号を付し、説明を省略する。また、本第7の実施形態では、説明を簡単にするために、図28に示したように対象人物AをテレビカメラA、B、C、Dで捉えた場合を想定する。
【0188】
本第7の実施形態における抽出位置演算プロセッサ14は、オブジェクト像を含む歪曲した画像データを、平面化した画像データに変換し、該変換した画像データに基づいて少なくともオブジェクト像の正面、背面、左側面、右側面及び平面の画像データを求め、該求めた画像データを合成してオブジェクトを認識する機能を有する。
【0189】
次に、本第7の実施形態の作用について説明する。図27に示す抽出位置演算処理におけるステップ121では、テレビカメラA、B、C、Dにより撮影された画像データを取り込む。このステップ121で取り込んだ画像データの画像は、図29(A)〜(D)に示すように、歪曲が生じている。次のステップ123では、これらの歪曲した画像の画像データを、平面化した画像データに変換し、図30(A)〜(D)に示すような画像データとする。
【0190】
次のステップ125では、平面化した画像データから対象人物Aの前面、背面、左側面、右側面及び平面の画像データを求める。図31(A)〜(C)には、このステップ125で求められた対象人物Aの前面、右側面及び平面の画像データをそれぞれ示す。次のステップ127では、ステップ125で求めた前面、背面、左側面、右側面及び平面の画像データを合成する。これにより、オブジェクトの形状を認識することができる。次のステップ134では、前記合成した対象人物Aの画像データに基づいて、図16に示す抽出位置設定処理を上記第5の実施形態と同様に実行する。
【0191】
このように本第7の実施形態によれば、ボクセルを設定することなくオブジェクトの形状を認識することができる。
【0192】
なお、上記第1〜第7の実施形態のテレビカメラ16は可視光のテレビカメラを用いたが、これを例えば、赤外線カメラのように可視光以外の波長域で撮影するようにしてもよい。このようにすれば、照明灯が点灯していないときにもオブジェクトを撮影することができるので、防犯装置や監視装置としても使用することが可能となる。
【0193】
また、上記第5〜第7の実施形態では、第1の実施形態の音抽出装置10に、広角固定焦点レンズとしての魚眼レンズ16A及びCCDエリアイメージセンサ16Bを備えたテレビカメラ16を適用することにより、オブジェクトの位置、形状を効率的に(速やかに)求める例を示したが、上記第2〜第4の実施形態の音抽出装置10に、広角固定焦点レンズとしての魚眼レンズ16A及びCCDエリアイメージセンサ16Bを備えたテレビカメラ16を適用しても同様の効果を得ることができる。
【0194】
以上の説明からも明らかなように、本発明は次の技術的態様を含むものである。
【0195】
前記撮影手段は、3次元空間を構成する部屋の天井に配置されたことを特徴とする請求項1乃至の何れか1項に記載の音抽出装置。
【0196】
前記撮影手段は、可視光以外の波長域で撮影することを特徴とする請求項1乃至の何れか1項に記載の音抽出装置。
【0199】
【発明の効果】
請求項1記載の発明によれば、対象人物の位置を認識し且つその位置に基づいて対象人物が発する音を周囲の雑音と弁別して抽出することができる、という効果が得られる。
【0200】
また、請求項1記載の発明によれば、特に対象人物が発する音の指向性が強い場合や対象人物の音を発する部分(面)が大きい場合等には、より高い精度の音の抽出を行うことができる、という効果が得られる。
【0203】
また、請求項2記載の発明によれば、音響環境の状態に応じて精度の高い音の抽出を行うことができる、という効果が得られる。
【0204】
また、請求項3記載の発明によれば、高音域が低い周波数成分よりも相対的に弱くなることを防止することができる、という効果が得られる。
【0206】
また、請求項4記載の発明によれば、音の抽出の精度を低下させることなく、音の抽出に係る処理(抽出手段によるシフト及び抽出処理)の負荷を軽減することができる、という効果が得られる。
【図面の簡単な説明】
【図1】本発明に係る集音の原理を示す模式図である。
【図2】第1〜第4の実施形態に係る集音環境を示す模式図である。
【図3】第1、第4の実施形態に係る音抽出装置の概略構成図である。
【図4】第1、第3、第4の実施形態に係る集音位置演算プロセッサで実行される制御ルーチンを示す流図である。
【図5】第1、第2の実施形態に係る音声抽出ボードのプロセッサで実行される制御ルーチンを示す流図である。
【図6】第2の実施形態に係る音抽出装置の概略構成図である。
【図7】第2の実施形態に係る集音位置演算プロセッサで実行される制御ルーチンを示す流図である。
【図8】第3の実施形態に係る音抽出装置の概略構成図である。
【図9】第3の実施形態に係る音声抽出ボードのプロセッサで実行される制御ルーチンを示す流図である。
【図10】屋外での音の抽出に本発明の音抽出装置を適用した場合の構成例である。
【図11】第4の実施形態に係る音の音域による指向性の違いを示す模式図である。
【図12】第4の実施形態に係る音声抽出ボードのプロセッサで実行される制御ルーチンを示す流図である。
【図13】第5〜第7の実施形態に係る集音環境を示す模式図である。
【図14】第5、第6の実施形態に係る集音位置演算プロセッサで実行される制御ルーチンを示す流図である。
【図15】オブジェクト分別処理のサブルーチンを示す流図である。
【図16】抽出位置設定処理のサブルーチンを示す流図である。
【図17】オブジェクトを分別する概念を説明する説明図である。
【図18】オブジェクトの高さ等の諸量を説明する説明図である。
【図19】オブジェクトの影の部分とボクセルとの関係を説明する説明図である。
【図20】(A)はテレビカメラAの画像データによるボクセルを示す図であり、(B)はテレビカメラBの画像データによるボクセルを示す図であり、(C)はテレビカメラCの画像データによるボクセルを示す図であり、(D)はテレビカメラDの画像データによるボクセルを示す図である。
【図21】第2次絞り込みで絞り込まれたボクセルの概念を説明する説明図である。
【図22】第2次絞り込みで絞り込まれたボクセルからダミーモデルに変換する概念を説明する説明図である。
【図23】2つのテレビカメラにより3次元座標を演算するときの諸量を説明する概念図である。
【図24】テレビカメラ又は鏡の各種配置を示す図である。
【図25】第6の実施形態に係る3次元位置認識装置の構成図である。
【図26】第6の実施形態のCCDエリアイメージセンサ等の位置を説明するための説明図である。
【図27】第7の実施形態に係る集音位置演算プロセッサで実行される制御ルーチンを示す流図である。
【図28】第7の実施形態のオブジェクト及びテレビカメラの配置を示す平面図である。
【図29】(A)はテレビカメラAの画像データの画像を示す図であり、(B)はテレビカメラBの画像データの画像を示す図であり、(C)はテレビカメラCの画像データの画像を示す図であり、(D)はテレビカメラDの画像データの画像を示す図である。
【図30】(A)は歪曲したテレビカメラAの画像データを平面化した画像データに変換したときの画像を示す図であり、(B)は歪曲したテレビカメラBの画像データを平面化した画像データに変換したときの画像を示す図であり、(C)は歪曲したテレビカメラCの画像データを平面化した画像データに変換したときの画像を示す図であり、(D)は歪曲したテレビカメラDの画像データを平面化した画像データに変換したときの画像を示す図である。
【図31】(A)は真正面の画像データの画像を示す図であり、(B)は真横の画像データの画像を示す図であり、(C)は真上の画像データの画像を示す図である。
【符号の説明】
10 音抽出装置
12 音声抽出ボード
14 抽出位置演算プロセッサ
16 テレビカメラ(撮影手段)
16A 等距離射影型魚眼レンズ(広角固定焦点レンズ)
16B CCDエリアイメージセンサ(エリアセンサ)
21 音声出力端子
22 マイク
32 入力バッファメモリ
34 プロセッサ
44 出力バッファメモリ
46 加算器
58 温度センサ
60 風力計
62 風向計
74 鏡(反射手段)

Claims (4)

  1. 複数の撮影手段と、画像認識手段と、複数のマイクロフォンと、抽出手段とを備えた音抽出装置であって、
    前記複数の撮影手段の各々は、他の撮影手段と重複する領域を撮影するように設置され、
    前記画像認識手段は、前記複数の撮影手段撮影複数の画像情報に基づいて、対象人物の頭部の位置を認識すると共に、該対象人物の頭部の方向を推定し、頭部の位置より頭部の方向に向かって所定距離離間した位置を対象人物位置として認識し、
    前記複数のマイクロフォンの各々は、予め定められた位置に配置され、採取音データを出力し、
    前記抽出手段は、第1処理〜第4処理を行い、
    第1処理では、採取音データのうち複数の採取音データを選択し、
    第2処理では、前記選択した各採取音データ毎に、対象人物位置及び当該採取音データのマイクロフォンの位置に基づいてシフト量を決定し、
    第3処理は、前記選択した各採取音データを、該採取音データ毎に決定されたシフト量だけシフトして補正を行い、
    第4処理では、補正された各採取音データを平均出力する
    音抽出装置。
  2. 速及び音伝搬経路の少なくとも一方に影響を及ぼす要因とされる音響環境状態を検出する音響環境状態検出手段を更に備え、
    前記抽出手段における前記第2処理では、前記音響環境状態検出手段によって検出された音響環境状態に基づいて各採取音データのシフト量を補正する請求項1記載の音抽出装置。
  3. 前記抽出手段における前記第2処理では、選択した各採取音データ毎に、対象人物位置と当該採取音データのマイクロフォンの位置とに基づいて、指向性に関する高周波成分補正量を決定し、
    前記第3処理では、各採取音データを、該採取音データ毎に決定された高周波成分補正量に基づいて高周波成分のレベルを増減、又は、減縮して補正を行う請求項1記載の音抽出装置。
  4. 前記抽出手段における前記第1処理では、前記対象人物位置から所定距離以上離れて位置するマイクロフォンの採取音データを選択の対象から除外する請求項1記載の音抽出装置。
JP21785995A 1995-02-17 1995-08-25 音抽出装置 Expired - Fee Related JP3714706B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21785995A JP3714706B2 (ja) 1995-02-17 1995-08-25 音抽出装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2918595 1995-02-17
JP7-29185 1995-02-17
JP21785995A JP3714706B2 (ja) 1995-02-17 1995-08-25 音抽出装置

Publications (2)

Publication Number Publication Date
JPH08286680A JPH08286680A (ja) 1996-11-01
JP3714706B2 true JP3714706B2 (ja) 2005-11-09

Family

ID=26367347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21785995A Expired - Fee Related JP3714706B2 (ja) 1995-02-17 1995-08-25 音抽出装置

Country Status (1)

Country Link
JP (1) JP3714706B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113099158A (zh) * 2021-03-18 2021-07-09 广州市奥威亚电子科技有限公司 拍摄现场的拾音装置控制方法、装置、设备及存储介质

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3195920B2 (ja) 1999-06-11 2001-08-06 科学技術振興事業団 音源同定・分離装置及びその方法
EP1157360A1 (en) * 1999-12-15 2001-11-28 Koninklijke Philips Electronics N.V. Speech command-controllable electronic apparatus preferably provided for co-operation with a data network
JP2003131683A (ja) 2001-10-22 2003-05-09 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP4475060B2 (ja) * 2004-08-24 2010-06-09 パナソニック電工株式会社 人検出装置
JP4896449B2 (ja) * 2005-06-29 2012-03-14 株式会社東芝 音響信号処理方法、装置及びプログラム
JP2007241304A (ja) * 2007-04-20 2007-09-20 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
US20100098258A1 (en) * 2008-10-22 2010-04-22 Karl Ola Thorn System and method for generating multichannel audio with a portable electronic device
JP5700963B2 (ja) * 2010-06-29 2015-04-15 キヤノン株式会社 情報処理装置およびその制御方法
US9973848B2 (en) * 2011-06-21 2018-05-15 Amazon Technologies, Inc. Signal-enhancing beamforming in an augmented reality environment
JP6253031B2 (ja) * 2013-02-15 2017-12-27 パナソニックIpマネジメント株式会社 キャリブレーション方法
JP6217930B2 (ja) 2014-07-15 2017-10-25 パナソニックIpマネジメント株式会社 音速補正システム
JP6592940B2 (ja) * 2015-04-07 2019-10-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2017103542A (ja) * 2015-11-30 2017-06-08 株式会社小野測器 同期装置、同期方法及び同期プログラム
US9894434B2 (en) 2015-12-04 2018-02-13 Sennheiser Electronic Gmbh & Co. Kg Conference system with a microphone array system and a method of speech acquisition in a conference system
US11064291B2 (en) 2015-12-04 2021-07-13 Sennheiser Electronic Gmbh & Co. Kg Microphone array system
WO2020059447A1 (ja) * 2018-09-18 2020-03-26 富士フイルム株式会社 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、音声信号処理システム及び撮影装置
JP7541964B2 (ja) 2021-10-01 2024-08-29 キヤノン株式会社 信号処理装置、信号処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113099158A (zh) * 2021-03-18 2021-07-09 广州市奥威亚电子科技有限公司 拍摄现场的拾音装置控制方法、装置、设备及存储介质
CN113099158B (zh) * 2021-03-18 2024-04-26 广州市奥威亚电子科技有限公司 拍摄现场的拾音装置控制方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JPH08286680A (ja) 1996-11-01

Similar Documents

Publication Publication Date Title
JP3714706B2 (ja) 音抽出装置
JP3195920B2 (ja) 音源同定・分離装置及びその方法
JP5961945B2 (ja) 画像処理装置、その画像処理装置を有するプロジェクタ及びプロジェクタシステム、並びに、画像処理方法、そのプログラム、及び、そのプログラムを記録した記録媒体
JP4886716B2 (ja) 画像処理装置および方法並びにプログラム
JP4627052B2 (ja) 画像に連携した音声出力方法および装置
JP2008126329A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP5477777B2 (ja) 画像取得装置
JP2000222585A (ja) 動き検出方法および動き検出装置および動き認識方法および動き認識装置および記録媒体
CN111724470A (zh) 一种处理方法及电子设备
KR20020017576A (ko) 화상을 이용한 모션 캡처 시스템과 모션 캡처 방법
TWI507047B (zh) 麥克風控制系統及方法
KR101207877B1 (ko) 좌표 인식 장치 및 좌표 인식 방법
JP2009288917A (ja) 情報処理装置、情報処理方法、およびプログラム
JPH07181024A (ja) 3次元形状計測方法および装置
KR101976937B1 (ko) 마이크로폰 어레이를 이용한 회의록 자동작성장치
JP2002156464A5 (ja)
KR20130135016A (ko) 객체의 재질 인식 장치 및 방법
JP3631541B2 (ja) ステレオ画像による物体の移動追跡方法
US20160073087A1 (en) Augmenting a digital image with distance data derived based on acoustic range information
US20220224970A1 (en) Signal processing device and signal processing system
CN211827195U (zh) 一种交互设备
JP2005295181A (ja) 音声情報生成装置
JP2019134204A (ja) 撮像装置
JPH08329222A (ja) 3次元位置認識装置
CN110769234A (zh) 基于超声波的投影仪对焦方法、投影仪及相关产品

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050816

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050823

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090902

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100902

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees