JP2013239938A - 音源検出システム - Google Patents

音源検出システム Download PDF

Info

Publication number
JP2013239938A
JP2013239938A JP2012112088A JP2012112088A JP2013239938A JP 2013239938 A JP2013239938 A JP 2013239938A JP 2012112088 A JP2012112088 A JP 2012112088A JP 2012112088 A JP2012112088 A JP 2012112088A JP 2013239938 A JP2013239938 A JP 2013239938A
Authority
JP
Japan
Prior art keywords
processing unit
information
sound source
sound
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012112088A
Other languages
English (en)
Inventor
Hiroki Mizozoe
博樹 溝添
Manabu Sasamoto
学 佐々本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2012112088A priority Critical patent/JP2013239938A/ja
Publication of JP2013239938A publication Critical patent/JP2013239938A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Studio Devices (AREA)

Abstract

【課題】複数のマイクとネットワーク接続された複数のカメラによる車外映像の確認装置を、低コスト、低重量で行う。
【解決手段】ネットワークを介して、複数のカメラ部と、ECU部とが接続された音源検出システムにおいて、複数のカメラ部はそれぞれ、ネットワークを介してECU部と時刻同期する第1の時刻同期処理部と、音声情報を検出するマイクロフォンと、音声情報と、第1の時刻同期処理部の保持する時刻情報とを符号化音声情報として対応づけて符号化し、ネットワークを介して出力する音声符号化処理部とを備え、ECU部は、ネットワークを介して複数のカメラ部と時刻同期する第2の時刻同期処理部と、符号化音声情報を復号化する音声復号化処理部と、複数のカメラ部から送信された符号化音声情報がそれぞれ有する時刻情報に基づき、それぞれのマイクロフォンへ所定の音声が到達した時刻の差に基づいて、音源の方向を算出する検出処理部とを備える。
【選択図】図1

Description

本発明は、音源検出システムに関する。
自動車において外部の緊急車両の存在を検出して知らせる技術として例えば特許文献1や特許文献2がある。これらは車外に設置した複数のマイクロフォン(以下マイク)により検出した複数の音声に基づいて緊急車両の方向を検出するものである。
一方、車外に設置した複数のカメラをそれぞれ映像処理装置に接続し、カメラで撮影した複数の車外映像を映像処理装置で合成して表示する車外映像の確認装置が実用化されている。カメラと映像処理装置を接続する手段としてはアナログ方式や、信号をデジタル化してイーサネット(登録商標)などのネットワークで送信する方式がある。カメラの解像度が標準テレビジョン画質程度の場合は、コンポジット信号を用いたアナログ方式が配線の数が少なくて済む点で用いられることが多い。ところが近年視認性向上等のためにカメラの高解像度化が求められる場合が増えてきた。高解像度のカメラ映像はコンポジット方式を用いてアナログ伝送することは出来ないが、イーサネット(登録商標)などのネットワークを利用することにより、デジタル化した映像信号を画像圧縮してネットワークで送信することが可能であり、高解像度映像を低コストで送信する方式として有効である。
さらに、ネットワークを用いると、カメラ映像信号以外の情報も併せて伝送することが可能である。例えばカメラに取り付けたマイクで集音した音声信号や、必要に応じその他の補助情報等を併せて伝送することも可能である。
特開平6−328980号公報
複数マイクによる緊急車両の検出装置と、ネットワーク接続された複数カメラによる車外映像の確認装置の両方をアナログ方式で搭載しようとする場合、音声用のケーブルと、カメラ用のネットワークをそれぞれ敷設する必要があり、コストや重量が増大するという問題が生じる。
一方背景技術に記載したようにカメラ用のネットワークを用いて、カメラ映像情報と併せて音声信号をデジタル方式で送信することも可能である。しかしながら、ネットワークを用いて伝送を行う場合、デジタル化や圧縮処理、パケット処理、バッファ処理等に伴う遅延が生じる場合がある。複数のカメラを用いたシステムでは、各カメラからの送受信に伴う処理・伝送遅延時間が少しずつ異なり伝送タイミングにズレが生じる場合があるという問題がある。
上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、ネットワークを介して、複数のカメラ部と、ECU部と、が接続された音源検出システムにおいて、複数のカメラ部はそれぞれ、ネットワークを介してECU部と時刻同期する第1の時刻同期処理部と、音声情報を検出するマイクロフォンと、音声情報と、第1の時刻同期処理部の保持する時刻情報と、を符号化音声情報として対応づけて符号化し、ネットワークを介して出力する音声符号化処理部と、を備え、ECU部は、ネットワークを介して複数のカメラ部と時刻同期する第2の時刻同期処理部と、符号化音声情報を復号化する音声復号化処理部と、複数のカメラ部から送信された符号化音声情報がそれぞれ有する時刻情報に基づき、それぞれのマイクロフォンへ所定の音声が到達した時刻の差に基づいて、音源の方向を算出する検出処理部と、を備えることを特徴とする。
本発明により、使い勝手の良い緊急車両の検出装置を実現することが可能である。
緊急車両検出システムの全体図の例である。 カメラ1a〜1dの詳細を示す図の例である。 ECU2の詳細を示す図の例である。 カメラ1a〜1dに到達する音声を示す図の例である。 緊急車両の方向を示す表示画面の例である。 カメラ1a〜1dの詳細を示す図の例である。 音声符号化部12の詳細を示す図の例である。 音声復号化部21a〜21dの詳細を示す図の例である。 音の到達時刻の差から音源の方向を算出する方法の詳細を示す図の例である。 特徴情報解析部17の詳細を示す図の例である。
以下、実施例を図面を用いて説明する。
[システムの構成]
図1は、緊急車両検出システムの全体図である。4は車両、1a〜1dはカメラ、2は映像・音声の電子制御装置(以下ECU)、3a〜3dはネットワークケーブルである。
車両4の外部に設置したカメラ1a〜1dにおいて映像の撮影および音声の集音が行われ、その信号がネットワークケーブル3a〜3dを経由してECU2に送られる。
[カメラの構成]
図2を用いてカメラ1a〜1dの例を説明する。11は音声入力部、12は音声符号化部、13は映像入力部、14は映像符号化部、15はネットワーク処理部、16は時刻同期処理部である。
音声入力部11は、マイク、アンプ、A/D変換器等から成っており、集音した音声をデジタル信号に変換する。デジタル化された音声信号は音声符号化部12に入力される。
音声符号化部12は、音声信号をネットワーク伝送に適した形式に符号化する。符号化された音声信号はネットワーク処理部15に入力される。
映像入力部13は、レンズ、撮像センサ、映像処理部等から成っており、撮影した映像をデジタル信号に変換する。デジタル化された映像信号は映像符号化部13に入力される。
映像符号化部14は、入力された映像信号をネットワーク伝送に適した形式に符号化する。符号化された映像信号はネットワーク処理部15に入力される。
ネットワーク処理部15は、入力された符号化音声信号および符号化映像信号に対し、ネットワーク送信に必要なパケット化処理(例えば、IPパケット化)を行い、ネットワークに送出する。
時刻同期処理部16は、ネットワーク処理部15を介してECU2との間で時刻に関する情報を含んだ時刻同期パケットの交換を行い、その情報に基づいて時刻の補正を行う。それによりECU2とカメラ1a〜1dとの間で同一の時刻を維持する。時刻同期処理部16の維持する時刻情報は音声符号化部12、映像符号化部14の各部に対して供給されている。
音声符号化部12は、入力されたデジタル音声信号に対して、それに対応する時刻情報を付加して符号化する。
音声符号化部12の処理内容について図7を用いてさらに詳細に説明する。
図7は、音声符号化部12の詳細を示す図の例である。
音声符号化部12は、圧縮符号化部121、パケット化処理部122を備えている。また、パケット化処理部122は、分割処理部1221、ヘッダ生成部1222、ヘッダ付加部1223、パディング部1224を備えている。
音声符号化部12に入力されたデジタル音声信号は、圧縮・符号化部121に入力される。
圧縮・符号化部121は、音声信号の圧縮・符号化処理を行う。圧縮・符号化処理の例としては例えばG.711やG.729などがある。圧縮・符号化処理部121から出力された符号化音声信号は、パケット化処理部122に入力される。
パケット化処理部122は、入力された符号化音声信号に対するパケット化処理を行う。ここで言うパケット化処理とは、前述のネットワーク処理部15におけるIPパケット化のような下位のパケット化処理ではなく、よりアプリケーションに近い上位のパケット化処理を指す。その一例としては、例えばRTPパケット化処理が挙げられる。
パケット化処理部122に入力された符号化音声信号は、まず分割処理部1221に入力される。
分割処理部1221は、入力された符号化音声信号を、パケット化を行うために適した所定のサイズに分割し、ヘッダ付加部1223に順次出力する。
ヘッダ生成部1222は、パケット化の際に付加するヘッダ部のデータを生成する。ヘッダ生成部1222には、前述の時刻同期処理部16から供給された時刻情報が入力されており、当該時刻情報を用いてタイムスタンプを生成し、ヘッダ部のデータの中に含める。さらにヘッダ生成部1222は、生成したヘッダ部のデータを、ヘッダ付加部1223に順次出力する。
ヘッダ付加部1223は、分割された符号化音声信号を分割処理部1221から受け取り、その直前に、ヘッダ生成部1222から受け取ったヘッダデータを付加する。ヘッダ付加部1223の処理結果は、パディング処理部1224に出力される。
パディング処理部1224は、パケット全体の長さを調整するために、パディングデータをパケットの所定の位置に適宜挿入する。パディング処理部1224においてパディングデータが付加されたデータは、パケットとしてパケット化処理部122から出力される。
以上のパケット化処理部122の処理により、所定の単位に分割された符号化音声信号ごとに、当該符号化音声信号に対応した時刻情報を持つヘッダが組になり、パケットとして出力される。なお、映像入力部13から入力された映像信号も、映像と音声という違いがあるが、図7の説明と同様に処理されて時刻情報を持つヘッダが組となった符号化映像信号として映像符号化部14から出力される。
[ECUの構成]
次にECU2について図3を用いて説明する。
図3は、ECU2の詳細を示す図の例である。21a〜21dは音声復号化部、22は検出処理部、23は時刻同期処理部、24は映像復号化部、25は表示処理部、26はモニタ、27はネットワーク処理部である。
時刻同期処理部23は、ネットワーク処理部27を介してカメラ1a〜1dとの間で時刻に関する情報を含んだ時刻同期パケットの交換を行い、その情報に基づいて時刻の補正を行う。それによりカメラ1a〜1dとの間で同一の時刻を維持する。時刻同期処理部23の維持する時刻情報は音声復号化部21a〜21dおよび検出処理部22を含むECU2内部の各部に対して供給されている。
映像復号化部24は、カメラ1a〜1dの符号化映像信号を入力され、それぞれの映像の復号化処理を行う。復号化されたそれぞれの映像信号は表示処理部25に出力される。
表示処理部25は、復号化された上記映像信号に対し、選択、合成等の処理を行い、表示に適した形に整形する。表示処理部25の処理結果はモニタ26に出力され、ユーザに対して表示される。
ネットワーク処理部27は、カメラ1a〜1dの各カメラからネットワークを介して伝送された符号化音声信号および符号化映像信号を受信し、パケット化を解除する処理を行う。この処理は、カメラ1a〜1dにおける前述のネットワーク処理部15のパケット化処理とちょうど逆の処理に相当する。その結果の符号化音声信号を音声復号化部21a〜21dに、符号化映像信号を映像復号化部24にそれぞれ出力する。
音声復号化部21a〜21dは、それぞれカメラ1a〜1dに対応した符号化音声信号を入力され、音声の復号化処理を行う。復号化された音声信号は検出処理部22に出力される。
音声復号化部21a〜21dの処理内容について、図8を用いてさらに詳細に説明する。
図8は音声復号化部21a〜21dに共通の内部ブロック図である。音声復号化部21a〜dは、パケット化解除処理部211、伸張・復号化部212、バッファ部213、送出制御部214を備える。また、パケット化解除処理部211は、パディング削除部2111、ヘッダ分離部2112、ヘッダ解析部2113を備える。
音声復号化部21a〜21dに入力された符号化音声信号は、パケット化解除処理部211に入力される。
パケット化解除処理部211は、入力された符号化音声信号のパケット化解除処理を行う。この処理は、カメラ1a〜1dにおける前述のパケット化処理部122とちょうど逆の処理に相当する。パケット化解除処理部211に入力された符号化音声信号は、まずパディング削除部2111に入力される。
パディング削除部2111は、符号化音声信号にパディングデータが付加されている場合に、当該パディングデータを削除する処理を行う。パディングデータが削除された結果のパケットは、ヘッダ分離部2112に出力される。
ヘッダ分離部2112は、入力されたパケットのヘッダ部のデータと、残りの符号化音声信号のデータを分離する。分離されたデータのうちヘッダ部のデータは、ヘッダ解析部2113に出力される。また、残りの符号化音声信号は、伸張・復号化部212に出力される。
ヘッダ解析部2113は、入力されたヘッダ部のデータを解析し、ヘッダ部に含まれるパラメータを抽出する。抽出されるパラメータの中には、タイムスタンプも含まれている。抽出されたタイムスタンプは、送出制御部214に出力される。
伸張・復号化部212は、ヘッダ分離部2112から入力された符号化音声信号の伸張・復号化処理を行う。この処理は、カメラ1a〜1dにおける前述の圧縮・符号化部121とちょうど逆の処理に相当する。伸張・復号化部212から出力されたデジタル音声信号は、バッファ部213に入力される。
送出制御部214は、ヘッダ解析部2113から入力されるタイムスタンプに加え、時刻同期部23から出力される時刻情報が入力される。送出制御部214は、上記タイムスタンプの値と上記時刻情報を比較し、両者が一致したタイミングで、バッファ部213に対してデータ出力指示を出す。
バッファ部213は、伸張・復号化部212から出力されたデジタル音声信号を一時的に蓄積し、送出制御部214から上記のデータ出力指示を受けた時点で、蓄積していたデジタル音声信号を出力する。
このように、タイムスタンプと時刻情報が一致したタイミングでデジタル音声信号を出力することにより、音声復号化部21a〜21dから出力されるデジタル音声信号は相対的にタイミングが合った状態で出力されるようにすることが可能である。
なお、現実にはネットワークにおける送受信や、伸張・復号化処理などに有限の時間を要することを考慮して、上記のタイムスタンプもしくは/および時刻情報に、所定のオフセットを付加しても良い。その場合でも、音声復号化部21a〜21dから出力されるデジタル音声信号の相対的な出力タイミングを一定に保つことが可能である。
[車両検出処理]
次に、緊急車両を検出する際の動きについて説明する。
図1のように緊急車両5が発するサイレン音が、カメラ1a〜1dのそれぞれのマイクに到達した場合、図4に示すように、サイレン音が各マイクに到達する時刻は緊急車両からの距離に応じて異なる。
図4は、カメラ1a〜1dに到達する音声を示す図の例である。図4において、横軸は時刻tを示しており、右へ行くほど時刻tが進んでいることを示す。
図4は、救急車のサイレンをマイク1a〜1dで検出した場合の例を示しており、救急車のサイレンは周波数の高い音と低い音が交互に繰り返されるため、図において、高い音を示すHと、低い音を示すLが時系列に沿って交互に検出されている。
前記したようにカメラ1a〜1dの音声符号化部12では、入力されたデジタル音声信号に対して、それに対応する時刻情報を付加して符号化するので、万が一ネットワークを介して信号が伝達される間にジッタなどで伝送時間にゆらぎが発生しても、ECU2の音声復号化部21a〜21dでは、時刻同期処理部23から供給される基準の時刻情報に基づいて、各マイクの音声信号同士の時間的な関係性を正しくを復元することが可能である。
検出処理部22は、上記の各マイクへのサイレン音の到達時刻の差に基づいて、緊急車両の方向を算出する。その際には、上記の高い音、低い音の変化点を比較の対象として用いることができる。
音の到達時刻の差から音源の方向を算出する方法について図9を用いてさらに詳細に説明する。図9(a)において、2つのマイクA、Bが距離sだけ離れて設置され、それらに音源からの音が角度θの方向から入射する状況を考える。音源からマイクまでの距離が充分に長ければ、マイクAに届く音とマイクBに届く音は平行であるとみなせるので、図9(a)において
d=s・cosθ (数1)
と表すことができる。一方、マイクAとBとの距離dは、音速をvとし、音源からの音がマイクBに対して時間Tだけ遅れてマイクAに到達したとすると、
d=T・v (数2)
と表される。(数1)と(数2)より、
cosθ=T・v/s (数3)
と表されるので、到達時刻の差Tが分かれば音源の方向θを求めることが可能である。
なお、図9(b)に示すように、右上方向からの音(音源1)と右下方向からの音(音源2)は同じ角度θであるため、2つのマイクだけではそれらを区別できない。この点については、複数組のマイクから得られた結果を付き合わせれば方向を求めることが可能である。例えば図1におけるマイク1aと1bの組、およびマイク1aと1cの組からそれぞれ得られる結果を付き合わせ、共通する結果を採用すればよい。
図3に示すように、検出処理部22で算出した緊急車両の方向に関する情報は、表示処理部25に入力される。表示処理部25では、その情報に基づいて、緊急車両の方向を示す画面情報を生成する。図5にその表示画面の例を示す。図5(a)は、イラストで方向を示した例であり、図5(b)は文字情報で示した例である。また図5(c)は、車両の周囲の状況をカメラで撮影してモニタ表示する画面上に、緊急車両の方向を示すイラストを重畳表示した例である。このように表示を行うことにより利用者に分かり易く緊急車両の方向を示し、利用者の利便性を向上させることが可能である。
以上に示したように、本発明によれば、ネットワークを介して接続された複数のカメラを用いて、緊急車両の検出を行うことが可能であり、緊急車両の検出装置をコストや重量の増大を抑えて実現することが可能である。
なお、上記実施例においてはマイクが4つの例を示したが、それに限定されるものではなく、3つ以上であればよい。
また、検出処理部22において、サイレン音の強弱に基づいて、緊急車両の距離を推定し、その情報を合わせて画面で知らせるようにしても良い。緊急自動車のサイレン音は関連規則等により音量の基準が定められている。そこでその基準に基づいて、緊急車両からの距離と受信する音量の関係を予め調べておけば、受信したサイレン音の強弱から緊急車両までの距離を推定することができる。これにより利用者に対しての利便性をさらに向上させることが可能である。
また、検出処理部22において、ドップラー効果によるサイレン音の周波数偏移を検出し、それに基づいて、緊急車両が近づきつつあるか遠ざかりつつあるかを判断し、その情報を併せて画面で知らせるようにしても良い。緊急自動車のサイレン音は関連規則等により音色や周波数等の基準が定められている。また一般に、音源の周波数をfs、観測される周波数をf1、音速をv、音源がマイクに向かって動く速度をvs、マイク(を搭載した車両)が音源に向かって動く速度をv1とすると、ドップラー効果により
f1=f・(v−v1)/(v−vs) (数4)
と表されるので、f、f1、v1から音源がマイクに向かって動く速度vsを求めることが可能である。
マイクが音源に向かって動く速度v1は、上述の方法で求めた音源の方向と車両の進む方向とのなす角度(φ)と車両の進む速度v0から、
v1=v0・cosφ (式5)
と表される。
これにより、利用者に対しての利便性をさらに向上させることが可能である。
また、緊急車両の到来方向等に関する情報を映像で示す例を示したが、その代わりに、もしくは併せて音声で知らせるようにしても良い。
また、上記において、緊急自動車を検知する場合を例に取り説明したが、それに限定されるものではなく、例えば踏み切りの警報音などの他の音を検出する場合でも良い。
次に本発明の実施例2について説明する。実施例1と共通する部分は説明を省略する。
図6に本実施例におけるカメラを示す。実施例1との違いは、特徴情報解析部17を設けたことである。図4に示すようなカメラ1a〜1dの各マイクに入力されたサイレン音を、特徴情報解析部17で解析し、緊急車両特有の音声パターンおよび、高い音、低い音の変化点を検出する。さらに各変化点が発生した時刻の情報を抽出し、その変化点の時刻情報を、音声符号化部12およびネットワーク処理部15を介してECU2に送信する。
特徴情報解析部17における検出処理を図10を用いて更に詳細に説明する。図17は、特徴情報解析部17の詳細を示す図の例である。
特徴情報解析部17は、音声パターン格納部171、パターン比較部172、パターン変化点検出部173から構成される。
音声パターン格納部171は、緊急車両特有の音声パターン(例えば救急車のサイレンの高い音、低い音など)を記録する。
パターン比較部172は、音声パターン格納部171に格納されている音声パターンを取得し、入力されたデジタル音声信号と、上記音声パターン格納部171に格納されている音声パターンとを比較し、その比較結果(一致/不一致、一致の場合はどのパターンと一致したか)をパターン変化点検出部173に出力する。
パターン変化点検出部173は、時刻同期処理部から出力された時刻情報が入力され、パターン比較部172から入力された比較結果に変化(すなわち、一致から不一致への変化、不一致から一致への変化、あるいは一致の場合におけるパターンの変化)が生じた場合、その時点の時刻情報を、変化点時刻情報として、音声符号化部12に出力する。このようにして、緊急車両特有の音声パターンおよび、高い音、低い音の変化点を検出し、さらに各変化点が発生した時刻の情報を抽出することが可能である。
ECU2の検出処理部22では、上記変化点の時刻情報を各カメラ1a〜1dから受け取り、その情報に基づいて、緊急車両の方向を算出する。
以上のように本実施例の場合も、実施例1と同様の効果を得ることが出来る。
また、本実施例の場合は、音声パターンの解析をカメラ側で行うので、ECU2側の処理を軽減させることが可能である。さらに、本実施例の場合では、マイク11が取得した音声情報ではなく、変化点の時刻情報のみを送信すればよいため、カメラ1とECU2との通信量を軽減することが可能である。
1a〜1d カメラ
2 電子制御装置(ECU)
3a〜3d ネットワーク
4 自車両
5 緊急車両
11 音声入力部
12 音声符号化部
13 映像入力部
14 映像符号化部
15 ネットワーク処理部
16 時刻同期処理部
17 特徴情報解析部
21a〜21d 音声復号化部
22 検出処理部
23 時刻同期処理部
24 映像復号化部
25 表示処理部
26 モニタ
27 ネットワーク処理部

Claims (6)

  1. ネットワークを介して、複数のカメラ部と、ECU部と、が接続された音源検出システムにおいて、
    上記複数のカメラ部はそれぞれ、
    上記ネットワークを介して上記ECU部と時刻同期する第1の時刻同期処理部と、
    音声情報を検出するマイクロフォンと、
    上記音声情報と、上記第1の時刻同期処理部の保持する時刻情報と、を符号化音声情報として対応づけて符号化し、上記ネットワークを介して出力する音声符号化処理部と、を備え、
    上記ECU部は、
    上記ネットワークを介して上記複数のカメラ部と時刻同期する第2の時刻同期処理部と、
    上記符号化音声情報を復号化する音声復号化処理部と、
    上記複数のカメラ部から送信された上記符号化音声情報がそれぞれ有する時刻情報に基づき、上記それぞれのマイクロフォンへ所定の音声が到達した時刻の差に基づいて、音源の方向を算出する検出処理部と、を備える
    ことを特徴とする音源検出システム。
  2. ネットワークを介して、複数のカメラ部と、ECU部と、が接続された音源検出システムにおいて、
    上記複数のカメラ部はそれぞれ、
    上記ネットワークを介して上記ECU部と時刻同期する第1の時刻同期処理部と、
    音声情報を検出するマイクロフォンと、
    上記音声情報を解析して所定のパターンを検出し、当該パターンを検出した時刻の時刻情報を上記時刻同期処理部から抽出し、当該時刻情報を変化点時刻情報として送信する特徴情報解析部と、を備え、
    上記ECU部は、
    上記ネットワークを介して上記複数のカメラ部と時刻同期する第2の時刻同期処理部と、
    上記複数のカメラから送信された上記変化点時刻情報に基づき、上記複数のカメラ部が上記パターンを検出した時刻の差に基づいて、音源の方向を算出する検出処理部と、を備える、
    ことを特徴とする音源検出システム。
  3. 請求項1または2に記載の音源検出システムにおいて、
    上記検出処理部は、所定の音圧で音源から発された音声の音圧レベルと、音源からの距離と、に関する情報を有し、前記マイクロフォンが検出した音声の音圧レベルの情報に基づいて音源の距離を算出することを特徴とする音源検出システム。
  4. 請求項1または2に記載の音源検出システムにおいて、
    上記検出処理部は、所定の周波数で発される音声の、周波数の偏移の情報に基づいて緊急車両の進行方向を算出することを特徴とする音源検出システム。
  5. 請求項1乃至4に記載の音源検出システムにおいて、
    上記検出処理部が算出した結果を画面に表示出力することを特徴とする音源検出システム。
  6. 請求項1乃至5に記載の音源検出システムにおいて、
    上記検出処理部が算出した結果を音声メッセージとして出力することを特徴とする音源検出システム。
JP2012112088A 2012-05-16 2012-05-16 音源検出システム Pending JP2013239938A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012112088A JP2013239938A (ja) 2012-05-16 2012-05-16 音源検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012112088A JP2013239938A (ja) 2012-05-16 2012-05-16 音源検出システム

Publications (1)

Publication Number Publication Date
JP2013239938A true JP2013239938A (ja) 2013-11-28

Family

ID=49764606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012112088A Pending JP2013239938A (ja) 2012-05-16 2012-05-16 音源検出システム

Country Status (1)

Country Link
JP (1) JP2013239938A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018157251A1 (en) 2017-03-01 2018-09-07 Soltare Inc. Systems and methods for detection of a target sound
US11410673B2 (en) 2017-05-03 2022-08-09 Soltare Inc. Audio processing for vehicle sensory systems

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018157251A1 (en) 2017-03-01 2018-09-07 Soltare Inc. Systems and methods for detection of a target sound
US10916260B2 (en) 2017-03-01 2021-02-09 Soltare Inc. Systems and methods for detection of a target sound
EP3589968A4 (en) * 2017-03-01 2021-04-14 Soltare Inc. TARGET SOUND DETECTION SYSTEMS AND METHODS
US11410673B2 (en) 2017-05-03 2022-08-09 Soltare Inc. Audio processing for vehicle sensory systems

Similar Documents

Publication Publication Date Title
CN102668534B (zh) 视频和遥测数据的数据搜索、解析和同步
KR101937272B1 (ko) 복수 개의 촬영영상으로부터 이벤트를 검출하는 장치 및 방법
TWI433057B (zh) 改良的警報前視訊緩衝器
EP3280128A1 (en) Image pickup device
WO2013140485A1 (ja) 符号化装置、復号化装置、符号化方法および復号化方法
JP6244642B2 (ja) 符号化装置、復号化装置、符号化方法、復号化方法およびプログラム
JP2011166608A (ja) 音源位置特定方法
CN110463212B (zh) 用于媒体到以太网框架打包的低延迟管道
JP2013239938A (ja) 音源検出システム
JP2023179491A (ja) システムおよびプログラム等
CN110710199B (zh) 智能摄像机、图像处理装置以及数据通信方法
JP4303535B2 (ja) デコード表示装置、撮像装置及びそれらを備えた画像伝送システム
JP2020005168A (ja) カメラ装置、カメラシステム及びサーバ装置
JP7281923B2 (ja) 制御装置、画像処理システム、制御方法及びプログラム
US7893955B2 (en) Apparatus and method for displaying image data direction of terminal
JPWO2020166612A1 (ja) 三次元データ多重化方法、三次元データ逆多重化方法、三次元データ多重化装置、及び三次元データ逆多重化装置
KR101690057B1 (ko) 고화질 영상 보간을 통한 cctv용 다채널 고화질(hd급) 영상 데이터의 장거리 전송 시스템
JP5867590B2 (ja) エレメンタリストリームをエンコードし、多重し、またはデコードするための方法、装置、およびプログラム
JP3738018B2 (ja) 信号遅延測定装置、信号遅延測定方法および信号遅延測定プログラム
JP3179642U (ja) ドライブレコーダ及びドライブレコーダシステム
CN102378954A (zh) 用于捕获和传输运动信息的方法
KR20140036697A (ko) 영상데이터 전송장치
JP6659601B2 (ja) 符号化装置、多重化装置、切替装置、送信システム、および送信方法
ES2358123T3 (es) Procedimiento para sincronizar flujos de datos mediales.
JP6643517B2 (ja) 撮像装置