JP2007082081A - 動画像撮影装置連動式スポット集音装置 - Google Patents

動画像撮影装置連動式スポット集音装置 Download PDF

Info

Publication number
JP2007082081A
JP2007082081A JP2005270043A JP2005270043A JP2007082081A JP 2007082081 A JP2007082081 A JP 2007082081A JP 2005270043 A JP2005270043 A JP 2005270043A JP 2005270043 A JP2005270043 A JP 2005270043A JP 2007082081 A JP2007082081 A JP 2007082081A
Authority
JP
Japan
Prior art keywords
subject
sound
moving image
source data
time difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005270043A
Other languages
English (en)
Inventor
Kazunari Obitsu
和成 大櫃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chugoku Electric Power Co Inc
Original Assignee
Chugoku Electric Power Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chugoku Electric Power Co Inc filed Critical Chugoku Electric Power Co Inc
Priority to JP2005270043A priority Critical patent/JP2007082081A/ja
Publication of JP2007082081A publication Critical patent/JP2007082081A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

【課題】 時々刻々と変わる被写体の映像と共に、その被写体から発せられる音を強調して中継することができる動画像撮影装置連動式スポット集音装置を提供する。
【解決手段】
被写体100をビデオカメラ20で撮影すると共に、被写体から発せられて複数のマイクロフォン10a〜10dにより検出された音の音源データ11a〜11dを格納し、各音源データ11a〜11dをそれぞれ所望の時間遅延させて読出し、それらのデータを合成する。
【選択図】 図1

Description

本発明は、動画像撮影装置と連動したスポット集音装置に関し、特に、動画像撮影装置が撮影する被写体から発せられた音等を選択的に強調して取り出すと共に、動画像撮影装置で撮影された被写体の映像とその音とを合成する動画像撮影装置連動式スポット集音装置に関する。
野球中継やサッカー中継などでは、グラウンドやフィールドなどにマイクロフォンやテレビカメラなどを設置することができないため、それらの外側に設置されたマイクロフォンやテレビカメラなどを用いて中継が行なわれている。そして、これらの中継では、テレビカメラで撮影される被写体を時々刻々と変えながら、被写体の映像とその音声などを中継している。
しかしながら、野球中継やサッカー中継などでは、被写体が発する音以外に多数の観客からも音が発せられるため、マイクロフォンは、その周囲に存在する複数の観客から発せられる音をも集音してしまうという問題があった。すなわち、野球中継やサッカー中継では、テレビカメラで撮影している被写体が発する音の他にマイクロフォンの周囲の観客の声なども中継してしまい、臨場感のある中継を行うことができないという問題があった。
一方、マイクロフォンがその周囲の音をも集音してしまうという問題を解決するために、複数の音源から発生する音のうち、特定の音源で発生した音を選択的に取り出す装置がいくつか提案されている(例えば、特許文献1及び2参照)。
しかしながら、これらの装置では、特定の音源で発生した音を選択的に取り出すことはできるが、時々刻々と変わる被写体の映像と共に、その被写体から発せられる音を強調して中継することなどができないという問題があった。
特開平7−111694号公報 特開平10−70786号公報
本発明は、上述した事情に鑑み、時々刻々と変わる被写体の映像と共に、その被写体から発せられる音を強調して中継することができる動画像撮影装置連動式スポット集音装置を提供することを目的とする。
上記課題を解決する本発明の第1の態様は、被写体を撮影する動画像撮影装置と、前記被写体から発せられた音の音源データを検出する複数のマイクロフォンと、前記各マイクロフォンで検出された前記音源データを格納する音源データ格納手段と、前記被写体から発せられた音が前記被写体から最も遠く離れたマイクロフォンに到達するまでの到達時間を基準として、当該到達時間と前記被写体から前記各マイクロフォンまで音が到達する時間との時間差を算出する時間差算出手段と、前記音源データ格納手段に格納された前記各マイクロフォンからの音源データを前記時間差に対応した時間差で遅延させて読み出す音源データ読出し手段と、前記音源データ読出し手段により読み出された音源データとを合成する合成手段と、を具備することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第1の態様では、時々刻々と変わる被写体の映像と共に、その被写体から発せられる音を強調して抽出することができる。
本発明の第2の態様は、第1の態様において、前記被写体から前記各マイクロフォンまでの距離を算出する距離算出手段をさらに具備し、時間差算出手段は、前記被写体から前記各マイクロフォンまでの距離と音速とから前記被写体から前記各マイクロフォンまで音が到達する時間を算出して前記時間差を算出することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第2の態様では、容易に時間差を算出することができる。
本発明の第3の態様は、第2の態様において、前記距離算出手段は、前記被写体と前記動画像撮影装置との間の位置関係と、前記動画像撮影装置と前記複数のマイクロフォンとの位置関係とから前記被写体と前記各マイクロフォンとの間の距離を算出することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第3の態様では、前記被写体と前記各マイクロフォンとの間の距離を容易に算出することができる。
本発明の第4の態様は、第3の態様において、前記被写体と前記動画像撮影装置との間の位置関係は、前記被写体に前記動画像撮影装置の焦点を合わせることにより算出され、前記被写体と前記各マイクロフォンとの間の位置関係は、前記被写体と前記動画像撮影装置との間の位置関係と、予め設定された前記動画像撮影装置と前記複数のマイクロフォンとの間の位置関係とに基づいて算出されることを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第4の態様では、前記被写体と前記各マイクロフォンとの間の距離をより容易に算出することができる。
本発明の第5の態様は、第2〜4の態様の何れかにおいて、前記時間差算出手段は、大気の状態に応じて前記音速を補正する補正機能を具備することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第5の態様では、正確な時間差を算出することができる。
本発明の第6の態様は、第1の態様において、前記時間差算出手段は、前記各マイクロフォン又はその周辺部に超音波距離測定器を設けて、前記被写体から前記各マイクロフォンまで音が到達する時間をそれぞれ測定して前記時間差を算出することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第6の態様では、より正確な時間差を算出することができる。
本発明の第7の態様は、被写体を撮影する動画像撮影装置と、前記動画像撮影装置により撮影された前記被写体の映像データを格納する映像データ格納手段と、前記被写体から発せられた音の音源データを検出する複数のマイクロフォンと、前記各マイクロフォンで検出された前記音源データを格納する音源データ格納手段と、前記被写体から発せられた音が前記被写体から最も遠く離れたマイクロフォン又は動画像撮影装置に到達するまでの到達時間を基準として、当該到達時間と前記被写体から前記各マイクロフォン及び前記動画像撮影装置まで音が到達する時間との時間差を算出する時間差算出手段と、前記音源データ格納手段に格納された前記各マイクロフォンからの音源データを前記時間差に対応した時間差で遅延させて読み出す音源データ読出し手段と、前記映像データ格納手段に格納された映像データを前記時間差に対応した時間差で遅延させて読み出す映像データ読出し手段と、前記映像データ読出し手段により読み出された映像データと、前記音源データ読出し手段により読み出された音源データとを合成する合成手段と、を具備することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第7の態様では、時々刻々と変わる被写体の映像と共に、その映像に合わせて、その被写体から発せられる音を強調して抽出することができる。
本発明の第8の態様は、第7の態様において、前記被写体から前記各マイクロフォン及び前記動画像撮影装置までの距離を算出する距離算出手段をさらに具備し、時間差算出手段は、前記被写体から前記各マイクロフォン及び前記動画像撮影装置までの距離と音速とから前記被写体から前記各マイクロフォン及び前記動画像撮影装置まで音が到達する時間を算出して前記時間差を算出することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第8の態様では、容易に時間差を算出することができる。
本発明の第9の態様は、第8の態様において、前記距離算出手段は、前記被写体と前記動画像撮影装置との間の位置関係と、前記動画像撮影装置と前記複数のマイクロフォンとの位置関係とから前記被写体と前記各マイクロフォンとの間の距離及び前記被写体と前記動画像撮影装置との間の距離を算出することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第9の態様では、前記被写体と前記各マイクロフォンとの間の距離を容易に算出することができる。
本発明の第10の態様は、第9の態様において、前記被写体と前記動画像撮影装置との間の位置関係は、被写体に前記動画像撮影装置の焦点を合わせることにより算出され、前記被写体と前記各マイクロフォンとの間の位置関係は、前記被写体と前記動画像撮影装置との間の位置関係と、予め与えられた前記動画像撮影装置と前記複数のマイクロフォンとの間の位置関係とに基づいて算出されることを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第10の態様では、前記被写体と前記各マイクロフォンとの間の距離をより容易に算出することができる。
本発明の第11の態様は、第7〜10の態様の何れかにおいて、前記時間差算出手段は、大気の状態に応じて前記音速を補正する補正機能を具備することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第11の態様では、正確な時間差を算出することができる。
本発明の第12の態様は、第7の態様において、前記時間差算出手段は、前記各マイクロフォン又はその周辺部及び前記動画像撮影装置又はその周辺部に超音波距離測定器を設けて、前記被写体から前記各マイクロフォン及び前記動画像撮影装置まで音が到達する時間をそれぞれ測定して前記時間差を算出することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第12の態様では、より正確な時間差を算出することができる。
本発明の第13の態様は、第1〜12の態様の何れかにおいて、前記合成手段により合成されたデータを放送する放送手段をさらに具備することを特徴とする動画像撮影装置連動式スポット集音装置にある。
かかる第13の態様では、時々刻々と変わる被写体の映像と共に、その映像に合わせて、その被写体から発せられる音を強調して抽出し、放送することができる。ここで、放送とは無線放送だけではなく、有線放送を含み、さらにはインターネットを介したインターネット放送などのデータ通信放送を含むものである。
本発明に係る動画像撮影装置連動式スポット集音装置によると、被写体から発せられた音を強調することができ、かつ映像と共にその音を抽出することができるので、より臨場感のあるテレビ中継などを行うことができる。
以下、本発明を実施するための最良の形態について説明する。なお、本実施形態の説明は例示であり、本発明は以下の説明に限定されない。
(実施形態1)
図1は、本発明の実施形態1に係る動画像撮影装置連動式スポット集音装置を示す概略図である。図1に示すように、本実施形態に係る動画像撮影装置連動式スポット集音装置1は、被写体100からそれぞれ距離d1〜d4だけ離れて設置される4台の集音マイクロフォン10a〜10dと、被写体100から距離Lだけ離れて設置される動画像撮影装置であるビデオカメラ20と、集音マイクロフォン10a〜10d及びビデオカメラ20に接続される中継サーバ30とからなっている。
そして、中継サーバ30は、各集音マイクロフォン10a〜10dが検出した被写体から発せられる音の音源データ11a〜11dをそれぞれ格納する音源データ格納手段31と、被写体100から各集音マイクロフォン10a〜10dまでの距離を算出する距離算出手段32と、被写体100から発せられた音が被写体100から最も遠く離れた集音マイクロフォンに到達するまでの到達時間を基準として、その到達時間と被写体100から各集音マイクロフォン10a〜10dまで、その音が到達する時間との時間差dt1〜dt4を算出する時間差算出手段33と、音源データ格納手段31に格納された音源データ11a〜11dを時間差dt1〜dt4に対応した時間差で遅延させて読み出す音源データ読出し手段34と、音源データ読出し手段34により読み出された音源データ11a〜11dを合成する合成手段35とを具備している。なお、各集音マイクロフォン10a〜10d及びビデオカメラ20は有線又は無線で中継サーバ30に接続されている。以下、動画像撮影装置連動式スポット集音装置1を構成する各構成要素について具体的に説明する。
集音マイクロフォン10a〜10dは、被写体100から発せられる音から音源データ11a〜11dを検出することができるのであれば特に限定されない。集音マイクロフォン10a〜10dとしては、例えば通常のマイクロフォンや指向性マイクロフォンなどが挙げられるが、指向性マイクロフォンが好ましい。
ビデオカメラ20は、被写体100を撮影することができるものであれば特に限定されない。ビデオカメラ20として、例えば業務用ビデオカメラや家庭用ビデオカメラでもよく、さらにはアナログ方式のビデオカメラでもデジタル方式のビデオカメラでもよいが、デジタル方式のビデオカメラが好ましい。
中継サーバ30は、以下に示す機能を有するものであれば特に限定されず、例えば専用計算機や一般的なパーソナルコンピュータなどであってもよい。以下に、中継サーバ30が具備する機能について具体的に説明する。
音源データ格納手段31は、各集音マイクロフォン10a〜10dにより検出された音源データ11a〜11dをそれぞれ格納することができるものであれば特に限定されない。音源データ格納手段31としては、例えば音源データ11a〜11dをそれぞれパーソナルコンピュータに搭載されたハードディスクやRAMなどに格納するプログラムなどが挙げられる。
距離算出手段32は、被写体100から各集音マイクロフォン10a〜10dまでの距離d1〜d4を算出することができるものであれば特に限定されないが、以下に示すものが好ましい。
距離算出手段32としては、例えばビデオカメラ20と各集音マイクロフォン10a〜10dとの位置関係を中継サーバ30に予め入力しておき、被写体100とビデオカメラ20との位置関係と、ビデオカメラ20と各集音マイクロフォン10a〜10dとの位置関係とから被写体100から各集音マイクロフォン10a〜10dまでの距離d1〜d4を算出するプログラム及び機器が挙げられる。
具体的には、まず、ビデオカメラ20からの各集音マイクロフォン10a〜10dの位置を同一平面上の座標Cにおける(X1,Y1)、(X2,Y2)、(X3,Y3)、(X4,Y4)、(X5,Y5)と設定し、ビデオカメラ20はある特定方向を基準として設置されているものとする。また、ビデオカメラ20を用いて被写体100を撮影する場合には、図1に示すように、ビデオカメラ20を特定方向から角度θだけ回転させて、被写体100にレンズの焦点を合わせるものとする。なお、被写体100はビデオカメラ20及び各集音マイクロフォン10a〜10dと同一平面上に存在するものとする。
この条件において、被写体100にビデオカメラ20のレンズの焦点を合わせることにより被写体100とビデオカメラ20との距離Lを算出すると、得られた(L,θ)はビデオカメラ20を原点として被写体100の位置を極座標で表現したものに該当する。したがって、ビデオカメラ20からの被写体100の位置(L,θ)を極座標から座標Cに座標変換することにより、座標Cにおける被写体100の位置(a,b)を得ることができる。すると、被写体100から各集音マイクロフォン10a〜10dまでの距離d1〜d4は、座標Cにおけるビデオカメラ20の位置(a,b)と座標Cにおける上述した各集音マイクロフォン10a〜10dの位置との距離で表されるので、容易に算出することができる。このようにして、被写体100から各集音マイクロフォン10a〜10dまでの距離d1〜d4を算出することができる。
時間差算出手段33は、被写体100から発せられた音が被写体100から最も遠く離れた各集音マイクロフォン10a〜10dに到達するまでの到達時間を基準として、その到達時間と、その音が被写体100から各集音マイクロフォン10a〜10dまで到達する時間との時間差dt1〜dt4を算出することができるものであれば特に限定されない。時間差算出手段33としては、例えば以下の機能を有するプログラムなどが挙げられる。
まず、被写体100から各集音マイクロフォン10a〜10dまでの距離d1〜d4と予め入力される音速SSとから被写体100から発せられた音が各集音マイクロフォン10a〜10d及びビデオカメラ20に到達する時間t1〜t4をそれぞれ算出する。
具体的には、被写体100から発せられた音が集音マイクロフォン10aに到達する時間t1は、t1=d1/SSにより算出することができる。すなわち、被写体100から発せられた音が各集音マイクロフォン10a〜10dに到達する時間t1〜t4は、被写体100から各集音マイクロフォン10a〜10dまでの距離d1〜d4を音速SSで除することにより算出することができる。
次に、得られた時間t1〜t4の中で最も大きいものを選択し、その時間から時間差dt1〜dt4を算出する。具体的には、得られた時間t1〜t4の中で最も大きいものをt3とすると、被写体100から発せられた音が集音マイクロフォン10cに到達する時間t3と、その音が被写体100から集音マイクロフォン10aに到達するまでの時間t1との時間差dt1は、dt1=t3−t1により算出することができる。すなわち、被写体100から発せられた音が被写体100から最も遠く離れたマイクロフォンに到達するまでの時間から、各集音マイクロフォン10a〜10dに到達するまでのそれぞれの時間t1〜t4を引くことにより、時間差dt1〜dt4を算出することができる。なお、被写体100から発せられた音が被写体100から最も遠く離れた各集音マイクロフォン10a〜10d又はビデオカメラ20に到達するまでの時間t1〜t4のうちのいずれか1つが基準となるので、時間差dt1〜dt4のうちのいずれか1つは0となる。
音源データ読出し手段34は、音源データ格納手段31に格納された音源データ11a〜11dを時間差dt1〜dt4に対応した時間差で遅延させて読み出すことができるものであれば特に限定されない。音源データ読出し手段34としては、例えばハードディスクに格納された音源データ11a〜11dをそれぞれ対応する時間差dt1〜dt4だけ遅延させて読み出すプログラムなどが挙げられる。
合成手段35は、音源データ読出し手段34により読み出された音源データ11a〜11dを合成することができるものであれば特に限定されない。合成手段35としては、例えば音源データ読出し手段34により読み出された音源データ11a〜11dを合成するプログラムなどが挙げられる。合成手段35を用いることにより、被写体100から発せられた音を他の音よりも強調することができる。すなわち、被写体から発せられた音Sと他の音NとのS/N比を大きくすることができる。
なお、上述したプログラムは、パーソナルコンピュータなどのハードディスク又はRAMなどに格納されることになる。
以上説明したように、本実施形態の動画像撮影装置連動式スポット集音装置1によれば、時々刻々と変わる被写体の映像と共に、その被写体から発せられる音を強調して抽出することができる。
なお、本実施形態では、音速SSは所定の値を中継サーバ30に入力するようにしたが、音速SSは気温、湿度、気圧等の大気の条件により変動する。そこで、これらの大気の条件に基づいて音速SSを補正する補助機能を時間差算出手段33に具備させて、音速SSを補正するようにしてもよい。このようにして得られた正確な音速SSを用いることにより、より正確な時間差dt1〜dt4を算出することができる。なお、これらの大気の条件は、気温、湿度、気圧等を測定することができるセンサーなどを各集音マイクロフォン10a〜10d、ビデオカメラ20、又は中継サーバ30に取り付けて、自動的に取得できるようにしてもよい。
次に、本実施形態の動画像撮影装置連動式スポット集音装置1の動作について説明する。図2は動画像撮影装置連動式スポット集音装置1の動作を示すシーケンスである。図2に示すように、まず、ビデオカメラ20からの各集音マイクロフォン10a〜10dの位置及び音速SSを中継サーバ30に入力する(S1)。
次に、ビデオカメラ20で被写体100を撮影すると共に、各集音マイクロフォン10a〜10dで被写体100から発せられた音の音源データ11a〜11dを検出する(S2)。そして、各集音マイクロフォン10a〜10dで検出された音源データ11a〜11dは、中継サーバ30に送信され、音源データ格納手段31により格納される(S3)。
次に、距離算出手段32により、被写体100から各集音マイクロフォン10a〜10dまでの距離d1〜d4を算出する(S4)。そして、得られたd1〜d4と音速SSに基づいて、時間差算出手段33より時間差dt1〜dt4を算出する(S5)。
そして、得られた時間差dt1〜dt4に基づいて、音源データ読出し手段34を用いて各集音マイクロフォン10a〜10dで検出された音源データ11a〜11dを読み出す(S6)。
次に、音源データ読出し手段34により読み出された音源データ11a〜11dとビデオカメラ20から送信された映像データとを合成手段35により合成する(S7)。
(実施形態2)
実施形態1では、各集音マイクロフォン10a〜10dをそれぞれ対応する時間差dt1〜dt4だけ遅延させて合成することにより、被写体100から発せられた音を強調することができ、かつ映像と共にその音を抽出することができたが、映像をもその音に合うように遅延させて合成するようにしてもよい。
例えば、図2に示すように動画像撮影装置連動式スポット集音装置を構成してもよい。図2は、本発明の実施形態2に係る動画像撮影装置連動式スポット集音装置を示す概略図である。図2に示すように、動画像撮影装置連動式スポット集音装置1Aは、被写体100からそれぞれ距離d1〜d4だけ離れて設置される4台の集音マイクロフォン10a〜10dと、被写体100から距離Lだけ離れて設置されるビデオカメラ20と、集音マイクロフォン10a〜10d及びビデオカメラ20に接続される中継サーバ30とからなっている。
そして、中継サーバ30は、各集音マイクロフォン10a〜10dが検出した被写体から発せられる音のそれぞれの音源データ11a〜11dを格納する音源データ格納手段31と、被写体100から各集音マイクロフォン10a〜10dまでの距離を算出する距離算出手段32と、被写体100から発せられた音が被写体100から最も遠く離れた各集音マイクロフォン10a〜10d又はビデオカメラ20に到達するまでの到達時間を基準として、その到達時間と被写体100から各集音マイクロフォン10a〜10d及びビデオカメラ20まで、その音が到達する時間との時間差dt1〜dt5を算出する時間差算出手段33Aと、音源データ格納手段31に格納された音源データ11a〜11dを時間差dt1〜dt4に対応した時間差で遅延させて読み出す音源データ読出し手段34と、ビデオカメラ20により撮影された被写体の映像データ21を格納する映像データ格納手段36と、映像データ格納手段36に格納された映像データ21を時間差dt5に対応した時間差で遅延させて読み出す映像データ読出し手段37と、映像データ読出し手段37により読み出された映像データ21と音源データ読出し手段34により読み出された音源データ11a〜11dとを合成する合成手段35Aとを具備している。以下、動画像撮影装置連動式スポット集音装置1Aを構成する各構成要素について具体的に説明する。
時間差算出手段33Aは、被写体100から発せられた音が被写体100から最も遠く離れた各集音マイクロフォン10a〜10d又はビデオカメラ20に到達するまでの到達時間を基準として、その到達時間と被写体100から各集音マイクロフォン10a〜10d及びビデオカメラ20まで、その音が到達する時間との時間差dt1〜dt5を算出することができるものであれば特に限定されない。時間差算出手段33Aはとしては、例えば以下の機能を有するプログラムなどが挙げられる。
具体的には、時間差算出手段33Aは、実施形態1の時間差算出手段33と同じ機能を有し、さらに被写体100からビデオカメラ20までの距離Lと音速SSから、被写体100から発せられた音がビデオカメラ20に到達する時間t5を、t5=L/SSにより算出すると共に、被写体100から発せられた音が、各集音マイクロフォン10a〜10d又はビデオカメラ20のうち被写体100から最も遠く離れたものに到達するまでの時間から、ビデオカメラ20に到達するまでの時間t5を引くことにより、時間差dt5を算出することができるようになっている。なお、被写体100から最も遠く離れたものがビデオカメラ20である場合には、dt5は0となる。
映像データ格納手段36は、音源データ格納手段31と同様に、ビデオカメラ20により撮影された被写体の映像データ21を格納することができるものであれば特に限定されない。映像データ格納手段36としては、例えば映像データ21をパーソナルコンピュータに搭載されたハードディスクやRAM(Random Access Memory)などに格納するプログラムなどが挙げられる。
映像データ読出し手段37は、音源データ読出し手段34と同様に、映像データ格納手段36に格納された映像データ21を時間差dt5に対応した時間差で遅延させて読み出すことができるものであれば特に限定されない。映像データ読出し手段37としては、音源データ読出し手段34と同様に、例えば例えばハードディスクに格納された映像データ21をdt5だけ遅延させて読み出すプログラムなどが挙げられる。
合成手段35Aは、映像データ読出し手段37により読み出された映像データ21と音源データ読出し手段34により読み出された音源データ11a〜11dとを合成することができるものであれば特に限定されない。合成手段35Aとしては、例えば映像データ読出し手段37により読み出された映像データ21と音源データ読出し手段34により読み出された音源データ11a〜11dとを合成するプログラムなどが挙げられる。ここで、映像データ読出し手段37により読み出された映像データ21は、時間差dt5だけ実際に撮影された時間よりも遅延されて読み出されると共に、音源データ読出し手段34により読み出された音源データ11a〜11dも同様にそれぞれ時間差dt1〜dt4だけ実際に算出された時間よりも遅延されて読み出され、それらのデータが合成されることになる。したがって、被写体100から発せられた音を強調することができ、かつ映像と共にその映像に合った音を抽出することができる。すなわち、被写体100から発せられた音Sと他の音Nとの比S/Nを大きくすることができると共に、音Sに合った映像を得ることができる。なお、その他の構成要素は上述した動画像撮影装置連動式スポット集音装置1と同様であるため、同一の符号を付して説明を省略する。
以上説明したように、本実施形態の動画像撮影装置連動式スポット集音装置1Aによれば、時々刻々と変わる被写体の映像と共に、その映像に合わせて、その被写体から発せられる音を強調して抽出することができる。
次に、動画像撮影装置連動式スポット集音装置1Aの動作について説明する。図4は動画像撮影装置連動式スポット集音装置1Aの動作を示すシーケンスである。図4に示すように、まず、ビデオカメラ20からの各集音マイクロフォン10a〜10dの位置及び音速SSを中継サーバ30に入力する(S1)。
次に、ビデオカメラ20で被写体100を撮影すると共に、各集音マイクロフォン10a〜10dで被写体100から発せられた音の音源データ11a〜11dを検出する(S2)。そして、各集音マイクロフォン10a〜10dで検出された音源データ11a〜11dは、中継サーバ30に送信され、音源データ格納手段31により格納される(S3)。また、ビデオカメラ20で撮影された映像データ21も、同様に中継サーバ30に送信され、映像データ格納手段36により格納される(S4)。なお、S3とS4とは同時に行なわれてもよいし、S4が行なわれた後にS3が行なわれてもよい。
次に、距離算出手段32により、被写体100から各集音マイクロフォン10a〜10dまでの距離d1〜d4及び被写体100からビデオカメラ20までの距離Lを算出する(S5)。そして、得られたd1〜d4及びLと音速SSとに基づいて、時間差算出手段33Aより時間差dt1〜dt5を算出する(S6)。
次に、得られた時間差dt1〜dt4に基づいて、音源データ読出し手段34を用いて各集音マイクロフォン10a〜10dで検出された音源データ11a〜11dを読み出す(S7)。また、同様に、得られた時間差dt5に基づいて、映像データ読出し手段37を用いてビデオカメラ20で撮影された映像データ21を読み出す(S8)。なお、S7とS8とは同時に行なわれてもよいし、S8が行なわれた後にS7が行なわれてもよい。
そして、読み出された音源データ11a〜11d及び映像データ21を合成手段35Aにより合成する(S9)。
(実施形態3)
実施形態1及び2では、被写体100からビデオカメラ20までの距離Lは被写体100にビデオカメラのレンズの焦点を合わせることにより算出したが、ビデオカメラ20又はその周辺部に距離測定器を設けて距離Lを測定するようにしてもよい。ここで、距離測定器としては、例えば超音波距離測定器や光学距離測定器などが挙げられる。本実施形態の動画像撮影装置連動式スポット集音装置は、距離測定器により被写体100との距離Lを正確に測定することができる。したがって、本実施形態の動画像撮影装置連動式スポット集音装置によれば、時々刻々と変わる被写体の映像と共に、その被写体から発せられる音をより強調して抽出することができる。
(他の実施形態)
実施形態1〜3では、4台の集音マイクロフォン10a〜10dやビデオカメラ20を用いて、被写体100から発せられた音を強調して抽出することができると共に、映像と共にその音を抽出できるようにしたが、本発明はこの構成に限定されるものではない。例えば、より多くの集音マイクロフォンを用いてもよいし、複数のビデオカメラを用いてもよく、さらにはそれらを組み合わせてもよい。より多くの集音マイクロフォンを用いると、被写体から発せられる音をより強調して抽出することができる。そして、複数のビデオカメラを用いると、被写体から発せられる音を強調して抽出することができると共に、それぞれのビデオカメラにより撮影された映像と共にその音を抽出することができる。なお、集音マイクロフォンは少なくとも2台以上が必要である。
また、合成手段35又は合成手段35Aにより合成されたデータを放送するための放送手段を設けて中継サーバ30と接続させ、合成手段35又は合成手段35Aにより合成されたデータを放送することができるようにしてもよい。放送手段としては、例えば衛星中継装置などが挙げられる。なお、放送とは無線放送だけではなく、有線放送を含み、さらにはインターネットを介したインターネット放送などのデータ通信放送を含むものである。このように構成することにより、被写体100から発せられた音を強調することができ、かつ映像と共にその音を抽出し、それらを中継することができる。
また、実施形態1〜3では、動画像撮影装置としてビデオカメラを用いたが、本発明の動画像撮影装置はこれに限定されず、動画を撮影することができるものであればよい。動画像撮影装置としては、例えばテレビカメラ、映画用カメラ、防犯カメラなどが挙げられる。
実施形態1に係る動画像撮影装置連動式スポット集音装置を示す概略図である。 実施形態1に係る動画像撮影装置連動式スポット集音装置を示す動作のシーケンスである。 実施形態2に係る動画像撮影装置連動式スポット集音装置を示す概略図である。 実施形態2に係る動画像撮影装置連動式スポット集音装置の動作を示すシーケンスである。
符号の説明
1 動画像撮影装置連動式スポット集音装置
10a〜10d 集音マイクロフォン
11a〜10d 音源データ
20 ビデオカメラ
21 映像データ
30 中継サーバ
31 音源データ格納手段
32 距離測定手段
33、33A 時間差算出手段
34 音源データ読出し手段
35、35A 合成手段
36 映像データ格納手段
37 映像データ読出し手段
100 被写体

Claims (13)

  1. 被写体を撮影する動画像撮影装置と、
    前記被写体から発せられた音の音源データを検出する複数のマイクロフォンと、
    前記各マイクロフォンで検出された前記音源データを格納する音源データ格納手段と、
    前記被写体から発せられた音が前記被写体から最も遠く離れたマイクロフォンに到達するまでの到達時間を基準として、当該到達時間と前記被写体から前記各マイクロフォンまで音が到達する時間との時間差を算出する時間差算出手段と、
    前記音源データ格納手段に格納された前記各マイクロフォンからの音源データを前記時間差に対応した時間差で遅延させて読み出す音源データ読出し手段と、
    前記音源データ読出し手段により読み出された音源データとを合成する合成手段と、
    を具備することを特徴とする動画像撮影装置連動式スポット集音装置。
  2. 請求項1において、前記被写体から前記各マイクロフォンまでの距離を算出する距離算出手段をさらに具備し、
    時間差算出手段は、前記被写体から前記各マイクロフォンまでの距離と音速とから前記被写体から前記各マイクロフォンまで音が到達する時間を算出して前記時間差を算出することを特徴とする動画像撮影装置連動式スポット集音装置。
  3. 請求項2において、前記距離算出手段は、前記被写体と前記動画像撮影装置との間の位置関係と、前記動画像撮影装置と前記複数のマイクロフォンとの位置関係とから前記被写体と前記各マイクロフォンとの間の距離を算出することを特徴とする動画像撮影装置連動式スポット集音装置。
  4. 請求項3において、前記被写体と前記動画像撮影装置との間の位置関係は、前記被写体に前記動画像撮影装置の焦点を合わせることにより算出され、
    前記被写体と前記各マイクロフォンとの間の位置関係は、前記被写体と前記動画像撮影装置との間の位置関係と、予め設定された前記動画像撮影装置と前記複数のマイクロフォンとの間の位置関係とに基づいて算出されることを特徴とする動画像撮影装置連動式スポット集音装置。
  5. 請求項2〜4の何れかにおいて、前記時間差算出手段は、大気の状態に応じて前記音速を補正する補正機能を具備することを特徴とする動画像撮影装置連動式スポット集音装置。
  6. 請求項1において、前記時間差算出手段は、前記各マイクロフォン又はその周辺部に超音波距離測定器を設けて、前記被写体から前記各マイクロフォンまで音が到達する時間をそれぞれ測定して前記時間差を算出することを特徴とする動画像撮影装置連動式スポット集音装置。
  7. 被写体を撮影する動画像撮影装置と、
    前記動画像撮影装置により撮影された前記被写体の映像データを格納する映像データ格納手段と、
    前記被写体から発せられた音の音源データを検出する複数のマイクロフォンと、
    前記各マイクロフォンで検出された前記音源データを格納する音源データ格納手段と、
    前記被写体から発せられた音が前記被写体から最も遠く離れたマイクロフォン又は動画像撮影装置に到達するまでの到達時間を基準として、当該到達時間と前記被写体から前記各マイクロフォン及び前記動画像撮影装置まで音が到達する時間との時間差を算出する時間差算出手段と、
    前記音源データ格納手段に格納された前記各マイクロフォンからの音源データを前記時間差に対応した時間差で遅延させて読み出す音源データ読出し手段と、
    前記映像データ格納手段に格納された映像データを前記時間差に対応した時間差で遅延させて読み出す映像データ読出し手段と、
    前記映像データ読出し手段により読み出された映像データと、前記音源データ読出し手段により読み出された音源データとを合成する合成手段と、
    を具備することを特徴とする動画像撮影装置連動式スポット集音装置。
  8. 請求項7において、前記被写体から前記各マイクロフォン及び前記動画像撮影装置までの距離を算出する距離算出手段をさらに具備し、
    時間差算出手段は、前記被写体から前記各マイクロフォン及び前記動画像撮影装置までの距離と音速とから前記被写体から前記各マイクロフォン及び前記動画像撮影装置まで音が到達する時間を算出して前記時間差を算出することを特徴とする動画像撮影装置連動式スポット集音装置。
  9. 請求項8において、前記距離算出手段は、前記被写体と前記動画像撮影装置との間の位置関係と、前記動画像撮影装置と前記複数のマイクロフォンとの位置関係とから前記被写体と前記各マイクロフォンとの間の距離及び前記被写体と前記動画像撮影装置との間の距離を算出することを特徴とする動画像撮影装置連動式スポット集音装置。
  10. 請求項9において、前記被写体と前記動画像撮影装置との間の位置関係は、被写体に前記動画像撮影装置の焦点を合わせることにより算出され、
    前記被写体と前記各マイクロフォンとの間の位置関係は、前記被写体と前記動画像撮影装置との間の位置関係と、予め与えられた前記動画像撮影装置と前記複数のマイクロフォンとの間の位置関係とに基づいて算出されることを特徴とする動画像撮影装置連動式スポット集音装置。
  11. 請求項7〜10の何れかにおいて、前記時間差算出手段は、大気の状態に応じて前記音速を補正する補正機能を具備することを特徴とする動画像撮影装置連動式スポット集音装置。
  12. 請求項7において、前記時間差算出手段は、前記各マイクロフォン又はその周辺部及び前記動画像撮影装置又はその周辺部に超音波距離測定器を設けて、前記被写体から前記各マイクロフォン及び前記動画像撮影装置まで音が到達する時間をそれぞれ測定して前記時間差を算出することを特徴とする動画像撮影装置連動式スポット集音装置。
  13. 請求項1〜12の何れかにおいて、前記合成手段により合成されたデータを放送する放送手段をさらに具備することを特徴とする動画像撮影装置連動式スポット集音装置。


JP2005270043A 2005-09-16 2005-09-16 動画像撮影装置連動式スポット集音装置 Pending JP2007082081A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005270043A JP2007082081A (ja) 2005-09-16 2005-09-16 動画像撮影装置連動式スポット集音装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005270043A JP2007082081A (ja) 2005-09-16 2005-09-16 動画像撮影装置連動式スポット集音装置

Publications (1)

Publication Number Publication Date
JP2007082081A true JP2007082081A (ja) 2007-03-29

Family

ID=37941870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005270043A Pending JP2007082081A (ja) 2005-09-16 2005-09-16 動画像撮影装置連動式スポット集音装置

Country Status (1)

Country Link
JP (1) JP2007082081A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010258568A (ja) * 2009-04-22 2010-11-11 Canon Inc 映像音声編集装置、制御方法、及びプログラム
JP2016020873A (ja) * 2014-07-15 2016-02-04 パナソニックIpマネジメント株式会社 音速補正装置
JP2017103542A (ja) * 2015-11-30 2017-06-08 株式会社小野測器 同期装置、同期方法及び同期プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010258568A (ja) * 2009-04-22 2010-11-11 Canon Inc 映像音声編集装置、制御方法、及びプログラム
JP2016020873A (ja) * 2014-07-15 2016-02-04 パナソニックIpマネジメント株式会社 音速補正装置
JP2017103542A (ja) * 2015-11-30 2017-06-08 株式会社小野測器 同期装置、同期方法及び同期プログラム

Similar Documents

Publication Publication Date Title
US11659282B2 (en) Image processing system and image processing method
JP6468307B2 (ja) 撮像装置、画像処理装置および方法
EP3054414B1 (en) Image processing system, image generation apparatus, and image generation method
US7391442B1 (en) Digital camera including a distortion correction system
JP6308198B2 (ja) 撮像装置、画像処理装置、方法およびプログラム
JP2012199752A (ja) 画像処理装置と画像処理方法およびプログラム
JP2013027021A (ja) 全方位撮像装置及び全方位撮像方法
JPWO2012002149A1 (ja) 画像処理方法及び装置
JP2008048374A (ja) ビデオカメラ装置
EP3596940A1 (en) Sound recording apparatus, sound system, sound recording method, and carrier means
JP2008028500A (ja) 画像処理装置、方法、およびプログラム
JP2019110434A (ja) 画像処理装置、画像処理システムおよびプログラム
JP2007082081A (ja) 動画像撮影装置連動式スポット集音装置
CN110463226B (zh) 声音记录设备,声音系统,声音记录方法和载体装置
JP6256513B2 (ja) 撮像システム、撮像装置、方法およびプログラム
JP2019009643A (ja) 画像処理装置、画像処理方法およびプログラム
JP5428821B2 (ja) 解析装置、撮像装置、サーバ装置、解析方法、プログラム及び解析システム
JP2010263269A (ja) 撮像装置
JP4217182B2 (ja) 撮影装置
JP2017085466A (ja) 撮像装置、及びその制御方法
JP2010273261A (ja) 画像処理装置、撮像装置
JP6564295B2 (ja) 合成画像作成装置
JP5332668B2 (ja) 撮像装置および被写体検出プログラム
JP2006253875A (ja) 撮像装置
JP2020088419A (ja) 撮像装置、画像補正方法、プログラム