JP2013201642A - Electronic device - Google Patents
Electronic device Download PDFInfo
- Publication number
- JP2013201642A JP2013201642A JP2012069264A JP2012069264A JP2013201642A JP 2013201642 A JP2013201642 A JP 2013201642A JP 2012069264 A JP2012069264 A JP 2012069264A JP 2012069264 A JP2012069264 A JP 2012069264A JP 2013201642 A JP2013201642 A JP 2013201642A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- imaging
- sound
- control unit
- microphone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、電子機器に関する。 The present invention relates to an electronic device.
自分で撮影することができない場面の撮影を、他人に依頼することや、定点カメラで行うことが提案されている。また、撮影時の音声の記録においては、顔検出を行なった場合に音声データを画像データに関連づけて記憶媒体に記録することが提案されている(例えば、特許文献1参照)。 It has been proposed to ask other people to shoot scenes that cannot be taken by themselves or to use a fixed-point camera. Further, in recording sound during photographing, it has been proposed to record sound data in a storage medium in association with image data when face detection is performed (for example, see Patent Document 1).
しかしながら、従来の撮像装置(電子機器)の使い勝手は、かならずしもよいものではなかった。 However, the usability of the conventional imaging apparatus (electronic device) has not always been good.
本発明による電子機器は、音を集める集音装置と、検出装置によって対象者の顔が検出された後で、かつ、対象者の口が動く所定時間前から集音装置で集音された音を記憶部に記憶させる制御部と、を備えたことを特徴とする。 An electronic apparatus according to the present invention includes a sound collecting device that collects sound, and a sound collected by the sound collecting device after a predetermined time after the subject's mouth moves, after the detection device's face is detected. And a control unit that stores the information in the storage unit.
本発明によれば、使い勝手のよい電子機器を実現することができる。 According to the present invention, a user-friendly electronic device can be realized.
以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、第一の実施形態による撮像装置100のブロック図である。撮像装置100は、撮影依頼者を被写体として、この被写体に関する音(例えば楽曲、歌、台詞、朗読など)を録音し、動画像を撮影する。撮影依頼者は、あらかじめ撮像装置100に登録されている。当該依頼者である人物の顔を示す情報は、後述するフラッシュメモリ43に記憶されている。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram of an imaging apparatus 100 according to the first embodiment. The imaging apparatus 100 records a sound (for example, music, song, dialogue, reading, etc.) relating to the subject, and takes a moving image. The imaging requester is registered in the imaging apparatus 100 in advance. Information indicating the face of the person who is the requester is stored in a
図1において、撮像装置100は、撮像部10と、検出部20と、集音部30と、記録部40と、表示部50と、計時部60と、制御部70とを有している。撮像部10は、第1撮像部11と、駆動部12と、第2撮像部13とを有する。第1撮像部11は、複数のレンズ、CCDやCMOSなどの撮像素子、および画像処理回路を含み、本実施形態では人物の「口」を主に撮像(例えば動画像)して画像データを生成する。
In FIG. 1, the imaging apparatus 100 includes an
駆動部12は、リニアモータやボイスコイルモータなどを採用するアクチュエータで構成され、第1撮像部11の姿勢(撮影方向)を調節する。本実施形態において、駆動部12は、第2撮像部13の撮像結果(画像)に応じて第1撮像部11の姿勢(撮影方向)を調節する。なお、イニシャル位置における第1撮像部11の撮影光軸は、第2撮像部13の撮影光軸とほぼ平行である。駆動部12が第1撮像部11を駆動することによって撮影方向が変更されると、第1撮像部11の撮影光軸は第2撮像部13の撮影光軸と交わる状態となる。
The
なお、第1撮像部11を撮像装置100の筐体に対して着脱可能に構成し、第1撮像部11を撮像装置100の筐体の任意の位置に取り付けられるようにしてもよい。また、第1撮像部11を撮像装置100から離して配置するようにしてもよい。
Note that the
第2撮像部13は、第1撮像部11が有するレンズよりも画角が広い広角撮影が可能な複数のレンズ、CCDやCMOSなどの撮像素子、および画像処理回路を含む。本実施形態では、第2撮像部13が第1撮像部11の撮像領域を包含するような広角の撮像(例えば動画像)を行なって画像データを生成する。
The
検出部20は、顔検出部21と顔認識部22とを有する。顔検出部21は、顔の主要なパーツ(目、眉毛、鼻、口)を参照パターンとして、撮像した画像とのパターンマッチングにより顔を検出したり、ある画像が顔か否かを判別したりして顔を検出するブースティング(Boosting)による学習手法を用いた検出を行うことができる。また、顔検出部21は、「口」が開いているか(動いているか)否かについても、上述のパターンマッチングやブースティング手法により検出する。
The
顔認識部22は、顔検出部21が検出した顔が誰の顔かを認識する。具体的には、公知の認識アルゴリズム(弾性バンチグラフマッチング、隠れマルコフモデルなど)を用いて顔認識を行う。この認識アルゴリズムは、見た目の特徴を直接幾何学的に比較する方法と、画像を統計的に数値化してその数値をテンプレートと比較する方法があるが、いずれの方法を用いることもできる。
The
集音部30は、第1マイク31、駆動部32、第2マイク33、および図示しない音声処理回路を有している。第1マイク31は、指向性を有するマイクで構成され、特定の方向から入力する音声を高感度に集音する。例えば、超指向性ダイナミック型マイクロホンや超指向性コンデンサ型マイクロホン等を用いることができる。
The
駆動部32は、リニアモータや、ボイスコイルモータなどを採用するアクチュエータで構成され、第1マイク31の集音方向を調節する。本実施形態では、第1撮像部11の撮像結果(画像)に応じて第1マイク31の集音方向を調節する。なお、第1撮像部11と第1マイク31とを一体構成(ユニット化)してもよい。ユニット化した場合には、駆動部12および駆動部32のうちいずれか一方を省略することができる。
The
第2マイク33は、無指向性のマイクで構成され、第1マイク31が集音する範囲よりも広い範囲の音を集音する。記録部40は、バッファメモリ41と、記録I/F(インターフェース)42と、フラッシュメモリ43とを有している。
The
第1マイク31、第2マイク33でそれぞれ集音された音声信号は、音声処理回路(不図示)によって増幅される。増幅後の音声信号は、A/D変換回路(不図示)によってデジタル音声データに変換される。
The audio signals collected by the
バッファメモリ41は、第1撮像部11、第2撮像部13によって撮像された画像データを一時的に格納したり、後述する制御部70のワークメモリとして用いられたりする。なお、バッファメモリ41を複数設けて第1撮像部11用のバッファメモリ41aと、第2撮像部13用のバッファメモリ41bとで別々に構成してもよい。また、バッファメモリ41は、前述の画像処理回路による画像処理の前工程や後工程での画像データを一時的に格納する。バッファメモリ41には、揮発性の半導体メモリ等を適宜選択して用いることができる。
The
記録I/F42には、記憶媒体(例えばSDカード)99を接続するためのコネクタが形成されている。そして、記録I/F42は、コネクタに接続された記憶媒体99に対してデータの書き込み/読み込みを実行する。本実施形態の記録I/F42は、第2撮像部13が撮像した画像の一部を記憶媒体99に記録(保存)し、第1撮像部11が撮像した画像(本例では、人物の「口」の画像)は記憶媒体99に記録(保存)しない(記憶媒体99への記録を禁止する)。
The recording I /
なお、記憶媒体99は、ハードディスクや、半導体メモリを内蔵したメモリカード等で構成され、本実施形態においてはメモリカードを用いる。記録媒体99は、画像データや音声データの保存用に用いられる。
The
フラッシュメモリ43は、不揮発性のメモリによって構成される。本実施形態では、「口」が開いている状態や動いている状態を検出するための形状を表す画像データ(リファレンス画像データと呼ぶ)、顔認識をするためにあらかじめ登録された顔のデータ(顔情報)、楽器、ホイッスル、および運動会用ピストルの音などを検出するためにあらかじめ用意された音響データ(音情報)などを、フラッシュメモリ43に記憶させておく。
The
表示部50は、例えば液晶パネルによって構成され、画像や操作メニュー画面などを表示する。本実施形態においては、表示部50は第2撮像部13が撮像した画像を表示し、第1撮像部11が撮像した画像(本例では「口」の画像)を表示しない。なお、表示部50の表面に透明なタッチパネルを積層して設けてもよい。この場合には、ユーザが表示部50の操作メニューを視認しつつ、タッチパネルをタッチ操作することにより、タッチ操作された座標とその座標に対応して表示された操作メニューを選択することが可能となる。
The
計時部60は、例えば水晶発振回路によって構成され、計時処理を行なう。本実施形態においては、第1撮像部11が「口」の開く(動く)画像を撮像した時点を基準として、その前後の計時情報を後述の制御部70に出力する。言い換えれば、計時部60は、第1撮像部11が「口」の開く(動く)のを撮像した時点を基準とするタイムスタンプ情報を出力する。
The
制御部70は図示しないCPUを有し、撮像装置100全体を制御する。本実施形態においては、被写体の「口」の動きに応じて撮像の制御を行なう。
The
<録画処理>
以上のように構成された撮像装置100の制御部70が実行する録画処理について、図2のフローチャートを参照して説明する。制御部70は、例えば図示しない録画スイッチがオン操作されると、図2による録画処理を行うプログラムを起動させる。図2のステップS1において、制御部70は、第2撮像部13による撮像を開始させ、動画像データをバッファメモリ41に逐次記憶させてステップS2へ進む。ステップS2において、制御部70は、第2マイク33を介して集音された音声データをバッファメモリ41へ逐次記憶させる録音を開始させてステップS3へ進む。
<Recording process>
Recording processing executed by the
ステップS3において、制御部70は、上記撮像および録音の開始とともに、計時部60による計時を開始させてステップS4へ進む。ステップS4において、制御部70は、顔検出部21を用いて、第2撮像部13で撮像された画像から顔を検出したか否かを判定する。制御部70は、第2撮像部13が撮像した画像に顔が含まれていた場合にステップS4を肯定判定してステップS5へ進み、顔が含まれていない場合にはステップS4を否定判定して当該処理を繰り返す。
In step S3, the
ステップS5において、制御部70は、顔認識部22を用いて、ステップS4で検出された顔を認識したか否かを判定する。制御部70は、フラッシュメモリ43に記憶されている撮影依頼者(以後、対象者と呼ぶ)の顔情報とステップS4で検出した顔とが一致する場合に、ステップS5を肯定判定してステップS6へ進む。ステップS6へ進む場合は、あらかじめ登録されている対象者を認識した場合である。一方、制御部70は、フラッシュメモリ43に記憶されている対象者の顔情報とステップS4で検出した顔とが一致しない場合には、ステップS5を否定判定してステップS4へ戻る。すなわち、ステップS3で検出した複数の顔について顔認識が済むまでは、ステップS4およびステップS5の処理を繰り返す。
In step S5, the
対象者を顔認識した制御部70は、ステップS6において、第1撮像部11および第1マイク31の位置調節(撮影方向および集音方向を調節するための姿勢制御)を行なわせる。具体的には、特定した顔(対象者であると認識した顔)から「口」の位置を検出または推定して、その「口」に第1撮像部11および第1マイク31を対向させるように、制御部70が駆動部12および駆動部32をそれぞれ制御する。推定は、「口」を検出できない代わりに「目」や「鼻」を検出した場合において、「目」の位置や「鼻」の位置に基づいて「口」の位置を求めることをいう。
The
第1撮像部11および第1マイク31の位置調節を行なった制御部70は、ステップS7において、ステップS5で検出または推定した「口」の撮像を第1撮像部11に開始させて、動画像データをバッファメモリ41に逐次記憶させてステップS8へ進む。
In step S7, the
ステップS8において、制御部70は、第1マイク31を介して集音された音声データをバッファメモリ41へ逐次記憶させる録音を開始させてステップS9へ進む。ここで、当該ステップS8において第1マイク31による録音を開始する時点では、第1撮像部11により撮像される「口」の人物が音声を発していないかもしれない。しかしながら、後述するように、第1撮像部11が撮像している人物が「口」を動かしたり、開いたりしてから第1マイク31による録音を開始したのでは、録音開始が最初の発声タイミングに間に合わないおそれがあるため、「口」の動きを検出する前のステップS8から録音を開始させて音声データをバッファメモリ41に蓄積しておく。
In step S8, the
ステップS9において、制御部70は、第1撮像部11が撮像している「口」が動いたかどうか(開いたかどうか)を検出する。この場合も、制御部70はフラッシュメモリ43に記憶されている上記リファレンス画像データを参照して、検出部20により「口」が動いたかどうか(開いたかどうか)を検出する。制御部70は、「口」の動きを検出した場合にステップS9を肯定判定してステップS10へ進み、「口」の動きを検出しない場合にはステップS9を否定判定してステップS7へ戻る。これにより、「口」の動きが検出されるまでステップS7からステップS9の処理を繰り返す。
In step S <b> 9, the
「口」の動きを検出した制御部70は、ステップS10において、ステップS3で開始した計時の経過時間を確認、および保存を指示してステップS11へ進む。例えば、ステップS3の計時開始から10秒が経過している場合の制御部70は、記憶I/F42へ指示を送り、「口」の動きが検出される所定時間前(本例では1秒前とする)から、換言すれば計時開始9秒後から、バッファメモリ41に記憶されている第2撮像部13で撮像された画像データを記憶媒体99に記録(保存)させるとともに、同計時開始9秒後からバッファメモリ41に記憶されている第1マイク31および第2マイク33を介して集音された音声データを記憶媒体99に記録(保存)させる。画像データと音声データは、例えば1つのファイルに含める。
In step S10, the
なお、記憶媒体99に記録する音声データは、第1マイク31および第2マイク33を介して集音された音声データのうちいずれか一方でもよい。異なる2つのマイクを介して集音された音声データのうち、例えば、所定の音圧レベル範囲の音声データを記憶させたり、所定の周波数帯域を含む(あるいは含まない)音声データを記憶させたりすることによって、必要な音声を記録しつつ、不要な音声の記録を排除できる。
Note that the audio data recorded in the
また、制御部70は、「口」の動きが検出されたタイミングで、第2撮像部13の図示しないズーム光学系を望遠側に移動させる、もしくは電子ズーム処理によってズームアップさせてもよい。これにより、例えば第2撮像部13は、上記特定した顔(すなわち対象者の顔)をアップで撮像することができる。上記変倍動作に加えて、または変倍動作に代えて、第2撮像部13が撮像するフレームレートを上げてもよい。これにより、対象者の動きに対する応答性が向上する。
Further, the
さらに、制御部70は、「口」の動き方に応じて、第1マイク31の感度(ゲイン)を変更するようにしてもよい。これは、「口」が大きく開かれるにつれて大きな声が出されることが予想されるので、「口」の大きさに応じて第1マイク31の感度(ゲイン)を下げることで、大きな音声入力に備えるためである。このようなゲイン制御を行なうことにより、集音部30のダイナミックレンジを広げることが可能となる。「口」の開く大きさに応じた感度(ゲイン)の変更は、第2マイク33にも適用するようにしてもよい。ゲインの変更は、例えば、集音部30の音声処理回路(不図示)における増幅ゲインを変化させることによって実現できる。
Further, the
第2撮像部13により撮像されている対象者の「口」は、動いたり動かなかったりする。このため、制御部70は、ステップS11において対象者の「口」が所定時間動きなし(閉じている)であるか否かを検出する。ここで、所定時間は任意に設定することができるものとし、本実施形態においては、例えば5秒とする。制御部70は、検出部20によって「口」の動きが5秒間検出されない場合は、ステップS11を肯定判定してステップS12に進む。制御部70は、検出部20によって「口」の動きが検出されている場合は、ステップS11を否定判定して当該判定処理を繰り返す。
The “mouth” of the subject imaged by the
つまり、対象者の「口」の動きが検出されている間は、制御部70がステップS11を否定判定して上記判定処理を繰り返すため、第2撮像部13で撮像されバッファメモリ41に記憶されていた画像データが記憶媒体99に記録(保存)されるとともに、第1マイク31および第2マイク33を介して集音されバッファメモリ41に記憶されていた音声データが記憶媒体99に記録(保存)される。
That is, while the movement of the “mouth” of the subject is detected, the
ステップS12において、「口」の動きが所定時間ない場合の制御部70は、撮像を終了するか否かを判断する。例えば、対象者を撮像する場面が学芸会の合唱や演劇である場合、その終了時には大きな拍手があり、終了を告げるアナウンスが行われる。このため、本実施形態の制御部70は、第2マイク33を介して大きな拍手や「終了」という言葉が入力された場合に、第1撮像部11および第2撮像部13による撮像を終了すべきと判断する。
In step S12, when there is no movement of the “mouth” for a predetermined time, the
「大きな拍手」を示す音響データや、「終了」という言葉を示す音声辞書データを上述した音情報としてあらかじめフラッシュメモリ43に記憶させておけばよい。また、運動会などを撮像する場合は、ピストルの合図により競技が終了する場合があるため、「ピストル合図」を示す音響データを音情報としてフラッシュメモリ43に記憶しておけばよい。
The sound data indicating “big applause” and the voice dictionary data indicating the word “end” may be stored in advance in the
制御部70は、ステップS12を肯定判定した場合に所定のオフ処理を行って図2による処理を終了する。オフ処理は、第1撮像部11および第2撮像部13による撮像を終了させとともに、第1マイク31および第2マイク33による録音を終了させ、バッファメモリ41に蓄積されていた画像データや音声データを記憶媒体99へ記録(保存)させる処理も終了させる。
If the determination is affirmative in step S12, the
一方、制御部70はステップS12を否定判定した場合にステップS13へ進む。ステップS13において、制御部70は、顔認識部22を用いて、対象者の顔を認識できるか否かを判定する。制御部70は、フラッシュメモリ43に記憶されている対象者の顔情報と第2撮像部13により撮像された画像に含まれる顔とが一致する場合に、ステップS13を肯定判定してステップS9へ戻る。ステップS9へ戻る場合は、撮像を継続して上述した処理を繰り返す。
On the other hand, if the
制御部70は、フラッシュメモリ43に記憶されている対象者の顔情報が、第2撮像部13により撮像された画像に含まれない場合には、ステップS13を否定判定してステップS14へ進む。ステップS14において、制御部70は、第1撮像部11による撮像を終了させてステップS15へ進む。ステップS15において、制御部70は、第1マイク31による録音を終了させてステップS3へ戻る。
When the face information of the subject stored in the
以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)撮像装置100は、集音部30と、検出部20によって対象者の顔が検出された後、かつ、対象者の「口」が動く所定時間前から集音部30で集音された音をバッファメモリ41に記憶させる制御部70と、を備えたので、適切なタイミングで音声データを蓄積しておくことができるようになって、使い勝手が向上する。具体的には、対象者が「口」を動かしたり、開いたりしてから録音を開始したのでは、最初の発声タイミングに間に合わないおそれがあるのに対し、例えば10秒前から音録りを開始しておくようにすることで、最初の発声を録り損なうおそれを排除できる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The image pickup apparatus 100 is picked up by the
(2)上記(1)の撮像装置100において、検出部20による検出結果に基づいて、集音部30の向きを調節する駆動部32を備えたので、例えば対象者からの音声を適切に集音できる。
(2) Since the imaging device 100 of (1) includes the
(3)上記(1)または(2)の撮像装置100において、検出部20による検出結果に基づいて、集音部30のゲインを調節する制御部70を備えるようにした。例えば対象者の「口」が大きく開かれるにつれて第1マイク31のゲインを下げて大きな音声入力に備えることで、集音部30のダイナミックレンジを広げることができる。
(3) In the imaging device 100 of (1) or (2), the
(4)上記(1)から(3)の撮像装置100において、制御部70は、検出部20で対象者の顔が検出されなくなった後に、バッファメモリ41に対する音の記憶を終了させるようにしたので、無駄に録音を継続することなく自動停止できるため、使い勝手を向上できる。
(4) In the imaging device 100 of (1) to (3) above, the
(5)上記(1)から(3)の撮像装置100において、制御部70は、所定の音に応じて、バッファメモリ41に対する音の記憶を終了させるようにしたので、例えば、拍手や終了アナウンスに応じて録音を自動停止できるため、使い勝手を向上できる。
(5) In the imaging device 100 of (1) to (3) above, the
(6)上記(1)から(5)の撮像装置100において、集音部30は、指向性を有する第1マイク31を含むようにしたので、特定方向からの音声を選択的に録音することもできる。
(6) In the imaging device 100 of (1) to (5) above, the
(7)上記(6)の撮像装置100において、集音部30は、第1マイク31よりも集音範囲が広い第2マイク33を含み、第2マイク33による集音開始よりも遅く第1マイクによる集音を開始させる制御部70をさらに備えるようにしたので、例えば、広い範囲の音を集めてから、特定方向の音声の集音を始めるように制御できる。
(7) In the imaging apparatus 100 of (6), the
(8)上記(1)から(7)の撮像装置100において、「口」の形状に関するデータを記憶しているフラッシュメモリ43を備えたので、データを備えない場合に比べて、適切に「口」およびその動きを検出できる。
(8) Since the imaging apparatus 100 according to (1) to (7) above includes the
(変形例1)
上述した第一の実施形態においては、バッファメモリ41を介在させることで、第2撮像部13が撮像した画像の一部を記憶媒体99に記録(保存)し、第1撮像部11が撮像した画像(本例では口の画像)は記憶媒体99に記録(保存)しないようにした。これに代えて、第1撮像部11および第2撮像部13による画像データや、第1マイク31および第2マイク33による音声データを記憶媒体99に記録させ、さらにステップS10で確認した計時データをメタデータとともに記憶媒体99に記録させておき、後からパソコンなどで計時データに基づいて画像データおよび音声データの編集を行なう(保存するか否かを後から決定する)ように構成してもよい。
(Modification 1)
In the first embodiment described above, by interposing the
(第二の実施形態)
次に、図3〜図6を参照して第二の実施形態について説明する。図3は、第二の実施形態による撮像システム200の概念図である。撮像システム200は、撮影依頼者を被写体として、この被写体に関する音(例えば楽曲、歌、台詞、朗読など)を録音し、動画像を撮影する。
(Second embodiment)
Next, a second embodiment will be described with reference to FIGS. FIG. 3 is a conceptual diagram of an imaging system 200 according to the second embodiment. The imaging system 200 records a sound related to the subject (for example, music, song, dialogue, reading, etc.) as a subject and photographs a moving image.
図3において、撮像システム200は、被写体の「口」を検出する動作検出撮像部210と、この動作検出撮像部210による検出結果に基づいて、被写体の動画撮影を行う複数の動画撮像部220(本例では220−1〜220−3)とを有する。撮影依頼者はあらかじめ登録され、各動画撮像部220−1〜220−3内のフラッシュメモリ43に当該依頼者である人物の顔を示す顔情報が記憶されている。本実施形態では、動画撮像部220を3台の動画撮像部220−1〜220−3で構成し、その基本構成は同じとする。なお、動画撮像部220の数は3台に限らず、5台でも10台でもよい。
In FIG. 3, the imaging system 200 includes a motion
図4は、図3の撮像システム200の構成を例示するブロック図である。図5は、上記3台の動画撮像部220−1〜220−3のうち、1つの動画撮像部220−nの構成を例示するブロック図である。図4および図5において、動作検出撮像部210および複数の動画撮像部220−nを構成する各構成要件のうち、第一の実施形態で説明した撮像装置100の構成と同様のものについては同一の符号を付し、その説明を省略する。
FIG. 4 is a block diagram illustrating the configuration of the imaging system 200 of FIG. FIG. 5 is a block diagram illustrating the configuration of one moving image capturing unit 220-n among the three moving image capturing units 220-1 to 220-3. 4 and 5, the same constituent elements as those of the imaging apparatus 100 described in the first embodiment are the same among the constituent elements constituting the motion
図4、図5において、動作検出撮像部210は、第一実施形態における撮像部10に対応する。この動作検出撮像部210は、第1撮像部11と、第1マイク31と、駆動部211と、通信部212と、制御部213とを有する。第1撮像部11は、主に対象者の「口」の動きを検出するための撮像を行う。駆動部211は、例えばユニット化された第1撮像部11と第1マイク31とを駆動して、第1撮像部11の姿勢(撮影方向)および第1マイク31の集音方向を調節する。
4 and 5, the motion
通信部212は無線通信ユニットを有し、動画撮像部220−nの通信部221−nとの間で無線通信を行う。また、通信部212は、第1マイク31を介して集音された音声データを動画撮像部220−nに送信する。制御部213は図示しないCPUを有し、動作検出撮像部210の全体を制御する他、動画撮像部220−nとの間で協調制御を行う。
The
以下、図5を参照して動画撮像部220−nの詳細を説明する。図5において、動画撮像部220−nは、第一実施形態における撮像部10以外のブロックに対応する。この動画撮像部220−nは、第2撮像部13と、検出部20と、第2マイク33と、記録部40と、表示部50と、計時部60と、通信部221と、制御部222とを有している。通信部221は無線通信ユニットを有し、動作検出撮像部210の通信部212との間で無線通信を行う。また、通信部221は、他の動画撮像部220の通信部221とも通信を行う。
Hereinafter, the details of the moving image capturing unit 220-n will be described with reference to FIG. In FIG. 5, the moving image capturing unit 220-n corresponds to a block other than the
制御部222は図示しないCPUを有し、動画撮像部220−nの全体を制御する他、動作検出撮像部210の制御部213との間で協調制御を行なう。本実施形態では、動画撮像部220−1(図4)の制御部222−1が撮像システム200の全体を制御するマスターの制御部となり、動画撮像部220−2(図4)の制御部222−2、動画撮像部220−3(図4)の制御部222−3が、それぞれスレーブの制御部となるものとして説明する。
The
以上のように構成された撮像システム200における動画撮像部220−1(マスター)の制御部222−1が実行する録画処理について、図6のフローチャートを参照して説明する。制御部222−1は、例えば図示しない録画スイッチがオン操作されると、図6による録画処理を行うプログラムを起動させる。 Recording processing executed by the control unit 222-1 of the moving image imaging unit 220-1 (master) in the imaging system 200 configured as described above will be described with reference to the flowchart of FIG. For example, when a recording switch (not shown) is turned on, the control unit 222-1 activates a program for performing the recording process in FIG.
図6のステップS101において、制御部222−1(マスター)は、通信部221−1を介して動画撮像部220−2および220−3に対してそれぞれ撮像を指示するとともに、自身の第2撮像部13−1へ撮像を指示してステップS102へ進む。これにより、動画撮像部220−1〜220−3の第2撮像部13−1〜13−3がそれぞれ動画の撮像を開始する。なお、必ずしも全ての動画撮像部220−1〜220−3による撮像を指示しなくてもよく、適宜その数を設定可能に構成してもよい。 In step S101 in FIG. 6, the control unit 222-1 (master) instructs the moving image capturing units 220-2 and 220-3 to perform image capturing via the communication unit 221-1, and performs its second image capturing. The imaging is instructed to the unit 13-1, and the process proceeds to step S102. Accordingly, the second imaging units 13-1 to 13-3 of the moving image capturing units 220-1 to 220-3 start capturing moving images, respectively. Note that it is not always necessary to instruct imaging by all the moving image imaging units 220-1 to 220-3, and the number of the imaging units may be set as appropriate.
ステップS102において、制御部222−1(マスター)は、動画撮像部220−1自身、動画撮像部220−2、および220−3の少なくとも1つで顔を撮像したかどうかを検出する。具体的には、第2撮像部13−1の撮像結果に顔が含まれているかどうかを検出部20−1により検出させる。制御部222−1(マスター)はさらに、スレーブとなる動画撮像部220−2および220−3に対し、それぞれ第2撮像部13−2および13−3の撮像結果に顔が含まれているかどうかを検出部20−2および20−3により検出させて、その検出結果を通信部221−2および221−3からマスターである動画撮像部220−1へそれぞれ送信させる。制御部222−1(マスター)は、自身の第2撮像部13−1、動画撮像部220−2の第2撮像部13−2、および動画撮像部220−3の第2撮像部13−3のうち、少なくとも1つで顔検出されるまでステップS102の処理を繰り返す。 In step S102, the control unit 222-1 (master) detects whether or not the moving image capturing unit 220-1 itself, the moving image capturing unit 220-2, and 220-3 have captured the face. Specifically, the detection unit 20-1 detects whether a face is included in the imaging result of the second imaging unit 13-1. Further, the control unit 222-1 (master) further determines whether or not a face is included in the imaging results of the second imaging units 13-2 and 13-3 with respect to the moving image imaging units 220-2 and 220-3 serving as slaves, respectively. Are detected by the detection units 20-2 and 20-3, and the detection results are transmitted from the communication units 221-2 and 221-3 to the moving image capturing unit 220-1 as a master, respectively. The control unit 222-1 (master) has its own second imaging unit 13-1, the second imaging unit 13-2 of the moving image capturing unit 220-2, and the second imaging unit 13-3 of the moving image imaging unit 220-3. Step S102 is repeated until at least one face is detected.
ステップS103において、制御部222−1(マスター)は、ステップS102で検出された顔を認識したか否かを判定させる。具体的には、自身の検出部20−1へ顔認識を指示するとともに、スレーブとなる動画撮像部220−2および220−3に対し、それぞれ検出部20−2および20−3により顔認識を指示する。この顔認識は、第一の実施形態の場合と同様の手法で各動画撮像部220−1〜220−3において行わせる。それぞれの動画撮像部220−1〜220−3において顔認識させることにより、1つの動画撮像部で顔認識処理をまとめて行う場合に比べて、顔認識に要する時間の短縮を行なうことができる。 In step S103, the control unit 222-1 (master) determines whether or not the face detected in step S102 has been recognized. Specifically, while instructing its own detection unit 20-1 to perform face recognition, the detection units 20-2 and 20-3 perform face recognition on the moving image capturing units 220-2 and 220-3 serving as slaves, respectively. Instruct. This face recognition is performed in each of the moving image capturing units 220-1 to 220-3 by the same method as in the first embodiment. By performing face recognition in each of the moving image capturing units 220-1 to 220-3, it is possible to reduce the time required for face recognition as compared with the case where face recognition processing is performed collectively by one moving image capturing unit.
制御部222−1(マスター)は、対象者(撮影依頼者)が顔認識された場合にはステップS103を肯定判定してステップS104に進み、対象者が顔認識されない場合にはステップS103を否定判定してステップS102に戻る。すなわち、動画撮像部220−1、220−2、および220−3の少なくとも1つで顔認識が済むまでは、ステップS102およびS103の処理を繰り返す。 The control unit 222-1 (master) makes an affirmative decision in step S103 when the subject (photographer) recognizes the face, proceeds to step S104, and denies step S103 if the subject is not recognized. Determine and return to step S102. That is, the processes in steps S102 and S103 are repeated until face recognition is completed in at least one of the moving image capturing units 220-1, 220-2, and 220-3.
ステップS104において、制御部222−1(マスター)は、動画撮像部220−1〜220−3の中から動画像を撮像させる機器を選択する。制御部222−1(マスター)は、全ての動画撮像部220−1〜220−3が対象者の顔を認識した場合には、全ての動画撮像部220−1〜220−3によって撮像を継続させる。しかしながら、いつも全ての動画撮像部220−1〜220−3が対象者の顔を認識するとは限らない。そこで、本実施形態においては図3の動画撮像部220−3のみによって対象者の顔が認識された場合を例にあげて説明する。 In step S104, the control unit 222-1 (master) selects a device that captures a moving image from the moving image capturing units 220-1 to 220-3. When all the moving image capturing units 220-1 to 220-3 recognize the target person's face, the control unit 222-1 (master) continues image capturing with all the moving image capturing units 220-1 to 220-3. Let However, not all the moving image capturing units 220-1 to 220-3 always recognize the face of the subject. Therefore, in the present embodiment, a case where the subject's face is recognized only by the moving image capturing unit 220-3 in FIG. 3 will be described as an example.
この場合の制御部222−1(マスター)は、動画撮像部220−3の第2撮像部13−3に加えて、隣接する動画撮像部220−2の第2撮像部13−2を選択して撮像を継続させるとともに、動画撮像部220−1の第2撮像部13−1による撮像を中止させる(オフにする)。これは、対象者が移動するような場合に、動画撮像部220−3に隣接する動画撮像部220−2では対象者を撮像する可能性があるのに対して、動画撮像部220−3から離れた動画撮像部220−1では対象者を撮像する可能性が低いからである。 In this case, the control unit 222-1 (master) selects the second imaging unit 13-2 of the adjacent moving image capturing unit 220-2 in addition to the second imaging unit 13-3 of the moving image capturing unit 220-3. Then, the imaging is continued and the imaging by the second imaging unit 13-1 of the moving image imaging unit 220-1 is stopped (turned off). This is because when the target person moves, the moving image capturing unit 220-2 adjacent to the moving image capturing unit 220-3 may capture the target person, whereas the moving image capturing unit 220-3 This is because the distant moving image capturing unit 220-1 has a low possibility of capturing the subject.
なお、動画撮像部220−1および220−3の双方に隣接する動画撮像部220−2によって対象者の顔が認識された場合には、動画撮像部220−2で撮像された画像に基づいて対象者の動きベクトルを検出して、該動きベクトルに基づいて動画撮像部220−1もしくは220−3を選択するようにすればよい。これは、移動する対象者を撮像する可能性がある動画撮像部が複数存在する場合に、撮像できる可能性がより高い動画撮像部を選ぶためである。 In addition, when the subject's face is recognized by the moving image capturing unit 220-2 adjacent to both of the moving image capturing units 220-1 and 220-3, based on the image captured by the moving image capturing unit 220-2. What is necessary is just to detect a motion vector of a subject and select the moving image capturing unit 220-1 or 220-3 based on the motion vector. This is because when there are a plurality of moving image capturing units that are likely to capture a moving target person, a moving image capturing unit that is more likely to be captured is selected.
また、図3の動画撮像部220−3によって対象者の顔が認識された場合において、例えば当該対象者が合唱している場面など、対象者の移動が予想されない場合(動きベクトルの大きさが所定値未満)には、動画撮像部220−3に隣接する動画撮像部220−2の第2撮像部13−2での撮像を中止(オフ)させてもよい。 In addition, when the target person's face is recognized by the moving image capturing unit 220-3 in FIG. 3, for example, when the target person is not expected to move, such as a scene in which the target person is singing (the magnitude of the motion vector is For less than a predetermined value, the imaging in the second imaging unit 13-2 of the moving image capturing unit 220-2 adjacent to the moving image capturing unit 220-3 may be stopped (turned off).
動画撮像部220−1や動画撮像部220−2における第2撮像部の撮像を中止(オフ)させる場合の制御部222−1(マスター)はさらに、この動画撮像部220−1、220−2を操作しているユーザに対し、対象者を撮像できる位置への移動を促してもよい。例えば、動画撮像部220−1の表示部50−1に「被写体に近づいて撮影しましょう」というメッセージを表示させたり、通信部221−1を介して動画撮像部220−2へ「被写体に近づいて撮影しましょう」というメッセージを送ったりする。このメッセージを受信した動画撮像部220−2の制御部222−2は、表示部50−2に「被写体に近づいて撮影しましょう」というメッセージを表示させる。 The control unit 222-1 (master) in the case of stopping (turning off) the imaging of the second imaging unit in the moving image capturing unit 220-1 or the moving image capturing unit 220-2 is further provided with the moving image capturing units 220-1 and 220-2. The user may be prompted to move to a position where the subject can be imaged. For example, a message “Let's shoot close to the subject” is displayed on the display unit 50-1 of the moving image capturing unit 220-1, or “the approaching subject is approached” to the moving image capturing unit 220-2 via the communication unit 221-1. Or send a message saying "Let's shoot." The control unit 222-2 of the moving image capturing unit 220-2 that has received this message causes the display unit 50-2 to display a message “Let's shoot near the subject”.
さらにまた、動画撮像部220−1、220−2がユーザによる操作なしに自動撮影する固定カメラであって、該動画撮像部220−1、220−2に第2撮像部13−1、13−2の姿勢(撮影方向)を制御するための駆動部材(不図示)があらかじめ設けられている場合には、これら駆動部材を駆動させることによって対象者を撮像できる向きに、動画撮影部220−1、220−2の撮影方向を自動制御させてもよい。 Furthermore, the moving image capturing units 220-1 and 220-2 are fixed cameras that automatically shoot without user operation, and the moving image capturing units 220-1 and 220-2 include the second image capturing units 13-1 and 13-. In the case where driving members (not shown) for controlling the posture (photographing direction) 2 are provided in advance, the moving image photographing unit 220-1 is arranged in such a direction that the subject can be imaged by driving these driving members. , 220-2 may be automatically controlled.
図6のステップS105において、制御部222−1(マスター)は、ステップS104で選択した動画撮像部220−3および220−2に対して通信部221−1から指示を送り、動画撮像部220−3の第2マイク33−3、および動画撮像部220−2の第2マイク33−2による録音を開始させてステップS106へ進む。 In step S105 in FIG. 6, the control unit 222-1 (master) sends an instruction from the communication unit 221-1 to the moving image capturing units 220-3 and 220-2 selected in step S104, and the moving image capturing unit 220- 3 and the second microphone 33-3 of the moving image capturing unit 220-2 and recording are started by the second microphone 33-3, and the process proceeds to step S106.
ステップS106において、制御部222−1(マスター)は、ステップS104で選択した動画撮像部220−3および220−2に対して通信部221−1から指示を送り、計時部60−3、および計時部60−2による計時開始を開始させてステップS107へ進む。 In step S106, the control unit 222-1 (master) sends an instruction from the communication unit 221-1 to the moving image capturing units 220-3 and 220-2 selected in step S104, the time measuring unit 60-3, and the time measuring The timing start by the unit 60-2 is started, and the process proceeds to step S107.
ステップS107において、制御部222−1(マスター)は、通信部221−1から動作検出撮像部210へ指示を送り、第1撮像部11および第1マイク31の位置調節(撮影方向および集音方向を調節するための姿勢制御)を行なわせる。具体的には、制御部213が駆動部211を制御して、対象者であると認識された顔から検出または推定される「口」の位置に第1撮像部11および第1マイク31を対向させる。「口」の位置情報は、例えば顔認識した動画撮像部(本例では220−3)が取得し、その結果を通信部221−3から動作検出撮像部210へ送信させておく。推定は、上述したように「目」の位置や「鼻」の位置に基づいて「口」の位置を求めることをいう。
In step S107, the control unit 222-1 (master) sends an instruction from the communication unit 221-1 to the motion
なお、複数の動画撮像部220によって対象者の顔が検出されている場合には、該対象者の正面の顔を撮像した動画撮像部220による撮像結果に基づいて、制御部213が、第1撮像部11および第1マイク31の姿勢制御をすればよい。また、これに代えて、制御部213が、複数の動画撮像部220による撮像結果に基づいて対象者の顔の正面位置を推定して、第1撮像部11と第1マイク31の姿勢制御を行うようにしてもよい。複数の動画撮像部220による撮像結果に基づく場合は、例えば顔認識した複数の動画撮像部(例えば220−2および220−3)から、それぞれの撮像結果を動作検出撮像部210へ送信させておく。
In addition, when the face of the subject is detected by the plurality of moving
ステップS108において、制御部222−1(マスター)は、通信部221−1から動作検出撮像部210へ指示を送り、ステップS107で検出または推定された「口」の撮像を第1撮像部11により開始させる。この動画像データは、動作検出撮像部210の通信部212から動画撮像部220−1へ送信させ、動画撮像部220−1内のバッファメモリ41−1に逐次記憶させる。
In step S108, the control unit 222-1 (master) sends an instruction from the communication unit 221-1 to the motion
ステップS109において、制御部222−1(マスター)は、通信部221−1から動作検出撮像部210へ指示を送り、第1マイク31を介して集音された音声データの録音を開始させる。この音声データは、動作検出撮像部210の通信部212から動画撮像部220−1へ送信させ、動画撮像部220−1内のバッファメモリ41−1に逐次記憶させる。
In step S <b> 109, the control unit 222-1 (master) sends an instruction from the communication unit 221-1 to the motion
ステップS110において、制御部222−1(マスター)は、動作検出撮像部210の第1撮像部11が撮像している「口」が動いたかどうか(開いたかどうか)を検出する。具体的には、第一の実施形態の場合と同様のリファレンス画像データを動画撮像部220−1内のフラッシュメモリ43に記憶にあらかじめ記憶させておき、このリファレンス画像データを参照して検出部20−1によって「口」が動いたかどうか(開いたかどうか)を検出させる。
In step S <b> 110, the control unit 222-1 (master) detects whether the “mouth” imaged by the
制御部222−1(マスター)は、動作検出撮像部210から送信され、バッファメモリ41−1に逐次記憶した動画像データから「口」の動きを検出した場合にステップS110を肯定判定してステップS111へ進み、「口」の動きを検出しない場合にはステップS110を否定判定してステップS108へ戻る。これにより、「口」の動きが検出されるまでステップS108からステップS110の処理を繰り返す。
When the motion of the “mouth” is detected from the moving image data transmitted from the motion
「口」の動きを検出した制御部222−1は、ステップS111において、ステップS106で開始した計時の経過時間を確認、および保存を指示してステップS112へ進む。例えば、ステップS106の計時開始から10秒が経過している場合の制御部222−1(マスター)は、通信部221−1を介して動画撮像部220−3、220−2に対して指示(「口」の動きを検出した時刻情報を含める)を送り、「口」の動きを検出した時刻から所定時間前(本例では1秒前とする)からバッファメモリ41−3、41−2にそれぞれ記憶されている第2撮像部13−3、13−2による画像データを記憶媒体99−3、99−2にそれぞれ記録(保存)させる。 In step S111, the control unit 222-1 that has detected the movement of the “mouth” confirms the elapsed time measured in step S106 and instructs the storage to proceed to step S112. For example, the control unit 222-1 (master) in the case where 10 seconds have elapsed from the start of timing in step S106 instructs the moving image capturing units 220-3 and 220-2 via the communication unit 221-1 ( Including the time information at which the movement of the “mouth” is detected), and the buffer memories 41-3 and 41-2 are sent from the time when the movement of the “mouth” is detected to a predetermined time (in this example, 1 second before). The stored image data by the second imaging units 13-3 and 13-2 are recorded (saved) in the storage media 99-3 and 99-2, respectively.
また、制御部222−1(マスター)は、ステップS110において対象者の口の動きを検出した場合に、動画撮像部220−3へ指示を送り、第2撮像部13−3の不図示のズーム光学系(もしくは電子ズーム)を望遠側に移動させてもよいし、動画撮像部220−3および220−2のうちいずれか一方へ指示を送り、第2撮像部13−3または13−2のズーム光学系(もしくは電子ズーム)を望遠側に移動させてもよい。また、一方のズーム光学系(もしくは電子ズーム)を望遠側に移動させる場合において、他方のズーム光学系(もしくは電子ズーム)を変化させずに維持してもよいし、ズーム光学系(もしくは電子ズーム)を広角側に移動させてもよい。これにより、一方の動画撮像部で対象者の顔をアップで撮像したり、他方の動画撮像部では広角で撮像したりすることができる。 In addition, when the movement of the subject's mouth is detected in step S110, the control unit 222-1 (master) sends an instruction to the moving image capturing unit 220-3, and zooms (not illustrated) of the second imaging unit 13-3. The optical system (or electronic zoom) may be moved to the telephoto side, or an instruction is sent to one of the moving image capturing units 220-3 and 220-2, and the second image capturing unit 13-3 or 13-2 The zoom optical system (or electronic zoom) may be moved to the telephoto side. When one zoom optical system (or electronic zoom) is moved to the telephoto side, the other zoom optical system (or electronic zoom) may be maintained without change, or the zoom optical system (or electronic zoom) may be maintained. ) May be moved to the wide-angle side. As a result, it is possible to capture the subject's face up with one moving image capturing unit or to capture the wide angle with the other moving image capturing unit.
動画撮像部220−3および220−2で撮像される対象者の「口」は、動いたり動かなかったりする。このため、制御部222−1(マスター)は、ステップS112において対象者の「口」が所定時間動きなし(閉じている)であるか否かを検出する。ここで、所定時間は任意に設定することができるものとし、本実施形態においては、例えば5秒とする。制御部222−1(マスター)は、検出部20−1によって「口」の動きが5秒間検出されない場合は、ステップS112を肯定判定してステップS113に進む。制御部222−1(マスター)は、検出部20−1によって「口」の動きが検出されている場合は、ステップS112を否定判定して当該判定処理を繰り返す。 The “mouth” of the subject imaged by the moving image capturing units 220-3 and 220-2 moves or does not move. Therefore, the control unit 222-1 (master) detects whether or not the subject's “mouth” has not moved (closed) for a predetermined time in step S <b> 112. Here, it is assumed that the predetermined time can be arbitrarily set. In the present embodiment, the predetermined time is, for example, 5 seconds. When the movement of the “mouth” is not detected by the detection unit 20-1 for 5 seconds, the control unit 222-1 (master) makes an affirmative determination in step S112 and proceeds to step S113. When the movement of the “mouth” is detected by the detection unit 20-1, the control unit 222-1 (master) makes a negative determination in step S112 and repeats the determination process.
つまり、対象者の「口」の動きが検出されている間は、制御部222−1(マスター)がステップS112を否定判定して上記判定処理を繰り返すため、この間に動画撮像部220−3、220−2は、バッファメモリ41−3、41−2にそれぞれ記憶している第2撮像部13−3、13−2による画像データを、記憶媒体99−3、99−2にそれぞれ記録(保存)させる。また、第2マイク33−3、33−2を介して集音されバッファメモリ41−3、41−2に記憶している音声データを、記憶媒体99−3、99−2にそれぞれ記録(保存)させる。 That is, while the movement of the “mouth” of the subject is detected, the control unit 222-1 (master) makes a negative determination in step S112 and repeats the above determination process. 220-2 records (saves) the image data by the second imaging units 13-3 and 13-2 stored in the buffer memories 41-3 and 41-2 respectively in the storage media 99-3 and 99-2. ) Also, the audio data collected via the second microphones 33-3 and 33-2 and stored in the buffer memories 41-3 and 41-2 are recorded (stored) in the storage media 99-3 and 99-2, respectively. )
ステップS113において、制御部222−1(マスター)は、第一の実施形態の場合と同様に、「口」の動きが所定時間ない場合に撮像を終了するか否かを判断する。制御部222−1(マスター)は、ステップS113を肯定判定した場合に所定のオフ処理を行って図6による処理を終了する。オフ処理は、全ての動画撮像部220−1〜220−3および動作検出撮像部210による撮像および録音(集音)を終了させる。
In step S <b> 113, the control unit 222-1 (master) determines whether or not to end imaging when there is no movement of the “mouth” for a predetermined time, as in the case of the first embodiment. The control unit 222-1 (master) performs a predetermined off process when the determination in step S113 is affirmative, and ends the process of FIG. In the off process, the imaging and recording (sound collection) by all the moving image imaging units 220-1 to 220-3 and the motion
一方、制御部222−1(マスター)は、ステップS113を否定判定した場合にステップS114へ進む。ステップS114において、制御部222−1(マスター)は、対象者の顔を認識できるか否かを判定させる。撮像中の機器である動画撮像部220−2および220−3に対し、ステップS103の場合と同様に、それぞれ検出部20−2および20−3により顔認識を指示する。 On the other hand, if the control unit 222-1 (master) makes a negative determination in step S113, the process proceeds to step S114. In step S114, the control unit 222-1 (master) determines whether or not the subject's face can be recognized. Similar to the case of step S103, the detection units 20-2 and 20-3 respectively instruct the face recognition to the moving image capturing units 220-2 and 220-3 that are the devices being imaged.
制御部222−1(マスター)は、対象者(撮影依頼者)が顔認識された場合にはステップS114を肯定判定してステップS110へ戻り、対象者が顔認識されない場合にはステップS114を否定判定してステップS115へ進む。ステップS110へ戻る場合は、撮像を継続させて上述した処理を繰り返す。 The control unit 222-1 (master) makes a positive determination in step S114 when the subject (photographer) recognizes the face, returns to step S110, and denies step S114 if the subject is not recognized. Determine and proceed to step S115. When returning to step S110, imaging is continued and the above-described processing is repeated.
ステップS115において、制御部222−1(マスター)は、通信部221−1から指示を送り、動作検出撮像部210による撮像を終了させてステップS116へ進む。ステップS116において、制御部222−1(マスター)は、通信部221−1から指示を送り、動作検出撮像部210による録音を終了させてステップS102へ戻る。
In step S115, the control unit 222-1 (master) sends an instruction from the communication unit 221-1, ends the imaging by the motion
以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)撮像システム200は、第2マイク33および第1マイク31と、検出部20によって対象者の顔が検出された後で、かつ、対象者の「口」が動く1秒前から第2マイク33で集音された音をバッファメモリ41に記憶させる制御部222と、を備えたので、適切なタイミングで音声データを蓄積しておくことができる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The imaging system 200 starts from the
(2)上記(1)の撮像システム200において、検出部20による検出結果に基づいて、第1マイク31の向きを調節する駆動部211を備えたので、例えば対象者からの音声を適切に集音できる。
(2) Since the imaging system 200 of (1) includes the
(3)上記(1)または(2)の撮像システム200において、制御部222は、検出部20で対象者の顔が検出されなくなった後に、バッファメモリ41に対する音の記憶を終了させるようにしたので、無駄に録音を継続することなく自動停止できるため、使い勝手を向上できる。
(3) In the imaging system 200 of (1) or (2) above, the
(4)上記(1)または(2)の撮像システム200において、制御部222は、所定の音に応じて、バッファメモリ41に対する音の記憶を終了させるようにしたので、例えば、拍手や終了アナウンスに応じて録音を自動停止できるため、使い勝手を向上できる。
(4) In the imaging system 200 of the above (1) or (2), the
(5)上記(1)から(4)の撮像システム200において、集音部は、指向性を有する第1マイク31を含むようにしたので、特定方向からの音声を選択的に録音することもできる。
(5) In the imaging system 200 of (1) to (4) above, the sound collection unit includes the
(6)上記(5)の撮像システム200において、集音部は、第1マイク31よりも集音範囲が広い第2マイク33を含み、第2マイク33による集音開始よりも遅く第1マイク31による集音を開始させる制御部222をさらに備えるようにしたので、例えば、対象者を認識した後で特定方向から音声の集音を始めるように制御できる。
(6) In the imaging system 200 of (5) above, the sound collection unit includes the
(7)上記(1)から(6)の撮像システム200において、「口」の形状に関するデータを記憶しているフラッシュメモリ43を備えたので、データを備えない場合に比べて、適切に「口」およびその動きを検出できる。
(7) Since the imaging system 200 of the above (1) to (6) includes the
(変形例2)
上述した第二の実施形態においては、複数の動画撮像部220−nによって1人の対象者を撮像する場合を例にして説明したが、対象者を複数として、複数の対象者を撮像するようにしてもよい。複数の対象者を撮像する場合には、どの対象者をどの動画撮像部220で撮像するかについて割り当ててもよい。例えば、動画撮像部220が撮像しやすい対象者を撮像するようにしてもよい。
(Modification 2)
In the second embodiment described above, a case where one target person is imaged by a plurality of moving image capturing units 220-n has been described as an example. However, a plurality of target persons may be imaged. It may be. When imaging a plurality of subjects, it may be assigned which subject is to be imaged by which moving
上記説明では、電子機器の例として撮像装置100、動作検出撮像部210、動画撮像部220を例示したが、多機能携帯電話機やタブレット型コンピュータなどを用いて撮像装置100や撮像システム200を構成してもよい。
In the above description, the imaging device 100, the motion
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。また、上述した第一実施形態と第二実施形態とを適宜組み合わせてもよいことは言うまでもない。 The above description is merely an example, and is not limited to the configuration of the above embodiment. Needless to say, the first embodiment and the second embodiment described above may be appropriately combined.
10…撮像部
11…第1撮像部
12、32、211…駆動部
13…第2撮像部
20…検出部
21…顔検出部
22…顔認識部
30…集音部
31…第1マイク
33…第2マイク
40…記録部
41…バッファメモリ
42…記録I/F
43…フラッシュメモリ
50…表示部
60…計時部
70、213、222…制御部
99…記憶媒体
100…撮像装置
200…撮像システム
210…動作検出撮像部
212、221…通信部
220(220−1〜220−3)…動画撮像部
DESCRIPTION OF
43 ...
Claims (8)
検出装置によって対象者の顔が検出された後で、かつ、前記対象者の口が動く所定時間前から前記集音装置で集音された音を記憶部に記憶させる制御部と、
を備えたことを特徴とする電子機器。 A sound collector that collects sound,
A control unit that stores sound collected by the sound collection device in a storage unit after a predetermined time after the subject's face is detected by the detection device and before the subject's mouth moves;
An electronic device characterized by comprising:
前記検出装置による検出結果に基づいて、前記集音装置の向きを調節する姿勢制御部を備えたことを特徴とする電子機器。 The electronic device according to claim 1,
An electronic apparatus comprising: a posture control unit that adjusts a direction of the sound collecting device based on a detection result by the detection device.
前記検出装置による検出結果に基づいて、前記集音装置のゲインを調節するゲイン制御部を備えたことを特徴とする電子機器。 The electronic device according to claim 1 or 2,
An electronic apparatus comprising a gain control unit that adjusts a gain of the sound collector based on a detection result of the detection device.
前記制御部は、前記検出装置で前記対象者の顔が検出されなくなった後に、前記記憶部に対する前記音の記憶を終了させることを特徴とする電子機器。 The electronic device according to any one of claims 1 to 3,
The electronic device according to claim 1, wherein the control unit terminates the storage of the sound in the storage unit after the detection apparatus no longer detects the face of the subject.
前記制御部は、所定の音に応じて、前記記憶部に対する前記音の記憶を終了させることを特徴とする電子機器。 The electronic device according to any one of claims 1 to 3,
The electronic device according to claim 1, wherein the control unit terminates the storage of the sound in the storage unit according to a predetermined sound.
前記集音装置は、指向性を有する第1マイクを含むことを特徴とする電子機器。 The electronic device according to any one of claims 1 to 5,
The sound collecting device includes a first microphone having directivity.
前記集音装置は、前記第1マイクよりも集音範囲が広い第2マイクを含み、
前記第2マイクによる集音開始よりも遅く前記第1マイクによる集音を開始させる集音制御部をさらに備えたことを特徴とする電子機器。 The electronic device according to claim 6,
The sound collection device includes a second microphone having a wider sound collection range than the first microphone,
An electronic apparatus, further comprising: a sound collection control unit for starting sound collection by the first microphone later than the sound collection start by the second microphone.
口の形状に関するデータを記憶している記憶部材を備えたことを特徴とする電子機器。
In the electronic device as described in any one of Claim 1 to 7,
An electronic apparatus comprising a storage member that stores data relating to a mouth shape.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012069264A JP2013201642A (en) | 2012-03-26 | 2012-03-26 | Electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012069264A JP2013201642A (en) | 2012-03-26 | 2012-03-26 | Electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013201642A true JP2013201642A (en) | 2013-10-03 |
Family
ID=49521515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012069264A Pending JP2013201642A (en) | 2012-03-26 | 2012-03-26 | Electronic device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013201642A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014109770A (en) * | 2012-12-04 | 2014-06-12 | Samsung R&D Institute Japan Co Ltd | Speech processing unit, speech recognition system, speech processing method, and speech processing program |
-
2012
- 2012-03-26 JP JP2012069264A patent/JP2013201642A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014109770A (en) * | 2012-12-04 | 2014-06-12 | Samsung R&D Institute Japan Co Ltd | Speech processing unit, speech recognition system, speech processing method, and speech processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6504808B2 (en) | Imaging device, setting method of voice command function, computer program, and storage medium | |
KR101444103B1 (en) | Media signal generating method and apparatus using state information | |
JP5247384B2 (en) | Imaging apparatus, information processing method, program, and storage medium | |
CN110351476B (en) | Image pickup apparatus and non-transitory recording medium | |
CN104092936A (en) | Automatic focusing method and apparatus | |
US11503213B2 (en) | Image capturing apparatus, control method, and recording medium | |
JP2019117375A (en) | Imaging apparatus, control method of the same, and program | |
JP2009177480A (en) | Imaging device | |
JP2010148132A (en) | Imaging device, image detector and program | |
JP2009239346A (en) | Photographing device | |
JP2013201642A (en) | Electronic device | |
WO2021140879A1 (en) | Imaging device, control method for imaging device, program | |
KR20150109254A (en) | Imaging apparatus, imaging method and recording medium having program for performing self-timer shooting | |
CN111527446B (en) | Image pickup apparatus, control method therefor, and recording medium | |
JP5424300B2 (en) | Playback apparatus and program | |
JP4849330B2 (en) | Display control apparatus and method, imaging apparatus, information processing apparatus and method, and program | |
JP2013201643A (en) | Electronic apparatus | |
JP2013201644A (en) | Electronic apparatus | |
JP2021111960A (en) | Imaging apparatus, control method of the same, and program | |
JP5712599B2 (en) | Imaging apparatus and program | |
JP7451235B2 (en) | Imaging device, control method, and program | |
JP2013007851A (en) | Imaging apparatus | |
TWI792207B (en) | Method for filtering operation noise of lens and recording system | |
JP2024046139A (en) | Imaging device, image processing device, control method, and program | |
JP7365793B2 (en) | Imaging device, its control method, and program |