JP2013201643A - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP2013201643A JP2013201643A JP2012069265A JP2012069265A JP2013201643A JP 2013201643 A JP2013201643 A JP 2013201643A JP 2012069265 A JP2012069265 A JP 2012069265A JP 2012069265 A JP2012069265 A JP 2012069265A JP 2013201643 A JP2013201643 A JP 2013201643A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- unit
- imaging unit
- subject
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Circuit For Audible Band Transducer (AREA)
Abstract
【課題】対象者の顔を適切な画角で撮像するように制御できる使い勝手のよい電子機器を提供する。
【解決手段】撮像システム200は、複数の第2撮像部220−1〜220−3よりも被写体側に設けられた第1撮像部11と、複数の第2撮像部の撮像結果に基づいて、第1撮像部の姿勢を調節する駆動部211と、被写体の特定部位を撮像する第1撮像部の撮像結果に基づいて、第2撮像部の画角を変更する制御部と、を備えたので、対象者の顔を適切な画角で撮像するように制御できる。
【選択図】図4
【解決手段】撮像システム200は、複数の第2撮像部220−1〜220−3よりも被写体側に設けられた第1撮像部11と、複数の第2撮像部の撮像結果に基づいて、第1撮像部の姿勢を調節する駆動部211と、被写体の特定部位を撮像する第1撮像部の撮像結果に基づいて、第2撮像部の画角を変更する制御部と、を備えたので、対象者の顔を適切な画角で撮像するように制御できる。
【選択図】図4
Description
本発明は、電子機器に関する。
自分で撮影することができない場面の撮影を、他人に依頼することや、定点カメラで行うことが提案されている。また、撮影時の音声の記録においては、顔検出を行なった場合に音声データを画像データに関連づけて記憶媒体に記録することが提案されている(例えば、特許文献1参照)。
しかしながら、従来の撮像装置(電子機器)の使い勝手は、かならずしもよいものではなかった。
本発明による電子機器は、複数の撮像部よりも被写体側に設けられた被写体側撮像部と、複数の撮像部の撮像結果に基づいて、被写体側撮像部の姿勢を調節する調節部と、を備えたことを特徴とする。
本発明によれば、使い勝手のよい電子機器を実現することができる。
以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、第一の実施形態による撮像装置100のブロック図である。撮像装置100は、撮影依頼者を被写体として、この被写体に関する音(例えば楽曲、歌、台詞、朗読など)を録音し、動画像を撮影する。撮影依頼者は、あらかじめ撮像装置100に登録されている。当該依頼者である人物の顔を示す情報は、後述するフラッシュメモリ43に記憶されている。
(第一の実施形態)
図1は、第一の実施形態による撮像装置100のブロック図である。撮像装置100は、撮影依頼者を被写体として、この被写体に関する音(例えば楽曲、歌、台詞、朗読など)を録音し、動画像を撮影する。撮影依頼者は、あらかじめ撮像装置100に登録されている。当該依頼者である人物の顔を示す情報は、後述するフラッシュメモリ43に記憶されている。
図1において、撮像装置100は、撮像部10と、検出部20と、集音部30と、記録部40と、表示部50と、計時部60と、制御部70とを有している。撮像部10は、第1撮像部11と、駆動部12と、第2撮像部13とを有する。第1撮像部11は、複数のレンズ、CCDやCMOSなどの撮像素子、および画像処理回路を含み、本実施形態では人物の「口」を主に撮像(例えば動画像)して画像データを生成する。
駆動部12は、リニアモータやボイスコイルモータなどを採用するアクチュエータで構成され、第1撮像部11の姿勢(撮影方向)を調節する。本実施形態において、駆動部12は、第2撮像部13の撮像結果(画像)に応じて第1撮像部11の姿勢(撮影方向)を調節する。なお、イニシャル位置における第1撮像部11の撮影光軸は、第2撮像部13の撮影光軸とほぼ平行である。駆動部12が第1撮像部11を駆動することによって撮影方向が変更されると、第1撮像部11の撮影光軸は第2撮像部13の撮影光軸と交わる状態となる。
なお、第1撮像部11を撮像装置100の筐体に対して着脱可能に構成し、第1撮像部11を撮像装置100の筐体の任意の位置に取り付けられるようにしてもよい。また、第1撮像部11を撮像装置100から離して配置するようにしてもよい。
第2撮像部13は、第1撮像部11が有するレンズよりも画角が広い広角撮影が可能な複数のレンズ、CCDやCMOSなどの撮像素子、および画像処理回路を含む。本実施形態では、第2撮像部13が第1撮像部11の撮像領域を包含するような広角の撮像(例えば動画像)を行なって画像データを生成する。
検出部20は、顔検出部21と顔認識部22とを有する。顔検出部21は、顔の主要なパーツ(目、眉毛、鼻、口)を参照パターンとして、撮像した画像とのパターンマッチングにより顔を検出したり、ある画像が顔か否かを判別したりして顔を検出するブースティング(Boosting)による学習手法を用いた検出を行うことができる。また、顔検出部21は、「口」が開いているか(動いているか)否かについても、上述のパターンマッチングやブースティング手法により検出する。
顔認識部22は、顔検出部21が検出した顔が誰の顔かを認識する。具体的には、公知の認識アルゴリズム(弾性バンチグラフマッチング、隠れマルコフモデルなど)を用いて顔認識を行う。この認識アルゴリズムは、見た目の特徴を直接幾何学的に比較する方法と、画像を統計的に数値化してその数値をテンプレートと比較する方法があるが、いずれの方法を用いることもできる。
集音部30は、第1マイク31、駆動部32、第2マイク33、および図示しない音声処理回路を有している。第1マイク31は、指向性を有するマイクで構成され、特定の方向から入力する音声を高感度に集音する。例えば、超指向性ダイナミック型マイクロホンや超指向性コンデンサ型マイクロホン等を用いることができる。
駆動部32は、リニアモータや、ボイスコイルモータなどを採用するアクチュエータで構成され、第1マイク31の集音方向を調節する。本実施形態では、第1撮像部11の撮像結果(画像)に応じて第1マイク31の集音方向を調節する。なお、第1撮像部11と第1マイク31とを一体構成(ユニット化)してもよい。ユニット化した場合には、駆動部12および駆動部32のうちいずれか一方を省略することができる。
第2マイク33は、無指向性のマイクで構成され、第1マイク31が集音する範囲よりも広い範囲の音を集音する。記録部40は、バッファメモリ41と、記録I/F(インターフェース)42と、フラッシュメモリ43とを有している。
第1マイク31、第2マイク33でそれぞれ集音された音声信号は、音声処理回路(不図示)によって増幅される。増幅後の音声信号は、A/D変換回路(不図示)によってデジタル音声データに変換される。
バッファメモリ41は、第1撮像部11、第2撮像部13によって撮像された画像データを一時的に格納したり、後述する制御部70のワークメモリとして用いられたりする。なお、バッファメモリ41を複数設けて第1撮像部11用のバッファメモリ41aと、第2撮像部13用のバッファメモリ41bとで別々に構成してもよい。また、バッファメモリ41は、前述の画像処理回路による画像処理の前工程や後工程での画像データを一時的に格納する。バッファメモリ41には、揮発性の半導体メモリ等を適宜選択して用いることができる。
記録I/F42には、記憶媒体(例えばSDカード)99を接続するためのコネクタが形成されている。そして、記録I/F42は、コネクタに接続された記憶媒体99に対してデータの書き込み/読み込みを実行する。本実施形態の記録I/F42は、第2撮像部13が撮像した画像の一部を記憶媒体99に記録(保存)し、第1撮像部11が撮像した画像(本例では、人物の「口」の画像)は記憶媒体99に記録(保存)しない(記憶媒体99への記録を禁止する)。
なお、記憶媒体99は、ハードディスクや、半導体メモリを内蔵したメモリカード等で構成され、本実施形態においてはメモリカードを用いる。記録媒体99は、画像データや音声データの保存用に用いられる。
フラッシュメモリ43は、不揮発性のメモリによって構成される。本実施形態では、「口」が開いている状態や動いている状態を検出するための形状を表す画像データ(リファレンス画像データと呼ぶ)、顔認識をするためにあらかじめ登録された顔のデータ(顔情報)、楽器、ホイッスル、および運動会用ピストルの音などを検出するためにあらかじめ用意された音響データ(音情報)などを、フラッシュメモリ43に記憶させておく。
表示部50は、例えば液晶パネルによって構成され、画像や操作メニュー画面などを表示する。本実施形態においては、表示部50は第2撮像部13が撮像した画像を表示し、第1撮像部11が撮像した画像(本例では「口」の画像)を表示しない。なお、表示部50の表面に透明なタッチパネルを積層して設けてもよい。この場合には、ユーザが表示部50の操作メニューを視認しつつ、タッチパネルをタッチ操作することにより、タッチ操作された座標とその座標に対応して表示された操作メニューを選択することが可能となる。
計時部60は、例えば水晶発振回路によって構成され、計時処理を行なう。本実施形態においては、第1撮像部11が「口」の開く(動く)画像を撮像した時点を基準として、その前後の計時情報を後述の制御部70に出力する。言い換えれば、計時部60は、第1撮像部11が「口」の開く(動く)のを撮像した時点を基準とするタイムスタンプ情報を出力する。
制御部70は図示しないCPUを有し、撮像装置100全体を制御する。本実施形態においては、被写体の「口」の動きに応じて撮像の制御を行なう。
<録画処理>
以上のように構成された撮像装置100の制御部70が実行する録画処理について、図2のフローチャートを参照して説明する。制御部70は、例えば図示しない録画スイッチがオン操作されると、図2による録画処理を行うプログラムを起動させる。図2のステップS1において、制御部70は、第2撮像部13による撮像を開始させ、動画像データをバッファメモリ41に逐次記憶させてステップS2へ進む。ステップS2において、制御部70は、第2マイク33を介して集音された音声データをバッファメモリ41へ逐次記憶させる録音を開始させてステップS3へ進む。
以上のように構成された撮像装置100の制御部70が実行する録画処理について、図2のフローチャートを参照して説明する。制御部70は、例えば図示しない録画スイッチがオン操作されると、図2による録画処理を行うプログラムを起動させる。図2のステップS1において、制御部70は、第2撮像部13による撮像を開始させ、動画像データをバッファメモリ41に逐次記憶させてステップS2へ進む。ステップS2において、制御部70は、第2マイク33を介して集音された音声データをバッファメモリ41へ逐次記憶させる録音を開始させてステップS3へ進む。
ステップS3において、制御部70は、上記撮像および録音の開始とともに、計時部60による計時を開始させてステップS4へ進む。ステップS4において、制御部70は、顔検出部21を用いて、第2撮像部13で撮像された画像から顔を検出したか否かを判定する。制御部70は、第2撮像部13が撮像した画像に顔が含まれていた場合にステップS4を肯定判定してステップS5へ進み、顔が含まれていない場合にはステップS4を否定判定して当該処理を繰り返す。
ステップS5において、制御部70は、顔認識部22を用いて、ステップS4で検出された顔を認識したか否かを判定する。制御部70は、フラッシュメモリ43に記憶されている撮影依頼者(以後、対象者と呼ぶ)の顔情報とステップS4で検出した顔とが一致する場合に、ステップS5を肯定判定してステップS6へ進む。ステップS6へ進む場合は、あらかじめ登録されている対象者を認識した場合である。一方、制御部70は、フラッシュメモリ43に記憶されている対象者の顔情報とステップS4で検出した顔とが一致しない場合には、ステップS5を否定判定してステップS4へ戻る。すなわち、ステップS3で検出した複数の顔について顔認識が済むまでは、ステップS4およびステップS5の処理を繰り返す。
対象者を顔認識した制御部70は、ステップS6において、第1撮像部11および第1マイク31の位置調節(撮影方向および集音方向を調節するための姿勢制御)を行なわせる。具体的には、特定した顔(対象者であると認識した顔)から「口」の位置を検出または推定して、その「口」に第1撮像部11および第1マイク31を対向させるように、制御部70が駆動部12および駆動部32をそれぞれ制御する。推定は、「口」を検出できない代わりに「目」や「鼻」を検出した場合において、「目」の位置や「鼻」の位置に基づいて「口」の位置を求めることをいう。
第1撮像部11および第1マイク31の位置調節を行なった制御部70は、ステップS7において、ステップS5で検出または推定した「口」の撮像を第1撮像部11に開始させて、動画像データをバッファメモリ41に逐次記憶させてステップS8へ進む。
ステップS8において、制御部70は、第1マイク31を介して集音された音声データをバッファメモリ41へ逐次記憶させる録音を開始させてステップS9へ進む。ここで、当該ステップS8において第1マイク31による録音を開始する時点では、第1撮像部11により撮像される「口」の人物が音声を発していないかもしれない。しかしながら、後述するように、第1撮像部11が撮像している人物が「口」を動かしたり、開いたりしてから第1マイク31による録音を開始したのでは、録音開始が最初の発声タイミングに間に合わないおそれがあるため、「口」の動きを検出する前のステップS8から録音を開始させて音声データをバッファメモリ41に蓄積しておく。
ステップS9において、制御部70は、第1撮像部11が撮像している「口」が動いたかどうか(開いたかどうか)を検出する。この場合も、制御部70はフラッシュメモリ43に記憶されている上記リファレンス画像データを参照して、検出部20により「口」が動いたかどうか(開いたかどうか)を検出する。制御部70は、「口」の動きを検出した場合にステップS9を肯定判定してステップS10へ進み、「口」の動きを検出しない場合にはステップS9を否定判定してステップS7へ戻る。これにより、「口」の動きが検出されるまでステップS7からステップS9の処理を繰り返す。
「口」の動きを検出した制御部70は、ステップS10において、ステップS3で開始した計時の経過時間を確認、および保存を指示してステップS11へ進む。例えば、ステップS3の計時開始から10秒が経過している場合の制御部70は、記憶I/F42へ指示を送り、「口」の動きが検出される所定時間前(本例では1秒前とする)から、換言すれば計時開始9秒後から、バッファメモリ41に記憶されている第2撮像部13で撮像された画像データを記憶媒体99に記録(保存)させるとともに、同計時開始9秒後からバッファメモリ41に記憶されている第1マイク31および第2マイク33を介して集音された音声データを記憶媒体99に記録(保存)させる。画像データと音声データは、例えば1つのファイルに含める。
なお、記憶媒体99に記録する音声データは、第1マイク31および第2マイク33を介して集音された音声データのうちいずれか一方でもよい。異なる2つのマイクを介して集音された音声データのうち、例えば、所定の音圧レベル範囲の音声データを記憶させたり、所定の周波数帯域を含む(あるいは含まない)音声データを記憶させたりすることによって、必要な音声を記録しつつ、不要な音声の記録を排除できる。
また、制御部70は、「口」の動きが検出されたタイミングで、第2撮像部13の図示しないズーム光学系を望遠側に移動させる、もしくは電子ズーム処理によってズームアップさせてもよい。これにより、例えば第2撮像部13は、上記特定した顔(すなわち対象者の顔)をアップで撮像することができる。上記変倍動作に加えて、または変倍動作に代えて、第2撮像部13が撮像するフレームレートを上げてもよい。これにより、対象者の動きに対する応答性が向上する。
さらに、制御部70は、「口」の動き方に応じて、第1マイク31の感度(ゲイン)を変更するようにしてもよい。これは、「口」が大きく開かれるにつれて大きな声が出されることが予想されるので、「口」の大きさに応じて第1マイク31の感度(ゲイン)を下げることで、大きな音声入力に備えるためである。このようなゲイン制御を行なうことにより、集音部30のダイナミックレンジを広げることが可能となる。「口」の開く大きさに応じた感度(ゲイン)の変更は、第2マイク33にも適用するようにしてもよい。ゲインの変更は、例えば、集音部30の音声処理回路(不図示)における増幅ゲインを変化させることによって実現できる。
第2撮像部13により撮像されている対象者の「口」は、動いたり動かなかったりする。このため、制御部70は、ステップS11において対象者の「口」が所定時間動きなし(閉じている)であるか否かを検出する。ここで、所定時間は任意に設定することができるものとし、本実施形態においては、例えば5秒とする。制御部70は、検出部20によって「口」の動きが5秒間検出されない場合は、ステップS11を肯定判定してステップS12に進む。制御部70は、検出部20によって「口」の動きが検出されている場合は、ステップS11を否定判定して当該判定処理を繰り返す。
つまり、対象者の「口」の動きが検出されている間は、制御部70がステップS11を否定判定して上記判定処理を繰り返すため、第2撮像部13で撮像されバッファメモリ41に記憶されていた画像データが記憶媒体99に記録(保存)されるとともに、第1マイク31および第2マイク33を介して集音されバッファメモリ41に記憶されていた音声データが記憶媒体99に記録(保存)される。
ステップS12において、「口」の動きが所定時間ない場合の制御部70は、撮像を終了するか否かを判断する。例えば、対象者を撮像する場面が学芸会の合唱や演劇である場合、その終了時には大きな拍手があり、終了を告げるアナウンスが行われる。このため、本実施形態の制御部70は、第2マイク33を介して大きな拍手や「終了」という言葉が入力された場合に、第1撮像部11および第2撮像部13による撮像を終了すべきと判断する。
「大きな拍手」を示す音響データや、「終了」という言葉を示す音声辞書データを上述した音情報としてあらかじめフラッシュメモリ43に記憶させておけばよい。また、運動会などを撮像する場合は、ピストルの合図により競技が終了する場合があるため、「ピストル合図」を示す音響データを音情報としてフラッシュメモリ43に記憶しておけばよい。
制御部70は、ステップS12を肯定判定した場合に所定のオフ処理を行って図2による処理を終了する。オフ処理は、第1撮像部11および第2撮像部13による撮像を終了させとともに、第1マイク31および第2マイク33による録音を終了させ、バッファメモリ41に蓄積されていた画像データや音声データを記憶媒体99へ記録(保存)させる処理も終了させる。
一方、制御部70はステップS12を否定判定した場合にステップS13へ進む。ステップS13において、制御部70は、顔認識部22を用いて、対象者の顔を認識できるか否かを判定する。制御部70は、フラッシュメモリ43に記憶されている対象者の顔情報と第2撮像部13により撮像された画像に含まれる顔とが一致する場合に、ステップS13を肯定判定してステップS9へ戻る。ステップS9へ戻る場合は、撮像を継続して上述した処理を繰り返す。
制御部70は、フラッシュメモリ43に記憶されている対象者の顔情報が、第2撮像部13により撮像された画像に含まれない場合には、ステップS13を否定判定してステップS14へ進む。ステップS14において、制御部70は、第1撮像部11による撮像を終了させてステップS15へ進む。ステップS15において、制御部70は、第1マイク31による録音を終了させてステップS3へ戻る。
以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)撮像装置100は、被写体の特定部位を撮像する第1撮像部11と、第1撮像部11の撮像結果に基づいて、第1撮像部11とは異なる第2撮像部13の画角を変更する制御部70と、を備えたので、例えば、対象者の「顔」を適切な画角で撮像するように制御できる。
(1)撮像装置100は、被写体の特定部位を撮像する第1撮像部11と、第1撮像部11の撮像結果に基づいて、第1撮像部11とは異なる第2撮像部13の画角を変更する制御部70と、を備えたので、例えば、対象者の「顔」を適切な画角で撮像するように制御できる。
(2)上記(1)の撮像装置100において、第2撮像部13で撮像された画像を記憶媒体99に保存させる記録I/F42を備え、記録I/F42は、第1撮像部11で撮像された画像を記憶媒体99に保存させないようにしたので、例えば、特定部位のみの画像を保存しないように制御できる。
(3)上記(1)または(2)の撮像装置100において、第2撮像部13で撮像された画像を表示する表示部50を備え、表示部50は、第1撮像部11で撮像された画像を表示しないようにしたので、例えば、特定部位のみの画像を表示しないように制御できる。
(変形例1)
上述した第一の実施形態においては、バッファメモリ41を介在させることで、第2撮像部13が撮像した画像の一部を記憶媒体99に記録(保存)し、第1撮像部11が撮像した画像(本例では口の画像)は記憶媒体99に記録(保存)しないようにした。これに代えて、第1撮像部11および第2撮像部13による画像データや、第1マイク31および第2マイク33による音声データを記憶媒体99に記録させ、さらにステップS10で確認した計時データをメタデータとともに記憶媒体99に記録させておき、後からパソコンなどで計時データに基づいて画像データおよび音声データの編集を行なう(保存するか否かを後から決定する)ように構成してもよい。
上述した第一の実施形態においては、バッファメモリ41を介在させることで、第2撮像部13が撮像した画像の一部を記憶媒体99に記録(保存)し、第1撮像部11が撮像した画像(本例では口の画像)は記憶媒体99に記録(保存)しないようにした。これに代えて、第1撮像部11および第2撮像部13による画像データや、第1マイク31および第2マイク33による音声データを記憶媒体99に記録させ、さらにステップS10で確認した計時データをメタデータとともに記憶媒体99に記録させておき、後からパソコンなどで計時データに基づいて画像データおよび音声データの編集を行なう(保存するか否かを後から決定する)ように構成してもよい。
(第二の実施形態)
次に、図3〜図6を参照して第二の実施形態について説明する。図3は、第二の実施形態による撮像システム200の概念図である。撮像システム200は、撮影依頼者を被写体として、この被写体に関する音(例えば楽曲、歌、台詞、朗読など)を録音し、動画像を撮影する。
次に、図3〜図6を参照して第二の実施形態について説明する。図3は、第二の実施形態による撮像システム200の概念図である。撮像システム200は、撮影依頼者を被写体として、この被写体に関する音(例えば楽曲、歌、台詞、朗読など)を録音し、動画像を撮影する。
図3において、撮像システム200は、被写体の「口」を検出する動作検出撮像部210と、この動作検出撮像部210による検出結果に基づいて、被写体の動画撮影を行う複数の動画撮像部220(本例では220−1〜220−3)とを有する。撮影依頼者はあらかじめ登録され、各動画撮像部220−1〜220−3内のフラッシュメモリ43に当該依頼者である人物の顔を示す顔情報が記憶されている。本実施形態では、動画撮像部220を3台の動画撮像部220−1〜220−3で構成し、その基本構成は同じとする。なお、動画撮像部220の数は3台に限らず、5台でも10台でもよい。
図4は、図3の撮像システム200の構成を例示するブロック図である。図5は、上記3台の動画撮像部220−1〜220−3のうち、1つの動画撮像部220−nの構成を例示するブロック図である。図4および図5において、動作検出撮像部210および複数の動画撮像部220−nを構成する各構成要件のうち、第一の実施形態で説明した撮像装置100の構成と同様のものについては同一の符号を付し、その説明を省略する。
図4、図5において、動作検出撮像部210は、第一実施形態における撮像部10に対応する。この動作検出撮像部210は、第1撮像部11と、第1マイク31と、駆動部211と、通信部212と、制御部213とを有する。第1撮像部11は、主に対象者の「口」の動きを検出するための撮像を行う。駆動部211は、例えばユニット化された第1撮像部11と第1マイク31とを駆動して、第1撮像部11の姿勢(撮影方向)および第1マイク31の集音方向を調節する。
通信部212は無線通信ユニットを有し、動画撮像部220−nの通信部221−nとの間で無線通信を行う。また、通信部212は、第1マイク31を介して集音された音声データを動画撮像部220−nに送信する。制御部213は図示しないCPUを有し、動作検出撮像部210の全体を制御する他、動画撮像部220−nとの間で協調制御を行う。
以下、図5を参照して動画撮像部220−nの詳細を説明する。図5において、動画撮像部220−nは、第一実施形態における撮像部10以外のブロックに対応する。この動画撮像部220−nは、第2撮像部13と、検出部20と、第2マイク33と、記録部40と、表示部50と、計時部60と、通信部221と、制御部222とを有している。通信部221は無線通信ユニットを有し、動作検出撮像部210の通信部212との間で無線通信を行う。また、通信部221は、他の動画撮像部220の通信部221とも通信を行う。
制御部222は図示しないCPUを有し、動画撮像部220−nの全体を制御する他、動作検出撮像部210の制御部213との間で協調制御を行なう。本実施形態では、動画撮像部220−1(図4)の制御部222−1が撮像システム200の全体を制御するマスターの制御部となり、動画撮像部220−2(図4)の制御部222−2、動画撮像部220−3(図4)の制御部222−3が、それぞれスレーブの制御部となるものとして説明する。
以上のように構成された撮像システム200における動画撮像部220−1(マスター)の制御部222−1が実行する録画処理について、図6のフローチャートを参照して説明する。制御部222−1は、例えば図示しない録画スイッチがオン操作されると、図6による録画処理を行うプログラムを起動させる。
図6のステップS101において、制御部222−1(マスター)は、通信部221−1を介して動画撮像部220−2および220−3に対してそれぞれ撮像を指示するとともに、自身の第2撮像部13−1へ撮像を指示してステップS102へ進む。これにより、動画撮像部220−1〜220−3の第2撮像部13−1〜13−3がそれぞれ動画の撮像を開始する。なお、必ずしも全ての動画撮像部220−1〜220−3による撮像を指示しなくてもよく、適宜その数を設定可能に構成してもよい。
ステップS102において、制御部222−1(マスター)は、動画撮像部220−1自身、動画撮像部220−2、および220−3の少なくとも1つで顔を撮像したかどうかを検出する。具体的には、第2撮像部13−1の撮像結果に顔が含まれているかどうかを検出部20−1により検出させる。制御部222−1(マスター)はさらに、スレーブとなる動画撮像部220−2および220−3に対し、それぞれ第2撮像部13−2および13−3の撮像結果に顔が含まれているかどうかを検出部20−2および20−3により検出させて、その検出結果を通信部221−2および221−3からマスターである動画撮像部220−1へそれぞれ送信させる。制御部222−1(マスター)は、自身の第2撮像部13−1、動画撮像部220−2の第2撮像部13−2、および動画撮像部220−3の第2撮像部13−3のうち、少なくとも1つで顔検出されるまでステップS102の処理を繰り返す。
ステップS103において、制御部222−1(マスター)は、ステップS102で検出された顔を認識したか否かを判定させる。具体的には、自身の検出部20−1へ顔認識を指示するとともに、スレーブとなる動画撮像部220−2および220−3に対し、それぞれ検出部20−2および20−3により顔認識を指示する。この顔認識は、第一の実施形態の場合と同様の手法で各動画撮像部220−1〜220−3において行わせる。それぞれの動画撮像部220−1〜220−3において顔認識させることにより、1つの動画撮像部で顔認識処理をまとめて行う場合に比べて、顔認識に要する時間の短縮を行なうことができる。
制御部222−1(マスター)は、対象者(撮影依頼者)が顔認識された場合にはステップS103を肯定判定してステップS104に進み、対象者が顔認識されない場合にはステップS103を否定判定してステップS102に戻る。すなわち、動画撮像部220−1、220−2、および220−3の少なくとも1つで顔認識が済むまでは、ステップS102およびS103の処理を繰り返す。
ステップS104において、制御部222−1(マスター)は、動画撮像部220−1〜220−3の中から動画像を撮像させる機器を選択する。制御部222−1(マスター)は、全ての動画撮像部220−1〜220−3が対象者の顔を認識した場合には、全ての動画撮像部220−1〜220−3によって撮像を継続させる。しかしながら、いつも全ての動画撮像部220−1〜220−3が対象者の顔を認識するとは限らない。そこで、本実施形態においては図3の動画撮像部220−3のみによって対象者の顔が認識された場合を例にあげて説明する。
この場合の制御部222−1(マスター)は、動画撮像部220−3の第2撮像部13−3に加えて、隣接する動画撮像部220−2の第2撮像部13−2を選択して撮像を継続させるとともに、動画撮像部220−1の第2撮像部13−1による撮像を中止させる(オフにする)。これは、対象者が移動するような場合に、動画撮像部220−3に隣接する動画撮像部220−2では対象者を撮像する可能性があるのに対して、動画撮像部220−3から離れた動画撮像部220−1では対象者を撮像する可能性が低いからである。
なお、動画撮像部220−1および220−3の双方に隣接する動画撮像部220−2によって対象者の顔が認識された場合には、動画撮像部220−2で撮像された画像に基づいて対象者の動きベクトルを検出して、該動きベクトルに基づいて動画撮像部220−1もしくは220−3を選択するようにすればよい。これは、移動する対象者を撮像する可能性がある動画撮像部が複数存在する場合に、撮像できる可能性がより高い動画撮像部を選ぶためである。
また、図3の動画撮像部220−3によって対象者の顔が認識された場合において、例えば当該対象者が合唱している場面など、対象者の移動が予想されない場合(動きベクトルの大きさが所定値未満)には、動画撮像部220−3に隣接する動画撮像部220−2の第2撮像部13−2での撮像を中止(オフ)させてもよい。
動画撮像部220−1や動画撮像部220−2における第2撮像部の撮像を中止(オフ)させる場合の制御部222−1(マスター)はさらに、この動画撮像部220−1、220−2を操作しているユーザに対し、対象者を撮像できる位置への移動を促してもよい。例えば、動画撮像部220−1の表示部50−1に「被写体に近づいて撮影しましょう」というメッセージを表示させたり、通信部221−1を介して動画撮像部220−2へ「被写体に近づいて撮影しましょう」というメッセージを送ったりする。このメッセージを受信した動画撮像部220−2の制御部222−2は、表示部50−2に「被写体に近づいて撮影しましょう」というメッセージを表示させる。
さらにまた、動画撮像部220−1、220−2がユーザによる操作なしに自動撮影する固定カメラであって、該動画撮像部220−1、220−2に第2撮像部13−1、13−2の姿勢(撮影方向)を制御するための駆動部材(不図示)があらかじめ設けられている場合には、これら駆動部材を駆動させることによって対象者を撮像できる向きに、動画撮影部220−1、220−2の撮影方向を自動制御させてもよい。
図6のステップS105において、制御部222−1(マスター)は、ステップS104で選択した動画撮像部220−3および220−2に対して通信部221−1から指示を送り、動画撮像部220−3の第2マイク33−3、および動画撮像部220−2の第2マイク33−2による録音を開始させてステップS106へ進む。
ステップS106において、制御部222−1(マスター)は、ステップS104で選択した動画撮像部220−3および220−2に対して通信部221−1から指示を送り、計時部60−3、および計時部60−2による計時開始を開始させてステップS107へ進む。
ステップS107において、制御部222−1(マスター)は、通信部221−1から動作検出撮像部210へ指示を送り、第1撮像部11および第1マイク31の位置調節(撮影方向および集音方向を調節するための姿勢制御)を行なわせる。具体的には、制御部213が駆動部211を制御して、対象者であると認識された顔から検出または推定される「口」の位置に第1撮像部11および第1マイク31を対向させる。「口」の位置情報は、例えば顔認識した動画撮像部(本例では220−3)が取得し、その結果を通信部221−3から動作検出撮像部210へ送信させておく。推定は、上述したように「目」の位置や「鼻」の位置に基づいて「口」の位置を求めることをいう。
なお、複数の動画撮像部220によって対象者の顔が検出されている場合には、該対象者の正面の顔を撮像した動画撮像部220による撮像結果に基づいて、制御部213が、第1撮像部11および第1マイク31の姿勢制御をすればよい。また、これに代えて、制御部213が、複数の動画撮像部220による撮像結果に基づいて対象者の顔の正面位置を推定して、第1撮像部11と第1マイク31の姿勢制御を行うようにしてもよい。複数の動画撮像部220による撮像結果に基づく場合は、例えば顔認識した複数の動画撮像部(例えば220−2および220−3)から、それぞれの撮像結果を動作検出撮像部210へ送信させておく。
ステップS108において、制御部222−1(マスター)は、通信部221−1から動作検出撮像部210へ指示を送り、ステップS107で検出または推定された「口」の撮像を第1撮像部11により開始させる。この動画像データは、動作検出撮像部210の通信部212から動画撮像部220−1へ送信させ、動画撮像部220−1内のバッファメモリ41−1に逐次記憶させる。
ステップS109において、制御部222−1(マスター)は、通信部221−1から動作検出撮像部210へ指示を送り、第1マイク31を介して集音された音声データの録音を開始させる。この音声データは、動作検出撮像部210の通信部212から動画撮像部220−1へ送信させ、動画撮像部220−1内のバッファメモリ41−1に逐次記憶させる。
ステップS110において、制御部222−1(マスター)は、動作検出撮像部210の第1撮像部11が撮像している「口」が動いたかどうか(開いたかどうか)を検出する。具体的には、第一の実施形態の場合と同様のリファレンス画像データを動画撮像部220−1内のフラッシュメモリ43に記憶にあらかじめ記憶させておき、このリファレンス画像データを参照して検出部20−1によって「口」が動いたかどうか(開いたかどうか)を検出させる。
制御部222−1(マスター)は、動作検出撮像部210から送信され、バッファメモリ41−1に逐次記憶した動画像データから「口」の動きを検出した場合にステップS110を肯定判定してステップS111へ進み、「口」の動きを検出しない場合にはステップS110を否定判定してステップS108へ戻る。これにより、「口」の動きが検出されるまでステップS108からステップS110の処理を繰り返す。
「口」の動きを検出した制御部222−1は、ステップS111において、ステップS106で開始した計時の経過時間を確認、および保存を指示してステップS112へ進む。例えば、ステップS106の計時開始から10秒が経過している場合の制御部222−1(マスター)は、通信部221−1を介して動画撮像部220−3、220−2に対して指示(「口」の動きを検出した時刻情報を含める)を送り、「口」の動きを検出した時刻から所定時間前(本例では1秒前とする)からバッファメモリ41−3、41−2にそれぞれ記憶されている第2撮像部13−3、13−2による画像データを記憶媒体99−3、99−2にそれぞれ記録(保存)させる。
また、制御部222−1(マスター)は、ステップS110において対象者の口の動きを検出した場合に、動画撮像部220−3へ指示を送り、第2撮像部13−3の不図示のズーム光学系(もしくは電子ズーム)を望遠側に移動させてもよいし、動画撮像部220−3および220−2のうちいずれか一方へ指示を送り、第2撮像部13−3または13−2のズーム光学系(もしくは電子ズーム)を望遠側に移動させてもよい。また、一方のズーム光学系(もしくは電子ズーム)を望遠側に移動させる場合において、他方のズーム光学系(もしくは電子ズーム)を変化させずに維持してもよいし、ズーム光学系(もしくは電子ズーム)を広角側に移動させてもよい。これにより、一方の動画撮像部で対象者の顔をアップで撮像したり、他方の動画撮像部では広角で撮像したりすることができる。
動画撮像部220−3および220−2で撮像される対象者の「口」は、動いたり動かなかったりする。このため、制御部222−1(マスター)は、ステップS112において対象者の「口」が所定時間動きなし(閉じている)であるか否かを検出する。ここで、所定時間は任意に設定することができるものとし、本実施形態においては、例えば5秒とする。制御部222−1(マスター)は、検出部20−1によって「口」の動きが5秒間検出されない場合は、ステップS112を肯定判定してステップS113に進む。制御部222−1(マスター)は、検出部20−1によって「口」の動きが検出されている場合は、ステップS112を否定判定して当該判定処理を繰り返す。
つまり、対象者の「口」の動きが検出されている間は、制御部222−1(マスター)がステップS112を否定判定して上記判定処理を繰り返すため、この間に動画撮像部220−3、220−2は、バッファメモリ41−3、41−2にそれぞれ記憶している第2撮像部13−3、13−2による画像データを、記憶媒体99−3、99−2にそれぞれ記録(保存)させる。また、第2マイク33−3、33−2を介して集音されバッファメモリ41−3、41−2に記憶している音声データを、記憶媒体99−3、99−2にそれぞれ記録(保存)させる。
ステップS113において、制御部222−1(マスター)は、第一の実施形態の場合と同様に、「口」の動きが所定時間ない場合に撮像を終了するか否かを判断する。制御部222−1(マスター)は、ステップS113を肯定判定した場合に所定のオフ処理を行って図6による処理を終了する。オフ処理は、全ての動画撮像部220−1〜220−3および動作検出撮像部210による撮像および録音(集音)を終了させる。
一方、制御部222−1(マスター)は、ステップS113を否定判定した場合にステップS114へ進む。ステップS114において、制御部222−1(マスター)は、対象者の顔を認識できるか否かを判定させる。撮像中の機器である動画撮像部220−2および220−3に対し、ステップS103の場合と同様に、それぞれ検出部20−2および20−3により顔認識を指示する。
制御部222−1(マスター)は、対象者(撮影依頼者)が顔認識された場合にはステップS114を肯定判定してステップS110へ戻り、対象者が顔認識されない場合にはステップS114を否定判定してステップS115へ進む。ステップS110へ戻る場合は、撮像を継続させて上述した処理を繰り返す。
ステップS115において、制御部222−1(マスター)は、通信部221−1から指示を送り、動作検出撮像部210による撮像を終了させてステップS116へ進む。ステップS116において、制御部222−1(マスター)は、通信部221−1から指示を送り、動作検出撮像部210による録音を終了させてステップS102へ戻る。
以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)撮像システム200は、複数の第2撮像部13−1〜13−3よりも被写体側に設けられた第1撮像部11と、複数の第2撮像部13−1〜13−3の撮像結果に基づいて、第1撮像部11の撮影方向を調節する駆動部211と、を備えるようにしたので、適切に第1撮像部11の撮影方向を調節できるようになって、使い勝手が向上する。具体的には、被写体が第1撮像部11の撮影画角の外に位置していても、複数の第2撮像部13−1〜13−3による撮像結果に基づいて第1撮像部11の撮影方向を合わせることができる。
(1)撮像システム200は、複数の第2撮像部13−1〜13−3よりも被写体側に設けられた第1撮像部11と、複数の第2撮像部13−1〜13−3の撮像結果に基づいて、第1撮像部11の撮影方向を調節する駆動部211と、を備えるようにしたので、適切に第1撮像部11の撮影方向を調節できるようになって、使い勝手が向上する。具体的には、被写体が第1撮像部11の撮影画角の外に位置していても、複数の第2撮像部13−1〜13−3による撮像結果に基づいて第1撮像部11の撮影方向を合わせることができる。
(2)上記(1)の撮像システム200において、駆動部211は、複数の第2撮像部13−1〜13−3のうち被写体の略正面の顔を撮像する第2撮像部13−3の撮像結果に基づいて、第1撮像部11の撮影方向を調節するので、「顔」に向けて、適切に第1撮像部11の撮影方向を調節できる。
(3)上記(1)または(2)の撮像システム200において、駆動部211は、複数の第2撮像部13−1〜13−3による撮像結果から推定される被写体の顔の正面に向けて、第1撮像部11の撮影方向を調節するので、「顔」の正面に向けて、適切に第1撮像部11の撮影方向を調節できる。
(4)上記(1)から(3)の撮像システム200において、複数の第2撮像部13−1〜13−3(動画撮像部220−1〜220−3)の撮像結果に基づいて、複数の第2撮像部13−1〜13−3(動画撮像部220−1〜220−3)から撮像を継続する第2撮像部13−n(動画撮像部220−n)を選択する制御部222−1を備えたので、適切に選ぶことができる。
(5)上記(4)の撮像システム200において、制御部222−1は、被写体の顔を撮像した第2撮像部13−3(動画撮像部220−3)と、当該第2撮像部13−3(動画撮像部220−3)と隣接する第2撮像部13−2(動画撮像部220−2)を選択するようにしたので、対象者を撮像する可能性が高い動画撮像部220−nを適切に選ぶことができる。
(6)上記(4)の撮像システム200において、制御部222−1は、被写体の動きに応じて、複数の撮像部13−1〜13−3(動画撮像部220−1〜220−3)から少なくとも1つの撮像部13−n(220−n)を選択するようにしたので、例えば、対象者の動きベクトルに基づいて、対象者を撮像できる可能性がより高い動画撮像部220−nを適切に選ぶことができる。
(7)上記(1)〜(3)の撮像システム200において、複数の第2撮像部13−1〜13−3の撮像結果に基づいて、複数の第2撮像部13−1〜13−3(動画撮像部220−1〜220−3)から撮像を中止する第2撮像部13−1(動画撮像部220−1)を選択する選択部222−1を備えるようにしたので、全ての第2撮像部13−1〜13−3(動画撮像部220−1〜220−3)に撮像を継続させる場合に比べて、消費電力を低減できる。
(8)撮像システム200は、被写体の特定部位を撮像する第1撮像部11(動作検出撮像部210)と、第1撮像部11(動作検出撮像部210)の撮像結果に基づいて、第1撮像部11(動作検出撮像部210)とは異なる第2撮像部13−1〜13−3(動画撮像部220−1〜220−3)の画角を変更する制御部222−1と、を備えたので、例えば、対象者の顔を適切な画角で撮像するように制御できる。
(9)上記(8)の撮像システム200において、第2撮像部13−n(動画撮像部220−n)で撮像された画像を記憶媒体99に保存させる記録I/F42−nを備え、記録I/F42−nは、第1撮像部11(動作検出撮像部210)で撮像された画像を記憶媒体99に保存させないようにしたので、例えば、特定部位のみの画像を保存しないように制御できる。
(10)上記(8)または(9)の撮像システム200において、第2撮像部13−n(動画撮像部220−n)で撮像された画像を表示する表示部50を備え、表示部50は、第1撮像部11(動作検出撮像部210)で撮像された画像を表示しないようにしたので、例えば、特定部位のみの画像を表示しないように制御できる。
(変形例2)
上述した第二の実施形態においては、複数の動画撮像部220−nによって1人の対象者を撮像する場合を例にして説明したが、対象者を複数として、複数の対象者を撮像するようにしてもよい。複数の対象者を撮像する場合には、どの対象者をどの動画撮像部220で撮像するかについて割り当ててもよい。例えば、動画撮像部220が撮像しやすい対象者を撮像するようにしてもよい。
上述した第二の実施形態においては、複数の動画撮像部220−nによって1人の対象者を撮像する場合を例にして説明したが、対象者を複数として、複数の対象者を撮像するようにしてもよい。複数の対象者を撮像する場合には、どの対象者をどの動画撮像部220で撮像するかについて割り当ててもよい。例えば、動画撮像部220が撮像しやすい対象者を撮像するようにしてもよい。
上記説明では、電子機器の例として撮像装置100、動作検出撮像部210、動画撮像部220を例示したが、多機能携帯電話機やタブレット型コンピュータなどを用いて撮像装置100や撮像システム200を構成してもよい。
以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。また、上述した第一実施形態と第二実施形態とを適宜組み合わせてもよいことは言うまでもない。
10…撮像部
11…第1撮像部
12、32、211…駆動部
13…第2撮像部
20…検出部
21…顔検出部
22…顔認識部
30…集音部
31…第1マイク
33…第2マイク
40…記録部
41…バッファメモリ
42…記録I/F
43…フラッシュメモリ
50…表示部
60…計時部
70、213、222…制御部
99…記憶媒体
100…撮像装置
200…撮像システム
210…動作検出撮像部
212、221…通信部
220(220−1〜220−3)…動画撮像部
11…第1撮像部
12、32、211…駆動部
13…第2撮像部
20…検出部
21…顔検出部
22…顔認識部
30…集音部
31…第1マイク
33…第2マイク
40…記録部
41…バッファメモリ
42…記録I/F
43…フラッシュメモリ
50…表示部
60…計時部
70、213、222…制御部
99…記憶媒体
100…撮像装置
200…撮像システム
210…動作検出撮像部
212、221…通信部
220(220−1〜220−3)…動画撮像部
Claims (10)
- 複数の撮像部よりも被写体側に設けられた被写体側撮像部と、
前記複数の撮像部の撮像結果に基づいて、前記被写体側撮像部の姿勢を調節する調節部と、を備えたことを特徴とする電子機器。 - 請求項1に記載の電子機器において、
前記調節部は、前記複数の撮像部のうち被写体の略正面の顔を撮像する撮像部の撮像結果に基づいて、前記被写体側撮像部の姿勢を調節することを特徴とする電子機器。 - 請求項1または2記載の電子機器において、
前記調節部は、前記複数の撮像部による撮像結果から推定される被写体の顔の正面に向けて、前記被写体側撮像部の姿勢を調節することを特徴とする電子機器。 - 請求項1から3のいずれか一項に記載の電子機器において、
前記複数の撮像部の撮像結果に基づいて、前記複数の撮像部から撮像を継続する撮像部を選択する選択部を備えたことを特徴とする電子機器。 - 請求項4に記載の電子機器において、
前記選択部は、被写体の顔を撮像した撮像部と、当該撮像部と隣接する撮像部を選択することを特徴とする電子機器。 - 請求項4に記載の電子機器において、
前記選択部は、被写体の動きに応じて、前記複数の撮像部から少なくとも1つの撮像部を選択することを特徴とする電子機器。 - 請求項1から3のいずれか一項に記載の電子機器において、
前記複数の撮像部の撮像結果に基づいて、前記複数の撮像部から撮像を中止する撮像部を選択する選択部を備えたことを特徴とする電子機器。 - 被写体の特定部位を撮像する第1撮像部と、
前記第1撮像部の撮像結果に基づいて、前記第1撮像部とは異なる第2撮像部の画角を変更する変更部と、
を備えたことを特徴とする電子機器。 - 請求項8に記載の電子機器において、
前記第2撮像部で撮像された画像を記憶媒体に保存させる記録制御部を備え、
前記記録制御部は、前記第1撮像部で撮像された画像を前記記憶媒体に保存させないことを特徴とする電子機器。 - 請求項8または9に記載の電子機器において、
前記第2撮像部で撮像された画像を表示する表示部を備え、
前記表示部は、前記第1撮像部で撮像された画像を表示しないことを特徴とする電子機器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012069265A JP2013201643A (ja) | 2012-03-26 | 2012-03-26 | 電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012069265A JP2013201643A (ja) | 2012-03-26 | 2012-03-26 | 電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013201643A true JP2013201643A (ja) | 2013-10-03 |
Family
ID=49521516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012069265A Pending JP2013201643A (ja) | 2012-03-26 | 2012-03-26 | 電子機器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013201643A (ja) |
-
2012
- 2012-03-26 JP JP2012069265A patent/JP2013201643A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6504808B2 (ja) | 撮像装置、音声コマンド機能の設定方法、コンピュータプログラム、及び記憶媒体 | |
CN106131413B (zh) | 一种拍摄设备的控制方法及拍摄设备 | |
JP5247384B2 (ja) | 撮像装置、情報処理方法、プログラムおよび記憶媒体 | |
CN104092936A (zh) | 自动对焦方法及装置 | |
CN110351476B (zh) | 摄像设备和非暂时性记录介质 | |
KR20070001817A (ko) | 촬상장치 및 오토포커스 제어방법 | |
US11503213B2 (en) | Image capturing apparatus, control method, and recording medium | |
JP2010148132A (ja) | 撮像装置、画像検出装置及びプログラム | |
KR20100076792A (ko) | 디지털 촬영 장치 및 그 제어 방법 | |
JP5109853B2 (ja) | 電子カメラ | |
JP2009177480A (ja) | 撮影装置 | |
US8760552B2 (en) | Shooting apparatus | |
JP2009239346A (ja) | 撮影装置 | |
JP2013201642A (ja) | 電子機器 | |
CN111527446B (zh) | 摄像设备及其控制方法和记录介质 | |
JP2010200253A (ja) | 撮像装置 | |
JP5424300B2 (ja) | 再生装置及びプログラム | |
JP7451235B2 (ja) | 撮像装置、制御方法、およびプログラム | |
JP2013201643A (ja) | 電子機器 | |
JP4849330B2 (ja) | 表示制御装置および方法、撮像装置、情報処理装置および方法、並びにプログラム | |
JP2013201644A (ja) | 電子機器 | |
JP2021111960A (ja) | 撮像装置、撮像装置の制御方法、プログラム | |
JP5712599B2 (ja) | 撮像装置及びプログラム | |
JP2013007851A (ja) | 撮像装置 | |
WO2021140879A1 (ja) | 撮像装置、撮像装置の制御方法、プログラム |