JP2008219450A - Imaging device and control method thereof - Google Patents
Imaging device and control method thereof Download PDFInfo
- Publication number
- JP2008219450A JP2008219450A JP2007053645A JP2007053645A JP2008219450A JP 2008219450 A JP2008219450 A JP 2008219450A JP 2007053645 A JP2007053645 A JP 2007053645A JP 2007053645 A JP2007053645 A JP 2007053645A JP 2008219450 A JP2008219450 A JP 2008219450A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- unit
- person
- voice
- composition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、音声をトリガとして自動撮影を行う撮像装置と、その撮像装置の制御方法に関する。 The present invention relates to an imaging apparatus that performs automatic imaging using sound as a trigger, and a method for controlling the imaging apparatus.
デジタルカメラは通常、動画撮影時に音声を録音するためのマイクを備えている。このマイクから入力される特定の音声フレーズを識別し、その音声フレーズが検出されたときに、自動的に撮影動作を行い画像を取得するデジタルカメラが知られている(例えば、特許文献1)。
音声をトリガとして自動撮影を行うデジタルカメラは、便利な反面、無関係な音声に反応して無用な動作を行うことがある。例えば、観光地など人の多いところでは、カメラが近くにいる無関係な人の声に反応してしまうことがある。また、集合写真の撮影などで、未だ撮影の準備が整っていないのにも拘らず、誰かが「ハイ、チーズ」といった声を発してしまったために、撮影が行われてしまうこともある。 A digital camera that performs automatic shooting using voice as a trigger is convenient, but may perform unnecessary operations in response to irrelevant voice. For example, in places with a lot of people such as sightseeing spots, the camera may react to the voice of an irrelevant person nearby. In addition, when a group photo is taken, the shooting may be performed because someone has made a voice such as “High, Cheese” even though it is not yet ready for shooting.
本発明は、音声をトリガとした自動撮影の利便性を確保しつつ、無用な撮影動作が行われてしまう不都合を解消することを目的とする。 An object of the present invention is to eliminate the inconvenience that an unnecessary shooting operation is performed while ensuring the convenience of automatic shooting using voice as a trigger.
本発明は、上記目的を達成するために、2種類の撮像装置を提供する。これらの撮像装置は、いずれも、情景を撮影し、その情景を表す画像データを生成する撮像手段と、撮像手段により生成された画像データを所定の記録媒体に記録する記録手段とを備えており、次に説明する人物抽出手段、音声解析手段、構図判定手段を備える。 In order to achieve the above object, the present invention provides two types of imaging devices. Each of these imaging apparatuses includes an imaging unit that captures a scene and generates image data representing the scene, and a recording unit that records the image data generated by the imaging unit on a predetermined recording medium. A person extraction unit, a voice analysis unit, and a composition determination unit described below are provided.
人物抽出手段は、撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する。例えば、画像データに含まれる顔を探索し、抽出結果として、その探索により検出された顔の数、各顔の位置および各顔の大きさを示す情報を出力するものとする。この場合、探索により検出された顔の表情を識別し、識別された表情を示す情報を、さらに出力するようにしてもよい。また、画像データに含まれる人物のジェスチャーを識別し、抽出結果として、識別されたジェスチャーを示す情報を出力するものとしてもよい。 The person extracting unit extracts an image area representing the person by analyzing the image data generated by the imaging unit. For example, a face included in image data is searched, and information indicating the number of faces detected by the search, the position of each face, and the size of each face is output as an extraction result. In this case, the facial expression detected by the search may be identified, and information indicating the identified facial expression may be further output. Moreover, it is good also as what identifies the gesture of the person contained in image data, and outputs the information which shows the identified gesture as an extraction result.
音声解析手段は、入力された音声を解析することにより音声に係る所定の特徴を検出する。例えば、音声の特徴として、所定の音量変化、所定の音声フレーズ、所定の人物の声の特徴として予め登録された特徴などを検出する。構図判定手段は、人物抽出手段の抽出結果および音声解析手段の検出結果に基づいて、画像データの構図の良否を判定する。 The voice analysis means detects a predetermined feature related to the voice by analyzing the input voice. For example, as a voice feature, a predetermined volume change, a predetermined voice phrase, a feature registered in advance as a voice feature of a predetermined person, and the like are detected. The composition determination means determines the quality of the composition of the image data based on the extraction result of the person extraction means and the detection result of the voice analysis means.
本発明の第1の撮像装置は、上記撮像手段、記録手段、人物抽出手段および構図判定手段に加え、構図判定手段の判定結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングで画像データが記録されるように記録手段を制御する記録制御手段を備える。本発明の第1の撮像装置によれば、自動撮影のトリガとなり得る音声が発せられたとしても、構図が所定の条件を満たしていなければ自動撮影は行われないので、音声のみに反応して無用な撮影は行われる心配がない。 The first imaging device of the present invention determines the timing for recording image data based on the determination result of the composition determination means in addition to the imaging means, recording means, person extraction means and composition determination means, and at the determined timing. A recording control unit is provided for controlling the recording unit so that the image data is recorded. According to the first imaging apparatus of the present invention, even if a sound that can be a trigger for automatic shooting is emitted, automatic shooting is not performed unless the composition satisfies a predetermined condition. There is no worry about unnecessary shooting.
また、本発明の第2の撮像装置は、第1の撮像装置の記録制御手段に代えて、構図判定手段の判定結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングの到来を報知する報知手段を備える。第2の装置は、自動撮影を行うものではないが、構図が所定の条件を満たし且つ所定の音声が発せられたときに、撮影者にシャッタレリーズボタンを押下すべきタイミングが来たことをユーザに報知するので、ユーザは自動撮影と同等の利便性を享受することができる。また、撮影動作が自動で行われることがないので、ユーザの意図に反して撮像装置が無用な動作を行うこともない。 Further, the second imaging apparatus of the present invention determines the timing for recording image data based on the determination result of the composition determination means instead of the recording control means of the first imaging apparatus, and the arrival of the determined timing is reached. Informing means for informing is provided. The second device does not perform automatic shooting, but when the composition satisfies a predetermined condition and a predetermined sound is produced, it is determined that the time has come for the photographer to press the shutter release button. Therefore, the user can enjoy the same convenience as automatic shooting. In addition, since the photographing operation is not automatically performed, the image capturing apparatus does not perform an unnecessary operation against the user's intention.
また、記録手段は、人物抽出手段の抽出結果および音声解析手段の検出結果を、画像データとともに記録媒体に記録することが好ましい。これにより、記録媒体に記録された画像データをパソコンなどで編集するときに、それらの抽出結果を利用した編集を行うことができる。 The recording means preferably records the extraction result of the person extraction means and the detection result of the sound analysis means together with the image data on a recording medium. Thereby, when the image data recorded on the recording medium is edited with a personal computer or the like, editing using the extraction result can be performed.
本発明の第1の制御方法は、撮像装置を次の手順で制御することにより上記第1の撮像装置として動作させる方法である。まず、撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する。これと並行して、入力された音声を解析することにより音声に係る所定の特徴を検出する。続いて、人物の抽出結果および音声の検出結果に基づいて、画像データの構図の良否を判定する。そして、その判定の結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングで画像データが記録されるように、記録手段を制御する。 The first control method of the present invention is a method of operating as the first imaging device by controlling the imaging device according to the following procedure. First, an image region representing a person is extracted by analyzing the image data generated by the imaging means. In parallel with this, the input voice is analyzed to detect a predetermined feature related to the voice. Subsequently, the quality of the composition of the image data is determined based on the person extraction result and the sound detection result. Then, the timing for recording the image data is determined based on the determination result, and the recording means is controlled so that the image data is recorded at the determined timing.
本発明の第2の制御方法は、撮像装置を次の手順で制御することにより上記第2の撮像装置として動作させる方法である。まず、撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する。これと並行して、入力された音声を解析することにより音声に係る所定の特徴を検出する。続いて、人物の抽出結果および音声の検出結果に基づいて、画像データの構図の良否を判定する。そして、所定の出力手段の動作を制御することにより、決定したタイミングの到来をユーザに報知する。 The second control method of the present invention is a method of operating as the second imaging device by controlling the imaging device according to the following procedure. First, an image region representing a person is extracted by analyzing the image data generated by the imaging means. In parallel with this, the input voice is analyzed to detect a predetermined feature related to the voice. Subsequently, the quality of the composition of the image data is determined based on the person extraction result and the sound detection result. And the arrival of the determined timing is alert | reported to a user by controlling operation | movement of a predetermined | prescribed output means.
以下、本発明の方法および装置の一実施形態として、第1の制御方法および第2の制御方法を選択的に用いて制御を行うデジタルカメラを開示する。このデジタルカメラは、通常撮影モード、画像再生モード、自動撮影モードおよび撮影アシストモードの4つの動作モードを有する。自動撮影モードに設定されたときのデジタルカメラが本発明の第1の撮像装置に相当し、撮影アシストモードに設定されたときのデジタルカメラが本発明の第2の撮像装置に相当する。但し、本発明の2つの装置および制御方法は、いずれも独立して実施することが可能であり、以下に示す実施形態に限定されるものではない。 Hereinafter, a digital camera that performs control by selectively using a first control method and a second control method will be disclosed as an embodiment of the method and apparatus of the present invention. This digital camera has four operation modes: a normal shooting mode, an image reproduction mode, an automatic shooting mode, and a shooting assist mode. The digital camera when set to the automatic shooting mode corresponds to the first imaging device of the present invention, and the digital camera when set to the shooting assist mode corresponds to the second imaging device of the present invention. However, the two apparatuses and the control method of the present invention can be implemented independently, and are not limited to the embodiments described below.
はじめにデジタルカメラの構成について説明する。図1Aおよび図1Bは、デジタルカメラ1の外観を示す図であり、図1Aはデジタルカメラの正面を、図1Bは背面を示している。これらの図に示すように、デジタルカメラ1は、撮像レンズ2、シャッタレリーズボタン3、マイク4、操作ダイヤルあるいはボタン5a〜5f、モニタ6、LEDランプ9を備えている。また、デジタルカメラ1の下部には、スピーカ8と開閉可能なスロットカバーがあり(図示せず)、スロットカバーの中にはメモリカード7を装填するカードスロットが備えられている。
First, the configuration of the digital camera will be described. 1A and 1B are views showing the appearance of the
図2は、デジタルカメラ1の内部構成を示す図である。この図に示すように、デジタルカメラ1は、撮像レンズ2、レンズ駆動部16、絞り13、絞り駆動部17、CCD14およびタイミングジェネレータ(TG)18からなる撮像部を備える。撮像レンズ2は、被写体にピントを合わせるためのフォーカスレンズ、ズーム機能を実現するためのズームレンズなど複数の機能別レンズにより構成される。レンズ駆動部16はステッピングモータなど小型のモータで、CCD14から各機能別レンズのまでの距離が目的に適った距離となるように各機能別レンズの位置を調整する。絞り13は複数の絞り羽根からなる。絞り駆動部17は、ステッピングモータなど小型のモータで、絞りの開口サイズが目的に適ったサイズになるように絞り羽根の位置を調整する。CCD14は原色カラーフィルタを伴う500〜1200万画素のCCDで、タイミングジェネレータ18からの指示信号に応じて蓄積された電荷を放出する。タイミングジェネレータ18は、CCD14に所望の時間のみ電荷が蓄積されるようにCCD14に対して信号を送り、これによりシャッタ速度を調整する。
FIG. 2 is a diagram illustrating an internal configuration of the
また、デジタルカメラ1は、CCD14の出力信号をデジタル信号に変換するA/D変換部15と、A/D変換部15が出力した画像データをシステムバス24を介して他の処理部に転送する画像入力制御部23と、画像入力制御部23から転送された画像データを一時記憶するメモリ22を備える。
The
また、デジタルカメラ1は、レンズ駆動部16にレンズの移動を指示して焦点合わせを行う焦点調節部20と、絞り値とシャッタ速度を決定し、絞り駆動部17とタイミングジェネレータ18に指示信号を送出する露出調整部21を備える。また、デジタルカメラ1は、メモリ22に記憶されている画像データに対して画像処理を施す画像処理部25を備える。画像処理部25は、画像を自然な色合い、明るさにするための色階調補正や明るさ補正、画像データが赤目を含むものであるときに赤目を黒目に修正する処理、画像の構図が悪いときに構図を修正する処理など、画像の見栄えを良くするための各種仕上げ処理を行う。画像処理部25により処理された処理済画像データは、再度メモリ22に格納される。
In addition, the
また、デジタルカメラ1は、メモリ22に記憶されている画像データのモニタ6への出力を制御する表示制御部26を備える。表示制御部26は、メモリ22に記憶されている画像データの画素数を、表示に適した大きさとなるように間引きしてから液晶モニタ9に出力する。また、表示制御部26は、動作条件などの設定画面の表示も制御する。
The
また、デジタルカメラ1は、メモリ22に記憶されている画像データのメモリカード7への書込み、およびメモリカード7に記録されている画像データのメモリ22へのロードを制御する記録読出制御部27を備える。記録読出制御部27は、ユーザの設定に応じて撮影により取得された画像データをそのまま、もしくは圧縮符号化し、Exif(Exchangeable Image File Format)ファイルとして、メモリカード7に記録する。Exifは、日本電子工業振興協会(JEIDA)が定めたファイルフォーマット規格である。また、メモリカード7に記録されている画像ファイルの再生を要求する操作が行われたときには、Exifファイルに含まれる画像データを、メモリ22にロードする。画像データが圧縮されている場合には伸長した後、メモリ22にロードする。
Further, the
また、デジタルカメラ1は、LED9の点灯、消灯を制御するLED制御部19を備える。さらには、マイク4、スピーカ8、A/D変換部10、D/A変換部11および音声の入出力を制御する音声入出力制御部12を備える。マイク4から入力され、A/D変換部10によりデジタルデータに変換された音声データは、音声入出力制御部12によりシステムバス24を介してメモリ22に転送され、記憶される。また、各処理部または後述する全体制御部から音声入出力制御部12に供給される音声データは、D/A変換部11により変換された後、スピーカ8に出力される。
The
また、デジタルカメラ1は、画像を取得すべきタイミングを検出するタイミング検出部28を備える。タイミング検出部28は、メモリ22に記憶されている画像データや音声データを解析し、それらのデータが所定の条件を満たすときに、画像を取得すべきタイミングが到来したことを示す信号を出力する。
The
デジタルカメラ1は、この他、CPU(Central Processor Unit)31、操作/制御プログラムが格納されたRAM(Random Access Memory)32、各種設定値が記憶されているEEPROM(Electronically Erasable and Programmable Read Only Memory)33からなる全体制御部30を備える。全体制御部30のCPU31は、EEPROM33に記憶された設定値を参照し、その設定値に基づいてRAM32に記憶されているプログラムを選択、実行する。これにより、全体制御部30は、シャッタレリーズボタン3、操作ダイヤル/ボタン5a〜5fの操作を検出し、あるいは各処理部の処理結果を受けて、LED制御部19、焦点調節部20、露出調整部21、画像入力制御部23、画像処理部25、表示制御部26、記録読出制御部27、タイミング検出部28および音声入出力制御部12に対し、実行すべき処理を指示する指示信号を送出する。これにより、デジタルカメラ1の動作が制御される。
In addition, the
通常撮影モード、自動撮影モードおよび撮影アシストモードでは、全体制御部30の制御の下で、各処理部が、それぞれ焦点調節、露出制御、フラッシュ制御、画像処理、記録などを実行することにより画像が取得される。再生モードでは、全体制御部30の制御の下で、メモリカード7に記録されている画像がモニタ6に出力される。設定モードでは、全体制御部30の制御の下で、モニタ6に設定画面が表示され、操作ダイヤル/ボタン5a〜5fからの操作入力が受け付けられる。設定画面において、ユーザが操作ダイヤル/ボタン5a〜5fを使って選択した情報、あるいはメモリカード7から取り込まれた情報は、EEPROM33に記憶される。
In the normal shooting mode, the automatic shooting mode, and the shooting assist mode, each processing unit performs focus adjustment, exposure control, flash control, image processing, recording, and the like under the control of the
以下、自動撮影モードと撮影アシストモードについて、さらに説明する。図3は、自動撮影モードに設定されたときのデジタルカメラ1の動作概要を示すフローチャートである。デジタルカメラ1は、自動撮影モードに設定されると、レンズに写る情景を表す画像データの生成を開始する(S101)。そして、生成された画像データが表す画像の構図を判定し(S102)、構図が良い場合にはシャッタレリーズボタン3の操作の有無に拘らず、メモリカード7に画像を記録する(S103)。構図が悪い場合には、より良い構図を提案し(S104)、ステップS101において生成される画像データがステップS104において提案した構図となるように、撮像部の動作を制御したり画像処理部25に所定の処理を行わせたりする(S105)。例えば、主要な被写体が小さすぎるときには、撮像部にズーム動作を行なわせる。また、主要な被写体が偏って配置されているときには、画像処理部25に指示して、その被写体が写っている領域のみをトリミングして移動または拡大する画像処理を行わせる。あるいは、垂直に立っているはずの被写体が斜めに写っていたら、回転処理を施して被写体が垂直になるようにする。
Hereinafter, the automatic shooting mode and the shooting assist mode will be further described. FIG. 3 is a flowchart showing an outline of the operation of the
撮像部や画像処理部25により再生成(S101)された画像データは、ステップS102において再び評価される。以上の処理は、モード切替操作が検出されるまで(S106)繰り返される。
The image data regenerated (S101) by the imaging unit or the
図4は、撮影アシストモードに設定されたときのデジタルカメラ1の動作概要を示すフローチャートである。デジタルカメラ1は、撮影アシストモードに設定されると、レンズに写る情景を表す画像データの生成を開始する(S201)。そして、生成された画像データが表す画像の構図を判定(評価)する(S202)。
FIG. 4 is a flowchart showing an outline of the operation of the
構図が良い場合には、タイミングの到来を報知する(S203)。図5および図6に、タイミング到来の報知例を示す。図5は、モニタ6にシャッタレリーズボタンの押下を促すマーク34を表示することで、タイミングの到来を報知する例を示している。マークに代えて「シャッタチャンスです」といったメッセージを表示してもよい。図6は、LEDランプ9を点滅させることで、タイミングの到来を報知する例を示している。この他、スピーカからの音声出力によりタイミングの到来を報知する方法も考えられる。
If the composition is good, the arrival of timing is notified (S203). 5 and 6 show notification examples of timing arrival. FIG. 5 shows an example in which the arrival of timing is notified by displaying a
構図が悪い場合には、より良い構図を提案する(S204)。そして、提案する構図をモニタ6に表示することにより(以下、アシスト表示と称する)、撮影者に対しカメラの構え方を直すよう、あるいは所定の操作ボタンを操作するよう促す(S205)。図7および図8に、アシスト表示の一例を示す。図7は、撮影されたままの画像データにフレーミング枠35を重ねて表示することで、好ましいフレーミングのしかたを提示する例を示している。図8は、画像処理により生成した好ましいフレーミングの画像を表示し、画面の端にフレーミングをどのようにすれば表示中の画像のような画像データを取得できるかを示唆するマーク36を表示した例である。この他、「ズームして下さい。」、「カメラを少し左に向けて下さい。」といったメッセージを表示あるいは音声出力することで、好ましいフレーミングを提示してもよい。撮影アシストモードでは、以上の処理が、モード切替操作が検出されるまで(S206)繰り返される。
If the composition is bad, a better composition is proposed (S204). Then, by displaying the proposed composition on the monitor 6 (hereinafter referred to as assist display), the photographer is prompted to correct the way the camera is held or to operate a predetermined operation button (S205). 7 and 8 show examples of assist display. FIG. 7 shows an example in which a preferred framing method is presented by displaying a framed
続いて、ステップS102およびS202の構図を判定する処理と、ステップS104およびS204の構図を提案する処理について、さらに詳しく説明する。構図の判定および構図の提案は、図2のタイミング検出部28が行う。図9はタイミング検出部28の構成を示す図である。図に示すように、タイミング検出部28は、人物抽出手段41、非人物抽出手段42、音声解析手段43、構図判定手段44および構図提案手段45により構成される。なお、タイミング検出部28は、手段41〜45として機能するLSIにより構成された回路でもよいし、手段41〜45の処理を実行するソフトウェアプログラムが組み込まれたマイクロコンピュータでもよい。
Next, the process for determining the composition in steps S102 and S202 and the process for proposing the composition in steps S104 and S204 will be described in more detail. Composition determination and composition proposal are performed by the
人物抽出手段41は、メモリ22に記憶されている画像データを読み込み、画像データ内の人物領域を探索する。本実施形態では、顔の探索を行うことにより人物を検出する。人物抽出手段41は、顔を検出した場合には、通し番号などの識別子を付した後、顔領域の面積と顔を含む身体全体を現す領域(以下、全身領域)の面積および重心座標を算出する。重心座標は、顔の面積が所定値を超えるときは顔領域の重心座標を、所定値以下のときは全身領域の重心座標を求める。例えば図10Aおよび図10Bの例示のように顔領域が比較的大きい場合には、個々の顔領域の重心座標が算出される。また、図10Cおよび図10Dのように顔領域が小さい場合には、十字印で示される全身領域の重心座標が算出される。人物抽出手段41は、全領域の探索を終えると、検出された人物の数、位置、大きさを示す情報として、検出された人物の総数と、各人物の顔領域の範囲および面積と、全身領域の範囲および面積と、重心座標とを、タイミング検出部28が備えるメモリ(図示せず)に記憶する。
The person extracting means 41 reads the image data stored in the
なお、顔を探索し検出する手法としては、特開2001−51338号公報に紹介されているとおり、肌色領域を顔として検出する方法、髪や目や口など幾何学的特徴を有するパーツの有無により顔か否かを判別して顔を検出する方法、その他種々の方法が知られている。人物抽出手段41が実行する顔検出処理には、公知のあらゆる手法を利用することができる。
As a method for searching for and detecting a face, as introduced in Japanese Patent Application Laid-Open No. 2001-51338, a method for detecting a skin color area as a face, presence of parts having geometric features such as hair, eyes and mouth There are known a method for detecting a face by determining whether or not it is a face, and various other methods. Any known method can be used for the face detection processing executed by the
人物抽出手段41は、続いて、検出された顔の表情を識別する。但し表情の識別は、自動撮影モードの詳細設定において表示識別機能がONに設定されているときのみ実行する。あるいは、検出された顔の大きさが所定値以上であるときのみ表情の識別を行なうこととしてもよい。本実施形態では、人物抽出手段41は、図11A、11B、11C、11Dに例示する笑い顔、怒り顔、泣き顔、驚き顔の4つの表情を識別する。図の例から明らかであるように、これらの表情は、それぞれ、目や口の開き具合、眉や口角の上がり具合に特徴があるので、それらの部位の画像的特徴に基づき表情を識別することができる。表情を識別する手法は、特開2001−51338号公報に紹介されている手法をはじめ種々の方法が知られており、人物抽出手段41が実行する表情識別処理には、公知のあらゆる手法を利用することができる。人物抽出手段41は、識別した表情を、タイミング検出部28が備えるメモリに記憶する。
The person extraction means 41 then identifies the detected facial expression. However, facial expression identification is performed only when the display identification function is set to ON in the detailed settings of the automatic shooting mode. Alternatively, facial expressions may be identified only when the size of the detected face is greater than or equal to a predetermined value. In the present embodiment, the
人物抽出手段41は、さらに、検出された顔を持つ人物のジェスチャーを識別する。ジェスチャーの識別は、自動撮影モードの詳細設定においてジェスチャー識別機能がONに設定されているときのみ実行する。あるいは、検出された顔の大きさが所定値以上であるときは表情の識別を行ない、所定値以下であるときはジェスチャーの識別を行なうこととしてもよい。 The person extracting means 41 further identifies a gesture of a person having the detected face. Gesture identification is executed only when the gesture identification function is set to ON in the detailed settings of the automatic shooting mode. Alternatively, facial expressions may be identified when the detected face size is greater than or equal to a predetermined value, and gestures may be identified when the detected face size is less than or equal to a predetermined value.
本実施形態では、タイミング検出部28が備えるメモリには、よく知られているジェスチャーが、そのジェスチャーの幾何学的特徴を表すデータとして予め登録されている。例えば、図12Aに例示する人差し指と中指のみを立てるジェスチャー(ピース)、図12Bに例示する両腕を上げるジェスチャー(万歳、ガッツポーズ)、その他、親指と人差し指で円を作るジェスチャー(OKまたは円)、親指だけを立てて上に向けるジェスチャー(グッド)などが登録されている。人物抽出手段41は、メモリ22から読み込んだ画像データの顔周辺から抽出された幾何学的特徴を登録データと照合する。そして、抽出された特徴が登録されているジェスチャーの特徴と一致したときには、そのジェスチャー名もしくは予め決められているジェスチャーの識別子を、タイミング検出部28が備えるメモリに記憶する。
In the present embodiment, a well-known gesture is registered in advance in the memory included in the
ジェスチャーを識別する手法もまた、特開2001−51338号公報に紹介されている手法をはじめ種々の方法が知られている。人物抽出手段41が実行するジェスチャー識別処理には、公知のあらゆる手法を利用することができる。
Various methods are known as a method for identifying a gesture, including the method introduced in Japanese Patent Laid-Open No. 2001-51338. Any known technique can be used for the gesture identification process executed by the
人物抽出手段41は、続いて顔領域の合計面積を算出する。例えば、図10A〜10Dの例であれば、それぞれ、点線枠として表示した領域の面積の合計を算出する。但し、全身領域の面積の合計を算出することとしてもよい。 The person extraction means 41 then calculates the total area of the face area. For example, in the example of FIGS. 10A to 10D, the total area of the regions displayed as dotted line frames is calculated. However, the total area of the whole body region may be calculated.
人物抽出手段41は、算出された領域面積の合計が所定の閾値を上回るときは、タイミング検出部28が備えるメモリに記憶しておいた顔の数、顔領域の面積、全身領域の面積、重心座標、表情およびジェスチャーの情報を構図判定手段44にのみ供給する。一方、算出された領域面積の合計が所定の閾値以下であるときは、メモリに記憶しておいた情報を、構図判定手段44と非人物抽出手段42に供給する。
When the total of the calculated area areas exceeds a predetermined threshold, the person extracting means 41 determines the number of faces stored in the memory included in the
非人物抽出手段42は、画像データに含まれる人物以外の主要被写体を抽出する。本実施形態では、非人物抽出手段42は、メモリ22に記憶されている画像データを読み込み画像データの、顔もしくは胴体を含む人物に相当する領域の画素値を0に置き換えるなどして、画像データから人物領域のデータを消去する。例えば、読み込んだ画像データが図13Aに例示するように人物50a、50bと人物以外の被写体51を含む画像データであったとする。また、人物抽出手段41からは、図の点線枠で囲われた領域52a、52bについて、重心などの情報が供給されているものとする。この画像データから人物領域52a、52b内の画素データを消去すれば、図13Bに例示するように被写体51のみを含む画像データが得られる。
The non-person extracting means 42 extracts main subjects other than the person included in the image data. In the present embodiment, the non-person extracting means 42 reads the image data stored in the
続いて、非人物抽出手段42は、人物領域52a、52bの情報が消去された画像データに対し、ハイパスフィルタを用いたフィルタリング処理を施す。これにより、図13Cに例示するように、被写体51のエッジ部分が抽出されたエッジ画像53が得られる。エッジ画像53は、画像データに含まれている人物以外の被写体の輪郭からなる画像であるので、この画像を解析することにより、図13Dに例示するように、被写体53が配置された大まかな領域54を識別することができる。非人物抽出手段42は、識別された領域54の面積および重心座標を算出し、構図判定手段44に供給する。
Subsequently, the
人物以外の被写体領域を識別する方法としては、ハイパスフィルタによるフィルタリング処理に代えて、フーリエ変換を利用して特定の(エッジに相当する)周波数成分のみを取り出す方法も考えられる。また、周波数解析ではなく、色の情報を利用した解析を行なうことにより主要被写体を抽出する方法も考えられる。例えば、画素値が所定の色を表す値であるときはそのままの値とし、所定の色以外の色を表す値であるときは画素値を0または1に置き換える。これにより、画像は2つの領域に分割され、その所定の色の被写体もしくはその所定の色以外の被写体が配置されている領域が抽出される。この他、人物とともに撮影されやすい対象(例えばペットとしてよく飼われる動物など)については、Adaboostアルゴリズムなど学習に基づく判別アルゴリズムを利用して識別を行ない、被写体領域を示すデータを生成することもできる。 As a method of identifying a subject area other than a person, a method of extracting only a specific frequency component (corresponding to an edge) using Fourier transform instead of filtering processing using a high-pass filter is conceivable. Also, a method of extracting a main subject by performing analysis using color information instead of frequency analysis is also conceivable. For example, when the pixel value is a value representing a predetermined color, the value is left as it is, and when the pixel value is a value representing a color other than the predetermined color, the pixel value is replaced with 0 or 1. As a result, the image is divided into two regions, and the region where the subject of the predetermined color or the subject other than the predetermined color is arranged is extracted. In addition, an object that is likely to be photographed with a person (for example, an animal often kept as a pet) can be identified using a discrimination algorithm based on learning, such as the Adaboost algorithm, to generate data indicating a subject area.
なお、画像の鮮鋭度は画像データを取得したときのシャッタスピードに依存することがあり、画像の色は測光値や絞りなどに依存することがある。このため、画像解析を行なうときに、画像データが生成されたときの各種調整値、設定値を考慮に入れることで、被写体領域の識別が容易になることもある。 Note that the sharpness of the image may depend on the shutter speed when the image data is acquired, and the color of the image may depend on the photometric value or the aperture. For this reason, when performing image analysis, the subject area may be easily identified by taking into account various adjustment values and setting values when the image data is generated.
音声解析手段43は、マイク4から入力される音声を解析し、以下の音声を検出する。第1に音声解析手段43はマイク4から入力される音声の音量を常時計測し、所定の閾値と比較する。図14は、横軸を時間、縦軸を音量としたグラフを示している。音声解析手段43は、図14の例示における時点T、すなわち音量が急激に変化して閾値Thを超えた時点を検出する。スポーツ観戦時の撮影やパーティでの撮影では、例えばサッカーのゴールシーンや結婚式の乾杯シーンなど、歓声が上がった瞬間がシャッタチャンスであることが多い。よって、音量が急激に変化した時点を検出することで、シャッタチャンスを検出することができる。あるいは、音量が変化したことを検出するのではなく、音量が閾値Thを超えていることを検出するだけでもよい。歓声が上がっている間は常にシャッタチャンスと考えることもできるからである。反対に、例えば赤ん坊の寝顔を撮影したい場合など、静かになったときがシャッタチャンスである場合には、音量が閾値を下回った時点あるいは下回っている状況を検出してもよい。音量を解析した結果、いずれの時点を検出するかは、設定により変更することができる。
The voice analysis means 43 analyzes the voice input from the
また、音声解析手段43は、音声が表すフレーズを識別し、予め登録されている特定のフレーズと照合を行なう。この登録データはタイミング検出部28が備えるメモリに記憶されており、例えば、「ハイ、チーズッ」、「カンパーイ」など、シャッタレリーズボタンを押すタイミングと同期して発せられる可能性が高いフレーズが登録されている。また、本実施形態では、登録データの1つとして、声を登録することができ、さらには、声とフレーズとを対応付けて登録することもできる。音声解析手段43は、これらの登録データとの照合を行なうことにより、(a)登録フレーズが音声として発せられた時点、(b)登録者が音声を発した時点、(c)登録者が登録フレーズを音声として発した時点、を検出することができる。(a)、(b)、(c)のいずれの時点を検出するかは、原則として設定によって決まる。但し、登録データの登録状況に応じて、設定と異なる処理を実行してもよい。例えば、検出したい時点として(c)が設定されていても、声が登録されていなければ(a)の時点を検出するようにする。
Moreover, the voice analysis means 43 identifies the phrase represented by the voice, and collates it with a specific phrase registered in advance. This registration data is stored in a memory provided in the
なお、音量に基づく検出処理とフレーズの照合に基づく検出処理を、両方とも実行するか、一方のみ実行するか、一方のみ実行するとすればいずれを実行するかは、設定に依存する。 Note that it is dependent on the setting whether both the detection process based on volume and the detection process based on phrase matching are executed, or only one or only one is executed.
続いて、構図判定手段44の処理について説明する。図9に示されるように、構図判定手段44には、メモリ22から読み込んだ画像データと、人物抽出手段41、非人物抽出手段42による抽出結果と、音声解析手段43による検出結果とが供給される。但し、抽出や検出が行われなかったときには、供給する情報が無いことを示す値(例えば0)が入力される。
Next, processing of the
図15は、構図判定手段44の処理の一例を示すフローチャートである。構図判定手段44に対しては、人物抽出手段41から各人物の顔領域の範囲および面積、全身領域の範囲および面積、人物の重心座標、表情、ジェスチャーの情報が、非人物抽出手段42から、人物以外の被写体の範囲、面積および重心座標の情報が、また音声解析手段43から音声の検出結果の情報が供給されるものとする。
FIG. 15 is a flowchart illustrating an example of processing of the
構図判定手段44は、まず、人物を含む被写体の配置のバランスを評価する(S301)。人物抽出手段41がN人(Nは整数)の人物を検出し、非人物抽出手段42がM個(Mは整数)の被写体を検出したとすると、構図判定手段44は、抽出された個々の人物領域もしくは被写体領域の重心座標から、N+M個の領域全体の重心座標を算出する。例えば、図13A〜13Dに例示した画像であれば、図16に示すように、人物領域52a、52bの重心g1、g2と被写体領域54の重心g3の座標に基づいて、3つの領域の重心Gの座標を算出する。そして、重心Gが画像中央の所定範囲55内にあれば配置バランスが良いと判断し、所定範囲55を外れていれば、配置バランスが悪いと判断する。
The
なお、N+M個の領域全体の重心座標を算出するときには、各領域の重心に、その対象の面積に応じた重み付けをしてから、重心座標を求めてもよい。面積の大きな対象ほど重み付けを大きくすれば、領域全体の重心は、面積が大きな対象に近い位置となる。例えば、図17の例示では、各領域に均等な重み付けをして求めた場合の重心は範囲55を外れた点GAとなり、配置バランスは悪いと判断される。しかし、面積の大きな領域ほど重み付けを大きくする算出方法では、算出される重心は範囲55内の点GBとなり、配置バランスは良いと判断される。
When calculating the center-of-gravity coordinates of the entire N + M regions, the center-of-gravity coordinates may be obtained after weighting the center of gravity of each region according to the area of the target. If the weighting is increased for an object having a larger area, the center of gravity of the entire region becomes a position closer to the object having a larger area. For example, in the illustration of FIG. 17, the center of gravity obtained by weighting each region equally is the point GA that is out of the
また、構図判定手段44は、一部の被写体に関しては、配置バランスのみならず、回転ぶれの評価も行なう。ここで、回転ぶれとは、画像に含まれる被写体の向きや方向が実世界における被写体の向きや方向と異なることをいう。例えば垂直に立つ高層ビルが画像中斜めに配置されている場合には、回転ぶれ有りと判定する。非人物抽出手段42が、学習に基づく判別アルゴリズムを利用した被写体抽出を行なう形態では、非人物抽出手段42は被写体の輪郭のみならず、その被写体の種類を判別することができる。そして、そのような被写体に関しては、非人物抽出手段43から構図判定手段44に対し、被写体の種類を示す情報が供給される。構図判定手段44は、抽出された被写体が、高層ビルや水平線のように、実世界において垂直あるいは水平に配置された対象であるときには、抽出された被写体の向きや方向を算出し、回転ぶれの有無を判定する。
In addition, the
構図判定手段44は、ステップS302において、配置バランスが悪いと判断したとき、あるいは回転ぶれが有ると判断したときには、構図が悪い(NG)との判定結果を出力する(S306)。
The
構図判定手段44は、配置バランスが良く回転ぶれもないと判断したときには、人物抽出手段41から供給された表情の情報に基づき、人物の表情が、シャッタレリーズボタンを押すに相応しい特定の表情であるか否かを判定する(S303)。もしくは、直前に供給された表情の情報と照合し、表情に変化があったか否か判定する。但し、表情の判定は、顔領域の面積が所定値以上のときのみ行なうこととしてもよい。特定の表情である(あるいは変化があった)場合には、構図が良い(OK)との判定結果を出力する(S307)。 When the composition determination means 44 determines that the arrangement balance is good and there is no rotation blur, the facial expression of the person is a specific expression suitable for pressing the shutter release button based on the facial expression information supplied from the person extraction means 41. It is determined whether or not (S303). Alternatively, it is compared with the facial expression information supplied immediately before to determine whether or not the facial expression has changed. However, facial expression determination may be performed only when the area of the face region is equal to or greater than a predetermined value. If the expression is specific (or has changed), a determination result that the composition is good (OK) is output (S307).
表情が特定の表情でない(あるいは変化がない)場合には、構図判定手段44は、人物抽出手段41から供給されたジェスチャーの情報に基づき、人物が、シャッタレリーズボタンを押すに相応しいジェスチャーをしているか否かを判定する(S304)。もしくは、直前に供給されたジェスチャーの情報との照合し、人物の動きに変化があったか否か判定する。但し、ジェスチャーの判定は、人物領域の面積が所定値以上のときのみ行なうこととしてもよい。特定のジェスチャーあるいは動きがあった場合には、構図が良いとの判定結果を出力する(S307)。 If the facial expression is not a specific facial expression (or no change), the composition determination means 44 performs a gesture suitable for the person to press the shutter release button based on the gesture information supplied from the person extraction means 41. It is determined whether or not there is (S304). Alternatively, it is checked against the gesture information supplied immediately before to determine whether there has been a change in the movement of the person. However, the determination of the gesture may be performed only when the area of the person region is equal to or larger than a predetermined value. When there is a specific gesture or movement, a determination result that the composition is good is output (S307).
特定のジェスチャーあるいは動きがなかった場合には、構図判定手段44は、音声解析手段43から供給された情報に基づいて、特定の音声が検出されたか否かを判定する(S305)。そして、特定の音声が検出されていなかった場合には、構図が悪いとの判定結果を出力し(S306)、特定の音声が検出されていた場合には、構図が良いとの判定結果を出力する(S307)。
If there is no specific gesture or movement, the
構図判定手段44が、構図が良いとの判定結果を出力した場合、タイミング検出部28は、その判定結果を全体制御部30に送信する。この判定結果を受けた全体制御部30は、デジタルカメラ1が自動撮影モードに設定されているときであれば、記録読出制御部27に対し、メモリ22に記憶されている画像データをメモリカード7に記録するよう指示する。また、撮影アシストモードに設定されているときであれば、表示制御部26に対し、モニタに、シャッタチャンスの到来を告げるマークあるいはメッセージを表示するよう指示する(図5)。あるいは、LED制御部19に対し、LED9の点灯を指示する(図6)。
When the
なお、本実施形態では、記録読出制御部27は、構図の判定に利用した情報を、画像データの付属情報としてメモリカード7に記録する。詳細には、Exifファイルのタグ部分に記録する。一方、構図判定手段44は、構図が悪いと判定したときは、構図提案手段45に対し、構図の判定に利用した情報を供給する。構図提案手段45は、これらの情報を用いて、以下に説明する処理を実行する。
In the present embodiment, the recording /
構図提案手段45は、構図判定手段44から供給された情報を解析し、構図が悪いと判定された画像について、より好ましい構図を提案する。ここで構図を提案するとは、画像に含まれる被写体について、構図判定の判定基準を満たすような配置を決定することを意味する。決定された構図は、その構図の画像を取得するために実行すべき処理の情報とともに出力される。例えば、図18Aに例示するように、撮影された画像から抽出された領域52a、52b、54が左下に偏って配置されている場合、図18Bに例示するように領域52a、52b、54の重心Gが画像の中央に配置された構図を提案する。あるいは、図18Cに例示するように領域52a、52b、54の重心Gが画像の中央に配置され、且つ被写体がより大きく写った構図を提案する。そして、その構図の画像を取得するために実行すべき処理の情報として、2種類の情報を出力する。
The composition proposing means 45 analyzes the information supplied from the
構図提案手段45が出力する第1の情報は、撮影により取得された画像データを、画像処理により好ましい構図の画像データに変換するときに必要になる情報である。例えば、図18Bの例ではトリミング範囲(図の太枠)と重心Gの移動方向(移動ベクトル)、図18Cの例では、トリミング範囲と重心の移動方向、拡大倍率などの情報が出力される。 The first information output by the composition proposing means 45 is information necessary when converting image data acquired by photographing into image data having a preferable composition by image processing. For example, in the example of FIG. 18B, the trimming range (thick frame in the figure) and the moving direction (movement vector) of the center of gravity G are output. In the example of FIG.
構図提案手段45が出力する第2の情報は、再撮影により、より好ましい構図の画像データを取得するときに必要になる情報である。例えば、図18Bの例では、カメラをより左に向ける操作を示す情報が出力される。また、図18Cの例では、カメラをより左に向ける操作と、設定すべき撮影倍率の情報が出力される。 The second information output by the composition proposing means 45 is information necessary for acquiring image data having a more preferable composition by re-photographing. For example, in the example of FIG. 18B, information indicating an operation for turning the camera to the left is output. Further, in the example of FIG. 18C, an operation for turning the camera to the left and information on the photographing magnification to be set are output.
この他、構図が悪いと判定される原因には回転ぶれがあるが、回転ぶれの場合には、第1の情報として傾きを修正するときの回転方向および角度の情報が、また第2の情報としてカメラを左あるいは右に傾けるべきことを示す情報が出力される。なお、構図が悪いと判定された要因が、表情、ジェスチャーあるいは音声であった場合には、画像処理による修正は行えないため、判定要因が表情、ジェスチャーあるいは音声であることを示す情報が出力される。 In addition, there is rotational blurring as a cause for determining that the composition is bad. In the case of rotational blurring, the first information includes information on the rotation direction and angle when correcting the tilt, and second information. Information indicating that the camera should be tilted to the left or right is output. In addition, if the factor determined to be poor composition is a facial expression, gesture or voice, it cannot be corrected by image processing, so information indicating that the judgment factor is a facial expression, gesture or voice is output. The
構図提案手段45が出力した上記各情報は、全体制御部30へと送信される。この判定結果を受けた全体制御部30は、デジタルカメラ1が自動撮影モード、撮影アシストモードのいずれに設定されているかを判断し、それぞれのモードに応じた処理を行う。
Each information output from the composition proposing means 45 is transmitted to the
デジタルカメラ1が自動撮影モードに設定されているときには、全体制御部30は、画像処理部25に対し、メモリ22から画像データを読み込んで、構図を改善するために必要な画像処理(トリミング、移動、拡大縮小、回転など)を実行するよう指示する。また、表示制御部26に対し、画像処理部25による処理済画像データをモニタ6に表示するよう指示する。さらには、記録読出制御部27に対し、画像処理部25による処理済画像データをメモリカード7に記録するよう指示する。
When the
本実施形態では、表示制御部26は上記指示を受けたときに、図19に例示するように、撮影されたとおりの構図の画像データ(撮影画像)を記録するか、提案された構図の画像データ(提案画像)を記録するか、撮影画像と提案画像の両方を記録するかをユーザに選択させるための選択画面を表示する。そして、記録読出制御部27は、この選択画面で選択された画像データをメモリカード7に記録する。但し、このような選択画面を表示せず、無条件に、提案画像のみ、もしくは撮影画像と提案画像の両方を記録することとしてもよい。
In the present embodiment, when the
なお、本実施形態では、上記指示を受けた記録読出制御部27は、構図判定手段44が構図判定に利用した情報、すなわちN+M個の領域全体の重心座標、回転ぶれを判定した被写体の向き、人物の表情およびジェスチャー、検出された音声などの情報を、画像データの付属情報としてメモリカード7に記録する。さらには、構図提案手段45が出力する第1の情報、すなわち、撮影により取得された画像データを画像処理により好ましい構図の画像データに変換するときに必要になる情報も、画像データの付属情報としてメモリカード7に記録する。詳細には、これらの情報は、Exifファイルのタグ部分に記録される。
In the present embodiment, the recording /
Exifファイルのタグ部分に記録された情報は、パソコンを使って画像を編集するときに利用することができる。例えば、撮影画像と、構図提案手段45が出力した第1の情報とがあれば、提案画像と同等の画像をパソコン上で生成することができるので、提案画像の記録を行わず、画像ファイルのファイルサイズを抑えることができる。また、構図提案手段45が出力した第1の情報をベースにしつつ、少し手を加えることで、構図提案手段45が提案した構図と異なる構図の画像を生成することもできる。 The information recorded in the tag portion of the Exif file can be used when editing an image using a personal computer. For example, if there is a photographed image and the first information output by the composition proposing means 45, an image equivalent to the proposed image can be generated on a personal computer. File size can be reduced. In addition, an image having a composition different from the composition proposed by the composition proposing means 45 can be generated by slightly modifying the first information output from the composition proposing means 45.
一方、デジタルカメラ1が撮影アシストモードに設定されているときには、全体制御部30は、画像処理部25に対し、メモリ22から画像データを読み込んで、構図を改善するために必要な画像処理(トリミング、移動、拡大縮小、回転など)を実行するよう指示する。また、表示制御部26に対し、画像処理部25による処理済画像データと、構図提案手段45が出力した第2の情報に基づいて生成したマークもしくはメッセージを、表示するよう指示する。これにより、図7および図8を参照して説明したアシスト表示が行われる。
On the other hand, when the
本実施形態では、デジタルカメラを自動撮影モードに設定しておけば、撮影された画像の構図が良く且つ所定の音声が検出されたときに、自動的に画像データがメモリカードに記録される。所定の音声が検出されただけでは、デジタルカメラは反応しないので、カメラを被写体に向ける前に撮影動作が行われたり、たまたま近くにいた者の声に反応して無用な撮影動作が行われることもない。すなわち、音声をトリガとした自動撮影の利便性を確保しつつ、無用な撮影が行われる不都合を解消することができる。 In the present embodiment, if the digital camera is set to the automatic shooting mode, the composition of the shot image is good and the image data is automatically recorded on the memory card when a predetermined sound is detected. The digital camera does not react if only a predetermined sound is detected, so a shooting operation is performed before the camera is pointed at the subject, or an unnecessary shooting operation is performed in response to the voice of a person who happened to be near Nor. That is, it is possible to eliminate the inconvenience of unnecessary shooting while ensuring the convenience of automatic shooting using voice as a trigger.
また、撮影アシストモードでは、撮影者にシャッタチャンスが報知されるが、この報知も、所定の音声が検出されただけでは行われない。撮影された画像の構図が良く且つ所定の音声が検出されてはじめて、シャッタチャンスであることが報知されるので、誤った報知がなされることはない。撮影アシストモードでは、報知されたタイミングでシャッタレリーズボタンを押下するだけで、簡単に構図の良い画像を取得することができ、自動撮影と同等の利便性を享受することができる。 In the photographing assist mode, the photographer is notified of the photo opportunity, but this notification is not performed only when a predetermined sound is detected. Only when the composition of the photographed image is good and a predetermined sound is detected, it is notified that there is a photo opportunity, so that no erroneous notification is made. In the shooting assist mode, an image with a good composition can be easily acquired by simply pressing the shutter release button at the notified timing, and the same convenience as in automatic shooting can be enjoyed.
なお、上記実施形態では、非人物抽出手段42により人物以外の対象を抽出しているが、非人物抽出手段42を設けない形態も考えられる。この場合、構図判定手段は、人物のみの配置を評価して構図を判定する。あるいは、配置の評価は行なわず、人物が含まれていれば良い構図、含まれていなければ悪い構図と判定してもよい。構図を判定するときの判定方法、判定に利用する情報、判定基準は、他にも種々考えられ、上記実施形態に限定されるものではない。また、上記実施形態では、構図提案手段45により構図の提案を行っているが、構図提案手段45を設けない形態も考えられる。
In the above embodiment, the
なお、上記実施形態の説明では、静止画撮影を行う場合を例示しながら説明しているが、本発明は、動画撮影において自動的に記録を開始したい場合などにも有用である。 In the description of the above embodiment, a case where still image shooting is performed is described as an example. However, the present invention is also useful when it is desired to automatically start recording in moving image shooting.
1 デジタルカメラ、 2 レンズ、 3 シャッタレリーズボタン、 4 マイク、
5a〜5f 操作ダイヤル/ボタン、 6 モニタ、 7 メモリカード、
8 スピーカ、 9 LEDランプ
1 digital camera, 2 lens, 3 shutter release button, 4 microphone,
5a to 5f Operation dial / button, 6 monitor, 7 memory card,
8 Speaker, 9 LED lamp
Claims (11)
前記撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する人物抽出手段と、
入力された音声を解析することにより音声に係る所定の特徴を検出する音声解析手段と、
前記人物抽出手段の抽出結果および前記音声解析手段の検出結果に基づいて、前記画像データの構図の良否を判定する構図判定手段と、
前記構図判定手段の判定結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングで画像データが記録されるように、前記記録手段を制御する記録制御手段とを備えた撮像装置。 An imaging apparatus comprising: an imaging unit that shoots a scene and generates image data representing the scene; and a recording unit that records image data generated by the imaging unit on a predetermined recording medium,
A person extracting means for extracting an image region representing a person by analyzing the image data generated by the imaging means;
Voice analysis means for detecting a predetermined feature of the voice by analyzing the input voice;
Composition determining means for determining the quality of the composition of the image data based on the extraction result of the person extracting means and the detection result of the voice analyzing means;
An imaging apparatus comprising: a recording control unit that determines a timing for recording image data based on a determination result of the composition determination unit, and controls the recording unit so that the image data is recorded at the determined timing.
前記撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出する人物抽出手段と、
入力された音声を解析することにより音声に係る所定の特徴を検出する音声解析手段と、
前記人物抽出手段の抽出結果および前記音声解析手段の検出結果に基づいて、前記画像データの構図の良否を判定する構図判定手段と、
前記構図判定手段の判定結果に基づいて画像データを記録するタイミングを決定し、決定したタイミングの到来を報知する報知手段とを備えた撮像装置。 An imaging apparatus comprising: an imaging unit that shoots a scene and generates image data representing the scene; and a recording unit that records image data generated by the imaging unit on a predetermined recording medium,
A person extracting means for extracting an image region representing a person by analyzing the image data generated by the imaging means;
Voice analysis means for detecting a predetermined feature of the voice by analyzing the input voice;
Composition determining means for determining the quality of the composition of the image data based on the extraction result of the person extracting means and the detection result of the voice analyzing means;
An imaging apparatus comprising: a notification unit that determines a timing for recording image data based on a determination result of the composition determination unit, and notifies the arrival of the determined timing.
前記撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出し、
入力された音声を解析することにより音声に係る所定の特徴を検出し、
前記人物の抽出結果および前記音声の検出結果に基づいて、前記画像データの構図の良否を判定し、
前記判定の結果に基づいて画像データを記録するタイミングを決定し、
決定したタイミングで画像データが記録されるように、前記記録手段を制御する、撮像装置の制御方法。 An imaging apparatus control method comprising: an imaging unit that captures a scene and generates image data representing the scene; and a recording unit that records the image data generated by the imaging unit on a predetermined recording medium,
By analyzing the image data generated by the imaging means, an image region representing a person is extracted,
Analyzing the input speech to detect certain features related to the speech,
Based on the extraction result of the person and the detection result of the sound, the quality of the composition of the image data is determined,
Determine the timing for recording image data based on the result of the determination,
An image pickup apparatus control method for controlling the recording unit so that image data is recorded at a determined timing.
前記撮像手段により生成された画像データを解析することにより、人物を表す画像領域を抽出し、
入力された音声を解析することにより音声に係る所定の特徴を検出し、
前記人物の抽出結果および前記音声の検出結果に基づいて、前記画像データの構図の良否を判定し、
所定の出力手段の動作を制御することにより、前記決定したタイミングの到来をユーザに報知する、撮像装置の制御方法。 An imaging apparatus control method comprising: an imaging unit that captures a scene and generates image data representing the scene; and a recording unit that records the image data generated by the imaging unit on a predetermined recording medium,
By analyzing the image data generated by the imaging means, an image region representing a person is extracted,
Analyzing the input speech to detect certain features related to the speech,
Based on the extraction result of the person and the detection result of the sound, the quality of the composition of the image data is determined,
A method for controlling an imaging apparatus, which notifies a user of the arrival of the determined timing by controlling an operation of a predetermined output unit.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007053645A JP2008219450A (en) | 2007-03-05 | 2007-03-05 | Imaging device and control method thereof |
US12/073,234 US7995106B2 (en) | 2007-03-05 | 2008-03-03 | Imaging apparatus with human extraction and voice analysis and control method thereof |
KR1020080020650A KR100924685B1 (en) | 2007-03-05 | 2008-03-05 | Imaging apparatus and control method thereof |
CN2008100825795A CN101262561B (en) | 2007-03-05 | 2008-03-05 | Imaging apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007053645A JP2008219450A (en) | 2007-03-05 | 2007-03-05 | Imaging device and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008219450A true JP2008219450A (en) | 2008-09-18 |
Family
ID=39838960
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007053645A Pending JP2008219450A (en) | 2007-03-05 | 2007-03-05 | Imaging device and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008219450A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100100646A (en) * | 2009-03-05 | 2010-09-15 | 톰슨 라이센싱 | Method for creation of an animated series of photographs, and device to implement the method |
JP2010258526A (en) * | 2009-04-21 | 2010-11-11 | Sony Corp | Imaging device, imaging setting method, and its program |
WO2011016322A1 (en) * | 2009-08-04 | 2011-02-10 | オリンパス株式会社 | Imaging device, editing device, and imaging system |
WO2015097568A1 (en) * | 2013-12-24 | 2015-07-02 | Sony Corporation | Alternative camera function control |
EP2416559A4 (en) * | 2009-03-31 | 2017-08-23 | Panasonic Intellectual Property Corporation of America | Image capturing device, integrated circuit, image capturing method, program, and recording medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003338955A (en) * | 2002-05-21 | 2003-11-28 | Olympus Optical Co Ltd | Camera with advising functions |
JP2005175684A (en) * | 2003-12-09 | 2005-06-30 | Nikon Corp | Digital camera, and image acquisition method for digital camera |
JP2006184589A (en) * | 2004-12-28 | 2006-07-13 | Casio Comput Co Ltd | Camera device and photographing method |
JP2006287749A (en) * | 2005-04-01 | 2006-10-19 | Canon Inc | Imaging apparatus and control method thereof |
-
2007
- 2007-03-05 JP JP2007053645A patent/JP2008219450A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003338955A (en) * | 2002-05-21 | 2003-11-28 | Olympus Optical Co Ltd | Camera with advising functions |
JP2005175684A (en) * | 2003-12-09 | 2005-06-30 | Nikon Corp | Digital camera, and image acquisition method for digital camera |
JP2006184589A (en) * | 2004-12-28 | 2006-07-13 | Casio Comput Co Ltd | Camera device and photographing method |
JP2006287749A (en) * | 2005-04-01 | 2006-10-19 | Canon Inc | Imaging apparatus and control method thereof |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100100646A (en) * | 2009-03-05 | 2010-09-15 | 톰슨 라이센싱 | Method for creation of an animated series of photographs, and device to implement the method |
JP2010206799A (en) * | 2009-03-05 | 2010-09-16 | Thomson Licensing | Method of creating animated series of photograph, and device for implementing the same |
KR101689792B1 (en) * | 2009-03-05 | 2016-12-26 | 톰슨 라이센싱 | Method for creation of an animated series of photographs, and device to implement the method |
EP2416559A4 (en) * | 2009-03-31 | 2017-08-23 | Panasonic Intellectual Property Corporation of America | Image capturing device, integrated circuit, image capturing method, program, and recording medium |
JP2010258526A (en) * | 2009-04-21 | 2010-11-11 | Sony Corp | Imaging device, imaging setting method, and its program |
WO2011016322A1 (en) * | 2009-08-04 | 2011-02-10 | オリンパス株式会社 | Imaging device, editing device, and imaging system |
WO2015097568A1 (en) * | 2013-12-24 | 2015-07-02 | Sony Corporation | Alternative camera function control |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100924685B1 (en) | Imaging apparatus and control method thereof | |
JP2008219449A (en) | Imaging device and control method thereof | |
JP4898532B2 (en) | Image processing apparatus, photographing system, blink state detection method, blink state detection program, and recording medium on which the program is recorded | |
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
JP4196714B2 (en) | Digital camera | |
JP4274233B2 (en) | Imaging apparatus, image processing apparatus, image processing method therefor, and program causing computer to execute the method | |
US8494286B2 (en) | Face detection in mid-shot digital images | |
TWI425826B (en) | Image selection device and method for selecting image | |
JP4720810B2 (en) | Image processing apparatus, imaging apparatus, image processing method, and image processing program | |
KR20100048600A (en) | Image photography apparatus and method for proposing composition based person | |
KR20100055946A (en) | Method and apparatus for generating thumbnail of moving picture | |
JP4802884B2 (en) | Imaging apparatus, captured image recording method, and program | |
JP2009117975A (en) | Image pickup apparatus and method | |
JP2005045600A (en) | Image photographing apparatus and program | |
JP4577445B2 (en) | Imaging apparatus, image recording method, and program | |
JP2008219450A (en) | Imaging device and control method thereof | |
JP2007150604A (en) | Electronic camera | |
JP2008219451A (en) | Imaging device and control method thereof | |
JP2010178259A (en) | Digital camera | |
JP2006094059A (en) | Imaging apparatus and program | |
JP5109779B2 (en) | Imaging device | |
JP2011139498A (en) | Imaging device and control method thereof | |
JP2005045601A (en) | Image photographing apparatus and program | |
JP2010252063A (en) | Image capturing apparatus, imaging method, and program | |
JP2009017135A (en) | Imaging device, imaging method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090910 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110214 |
|
RD15 | Notification of revocation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7435 Effective date: 20110510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110826 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111108 |