JP2007259035A - Imaging apparatus and imaging condition guidance method - Google Patents

Imaging apparatus and imaging condition guidance method Download PDF

Info

Publication number
JP2007259035A
JP2007259035A JP2006080402A JP2006080402A JP2007259035A JP 2007259035 A JP2007259035 A JP 2007259035A JP 2006080402 A JP2006080402 A JP 2006080402A JP 2006080402 A JP2006080402 A JP 2006080402A JP 2007259035 A JP2007259035 A JP 2007259035A
Authority
JP
Japan
Prior art keywords
imaging
subject
difference
target composition
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006080402A
Other languages
Japanese (ja)
Other versions
JP4864502B2 (en
JP2007259035A5 (en
Inventor
Sukekazu Kameyama
祐和 亀山
Atsushi Kagaya
淳 加賀谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006080402A priority Critical patent/JP4864502B2/en
Publication of JP2007259035A publication Critical patent/JP2007259035A/en
Publication of JP2007259035A5 publication Critical patent/JP2007259035A5/ja
Application granted granted Critical
Publication of JP4864502B2 publication Critical patent/JP4864502B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus and an imaging condition guidance method whereby even a user unfamiliar with the handling of the imaging apparatus and providing instructions of imaging can easily arrange imaging conditions to obtain a target layout. <P>SOLUTION: The user of the imaging apparatus acquires target layout data for representing the position and the size of a prescribed object to be imaged in a frame, and the imaging apparatus detects the prescribed object on a preliminary imaged image obtained by executing preliminary imaging during imaging waiting, compares the detected position and the size of the object with the position and the size of the same object represented by the target layout data to calculate the difference between them, and guides the user about at least one of zoom magnification, the imaging direction of the imaging apparatus and the position of the prescribed object so as to decrease the difference. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、デジタルカメラ等の撮像装置に関し、さらに詳しくは、撮像する際に目標となる構図を設定する機能を備えた撮像装置に関するものである。   The present invention relates to an image pickup apparatus such as a digital camera, and more particularly to an image pickup apparatus having a function of setting a target composition when taking an image.

従来、被写体を意図した構図通りに撮影すること、あるいは、そのような撮影を第三者に依頼することができるように、撮像装置において、逐次変化するスルー画像に構図教示画像を半透明にして合成し、その合成画像を通常のスルー画像に代えてモニタに表示し、シャッタが押された時点で、通常の撮影処理を行い、撮影画像を記録する方法が提案されている(特許文献1)。この方法によれば、ユーザが、スルー画像が構図教示画像に重なるようにフレーミングを行ってシャッタを押すことにより、意図した構図の写真を撮影することができる。
特開2004−40724号公報
Conventionally, in order to capture a subject as intended, or to request a third party to perform such shooting, the imaging teaching image is made translucent to a sequentially changing through image. A method is proposed in which a synthesized image is displayed on a monitor instead of a normal through image, and a normal shooting process is performed and a shot image is recorded when the shutter is pressed (Patent Document 1). . According to this method, the user can take a photograph of the intended composition by performing framing so that the through image overlaps the composition teaching image and pressing the shutter.
JP 2004-40724 A

しかしながら、上記の撮影方法では、ユーザが、その構図教示画像通りの写真を撮影するために、撮影する立ち位置や撮像装置の向きを変えたり、被写体である人物に対して立ち位置を指示したり、あるいは、場合によってはカメラの設定、例えばズーム倍率を変更したりしなければならず、その自由度の多さから、スルー画像が構図教示画像と重なるようにフレーミングするためにどのように対処すればよいのかといった判断が難しい場合がある。特にデジタルカメラ等の扱いや写真撮影の指示に不慣れなユーザにとってはこの問題が顕著である。   However, in the above photographing method, the user changes the standing position for photographing or the orientation of the imaging device, or instructs the standing position to the person who is the subject in order to photograph the photograph according to the composition teaching image. Or, depending on the situation, it is necessary to change the camera settings, for example, zoom magnification, and because of the degree of freedom, how to handle the framing so that the through image overlaps the composition teaching image is handled. It may be difficult to determine whether it should be done. This problem is particularly noticeable for users who are not accustomed to handling digital cameras or the like and taking pictures.

本発明は、上記事情に鑑み、設定された構図を教示する画像通りの写真を簡便に撮影することができる撮像装置および撮像条件案内方法を提供することを目的とするものである。   SUMMARY OF THE INVENTION In view of the above circumstances, an object of the present invention is to provide an imaging apparatus and an imaging condition guide method that can easily take a picture according to an image that teaches a set composition.

本発明の撮像装置は、撮影待機状態のときに予備撮像を繰り返し行って予備撮像画像を順次取り込み、撮像操作に応答して本撮像を行って本撮像画像を得る撮像装置において、撮像する際に目標となる構図を表す情報であって、少なくとも1つの撮像すべき所定の被写体が前記本撮像画像上で配されるべき位置および大きさを表す目標構図情報を取得する目標構図情報取得手段と、前記予備撮像画像に含まれる前記所定の被写体を検出する被写体検出手段と、該被写体検出手段により検出された被写体の位置および大きさと前記目標構図情報が表す前記所定の被写体の位置および大きさとを比較して該位置および大きさの差異を算出する被写体差異算出手段と、該被写体差異算出手段により算出された差異に基づいて、前記差異が減少するように、前記撮像装置のズーム倍率、撮像装置の向き、および前記所定の被写体の位置のうち少なくとも1つについて案内する案内手段とを備えたことを特徴とするものである。   The imaging apparatus according to the present invention repeatedly performs preliminary imaging in a shooting standby state to sequentially capture preliminary captured images, and performs actual imaging in response to an imaging operation to obtain the actual captured image. Target composition information acquisition means for acquiring target composition information indicating a composition to be a target and indicating a position and a size at which at least one predetermined subject to be imaged is to be arranged on the captured image; A subject detection unit for detecting the predetermined subject included in the preliminary captured image, and a comparison between the position and size of the subject detected by the subject detection unit and the position and size of the predetermined subject represented by the target composition information The difference is reduced based on the subject difference calculation means for calculating the difference in position and size and the difference calculated by the subject difference calculation means. , The zoom magnification of the imaging apparatus, is characterized in that a guide means for guiding the at least one of the position of the orientation, and the predetermined subject imaging apparatus.

本発明の撮像装置において、前記被写体差異算出手段により算出された差異に相当する差分が所定の閾値以下であるときにその旨を報知する報知手段をさらに備えるようにしてもよい。   The imaging apparatus according to the present invention may further include notification means for notifying that when a difference corresponding to the difference calculated by the subject difference calculation means is equal to or less than a predetermined threshold.

また、前記被写体差異算出手段により算出された差異に相当する差分が所定の閾値以下であるときに前記本撮像を許可する撮像許可手段をさらに備えるようにしてもよい。   Further, an imaging permission unit that permits the main imaging when a difference corresponding to the difference calculated by the subject difference calculation unit is equal to or less than a predetermined threshold value may be further provided.

本発明の撮像装置において、前記所定の被写体は人物の顔を含むものであり、特定の人物の顔を登録する顔登録手段をさらに備え、前記被写体検出手段は、前記人物の顔として前記登録された特定の顔を検出するものであってもよい。   In the imaging apparatus of the present invention, the predetermined subject includes a person's face, and further includes face registration means for registering a face of a specific person, and the subject detection means is registered as the person's face. Alternatively, a specific face may be detected.

また、本発明の撮像装置において、前記目標構図情報取得手段は、前記撮像装置に設けられた手動入力手段の操作に応じて前記所定の被写体の前記本撮像画像上で配されるべき位置および大きさを決定するものであってもよい。   Further, in the imaging apparatus of the present invention, the target composition information acquisition means has a position and a size to be arranged on the actual captured image of the predetermined subject in accordance with an operation of a manual input means provided in the imaging apparatus. It is also possible to determine the thickness.

また、本発明の撮像装置において、前記目標構図情報取得手段は、前記目標構図情報を、複数の異なる目標構図情報の中から選択して取得するものであってもよい。   In the imaging apparatus of the present invention, the target composition information acquisition unit may acquire the target composition information by selecting from a plurality of different target composition information.

また、本発明の撮像装置において、前記目標構図情報取得手段は、前記目標構図情報を撮像装置の外部からネットワークを介して取得するものであってもよい。   In the imaging apparatus of the present invention, the target composition information acquisition unit may acquire the target composition information from outside the imaging apparatus via a network.

また、本発明の撮像装置において、前記所定の被写体はランドマークを含むものであり、現在位置を特定する現在位置情報を取得する現在位置情報取得手段をさらに備え、前記目標構図情報取得手段は、前記現在位置情報が表す現在位置の近傍に存在するランドマークを前記所定の被写体として含む目標構図情報を選択して取得するものであってもよい。   In the imaging apparatus of the present invention, the predetermined subject includes a landmark, and further includes current position information acquisition means for acquiring current position information for specifying a current position, and the target composition information acquisition means includes: The target composition information including a landmark present near the current position represented by the current position information as the predetermined subject may be selected and acquired.

また、本発明の撮像装置において、前記取得された目標構図情報が表す構図で撮像することができる撮像位置を特定する撮像位置情報を取得する撮像位置情報取得手段と、前記現在位置情報と前記撮像位置情報とに基づいて、撮影者を前記撮像位置まで誘導する撮像位置誘導手段とをさらに備えるようにしてもよい。   In the imaging device of the present invention, imaging position information acquisition means for acquiring imaging position information for specifying an imaging position that can be imaged with the composition represented by the acquired target composition information, the current position information, and the imaging You may make it further provide the imaging position guidance means which guides a photographer to the said imaging position based on position information.

また、本発明の撮像装置において、前記被写体差異算出手段により算出された差異に基づいて、前記差異が減少するように、前記撮像手段のズーム倍率または撮像装置の向きを制御する制御手段をさらに備え、前記案内手段は、前記所定の被写体の位置について案内するものであってもよい。   The image pickup apparatus according to the present invention further includes control means for controlling the zoom magnification of the image pickup means or the orientation of the image pickup apparatus so as to reduce the difference based on the difference calculated by the subject difference calculation means. The guide means may guide the position of the predetermined subject.

本発明の撮像条件案内方法は、撮影待機状態のときに予備撮像を繰り返し行って予備撮像画像を順次取り込み、撮像操作に応答して本撮像を行って本撮像画像を得る撮像装置における撮像条件案内方法であって、撮像する際に目標となる構図を表す情報であって、少なくとも1つの撮像すべき所定の被写体が前記本撮像画像上で配されるべき位置および大きさを表す目標構図情報を取得する工程と、前記予備撮像画像に含まれる前記所定の被写体を検出する工程と、該検出された被写体の位置および大きさと前記目標構図情報が表す前記所定の被写体の位置および大きさとを比較して該位置および大きさの差異を算出する工程と、該算出された差異に基づいて、前記差異が減少するように、前記撮像装置のズーム倍率、撮像装置の向き、および前記所定の被写体の位置のうち少なくとも1つについて案内する工程とからなるものである。   In the imaging condition guide method of the present invention, preliminary imaging is repeatedly performed in the imaging standby state to sequentially capture preliminary captured images, and imaging conditions are guided in an imaging apparatus that obtains the actual captured image by performing main imaging in response to an imaging operation. Information indicating a composition to be a target when imaging, and target composition information indicating a position and a size at which at least one predetermined subject to be imaged should be arranged on the main captured image. A step of acquiring, a step of detecting the predetermined subject included in the preliminary captured image, and comparing the position and size of the detected subject with the position and size of the predetermined subject represented by the target composition information. Calculating the difference between the position and the size, and the zoom magnification of the image pickup device, the orientation of the image pickup device, and the like so as to reduce the difference based on the calculated difference. It is made of a step of guiding the at least one of a position of the predetermined subject.

本発明において、前記現在位置情報取得手段としては、例えば、GPS(全地球測位システム)信号を受信したり、各地に設置されたICチップもしくは印刷されたコードを読み取ったりすることにより前記現在位置情報を取得するもの等を考えることができる。   In the present invention, as the current position information acquisition means, for example, the current position information is obtained by receiving a GPS (Global Positioning System) signal or reading an IC chip or a printed code installed in various places. Can be considered.

前記ランドマークとしては、例えば、山や海などの自然やその一部、銅像、建築物等を考えることができ、より具体的には、富士山、大阪城、奈良の大仏、東京タワー等が考えられる。   As the landmark, for example, nature such as a mountain or the sea or a part thereof, a bronze statue, a building, etc. can be considered, and more specifically, Mount Fuji, Osaka Castle, Nara Daibutsu, Tokyo Tower, etc. It is done.

前記顔登録手段は、特定の人物の顔についての画像や顔を検出する際に用いる特徴点、特徴量等を表すデータを予め用意しておき、そのデータの入力を受け付けることにより、特定の顔の登録を行うようにしてもよいし、撮像装置自身によって特定の人物の顔を撮像し、その撮像によって得られた画像のデータを取得することにより、特定の顔の登録を行うようにしてもよい。   The face registration unit prepares in advance data representing feature points, feature amounts, and the like used when detecting an image or face of a face of a specific person, and accepts the input of the data to obtain a specific face. Registration may be performed, or a specific person's face may be registered by capturing an image of a specific person's face by the imaging apparatus itself and acquiring image data obtained by the imaging. Good.

前記撮像装置としては、例えば、デジタルスチルカメラ、デジタルビデオカメラ等を考えることができる。   As the imaging device, for example, a digital still camera, a digital video camera, or the like can be considered.

なお、本発明において、予め用意された複数の目標構図情報から選択して取得した目標構図情報が表す所定の被写体の配されるべき位置および大きさは、ユーザの操作により変更できるようにすることが好ましい。   In the present invention, the position and size of a predetermined subject represented by the target composition information selected and acquired from a plurality of target composition information prepared in advance can be changed by a user operation. Is preferred.

前記案内手段としては、例えば、音声によるナビゲーション、ビープ音やランプ表示等による指示、モニタ画面上でのコメント表示等が考えられる。なお、案内手段は、これらの案内情報を撮像装置から直接的に出力する形態のものであってもよいし、撮像装置から出力された信号を受信したリモコンあるいは携帯電話を介して間接的に出力する形態のものであってもよい。   As the guidance means, for example, navigation by voice, instruction by beep sound or lamp display, comment display on a monitor screen, and the like can be considered. The guidance means may be configured to output these guidance information directly from the imaging device, or indirectly output via a remote control or mobile phone that has received the signal output from the imaging device. It may be of the form to do.

本発明の撮像装置および撮像条件案内方法によれば、撮像する際に目標となる構図、すなわち撮像すべき所定の被写体が撮像画像上で配されるべき位置および大きさを表す構図が設定されると、予備撮像して得られた予備撮像画像上でその所定の被写体を検出し、検出された被写体の位置および大きさと目標となる位置および大きさとを比較してその差異を算出し、その差異が減少するように、撮像装置のズーム倍率、撮像装置の向き、および上記所定の被写体の位置のうち少なくとも1つについて案内するので、撮像装置の扱いや撮像の指示が不慣れな者であっても、その案内に従うことで目標の構図を得るための撮像条件を容易に整えることができ、設定された構図通りの写真を簡便に撮影することができる。   According to the imaging apparatus and imaging condition guiding method of the present invention, a composition that is a target for imaging, that is, a composition that represents the position and size at which a predetermined subject to be imaged should be placed on the captured image is set. And the predetermined subject is detected on the preliminary captured image obtained by preliminary imaging, and the difference is calculated by comparing the position and size of the detected subject with the target position and size. So that at least one of the zoom magnification of the imaging device, the orientation of the imaging device, and the position of the predetermined subject is guided, so even a person who is unfamiliar with handling of the imaging device and instructions for imaging By following the guidance, the imaging conditions for obtaining the target composition can be easily prepared, and a photograph according to the set composition can be easily taken.

以下、図面を参照して、本発明の実施形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態によるデジタルカメラ(撮像装置)の構成を示すブロック図である。このデジタルカメラは、撮像する際に目標となる構図を設定し、被写体がその構図で撮像されるように、撮影者または被写体を案内するデジタルカメラであり、当該カメラの補助記憶装置に読み込まれた処理プログラムを当該撮像装置が内蔵するコンピュータ上で実行することにより実現される。また、画像データは画像を表すものであり、以下、特に画像と画像データの区別をせずに説明を行う。   FIG. 1 is a block diagram showing the configuration of a digital camera (imaging device) according to an embodiment of the present invention. This digital camera is a digital camera that guides the photographer or the subject so that the subject composition is set and the subject is imaged with the composition, and is read into the auxiliary storage device of the camera. This is realized by executing the processing program on a computer built in the imaging apparatus. The image data represents an image, and the following description will be given without particularly distinguishing the image from the image data.

図1に示すように、本実施形態によるデジタルカメラは、撮影待機状態のときに予備撮像を繰り返し行って予備撮像画像Ppを順次取り込み、撮像操作に応答して本撮像を行って本撮像画像Pを得る撮像部10と、撮像する際に目標となる構図であって、少なくとも1つの撮像すべき所定の被写体が本撮像画像P上で配されるべき位置および大きさを示す目標構図データKを取得する目標構図データ取得部(目標構図情報取得手段、撮像位置情報取得手段)20と、予備撮像画像Ppに含まれる上記所定の被写体を検出する被写体検出部(被写体検出手段)30と、被写体検出部30により検出された被写体の位置および大きさと目標構図データKが表す所定の被写体の位置および大きさとを比較してその位置および大きさの差異を算出する被写体差異算出部(被写体差異算出手段)40と、被写体差異算出部40により算出された差異に基づいて、この差異が減少するように、撮像部10のズーム倍率、カメラの向き、および上記所定の被写体の位置のうち少なくとも1つについて案内する撮像条件案内部(案内手段)50と、被写体差異算出部40により算出された差異に相当する差分が所定の閾値Th以下であるときにその旨を報知するアラーム出力部(報知手段)60と、被写体差異算出部40により算出された差異に相当する差分が所定の閾値Th以下であるときに撮像部10による本撮像を許可する撮像許可部(撮像許可手段)70と、特定の人物の顔データFrを登録する顔データ登録部(顔登録手段)80と、現在位置を特定する現在位置データJhを取得する現在位置データ取得部(現在位置情報取得手段)90と、目標構図データ取得部20により取得された目標構図データKが表す構図で撮像することができる撮像位置を特定する撮像位置データJlを取得する撮像位置データ取得部(撮像位置情報取得手段)100と、現在位置データJhと撮像位置データJlとに基づいて、撮影者を撮像位置まで誘導する撮像位置誘導部(撮像位置誘導手段)110と、被写体差異算出部40により算出された差異に基づいて、算出される差異が減少するように、撮像部10のズーム倍率またはカメラの向きを制御する撮像系制御部(制御手段)120とを備える。   As shown in FIG. 1, the digital camera according to the present embodiment repeatedly performs preliminary imaging in a shooting standby state, sequentially captures preliminary imaging images Pp, performs main imaging in response to imaging operations, and performs actual imaging P An image capturing unit 10 for obtaining image data, and target composition data K indicating a position and size at which at least one predetermined subject to be imaged is to be placed on the main captured image P. A target composition data acquisition unit (target composition information acquisition unit, imaging position information acquisition unit) 20 to be acquired, a subject detection unit (subject detection unit) 30 that detects the predetermined subject included in the preliminary captured image Pp, and subject detection The position and size of the subject detected by the unit 30 are compared with the position and size of the predetermined subject represented by the target composition data K, and the difference between the position and size is calculated. Based on the difference calculated by the subject difference calculation unit (subject difference calculation unit) 40 and the subject difference calculation unit 40, the zoom magnification of the imaging unit 10, the direction of the camera, and the predetermined amount are reduced so as to reduce the difference. When the difference corresponding to the difference calculated by the imaging condition guide unit (guidance means) 50 for guiding at least one of the positions of the subject and the subject difference calculation unit 40 is equal to or less than a predetermined threshold Th. An alarm output unit (notification unit) 60 for notifying and an imaging permission unit (imaging) that permits main imaging by the imaging unit 10 when a difference corresponding to the difference calculated by the subject difference calculation unit 40 is equal to or less than a predetermined threshold Th. Permission means) 70, a face data registration unit (face registration means) 80 for registering face data Fr of a specific person, and current position data Jh for specifying the current position. Imaging that acquires imaging position data Jl that specifies an imaging position that can be imaged with the composition represented by the target composition data K acquired by the position data acquisition unit (current position information acquisition unit) 90 and the target composition data acquisition unit 20 A position data acquisition unit (imaging position information acquisition unit) 100, an imaging position guidance unit (imaging position guidance unit) 110 that guides the photographer to the imaging position based on the current position data Jh and the imaging position data Jl, and a subject An imaging system control unit (control means) 120 that controls the zoom magnification of the imaging unit 10 or the direction of the camera is provided so as to reduce the calculated difference based on the difference calculated by the difference calculation unit 40.

撮像部10は、一般的なデジタルカメラ等と同様に、レンズ等の光学系、光電変換を行うCCD等の撮像素子、撮像回路及びA/D変換回路から構成されており、光学系によって結像された被写体像を撮像素子によって光電変換し、光電変換された画像信号を撮像回路を介してA/D変換回路に入力することにより、デジタル変換された画像データを得るものである。またこの撮像部10は、撮影待機状態では、予備撮像を繰り返し行って予備撮像画像Ppを順次取り込み、撮像操作に応答して本撮像を行って本撮像画像Pを得るものである。取得された本撮像画像Pは不図示のメモリに記憶される。なお、ここでは、撮像部10の詳細な構成は図示しない。   The imaging unit 10 includes an optical system such as a lens, an imaging element such as a CCD that performs photoelectric conversion, an imaging circuit, and an A / D conversion circuit, as in a general digital camera, and forms an image by the optical system. The converted subject image is photoelectrically converted by an imaging device, and the photoelectrically converted image signal is input to the A / D conversion circuit via the imaging circuit to obtain digitally converted image data. Further, in the imaging standby state, the imaging unit 10 repeatedly performs preliminary imaging to sequentially capture the preliminary captured images Pp, and performs the main imaging in response to the imaging operation to obtain the main captured image P. The acquired actual captured image P is stored in a memory (not shown). Here, a detailed configuration of the imaging unit 10 is not illustrated.

目標構図データ取得部20は、用意された複数の異なる目標構図データの中から、現在位置データJhが表す現在位置の近傍に存在するランドマークを背景とした構図を表す目標構図データKを選択して取得するものである。これら複数の異なる目標構図データは、それぞれ、複数の異なるランドマークのうちのいずれかと人物の顔のそれぞれに対する、構図上の目標となる位置と大きさを表すものである。   The target composition data acquisition unit 20 selects target composition data K representing a composition against the background of a landmark existing in the vicinity of the current position represented by the current position data Jh, from a plurality of different target composition data prepared. To get. The plurality of different target composition data respectively represent positions and sizes that are targets on the composition with respect to any one of the plurality of different landmarks and the human face.

本実施形態においては、これら複数の異なる目標構図データは、本デジタルカメラの外部にあるサーバに記憶されたものであり、目標構図データ取得部20は、インターネット等のネットワーク(有線または無線)を介してそのサーバにアクセスし、サーバに記憶されている複数の目標構図データのうち1つを取得するものである。すなわち、目標構図データ取得部20は、現在位置データ取得部90により取得された現在位置データJhをそのサーバに送信し、サーバがその現在位置データJhにより特定される現在位置に応じて、予め用意された複数の目標構図データの中からその現在位置の近傍にある所定のランドマークを構図に含む目標構図データを選択して本デジタルカメラ側に返信し、目標構図データ取得部20がそのサーバから返信された目標構図データを取得するものである。   In the present embodiment, the plurality of different target composition data is stored in a server outside the digital camera, and the target composition data acquisition unit 20 is connected via a network (wired or wireless) such as the Internet. The server is accessed to acquire one of a plurality of target composition data stored in the server. That is, the target composition data acquisition unit 20 transmits the current position data Jh acquired by the current position data acquisition unit 90 to the server, and the server prepares in advance according to the current position specified by the current position data Jh. The target composition data including a predetermined landmark in the vicinity of the current position in the composition is selected from the plurality of target composition data that have been received and sent back to the digital camera, and the target composition data acquisition unit 20 receives from the server. The returned target composition data is acquired.

なお、他の実施形態として、これら複数の異なる目標構図データは、本デジタルカメラが有するデータベースに予め記録されたものであり、あるいは、上記サーバからネットワークを介して直接ダウンロードしたり、一旦パーソナルコンピュータでダウンロードしたものを転送したりしてデータベースに保存されたものであり、目標構図データ取得部20は、このデータベースから目標構図データを読み出して取得するものであってもよい。   As another embodiment, the plurality of different target composition data are recorded in advance in a database of the digital camera, or directly downloaded from the server via a network, or once by a personal computer. The downloaded composition is transferred or stored in a database, and the target composition data acquisition unit 20 may read and acquire the target composition data from this database.

また、ランドマークの目標構図データと人物の顔の目標構図データとがそれぞれ別々に用意され、目標構図データ取得部20が、ランドマークのデータと人物の顔のデータとを組み合わせて取得するようにしてもよい。   In addition, landmark target composition data and person face target composition data are prepared separately, and the target composition data acquisition unit 20 acquires a combination of landmark data and person face data. May be.

また、目標構図データ取得部20は、ユーザが背景にしたい被写体をその場で撮像部10により撮像し、その撮像によって得られた所定の画像と、ユーザがその画像上の所望の位置に設定した人型画像とを合成して、目標構図データを取得するようにしてもよい。   In addition, the target composition data acquisition unit 20 captures the subject that the user wants to make a background on the spot by the imaging unit 10, and sets a predetermined image obtained by the imaging and a desired position on the image. The target composition data may be acquired by synthesizing with the humanoid image.

被写体検出部30は、ランドマーク検出部31と顔検出部32により構成される。   The subject detection unit 30 includes a landmark detection unit 31 and a face detection unit 32.

ランドマーク検出部31は、予備撮像画像Ppに含まれる、目標構図データKにより特定される所定のランドマークを検出して、そのランドマークの位置(中心または重心)と大きさの情報を得るものである。ランドマーク検出部31は、テンプレートマッチングによりランドマークを検出するものであり、マッチングに用いるランドマークのテンプレートTlは、目標構図データに添付され、目標構図データ取得部20が目標構図データとともに取得する形態をとる。   The landmark detection unit 31 detects a predetermined landmark specified by the target composition data K included in the preliminary captured image Pp, and obtains information on the position (center or center of gravity) and size of the landmark. It is. The landmark detection unit 31 detects a landmark by template matching, and a landmark template Tl used for matching is attached to the target composition data, and is acquired by the target composition data acquisition unit 20 together with the target composition data. Take.

顔検出部32は、予備撮像画像Ppに含まれる人物の顔を検出して、その顔の位置(中心または重心)と大きさの情報を得るものであり、顔データ登録部80により特定の人物の顔が登録されているときは、その登録された特定の顔を検出するものである。顔検出部32は、ランドマーク検出部31と同様に、テンプレートマッチングにより顔を検出するものであるが、マッチングに用いる標準的な顔のテンプレートTfは顔検出部32が有しており、通常はこのテンプレートを用いて顔を検出する。しかし、顔データ登録部80に特定の人物の顔Frが登録されているときは、登録された顔からテンプレートTfrを作り出し、このテンプレートTfrを用いてその特定の顔を検出する。   The face detection unit 32 detects the face of a person included in the preliminary captured image Pp and obtains information on the position (center or center of gravity) and size of the face. Is registered, the registered specific face is detected. Similar to the landmark detection unit 31, the face detection unit 32 detects a face by template matching. However, the face detection unit 32 has a standard face template Tf used for matching. A face is detected using this template. However, when a face Fr of a specific person is registered in the face data registration unit 80, a template Tfr is created from the registered face, and the specific face is detected using the template Tfr.

検出するランドマークの種類としては、例えば、山や海などの自然やその一部、銅像、建築物等がある。なお、ランドマークや顔の他の検出方法としては、例えば、ブースティングと呼ばれる学習アルゴリズムにより生成されたオブジェクト識別器を用いる方法や、自己組織化マップと呼ばれるクラス分類手法により生成されたオブジェクト識別器を用いる方法等が考えられる。   The types of landmarks to be detected include, for example, nature such as mountains and seas and parts thereof, bronze statues, buildings, and the like. As other detection methods for landmarks and faces, for example, a method using an object classifier generated by a learning algorithm called boosting, or an object classifier generated by a class classification method called a self-organizing map A method of using can be considered.

被写体差異算出部40は、ランドマーク差異算出部41と顔差異算出部42により構成される。   The subject difference calculation unit 40 includes a landmark difference calculation unit 41 and a face difference calculation unit 42.

ランドマーク差異算出部41は、ランドマーク検出部31により得られた、検出されたランドマークの位置Lldおよび大きさSldと、目標構図データKが表すランドマークの位置Lltおよび大きさSltとをそれぞれ比較し、これらの差異Dlとして、ランドマークの位置のずれ量とその向き、ランドマークが占める面積の相対比等を算出するものである。   The landmark difference calculation unit 41 obtains the detected landmark position Lld and size Sld obtained by the landmark detection unit 31 and the landmark position Llt and size Slt represented by the target composition data K, respectively. In comparison, as the difference Dl, a deviation amount and direction of the landmark position, a relative ratio of the area occupied by the landmark, and the like are calculated.

顔差異算出部42は、顔検出部32により得られた、検出された人物の顔(登録顔データが存在する場合にはその登録された特定の人物の顔)の位置Lfdおよび大きさSfdと、目標構図データKが表す顔の位置Lftおよび大きさSftとを比較し、これらの差異Dfとして、顔の位置のずれ量とその向き、大きさの相対比等を算出するものである。   The face difference calculation unit 42 obtains the position Lfd and the size Sfd of the detected person's face (if registered face data is present, the face of the registered specific person) obtained by the face detection unit 32. Then, the face position Lft and the size Sft represented by the target composition data K are compared, and the deviation amount of the face position, its direction, the relative ratio of the size, and the like are calculated as the difference Df.

撮像条件案内部50は、ズーム倍率・撮像向き案内部51と顔位置案内部52により構成される。   The imaging condition guide unit 50 includes a zoom magnification / imaging direction guide unit 51 and a face position guide unit 52.

ズーム倍率・撮像向き案内部51は、ランドマーク差異算出部41により算出された差異Dlに基づいて、この差異Dlが減少するように、撮像部10におけるズーム倍率、撮像する向きを案内する情報を出力するものであり、本実施形態では、ズーム倍率の変更すべき大小方向あるいはズームの目標倍率、本デジタルカメラの傾ける方向等を音声Gcで案内するものである。例えば、検出されたランドマークの位置Lldが、目標構図データKが表す目標となる位置Lltより左にずれているような場合には、「カメラを左に向けてください」と言った音声を出力したり、検出されたランドマークの大きさが目標となる大きさより小さい場合には、「ズーム倍率を上げてください」と言った音声を出力したりする。なお、他の実施形態として、例えば、カメラ本体にカメラの移動すべき方向やズーム倍率の変更すべき大小方向を表すランプを備えるようにして、カメラの移動方向を知らせるようにしてもよいし、カメラ本体が備えるモニタ上に、カメラの移動すべき方向やズーム倍率の変更すべき大小方向を表す表示を行うようにしてもよい。   Based on the difference Dl calculated by the landmark difference calculation unit 41, the zoom magnification / imaging direction guide unit 51 provides information for guiding the zoom magnification and the imaging direction in the imaging unit 10 so that the difference Dl decreases. In this embodiment, the direction in which the zoom magnification should be changed or the zoom target magnification, the direction in which the digital camera is tilted, and the like are guided by voice Gc. For example, when the detected landmark position Lld is shifted to the left from the target position Llt represented by the target composition data K, a voice saying “Please turn the camera to the left” is output. If the size of the detected landmark is smaller than the target size, a voice saying “Please increase the zoom magnification” is output. As another embodiment, for example, the camera body may be provided with a lamp that indicates the direction in which the camera is to be moved and the direction in which the zoom magnification is to be changed, so that the direction of movement of the camera is notified. You may make it display on the monitor with which a camera main body is provided, showing the direction which the camera should move, and the magnitude direction which should change zoom magnification.

顔位置案内部52は、顔差異算出部42により算出された差異Dfに基づいて、この差異Dfが減少するように、被写体である人物の顔の移動すべき方向を案内する情報を出力するものであり、本実施形態では、被写体である人物の顔の移動すべき方向を音声Gfで案内するものである。例えば、検出された顔の位置Lfdが、目標構図データKが表す目標となる位置Lftより左にずれているような場合には、「被写体の方は右に移動してください」といった音声を出力したり、検出された顔の大きさSfdが目標となる大きさSftより小さい場合には、「被写体の方はカメラに近づいてください」といった音声を出力したりする。なお、他の実施形態として、例えば、カメラ本体に被写体である人物の移動すべき方向を表すランプを備えるようにして、被写体である人物の移動方向を知らせるようにしてもよいし、カメラ本体と分離したリモコンやモニタ部そのような機能を持たせたり、ユーザが所有する携帯電話に同様の機能を持たせるように制御したりしてもよい。   Based on the difference Df calculated by the face difference calculation unit 42, the face position guide unit 52 outputs information for guiding the direction in which the face of the person who is the subject should move so that the difference Df decreases. In this embodiment, the direction in which the face of the person who is the subject is to be moved is guided by the voice Gf. For example, when the detected face position Lfd is shifted to the left from the target position Lft represented by the target composition data K, a sound such as “Please move the subject to the right” is output. If the detected face size Sfd is smaller than the target size Sft, a sound such as “Please approach the camera toward the subject” is output. As another embodiment, for example, the camera body may be provided with a lamp that indicates the direction in which the person who is the subject should move, so that the movement direction of the person who is the subject may be notified. A separate remote controller or monitor unit may have such a function, or a mobile phone owned by a user may be controlled to have the same function.

なお、検出された顔の位置および大きさは、ズーム倍率や撮像装置の撮像向きの変化に伴って変化するので、初めにズーム倍率・撮像向き案内部51による案内に従って、ユーザがズーム倍率や撮像向きが正しく設定された後、あるいは、撮像系制御部120によりズーム倍率が正しく制御された後に、顔位置案内部52が顔の位置について案内するようにする。   The position and size of the detected face change with changes in the zoom magnification and the imaging direction of the imaging device. Therefore, the user first follows the zoom magnification / imaging direction guide unit 51 according to the guidance of the zoom magnification and imaging direction. After the orientation is set correctly, or after the zoom magnification is correctly controlled by the imaging system control unit 120, the face position guide unit 52 guides the face position.

アラーム出力部60は、被写体差異算出部40により算出された差異に相当する差分が所定の閾値Th以下であるときにその旨を報知するものであり、本実施形態では、ランドマーク差異算出部41により算出されたランドマークの差異Dlに相当する差分が第1の閾値Th1以下であり、かつ、顔差異算出部42により算出された顔の差異Dfに相当する差分が第2の閾値Th2以下であるときに、カメラ本体に備えられたアラームランプを点灯もしくは点滅させるとともに電子音を出力するものである。ユーザはこのランプを見たり電子音を聞いたりすることにより、フレーミングされた実際の構図が、目標構図データKが表す目標の構図と近似であり、撮像の準備ができたことを知ることができる。なお、他の実施形態として、例えば、カメラ本体が備えるモニタ上に、上記差分が所定の閾値Th以下である旨を表す表示を行うようにしてもよい。   The alarm output unit 60 notifies when the difference corresponding to the difference calculated by the subject difference calculation unit 40 is equal to or less than a predetermined threshold Th, and in this embodiment, the landmark difference calculation unit 41. The difference corresponding to the landmark difference Dl calculated by the above is equal to or less than the first threshold Th1, and the difference corresponding to the face difference Df calculated by the face difference calculating unit 42 is equal to or less than the second threshold Th2. In some cases, an alarm lamp provided in the camera body is turned on or blinked and an electronic sound is output. By viewing this lamp or listening to an electronic sound, the user can know that the actual framed composition is approximate to the target composition represented by the target composition data K and is ready for imaging. . As another embodiment, for example, a display indicating that the difference is equal to or less than a predetermined threshold Th may be performed on a monitor provided in the camera body.

撮像許可部70は、被写体差異算出部40により算出された差異に相当する差分が所定の閾値Th以下であるときに撮像部10による本撮像を許可するものであり、本実施形態では、ランドマーク差異算出部41により算出されたランドマークの差異Dlに相当する差分が第1の閾値Th1以下であり、かつ、顔差異算出部42により算出された顔の差異Dfに相当する差分が第2の閾値Th2以下であるときにのみ、撮像を要求する操作を受け付けるようにするものである。すなわち、ユーザはランドマークに対する差分と顔に対する差分とがそれぞれ所定の閾値Th以下であるときに限って本撮像を行うことができることになる。なお、他の実施形態として、例えば、ランドマークに対する差分と顔に対する差分とがそれぞれ所定の閾値Th以下になった時点で自動的に本撮像が行われるように撮像部10を制御するようにしてもよい。   The imaging permission unit 70 permits the main imaging by the imaging unit 10 when a difference corresponding to the difference calculated by the subject difference calculation unit 40 is equal to or less than a predetermined threshold Th. The difference corresponding to the landmark difference D1 calculated by the difference calculation unit 41 is equal to or less than the first threshold Th1, and the difference corresponding to the face difference Df calculated by the face difference calculation unit 42 is the second difference. Only when it is equal to or less than the threshold value Th2, an operation for requesting imaging is accepted. That is, the user can perform the main imaging only when the difference with respect to the landmark and the difference with respect to the face are each equal to or less than the predetermined threshold Th. As another embodiment, for example, the imaging unit 10 is controlled so that the main imaging is automatically performed when the difference with respect to the landmark and the difference with respect to the face are each equal to or less than a predetermined threshold Th. Also good.

なお、本実施形態では、アラーム出力部60によるアラーム出力機能と、撮像許可部70による撮像許可機能とは同時に働くようにしているが、モード切替えによりいずれかの機能のみが働くようにしてもよい。   In the present embodiment, the alarm output function by the alarm output unit 60 and the imaging permission function by the imaging permission unit 70 work simultaneously, but only one of the functions may work by mode switching. .

顔データ登録部80は、特定の人物の顔データを入力したり、または撮像部10により特定の人物の顔を撮像したりして、その特定の人物の顔データPfを登録するものであり、顔検出部32が予備撮像画像Ppにおいて検出すべき特定の顔を登録するものである。   The face data registration unit 80 registers face data Pf of a specific person by inputting the face data of the specific person or by imaging the face of the specific person by the imaging unit 10. The face detection unit 32 registers a specific face to be detected in the preliminary captured image Pp.

現在位置データ取得部90は、現在位置を特定する現在位置データJhを取得するものであり、本実施形態では、GPS信号を受信して現在位置データJhを取得するものである。なお、この現在位置データ取得部90は、観光名所や主要都市部等の各地に設置されている、その場所の位置を特定する情報が含まれているICチップやSQコードを読み取って、現在位置データJhを取得するものであってもよい。   The current position data acquisition unit 90 acquires current position data Jh for specifying the current position. In this embodiment, the current position data acquisition unit 90 receives a GPS signal and acquires current position data Jh. The current position data acquisition unit 90 reads an IC chip or SQ code, which is installed in various places such as tourist attractions and major cities, and includes information specifying the position of the place, Data Jh may be acquired.

撮像位置データ取得部100は、目標構図データ取得部20により取得された目標構図データKが表す構図で撮像することができる撮像位置を特定する撮像位置データJlを取得するものである。撮像位置データは、ある目標構図データが表す構図に含まれるランドマークの位置や大きさに基づいてその構図で撮像することができる撮像位置を求めて得られたデータであり、1つの目標構図データと1つの撮像位置データとが対を成して存在している。本実施形態では、複数の目標構図データと複数の撮像位置データとが1組ずつ対応付けされて上記サーバに記憶されており、撮像位置データ取得部100は、インターネット等のネットワークを介してそのサーバにアクセスし、目標構図データ取得部20により取得された目標構図データと対応付けされた撮像位置データを取得するものである。   The imaging position data acquisition unit 100 acquires imaging position data Jl for specifying an imaging position that can be imaged with the composition represented by the target composition data K acquired by the target composition data acquisition unit 20. The imaging position data is data obtained by obtaining an imaging position that can be imaged with the composition based on the position and size of the landmark included in the composition represented by a certain target composition data. And one image pickup position data exist in pairs. In the present embodiment, a plurality of target composition data and a plurality of imaging position data are associated with each other and stored in the server, and the imaging position data acquisition unit 100 is connected to the server via a network such as the Internet. , And the imaging position data associated with the target composition data acquired by the target composition data acquisition unit 20 is acquired.

撮像位置誘導部110は、現在位置データ取得部90により取得された現在位置データJhと、撮像位置データ取得部100により取得された撮像位置データJlとに基づいてその位置の差異を算出し、この差異が減少するように撮影者を撮像位置まで誘導するものであり、本実施形態では、撮影者が移動すべき方向を音声Glで案内するものである。例えば、撮像位置が現在位置より北側にあるような場合には、「北に移動してください」といった音声を出力する。なお、他の実施形態として、例えば、カメラ本体に撮影が移動すべき方向を表すランプを備えるようにして、撮影者に移動方向を知らせるようにしてもよい。   The imaging position guide unit 110 calculates the difference in position based on the current position data Jh acquired by the current position data acquisition unit 90 and the imaging position data Jl acquired by the imaging position data acquisition unit 100. The photographer is guided to the imaging position so that the difference is reduced. In this embodiment, the direction in which the photographer should move is guided by the voice Gl. For example, when the imaging position is on the north side of the current position, a voice “Please move to the north” is output. As another embodiment, for example, the camera body may be provided with a lamp that indicates the direction in which shooting should move, so that the photographer is informed of the moving direction.

撮像系制御部120は、ランドマーク差異算出部41により算出された差異に基づいて、この差異が減少するように、撮像部10のズーム倍率、カメラの向きを制御するものであり、ズーム倍率を変更するためのズームレンズの駆動モータと、カメラ本体(もしくは撮像部10)の姿勢を変更するための不図示の駆動モータを備え、カメラ本体を三脚等に固定した状態で機能するものである。例えば、目標構図データもしくは撮像位置データに撮像すべきランドマークの実際の位置および大きさを表すデータが含まれており、そのデータが表すランドマークの実際の位置および大きさと、撮像位置データが表す撮像位置と、予備撮像画像Pp内で検出されたランドマークの位置および大きさ、ズーム倍率等とから、ランドマークと撮像位置との間の距離や撮像位置からランドマークの中心までの直線と地上面との間の角度などを幾何学的に算出し、算出された物理量を用いて適正なカメラの向きとズーム倍率を求め、カメラの向きやズーム倍率が適正な向きや倍率になるように駆動モータを制御する。   The imaging system control unit 120 controls the zoom magnification and the camera direction of the imaging unit 10 based on the difference calculated by the landmark difference calculation unit 41 so that the difference is reduced. A zoom lens drive motor for changing and a drive motor (not shown) for changing the posture of the camera body (or the imaging unit 10) are provided, and functions in a state where the camera body is fixed to a tripod or the like. For example, the target composition data or the imaging position data includes data representing the actual position and size of the landmark to be imaged, and the actual position and size of the landmark represented by the data and the imaging position data represent From the imaging position, the position and size of the landmark detected in the preliminary captured image Pp, the zoom magnification, and the like, the distance between the landmark and the imaging position, and the straight line from the imaging position to the center of the landmark and the ground Calculates the angle between the top surface, etc. geometrically, calculates the appropriate camera direction and zoom magnification using the calculated physical quantities, and drives the camera direction and zoom magnification to the appropriate direction and magnification. Control the motor.

なお、本実施形態では、ズーム倍率・撮像向き案内部51による案内機能とこの撮像系制御部120による制御機能とはモード切替えによりいずれか一方を有効にすることができるようになっている。   In the present embodiment, either one of the guidance function by the zoom magnification / imaging direction guide unit 51 and the control function by the imaging system control unit 120 can be enabled by mode switching.

次に、本実施形態において行われる処理について説明する。なお、本実施形態によるカメラには、上述の通り、ズーム倍率・撮像向き案内部51による案内機能とこの撮像系制御部120による制御機能とがモード切替え(案内/制御モード)によりいずれか一方を有効にすることができるようになっている。そこで、モードが案内モードである場合と制御モードである場合のそれぞれについて、本実施形態における処理の流れを説明することにする。   Next, processing performed in the present embodiment will be described. In the camera according to the present embodiment, as described above, either the guidance function by the zoom magnification / imaging direction guide unit 51 or the control function by the imaging system control unit 120 is switched by mode switching (guidance / control mode). It can be enabled. Therefore, the flow of processing in this embodiment will be described for each of the case where the mode is the guidance mode and the case where the mode is the control mode.

初めに、モードが案内モードである場合に、本実施形態において行われる処理について説明する。図2は、案内モード時に行われる処理を示すフローチャートである。   First, processing performed in the present embodiment when the mode is the guidance mode will be described. FIG. 2 is a flowchart showing processing performed in the guidance mode.

まず、現在位置データ取得部90は、GPS信号を受信して現在位置データJhを取得する(ステップST1)。すると目標構図データ取得部20は、現在位置データ取得部90により取得された現在位置データJhを外部のネットワークを介して所定のサーバに送信し、そのサーバがその現在位置データJhにより特定される現在位置に応じて、予め用意された複数の目標構図データの中からその現在位置の近傍にある所定のランドマークを構図に含む目標構図データを選択して本デジタルカメラ側に送信し、目標構図データ取得部20がそのサーバから送信された目標構図データを取得する(ステップST2)。また、撮像位置データ取得部30が、目標構図データ取得部20により取得される目標構図データKと対応付けされた、その目標構図データKが表す構図で撮像することができる撮像位置を特定する撮像位置データJlを、同サーバから外部のネットワークを介して取得する(ステップST3)。なお、この目標構図データには、目標となる構図を表す、本撮像画像P上での所定のランドマークの位置および大きさと人物の顔の位置および大きさを示す情報が含まれており、予備撮像画像Pp上でこの所定のランドマークを検出する際に用いるランドマークのテンプレートが添付されている。   First, the current position data acquisition unit 90 receives a GPS signal and acquires current position data Jh (step ST1). Then, the target composition data acquisition unit 20 transmits the current position data Jh acquired by the current position data acquisition unit 90 to a predetermined server via an external network, and the server is identified by the current position data Jh. Depending on the position, target composition data including a predetermined landmark in the vicinity of the current position in the composition is selected from a plurality of target composition data prepared in advance and transmitted to the digital camera side. The acquisition unit 20 acquires the target composition data transmitted from the server (step ST2). In addition, the imaging position data acquisition unit 30 identifies an imaging position that can be imaged with the composition represented by the target composition data K that is associated with the target composition data K acquired by the target composition data acquisition unit 20. The position data Jl is acquired from the server via an external network (step ST3). The target composition data includes information indicating the position and size of a predetermined landmark on the main captured image P and the position and size of a person's face, which represents the target composition. A landmark template used when detecting the predetermined landmark on the captured image Pp is attached.

図3は、目標構図データ取得部20により取得された目標構図データKが表す構図Fmの例を表す図であり、東京タワーを表すランドマークL1を背景に人物の顔F1が右横に位置する構図である。   FIG. 3 is a diagram illustrating an example of the composition Fm represented by the target composition data K acquired by the target composition data acquisition unit 20, and the person's face F1 is located on the right side with the landmark L1 representing Tokyo Tower in the background. It is a composition.

現在位置データ取得部90は、ここで再びGPS信号を受信して現在位置データJhを取得する(ステップST4)。そして、撮像位置誘導部110が、最新の現在位置データJhと撮像位置データJlとに基づいてその位置の差異を算出し、この差異が所定の閾値以下であるか否か、すなわち、現在位置が撮像位置にほぼ一致しているか否かを判定し(ステップST5)、一致していないと判定されたときには、その位置の差異が減少するように撮影者を誘導するための音声Glを出力し(ステップST6)、ステップST4に戻る。ここで撮影者は、この音声Glを聞いて誘導される方向へ移動することになる。一方、ほぼ一致していると判定されたときには、フレーミングされた構図が、目標構図データKが表す構図となるように撮像条件をユーザまたは被写体となる人物に案内する処理へと移行する。   Here, the current position data acquisition unit 90 receives the GPS signal again and acquires current position data Jh (step ST4). Then, the imaging position guiding unit 110 calculates a difference between the positions based on the latest current position data Jh and the imaging position data Jl, and whether or not the difference is equal to or less than a predetermined threshold, that is, the current position is It is determined whether or not it substantially coincides with the imaging position (step ST5). When it is determined that they do not coincide with each other, a sound Gl for guiding the photographer is output so that the difference in the position is reduced ( Step ST6) and return to step ST4. Here, the photographer moves in the direction guided by listening to the voice G1. On the other hand, when it is determined that they substantially match, the process shifts to a process of guiding the imaging conditions to the user or the person who is the subject so that the framed composition becomes the composition represented by the target composition data K.

ここで撮影者は、上記所定のランドマークがフレームに入るように本デジタルカメラの位置や向きを定め、必要に応じて本デジタルカメラを三脚等に接続したり、あるいは所定の場所に置いたりしてカメラを半固定する。   Here, the photographer determines the position and orientation of the digital camera so that the predetermined landmark enters the frame, and connects the digital camera to a tripod or the like or places it on a predetermined place as necessary. To fix the camera halfway.

撮像部10は予備撮像を行って予備撮像画像Ppを得る(ステップST7)。そして、ランドマーク検出部31が予備撮像画像Ppに含まれる上記所定のランドマークを、テンプレートTlを用いたテンプレートマッチングにより検出し、予備撮像画像Ppにおけるそのランドマークの位置Lldおよび大きさSldを求める(ステップST8)。このとき、予備撮像画像Ppを多重解像度化して解像度(画像サイズ)が段階的に異なる複数の画像を得、それら複数の画像に対して、順次、解像度が固定されたテンプレートTlを適用してテンプレートマッチングを行い所定のランドマークを検出する。   The imaging unit 10 performs preliminary imaging to obtain a preliminary captured image Pp (step ST7). The landmark detection unit 31 detects the predetermined landmark included in the preliminary captured image Pp by template matching using the template Tl, and obtains the position Lld and the size Sld of the landmark in the preliminary captured image Pp. (Step ST8). At this time, the pre-captured image Pp is converted into multiple resolutions to obtain a plurality of images having different resolutions (image sizes) in stages, and a template Tl having a fixed resolution is sequentially applied to the plurality of images. Matching is performed to detect a predetermined landmark.

図4は、予備撮像画像Ppを多重解像度化して得られた複数の画像のうちの1つに対して、ランドマークのテンプレートとしての東京タワーのテンプレートTlを用いたマッチングにより、予備撮像画像Ppに含まれる東京タワーを検出する処理を示した図である。テンプレートTlを検出対象となる画像内で走査しながら各位置でテンプレートの画像パターンと検出対象上の画像パターンとの間で相関値を求め、この相関値が所定値以上のときにその位置にテンプレートが表すランドマークが存在するものと判断する。   FIG. 4 shows a preliminary captured image Pp obtained by matching one of a plurality of images obtained by multi-resolution of the preliminary captured image Pp with the Tokyo Tower template Tl as a landmark template. It is the figure which showed the process which detects the Tokyo tower contained. While scanning the template Tl in the image to be detected, a correlation value is obtained between the template image pattern and the image pattern on the detection target at each position, and when this correlation value is greater than or equal to a predetermined value, the template is located at that position. It is determined that the landmark represented by exists.

ランドマーク検出部31により検出されたランドマークの位置Lldおよび大きさSldと、目標構図データKが表すランドマークの位置Lltおよび大きさSltとをそれぞれ比較して、ランドマークの位置および大きさの差異Dlを算出する(ステップST9)。この差異Dlは、目標構図を表すランドマークの位置Lltを基準としたときの、検出されたランドマークの位置Lldのずれ量とその向き、目標構図が表すランドマークが占める面積を基準としたときの、検出されたランドマークが占める面積の相対比で規定される。そして、ズーム倍率・撮像向き案内部51が、この位置ずれ量が所定の閾値以下であり、かつ、面積の相対比が所定範囲内であるか否か、すなわち、フレーミングされたランドマークの構図が目標であるランドマークの構図にほぼ一致しているか否かを判定し(ステップST10)、一致していないと判定されたときには、その差異を減少させるために変更すべきズーム倍率の大小方向、カメラの振る向きを案内する音声Gcを出力し(ステップST11)、ステップST7に戻る。ここで撮影者は、案内された音声Gcを聞きながらズーム倍率の設定やカメラの向き等を変更する。一方、ほぼ一致していると判定されたときには、フレーミングされた人物の顔の構図が、目標構図データKが表す構図となるように被写体となる人物に対して移動すべき方向を案内する処理へと移行する。   The landmark position Lld and size Sld detected by the landmark detection unit 31 is compared with the landmark position Llt and size Slt represented by the target composition data K, respectively. The difference Dl is calculated (step ST9). The difference Dl is based on the amount of deviation and direction of the detected landmark position Lld relative to the landmark position Llt representing the target composition, and the area occupied by the landmark represented by the target composition. Of the area occupied by the detected landmark. Then, the zoom magnification / imaging direction guide unit 51 determines whether or not the positional deviation amount is equal to or less than a predetermined threshold and the relative ratio of the areas is within a predetermined range, that is, the composition of the framed landmark. It is determined whether or not the composition of the landmark that is the target substantially matches (step ST10). If it is determined that they do not match, the direction of the zoom magnification to be changed to reduce the difference, the camera The voice Gc for guiding the direction of the movement is output (step ST11), and the process returns to step ST7. Here, the photographer changes the zoom magnification setting, the camera orientation, and the like while listening to the guided voice Gc. On the other hand, when it is determined that they are almost the same, the process is such that the composition of the face of the framed person becomes the composition represented by the target composition data K and guides the direction of movement to the person as the subject. And migrate.

図5は、カメラによりフレーミングされたランドマーク(東京タワー)L2を含む構図Fm0が、ズーム倍率やカメラの向きの変更により、そのランドマークL2が目標の構図が示すランドマークL1にほぼ一致した構図Fm1へと変化した例を示す図である。   FIG. 5 shows a composition in which the composition Fm0 including the landmark (Tokyo Tower) L2 framed by the camera substantially coincides with the landmark L1 indicated by the target composition by changing the zoom magnification or the direction of the camera. It is a figure which shows the example changed into Fm1.

ここでユーザは、自分自身を被写体として撮像したい場合には、自分自身がフレームに入るように本デジタルカメラの前方に移動する。   Here, when the user wants to take an image of himself / herself as a subject, the user moves to the front of the digital camera so as to enter the frame.

顔検出部32は予備撮像画像Ppに含まれる人物の顔を、標準顔のテンプレートTfまたは顔データ登録部80により特定の人物の顔が登録されているときはその登録された顔から生成されたこの登録顔に対応する特定顔のテンプレートTfrを用いたテンプレートマッチングにより検出し、予備撮像画像Ppにおけるその顔の位置Lfdおよび大きさSfdを求める(ステップST12)。このとき、ランドマークを検出する場合と同様に、予備撮像画像Ppを多重解像度化して解像度(画像サイズ)が段階的に異なる複数の画像を得、それら複数の画像に対して、順次、解像度が固定されたテンプレートTlを適用してテンプレートマッチングを行い人物の顔を検出する。フレーミングされた枠の中に撮像すべき人物以外の人物が入る場合には、予め撮像すべき人物の顔を顔データ登録部80により登録しておけば、誤って他の人物の顔を検出することがなくてよい。例えば、自分自身を撮像する場合には、事前に自分の顔を登録しておくようにする。   The face detection unit 32 generates a face of a person included in the preliminary captured image Pp from the registered face when the face of a specific person is registered by the standard face template Tf or the face data registration unit 80. Detection is performed by template matching using the template Tfr of the specific face corresponding to the registered face, and the position Lfd and size Sfd of the face in the preliminary captured image Pp are obtained (step ST12). At this time, as in the case of detecting the landmark, the pre-captured image Pp is multi-resolutioned to obtain a plurality of images having different resolutions (image sizes) in stages, and the resolution is sequentially increased with respect to the plurality of images. Template matching is performed by applying the fixed template Tl to detect a human face. When a person other than the person to be imaged enters the framed frame, if the face of the person to be imaged is registered in advance by the face data registration unit 80, the face of another person is erroneously detected. It does n’t have to be. For example, when taking an image of himself / herself, his / her face is registered in advance.

顔検出部32により検出された顔の位置Lfdおよび大きさSfdと、目標構図データKが表す顔の位置Lftおよび大きさSftをそれぞれ比較して、顔の位置および大きさの差異Dfを算出する(ステップST13)。この差異Dfは、目標構図を表す顔の位置Lftを基準としたときの、検出された顔の位置Lfdのずれ量とその向き、目標構図が表す顔が占める面積を基準としたときの、検出された顔が占める面積の相対比で規定される。そして、顔位置案内部52が、この位置ずれ量が所定の閾値以下であり、かつ、面積の相対比が所定範囲内であるか否か、すなわち、フレーミングされた顔の構図が目標である顔の構図にほぼ一致しているか否かを判定し(ステップST14)、一致していないと判定されたときには、その差異を減少させるために被写体である人物が移動すべき方向を案内する音声Gfを出力し(ステップST15)、ステップST7に戻る。ここで、被写体である人物は音声Gfの案内に従って移動し位置を修正する。一方、ほぼ一致していると判定されたときには、撮像の準備ができたことを報知するとともに撮像を許可する処理へと移行する。   The face position Lfd and size Sfd detected by the face detection unit 32 is compared with the face position Lft and size Sft represented by the target composition data K, respectively, to calculate a face position and size difference Df. (Step ST13). This difference Df is detected when the amount of deviation and the direction of the detected face position Lft when the face position Lft representing the target composition is used as a reference and the area occupied by the face represented by the target composition are used as a reference. Is defined by the relative ratio of the area occupied by the face. Then, the face position guide unit 52 determines whether or not the positional deviation amount is equal to or smaller than a predetermined threshold and the relative ratio of the areas is within a predetermined range, that is, the face whose framed composition is the target. (Step ST14), and when it is determined that they do not match, the voice Gf that guides the direction in which the person who is the subject should move is reduced in order to reduce the difference. Output (step ST15), the process returns to step ST7. Here, the person who is the subject moves according to the guidance of the voice Gf and corrects the position. On the other hand, when it is determined that they are almost the same, the process proceeds to a process for notifying that the preparation for imaging has been completed and permitting imaging.

図6は、カメラによりフレーミングされたランドマーク(東京タワー)L2、撮像される人物の顔F2を含む構図Fm1′が、撮像される人物の顔の位置の移動により、そのランドマークL2および人物の顔F2が目標の構図が示すランドマークL1および人物の顔F1にほぼ一致した構図Fm2へと変化した例を示す図である。   FIG. 6 shows the composition of the landmark (Tokyo Tower) L2 framed by the camera and the face F2 of the person to be imaged. It is a figure which shows the example which the face F2 changed into the composition Fm2 substantially corresponded to the landmark L1 which the target composition shows, and the person's face F1.

アラーム出力部60が、アラーム音と音声で、フレーミングされた構図が目標の構図とほぼ一致し撮影の準備ができたことをユーザに知らせる(ステップST16)。そして、撮像許可部70が撮像部10による本撮像を許可し、ユーザによる撮影操作、例えば、カメラ本体にあるシャッターボタンの押下やリモコンによる撮像要求信号などを受け付ける状態にする(ステップST17)。ここで、撮像部10は撮影操作が行われたか否かを判定し(ステップST18)、当該操作が行われたと判定された場合には本撮像を行って本撮像画像Pを得(ステップST19)、ステップST7に戻り、一方、当該操作が行われていないと判定された場合には、本撮像を行わずにそのままステップST7に戻る。   The alarm output unit 60 informs the user by alarm sound and voice that the framed composition substantially matches the target composition and is ready for shooting (step ST16). Then, the imaging permission unit 70 permits the actual imaging by the imaging unit 10, and enters a state of accepting a shooting operation by the user, for example, pressing of a shutter button in the camera body or an imaging request signal by a remote controller (step ST17). Here, the imaging unit 10 determines whether or not a shooting operation has been performed (step ST18). When it is determined that the operation has been performed, the main imaging is performed to obtain the main captured image P (step ST19). Returning to step ST7, on the other hand, if it is determined that the operation is not performed, the process returns to step ST7 without performing the main imaging.

次に、モードが制御モードである場合に、本実施形態において行われる処理について説明する。図7は、制御モード時に行われる処理を示すフローチャートである。   Next, processing performed in the present embodiment when the mode is the control mode will be described. FIG. 7 is a flowchart showing processing performed in the control mode.

まず、現在位置データ取得部90は、GPS信号を受信して現在位置データJhを取得する(ステップST21)。すると目標構図データ取得部20は、現在位置データ取得部90により取得された現在位置データJhを外部のネットワークを介して所定のサーバに送信し、そのサーバがその現在位置データJhにより特定される現在位置に応じて、予め用意された複数の目標構図データの中からその現在位置の近傍にある所定のランドマークを構図に含む目標構図データを選択して本デジタルカメラ側に送信し、目標構図データ取得部20がそのサーバから送信された目標構図データを取得する(ステップST22)。また、撮像位置データ取得部30が、目標構図データ取得部20により取得される目標構図データKと対応付けされた、その目標構図データKが表す構図で撮像することができる撮像位置を特定する撮像位置データJlを、同サーバから外部のネットワークを介して取得する(ステップST23)。なお、この目標構図データには、目標となる構図を表す、本撮像画像P上での所定のランドマークの位置および大きさと人物の顔の位置および大きさを示す情報が含まれており、予備撮像画像Pp上でこの所定のランドマークを検出する際に用いるランドマークのテンプレートが添付されている。   First, the current position data acquisition unit 90 receives a GPS signal and acquires current position data Jh (step ST21). Then, the target composition data acquisition unit 20 transmits the current position data Jh acquired by the current position data acquisition unit 90 to a predetermined server via an external network, and the server is identified by the current position data Jh. Depending on the position, target composition data including a predetermined landmark in the vicinity of the current position in the composition is selected from a plurality of target composition data prepared in advance and transmitted to the digital camera side. The acquisition unit 20 acquires the target composition data transmitted from the server (step ST22). In addition, the imaging position data acquisition unit 30 identifies an imaging position that can be imaged with the composition represented by the target composition data K that is associated with the target composition data K acquired by the target composition data acquisition unit 20. The position data Jl is acquired from the server via an external network (step ST23). The target composition data includes information indicating the position and size of a predetermined landmark on the main captured image P and the position and size of a person's face, which represents the target composition. A landmark template used when detecting the predetermined landmark on the captured image Pp is attached.

現在位置データ取得部90は、ここで再びGPS信号を受信して現在位置データJhを取得する(ステップST24)。そして、撮像位置誘導部110が、最新の現在位置データJhと撮像位置データJlとに基づいてその位置の差異を算出し、この差異が所定の閾値以下であるか否か、すなわち、現在位置が撮像位置にほぼ一致しているか否かを判定し(ステップST25)、一致していないと判定されたときには、その位置の差異が減少するように撮影者を誘導するための音声Glを出力し(ステップST26)、ステップST24に戻る。ここで撮影者は、この音声Glを聞いて誘導される方向へ移動することになる。一方、ほぼ一致していると判定されたときには、フレーミングされた構図が、目標構図データKが表す構図となるように撮像条件を制御したり、被写体となる人物に案内したりする処理へと移行する。   Here, the current position data acquisition unit 90 receives the GPS signal again and acquires current position data Jh (step ST24). Then, the imaging position guiding unit 110 calculates a difference between the positions based on the latest current position data Jh and the imaging position data Jl, and whether or not the difference is equal to or less than a predetermined threshold, that is, the current position is It is determined whether or not it substantially coincides with the imaging position (step ST25). When it is determined that they do not coincide with each other, a sound Gl for guiding the photographer is output so that the difference in the position is reduced ( Step ST26), the process returns to step ST24. Here, the photographer moves in the direction guided by listening to the voice G1. On the other hand, when it is determined that they are almost the same, the process shifts to a process of controlling the imaging conditions so that the framed composition becomes the composition represented by the target composition data K, or guiding the person as the subject. To do.

ここで撮影者は、上記所定のランドマークがフレームに入るように本デジタルカメラの位置や向きを定め、必要に応じて本デジタルカメラを三脚等に接続したり、あるいは所定の場所に置いたりしてカメラを固定する。   Here, the photographer determines the position and orientation of the digital camera so that the predetermined landmark enters the frame, and connects the digital camera to a tripod or the like or places it on a predetermined place as necessary. To fix the camera.

撮像系制御部120は、ズーム倍率を変更するためのズームレンズの駆動モータを制御して、ズーム倍率を最小すなわち最も広角側に設定する(ステップST27)。撮像部10は予備撮像を行って予備撮像画像Ppを得る(ステップST28)。そして、ランドマーク検出部31が予備撮像画像Ppに含まれる上記所定のランドマークを、テンプレートTlを用いたテンプレートマッチングにより検出し、予備撮像画像Ppにおけるそのランドマークの位置Lldおよび大きさSldを求める(ステップST29)。このとき、予備撮像画像Ppを多重解像度化して解像度(画像サイズ)が段階的に異なる複数の画像を得、それら複数の画像に対して、順次、解像度が固定されたテンプレートTlを適用してテンプレートマッチングを行い所定のランドマークを検出する。   The imaging system control unit 120 controls the zoom lens drive motor for changing the zoom magnification, and sets the zoom magnification to the minimum, that is, the widest angle side (step ST27). The imaging unit 10 performs preliminary imaging to obtain a preliminary captured image Pp (step ST28). The landmark detection unit 31 detects the predetermined landmark included in the preliminary captured image Pp by template matching using the template Tl, and obtains the position Lld and the size Sld of the landmark in the preliminary captured image Pp. (Step ST29). At this time, the pre-captured image Pp is converted into multiple resolutions to obtain a plurality of images having different resolutions (image sizes) in stages, and a template Tl having a fixed resolution is sequentially applied to the plurality of images. Matching is performed to detect a predetermined landmark.

ランドマーク検出部31により検出されたランドマークの位置Lldおよび大きさSldと、目標構図データKが表すランドマークの位置Lltおよび大きさSltとをそれぞれ比較して、ランドマークの位置および大きさの差異Dlを算出する(ステップST30)。この差異Dlは、目標構図を表すランドマークの位置Lltを基準としたときの、検出されたランドマークの位置Lldのずれ量とその向き、目標構図が表すランドマークが占める面積を基準としたときの、検出されたランドマークが占める面積の相対比で規定される。そして、撮像系制御部120が、この位置ずれ量が所定の閾値以下であり、かつ、面積の相対比が所定範囲内であるか否か、すなわち、フレーミングされたランドマークの構図が目標であるランドマークの構図にほぼ一致しているか否かを判定し(ステップST31)、一致していないと判定されたときには、その差異を減少させるために駆動モータを制御してズーム倍率やカメラの向きを変更し(ステップST32)、ステップST28に戻る。一方、ほぼ一致していると判定されたときには、フレーミングされた人物の顔の構図が、目標構図データKが表す構図となるように被写体となる人物に対して移動すべき方向を案内する処理へと移行する。   The landmark position Lld and size Sld detected by the landmark detection unit 31 is compared with the landmark position Llt and size Slt represented by the target composition data K, respectively. The difference Dl is calculated (step ST30). The difference Dl is based on the amount of deviation and direction of the detected landmark position Lld relative to the landmark position Llt representing the target composition, and the area occupied by the landmark represented by the target composition. Of the area occupied by the detected landmark. Then, the imaging system control unit 120 sets whether the positional deviation amount is equal to or smaller than a predetermined threshold and the relative ratio of the areas is within a predetermined range, that is, the composition of the framed landmark. It is determined whether or not it substantially matches the composition of the landmark (step ST31). If it is determined that they do not match, the drive motor is controlled to reduce the difference so that the zoom magnification and the camera direction are adjusted. Change (step ST32) and return to step ST28. On the other hand, when it is determined that they are almost the same, the process is such that the composition of the face of the framed person becomes the composition represented by the target composition data K and guides the direction of movement to the person as the subject. And migrate.

ここでユーザは、自分自身を被写体として撮像したい場合には、自分自身がフレームに入るように本デジタルカメラの前方に移動する。   Here, when the user wants to take an image of himself / herself as a subject, the user moves to the front of the digital camera so as to enter the frame.

顔検出部32は予備撮像画像Ppに含まれる人物の顔を、標準顔のテンプレートTfまたは顔データ登録部80により特定の人物の顔が登録されているときはその登録された顔から生成されたこの登録顔に対応する特定顔のテンプレートTfrを用いたテンプレートマッチングにより検出し、予備撮像画像Ppにおけるその顔の位置Lfdおよび大きさSfdを求める(ステップST33)。このとき、ランドマークを検出する場合と同様に、予備撮像画像Ppを多重解像度化して解像度(画像サイズ)が段階的に異なる複数の画像を得、それら複数の画像に対して、順次、解像度が固定されたテンプレートTlを適用してテンプレートマッチングを行い人物の顔を検出する。フレーミングされた枠の中に撮像すべき人物以外の人物が入る場合には、予め撮像すべき人物の顔を顔データ登録部80により登録しておけば、誤って他の人物の顔を検出することがなくてよい。   The face detection unit 32 generates a face of a person included in the preliminary captured image Pp from the registered face when the face of a specific person is registered by the standard face template Tf or the face data registration unit 80. Detection is performed by template matching using the template Tfr of the specific face corresponding to the registered face, and the position Lfd and size Sfd of the face in the preliminary captured image Pp are obtained (step ST33). At this time, as in the case of detecting the landmark, the pre-captured image Pp is multi-resolutioned to obtain a plurality of images having different resolutions (image sizes) in stages, and the resolution is sequentially increased with respect to the plurality of images. Template matching is performed by applying the fixed template Tl to detect a human face. When a person other than the person to be imaged enters the framed frame, if the face of the person to be imaged is registered in advance by the face data registration unit 80, the face of another person is erroneously detected. It does n’t have to be.

顔検出部32により検出された顔の位置Lfdおよび大きさSfdと、目標構図データKが表す顔の位置Lftおよび大きさSftとをそれぞれ比較して、顔の位置および大きさの差異Dfを算出する(ステップST34)。この差異Dfは、目標構図を表す顔の位置Lftを基準としたときの、検出された顔の位置Lfdのずれ量とその向き、目標構図が表す顔が占める面積を基準としたときの、検出された顔が占める面積の相対比で規定される。そして、顔位置案内部52が、この位置ずれ量が所定の閾値以下であり、かつ、面積の相対比が所定範囲内であるか否か、すなわち、フレーミングされた顔の構図が目標である顔の構図にほぼ一致しているか否かを判定し(ステップST35)、一致していないと判定されたときには、その差異を減少させるために被写体である人物が移動すべき方向を案内する音声Gfを出力し(ステップST36)、ステップST28に戻る。ここで、被写体である人物は音声Gfの案内に従って移動し立ち位置を修正する。一方、ほぼ一致していると判定されたときには、撮像の準備ができたことを報知するとともに撮像を許可する処理へと移行する。   The face position Lfd and size Sfd detected by the face detection unit 32 and the face position Lft and size Sft represented by the target composition data K are respectively compared to calculate a face position and size difference Df. (Step ST34). This difference Df is detected when the amount of deviation and the direction of the detected face position Lft when the face position Lft representing the target composition is used as a reference and the area occupied by the face represented by the target composition are used as a reference. Is defined by the relative ratio of the area occupied by the face. Then, the face position guide unit 52 determines whether or not the positional deviation amount is equal to or smaller than a predetermined threshold and the relative ratio of the areas is within a predetermined range, that is, the face whose framed composition is the target. (Step ST35), and when it is determined that they do not match, the voice Gf that guides the direction in which the person who is the subject should move is reduced in order to reduce the difference. Output (step ST36), the process returns to step ST28. Here, the person who is the subject moves according to the guidance of the voice Gf and corrects the standing position. On the other hand, when it is determined that they are almost the same, the process proceeds to a process for notifying that the preparation for imaging has been completed and permitting imaging.

アラーム出力部60が、アラーム音と音声で、フレーミングされた構図が目標の構図とほぼ一致し撮影の準備ができたことをユーザに知らせる(ステップST37)。そして、撮像許可部70が撮像部10による本撮像を許可し、ユーザによる撮像操作、例えば、カメラ本体にあるシャッターボタンの押下やリモコンによる撮像要求信号などを受け付ける状態にする(ステップST38)。ここで、撮像部10は撮像操作が行われたか否かを判定し(ステップST39)、当該操作が行われたと判定された場合には本撮像を行って本撮像画像Pを得(ステップST40)、ステップST28に戻り、一方、当該操作が行われていないと判定された場合には、本撮像を行わずにそのままステップST28に戻る。   The alarm output unit 60 informs the user by alarm sound and voice that the framed composition substantially matches the target composition and is ready for shooting (step ST37). Then, the imaging permission unit 70 permits the actual imaging by the imaging unit 10, and enters a state of accepting an imaging operation by the user, for example, pressing of a shutter button on the camera body or an imaging request signal by a remote controller (step ST38). Here, the imaging unit 10 determines whether or not an imaging operation has been performed (step ST39). If it is determined that the operation has been performed, the actual imaging is performed to obtain the captured image P (step ST40). Returning to step ST28, on the other hand, if it is determined that the operation is not performed, the process returns to step ST28 without performing the main imaging.

このように、本実施形態によるデジタルカメラによれば、撮像する際に目標となる構図、すなわち撮像すべき所定の被写体が本撮像画像P上で配されるべき位置および大きさを表す構図が設定されると、予備撮像して得られた予備撮像画像Pp上でその所定の被写体を検出し、検出された被写体の位置および大きさと目標となる位置および大きさとを比較してその差異を算出し、その差異が減少するように、本デジタルカメラのズーム倍率、カメラの向き、および上記所定の被写体の位置のうち少なくとも1つについて案内するので、デジタルカメラの扱いや撮像の指示が不慣れな者であっても、その案内に従うことで目標の構図を得るための撮像条件を容易に整えることができ、設定された構図通りの写真を簡便に撮像することができる。   As described above, according to the digital camera according to the present embodiment, a composition that represents a target composition when capturing an image, that is, a composition that represents the position and size at which a predetermined subject to be imaged should be arranged on the captured image P is set. Then, the predetermined subject is detected on the preliminary captured image Pp obtained by preliminary imaging, and the difference between the position and size of the detected subject and the target position and size is calculated. In order to reduce the difference, guidance is provided for at least one of the zoom magnification of the digital camera, the direction of the camera, and the position of the predetermined subject. Even if it exists, the imaging condition for obtaining a target composition can be easily prepared by following the guidance, and the photograph according to the set composition can be easily taken.

また、本実施形態では、デジタルカメラが顔位置案内部52を備えるため、特に自分自身を構図に含む写真を撮像するときには、自分自身がその案内にしたがって移動することにより目標となる構図にすることができるので、第三者に撮像を依頼しなくても、目標の構図通りの撮像が可能である。   In the present embodiment, since the digital camera includes the face position guide unit 52, particularly when taking a photograph including itself in the composition, the composition becomes a target composition by moving according to the guidance. Therefore, it is possible to take an image according to the target composition without requesting a third party to take an image.

また、本実施形態では、被写体差異算出部40により算出された差異に相当する差分が所定の閾値以下であるときにその旨を報知するアラーム出力部60を備えているので、ユーザは撮像条件が整ったことを、フレームを見ずに知ることができ、自分自身を撮像するときに便利である。   In the present embodiment, since the alarm output unit 60 that notifies the user when the difference corresponding to the difference calculated by the subject difference calculation unit 40 is equal to or less than a predetermined threshold value is provided, the user can set the imaging condition. You can know that you are ready without looking at the frame, which is convenient when you image yourself.

また、本実施形態では、被写体差異算出部40により算出された差異に相当する差分が所定の閾値以下であるときに本撮像を許可する撮像許可部70を備えているので、撮像条件が整う前に誤って撮像してしまうことがないため、後からそのような誤撮像によって得られた画像データを削除する手間が要らない。また、この「許可」を、本撮像を行うことそのものとしたときには、第三者にシャッターボタンの押下を依頼したり、リモコンにより撮像要求信号を出力したりすることなく意図した構図通りに本撮像が行えるという利点もある。なおこの場合には、撮像条件が整ってからすぐに撮像されるようにするのではなく、タイマ機能によって少し時間をおいてから撮像されるようにしてもよい。   In the present embodiment, the imaging permission unit 70 that permits the actual imaging when the difference corresponding to the difference calculated by the subject difference calculation unit 40 is equal to or less than a predetermined threshold is provided. Therefore, there is no need to delete the image data obtained by such erroneous imaging later. In addition, when this “permission” is to perform actual imaging itself, the actual imaging is performed according to the intended composition without requesting a third party to press the shutter button or outputting an imaging request signal from the remote control. There is also an advantage that can be performed. In this case, the image may not be captured immediately after the imaging conditions are set, but may be captured after a short time by the timer function.

また、本実施形態では、特定の人物の顔を登録する顔データ登録部80を備え、顔検出部32が、予備撮像画像Pp上でその登録されている顔を検出するので、撮像すべき人物の顔を事前に登録しておけば、フレーム内に他人が入り込むような場合であっても、誤って他人の顔を検出することがなくなり、適正な案内が期待できる。   Further, in the present embodiment, a face data registration unit 80 that registers the face of a specific person is provided, and the face detection unit 32 detects the registered face on the preliminary captured image Pp. If the other person's face is registered in advance, even if another person enters the frame, the other person's face is not detected by mistake, and appropriate guidance can be expected.

また、本実施形態では、目標構図データを用意された複数のデータの中から選択して取得しているので、プロカメラマンが考えた良好な構図のデータを予め用意しておくこともでき、写真の撮像技術があまり高くないアマチュアの撮影者であっても、プロが考えるような美しい構図で撮像することが簡単にできる。   In the present embodiment, since the target composition data is selected and obtained from a plurality of prepared data, it is possible to prepare in advance data with a good composition considered by a professional photographer. Even an amateur photographer who does not have a high level of imaging technology can easily capture images with a beautiful composition that professionals think.

なお、目標構図データ取得部20は、例えば、カメラに設けられた手動入力手段の操作に応じて所定の被写体の本撮像画像P上で配されるべき位置および大きさを決定するようにしてもよい。このようにすれば、取得した目標構図データが表す構図を好みに合わせて調整することもできるし、また、暫定的な撮像によって背景にしたい画像を取り込む機能を設ければ、その場で好みの背景や人物の顔の位置を設定することができ、バリエーションが広がる。   For example, the target composition data acquisition unit 20 may determine the position and size of the predetermined subject to be arranged on the main captured image P in accordance with the operation of the manual input means provided in the camera. Good. In this way, the composition represented by the acquired target composition data can be adjusted according to preference, and if a function for capturing an image to be used as a background by provisional imaging is provided, the desired composition can be obtained on the spot. You can set the background and the position of the person's face, and the variations will expand.

また、本実施形態では、目標構図データ取得部20が、目標構図データを本デジタルカメラの外部からネットワークを介して取得するので、カメラ本体に大量のデータを記憶させずに、大量のデータの中から適当な目標構図データを取得することができ、メモリの節約になる。また、外部のネットワーク上に存在する目標構図データが逐次更新されるようにしておけば、常に最新の目標構図データを取得することができる。   In the present embodiment, the target composition data acquisition unit 20 acquires the target composition data from the outside of the digital camera via a network, so that a large amount of data can be stored without storing a large amount of data in the camera body. Therefore, it is possible to acquire appropriate target composition data from the memory, which saves memory. If the target composition data existing on the external network is updated sequentially, the latest target composition data can always be acquired.

また、本実施形態では、現在位置データ取得部90を備え、目標構図データ取得部20が、現在位置データJhが表す現在位置の近傍に存在するランドマークを所定の被写体として含む目標構図データを選択して取得するので、現在位置に関係のあるランドマークを含む目標構図データを自動的に取得でき、ユーザが撮像したいと考える可能性の高い構図を煩雑な作業なしに取得することができる。   In the present embodiment, the current position data acquisition unit 90 is provided, and the target composition data acquisition unit 20 selects target composition data including a landmark existing in the vicinity of the current position represented by the current position data Jh as a predetermined subject. Therefore, the target composition data including the landmark related to the current position can be automatically acquired, and the composition that the user is likely to want to capture can be acquired without complicated work.

また、本実施形態では、取得された目標構図データKが表す構図で撮像することができる撮像位置を特定する撮像位置データJlを取得する撮像位置データ取得部100と、現在位置データJhと撮像位置データJlとに基づいて、撮影者を撮像位置まで誘導する撮像位置誘導部とを備えているので、目標の構図で撮像するにはどの場所から撮像したらよいか分からないような場合であっても、迷うことなく、その場所まで辿り着くことができる。   In the present embodiment, the imaging position data acquisition unit 100 that acquires imaging position data Jl that specifies an imaging position that can be imaged with the composition represented by the acquired target composition data K, the current position data Jh, and the imaging position Since it has an imaging position guidance unit that guides the photographer to the imaging position based on the data Jl, even if it is not clear from where the image should be taken for imaging with the target composition You can get to the place without getting lost.

また、本実施形態では、被写体差異算出部40により算出された差異に基づいて、この差異が減少するように、撮像部10のズーム倍率またはカメラの向きを制御する撮像系制御部120を備えているので、煩雑な作業をしなくとも、フレーミングされる構図を目標とする構図へ自動で近づけることができる。   In the present embodiment, the imaging system control unit 120 that controls the zoom magnification of the imaging unit 10 or the direction of the camera is provided so as to reduce the difference based on the difference calculated by the subject difference calculation unit 40. Therefore, the composition to be framed can be automatically brought close to the target composition without performing complicated work.

なお、本実施形態では、目標構図データはランドマークと人物の顔の両方を被写体とする構図を表すものであるが、例えば、ランドマークのみ、あるいは、人物の顔のみを被写体とする構図であってもよい。   In this embodiment, the target composition data represents a composition in which both a landmark and a person's face are subjects. For example, the target composition data is a composition in which only a landmark or only a person's face is a subject. May be.

また、目標構図データKが表す構図の画像を不図示のモニタに半透明にして表示し、スルー画像とともに確認できるようにしておくことが好ましい。   Further, it is preferable that the image of the composition represented by the target composition data K is displayed on a monitor (not shown) in a translucent manner so that it can be confirmed together with the through image.

以上、本発明の望ましい実施形態について説明したが、本発明の方法および装置並びにそのためのプログラムは、上述した実施形態に限られることなく、本発明の主旨を逸脱しない限り、様々な増減、変化を加えることができる。   The preferred embodiment of the present invention has been described above. However, the method and apparatus of the present invention and the program therefor are not limited to the above-described embodiment, and various increases, decreases and changes can be made without departing from the gist of the present invention. Can be added.

本発明の実施形態となるデジタルカメラの構成を示すブロック図1 is a block diagram showing a configuration of a digital camera according to an embodiment of the present invention. 案内モード時の本実施形態における処理を示すフローチャートFlow chart showing processing in the present embodiment in the guidance mode 目標構図データが表す構図の一例を示す図The figure which shows an example of the composition which target composition data represents ランドマークのテンプレートの一例を示す図Figure showing an example of a landmark template ランドマークの構図が目標の構図にほぼ一致する様子を示す図A figure showing how the composition of the landmarks almost matches the target composition ランドマークと人物の顔の構図が目標の構図にほぼ一致する様子を示す図A figure showing how the composition of the landmark and the person's face almost matches the target composition 制御モード時の本実施形態における処理を示すフローチャートFlow chart showing processing in the present embodiment in the control mode

符号の説明Explanation of symbols

10 撮像部
20 目標構図データ取得部
30 被写体検出部
31 ランドマーク検出部
32 顔検出部
40 被写体差異算出部
41 ランドマーク差異算出部
42 顔差異算出部
50 撮像条件案内部
51 ズーム倍率・撮像向き案内部
52 顔位置案内部
60 アラーム出力部
70 撮像許可部
80 顔データ登録部
90 現在位置データ取得部
100 撮像位置データ取得部
110 撮像位置誘導部
120 撮像系制御部
DESCRIPTION OF SYMBOLS 10 Imaging part 20 Target composition data acquisition part 30 Subject detection part 31 Landmark detection part 32 Face detection part 40 Subject difference calculation part 41 Landmark difference calculation part 42 Face difference calculation part 50 Imaging condition guidance part 51 Zoom magnification and imaging direction guidance Unit 52 face position guide unit 60 alarm output unit 70 imaging permission unit 80 face data registration unit 90 current position data acquisition unit 100 imaging position data acquisition unit 110 imaging position guidance unit 120 imaging system control unit

Claims (11)

撮影待機状態のときに予備撮像を繰り返し行って予備撮像画像を順次取り込み、撮像操作に応答して本撮像を行って本撮像画像を得る撮像装置において、
撮像する際に目標となる構図を表す情報であって、少なくとも1つの撮像すべき所定の被写体が前記本撮像画像上で配されるべき位置および大きさを表す目標構図情報を取得する目標構図情報取得手段と、
前記予備撮像画像に含まれる前記所定の被写体を検出する被写体検出手段と、
該被写体検出手段により検出された被写体の位置および大きさと前記目標構図情報が表す前記所定の被写体の位置および大きさとを比較して該位置および大きさの差異を算出する被写体差異算出手段と、
該被写体差異算出手段により算出された差異に基づいて、前記差異が減少するように、前記撮像装置のズーム倍率、撮像装置の向き、および前記所定の被写体の位置のうち少なくとも1つについて案内する案内手段とを備えたことを特徴とする撮像装置。
In an imaging apparatus that repeatedly performs preliminary imaging in a shooting standby state, sequentially captures preliminary captured images, and performs actual imaging in response to an imaging operation to obtain the actual captured image.
Target composition information for obtaining target composition information that represents a composition that is a target at the time of imaging, and that represents a position and a size at which at least one predetermined subject to be imaged should be arranged on the main captured image Acquisition means;
Subject detection means for detecting the predetermined subject included in the preliminary captured image;
Subject difference calculation means for comparing the position and size of the subject detected by the subject detection means with the position and size of the predetermined subject represented by the target composition information;
Guidance for guiding at least one of the zoom magnification of the imaging device, the orientation of the imaging device, and the position of the predetermined subject so that the difference is reduced based on the difference calculated by the subject difference calculation means. And an imaging device.
前記被写体差異算出手段により算出された差異に相当する差分が所定の閾値以下であるときにその旨を報知する報知手段をさらに備えたことを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a notifying unit that notifies when the difference corresponding to the difference calculated by the subject difference calculating unit is equal to or less than a predetermined threshold. 前記被写体差異算出手段により算出された差異に相当する差分が所定の閾値以下であるときに前記本撮像を許可する撮像許可手段をさらに備えたことを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, further comprising an imaging permission unit that permits the main imaging when a difference corresponding to the difference calculated by the subject difference calculation unit is equal to or less than a predetermined threshold. 前記所定の被写体が、人物の顔を含むものであり、
特定の人物の顔を登録する顔登録手段をさらに備え、
前記被写体検出手段が、前記人物の顔として前記登録された特定の顔を検出するものであることを特徴とする請求項1、2または3記載の撮像装置。
The predetermined subject includes a human face;
A face registration unit for registering a face of a specific person;
The imaging apparatus according to claim 1, 2, or 3, wherein the subject detection means detects the registered specific face as the face of the person.
前記目標構図情報取得手段が、前記撮像装置に設けられた手動入力手段の操作に応じて前記所定の被写体の前記本撮像画像上で配されるべき位置および大きさを決定するものであることを特徴とする請求項1から4いずれか記載の撮像装置。   The target composition information acquisition unit determines a position and a size of the predetermined subject to be arranged on the main captured image in accordance with an operation of a manual input unit provided in the imaging apparatus. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 前記目標構図情報取得手段が、前記目標構図情報を、複数の異なる目標構図情報の中から選択して取得するものであることを特徴とする請求項1から4いずれか記載の撮像装置。   5. The image pickup apparatus according to claim 1, wherein the target composition information acquisition unit acquires the target composition information by selecting from a plurality of different target composition information. 前記目標構図情報取得手段が、前記目標構図情報を撮像装置の外部からネットワークを介して取得するものであることを特徴とする請求項6記載の撮像装置。   The imaging apparatus according to claim 6, wherein the target composition information acquisition unit acquires the target composition information from outside the imaging apparatus via a network. 前記所定の被写体が、ランドマークを含むものであり、
現在位置を特定する現在位置情報を取得する現在位置情報取得手段をさらに備え、
前記目標構図情報取得手段が、前記現在位置情報が表す現在位置の近傍に存在するランドマークを前記所定の被写体として含む目標構図情報を選択して取得するものであることを特徴とする請求項6または7記載の撮像装置。
The predetermined subject includes a landmark;
It further comprises current position information acquisition means for acquiring current position information for specifying the current position,
7. The target composition information acquisition unit is configured to select and acquire target composition information including a landmark present near the current position represented by the current position information as the predetermined subject. Or the imaging device of 7.
前記取得された目標構図情報が表す構図で撮像することができる撮像位置を特定する撮像位置情報を取得する撮像位置情報取得手段と、
前記現在位置情報と前記撮像位置情報とに基づいて、撮影者を前記撮像位置まで誘導する撮像位置誘導手段とをさらに備えたことを特徴とする請求項8記載の撮像装置。
Imaging position information acquisition means for acquiring imaging position information for specifying an imaging position that can be imaged with the composition represented by the acquired target composition information;
9. The imaging apparatus according to claim 8, further comprising imaging position guidance means for guiding a photographer to the imaging position based on the current position information and the imaging position information.
前記被写体差異算出手段により算出された差異に基づいて、前記差異が減少するように、前記撮像手段のズーム倍率または撮像装置の向きを制御する制御手段をさらに備え、
前記撮像条件案内手段が、前記所定の被写体の位置について案内するものであることを特徴とする請求項1から9いずれか記載の撮像装置。
Further comprising control means for controlling the zoom magnification of the image pickup means or the orientation of the image pickup apparatus so that the difference is reduced based on the difference calculated by the subject difference calculation means;
The imaging apparatus according to any one of claims 1 to 9, wherein the imaging condition guide means guides the position of the predetermined subject.
撮影待機状態のときに予備撮像を繰り返し行って予備撮像画像を順次取り込み、撮像操作に応答して本撮像を行って本撮像画像を得る撮像装置における撮像条件案内方法であって、
撮像する際に目標となる構図を表す情報であって、少なくとも1つの撮像すべき所定の被写体が前記本撮像画像上で配されるべき位置および大きさを表す目標構図情報を取得する工程と、
前記予備撮像画像に含まれる前記所定の被写体を検出する工程と、
該検出された被写体の位置および大きさと前記目標構図情報が表す前記所定の被写体の位置および大きさとを比較して該位置および大きさの差異を算出する工程と、
該算出された差異に基づいて、前記差異が減少するように、前記撮像装置のズーム倍率、撮像装置の向き、および前記所定の被写体の位置のうち少なくとも1つについて案内する工程とからなる撮像条件案内方法。
An imaging condition guide method in an imaging apparatus that repeatedly performs preliminary imaging in a shooting standby state, sequentially captures preliminary captured images, and performs main imaging in response to an imaging operation to obtain a main captured image,
Obtaining target composition information that represents a composition that is a target at the time of imaging, and that represents a position and a size at which at least one predetermined subject to be imaged should be arranged on the main captured image;
Detecting the predetermined subject included in the preliminary captured image;
Comparing the position and size of the detected subject with the position and size of the predetermined subject represented by the target composition information, and calculating a difference between the position and size;
An imaging condition comprising a step of guiding at least one of the zoom magnification of the imaging device, the orientation of the imaging device, and the position of the predetermined subject so that the difference is reduced based on the calculated difference. Guidance method.
JP2006080402A 2006-03-23 2006-03-23 Imaging apparatus and imaging condition guide method Expired - Fee Related JP4864502B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006080402A JP4864502B2 (en) 2006-03-23 2006-03-23 Imaging apparatus and imaging condition guide method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006080402A JP4864502B2 (en) 2006-03-23 2006-03-23 Imaging apparatus and imaging condition guide method

Publications (3)

Publication Number Publication Date
JP2007259035A true JP2007259035A (en) 2007-10-04
JP2007259035A5 JP2007259035A5 (en) 2010-05-20
JP4864502B2 JP4864502B2 (en) 2012-02-01

Family

ID=38632832

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006080402A Expired - Fee Related JP4864502B2 (en) 2006-03-23 2006-03-23 Imaging apparatus and imaging condition guide method

Country Status (1)

Country Link
JP (1) JP4864502B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2106127A2 (en) 2008-03-24 2009-09-30 Sony Corporation Imaging apparatus, control method thereof, and program
JP2009267787A (en) * 2008-04-25 2009-11-12 Sony Corp Composition determination device, composition determination method, and program
JP2009296142A (en) * 2008-06-03 2009-12-17 Canon Inc Imaging device
JP2010081462A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Information recording/reproducing device
JP2011019051A (en) * 2009-07-08 2011-01-27 Sony Ericsson Mobilecommunications Japan Inc Photographing device and photographing control method
JP2011049716A (en) * 2009-08-26 2011-03-10 Sanyo Electric Co Ltd Electronic camera
JP2011097194A (en) * 2009-10-27 2011-05-12 Canon Inc Imaging apparatus, method of controlling the same, and program
JP2011199702A (en) * 2010-03-23 2011-10-06 Casio Computer Co Ltd Camera, camera control program, imaging method, and object information transmission reception system
JP2012199807A (en) * 2011-03-22 2012-10-18 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2012239194A (en) * 2012-07-12 2012-12-06 Casio Comput Co Ltd Camera, camera control program, and imaging method
JP2013165366A (en) * 2012-02-10 2013-08-22 Sony Corp Image processing device, image processing method, and program
JP2013207681A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Imaging apparatus and photographing method
WO2013187100A1 (en) * 2012-06-12 2013-12-19 オリンパスイメージング株式会社 Imaging device
KR101417812B1 (en) 2007-12-28 2014-07-09 삼성전자주식회사 Apparatus and method for digital picturing image
KR20140101169A (en) * 2013-02-08 2014-08-19 삼성전자주식회사 Guide method for taking a picture and mobile terminal implementing the same
WO2015065386A1 (en) * 2013-10-30 2015-05-07 Intel Corporation Image capture feedback
KR101618759B1 (en) * 2008-12-24 2016-05-09 삼성전자주식회사 Apparatus and method for capturing image
JP2018530177A (en) * 2015-07-31 2018-10-11 ソニー株式会社 Method and system for assisting a user in capturing an image or video
WO2022086028A1 (en) * 2020-10-21 2022-04-28 삼성전자주식회사 Electronic device and method for controlling same

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268421A (en) * 2000-03-21 2001-09-28 Fuji Photo Film Co Ltd Electronic camera, information acquisition system and print ordering system
JP2002010114A (en) * 2000-04-19 2002-01-11 Fuji Photo Film Co Ltd Image pickup device
JP2002247418A (en) * 2001-02-16 2002-08-30 Casio Comput Co Ltd Camera device and its sample image display method, and recording medium
JP2002281422A (en) * 2001-03-16 2002-09-27 Matsushita Electric Ind Co Ltd Plan preparation apparatus, plan providing device, plan preparation program, recording medium and guidance information system
JP2003338955A (en) * 2002-05-21 2003-11-28 Olympus Optical Co Ltd Camera with advising functions
JP2003348519A (en) * 2002-05-27 2003-12-05 Casio Comput Co Ltd Server device, imaging apparatus, imaging system, imaging method and imaging apparatus control program
JP2004048674A (en) * 2002-05-24 2004-02-12 Olympus Corp Information presentation system of visual field agreement type, portable information terminal, and server
JP2004072377A (en) * 2002-08-06 2004-03-04 Sharp Corp Camera, camera system, and recording medium
JP2005045398A (en) * 2003-07-24 2005-02-17 Canon Inc Method and device for photography assistance, and photographing device
JP2005269562A (en) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd Photographing apparatus
JP2005341016A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2006074368A (en) * 2004-09-01 2006-03-16 Nikon Corp Electronic camera

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001268421A (en) * 2000-03-21 2001-09-28 Fuji Photo Film Co Ltd Electronic camera, information acquisition system and print ordering system
JP2002010114A (en) * 2000-04-19 2002-01-11 Fuji Photo Film Co Ltd Image pickup device
JP2002247418A (en) * 2001-02-16 2002-08-30 Casio Comput Co Ltd Camera device and its sample image display method, and recording medium
JP2002281422A (en) * 2001-03-16 2002-09-27 Matsushita Electric Ind Co Ltd Plan preparation apparatus, plan providing device, plan preparation program, recording medium and guidance information system
JP2003338955A (en) * 2002-05-21 2003-11-28 Olympus Optical Co Ltd Camera with advising functions
JP2004048674A (en) * 2002-05-24 2004-02-12 Olympus Corp Information presentation system of visual field agreement type, portable information terminal, and server
JP2003348519A (en) * 2002-05-27 2003-12-05 Casio Comput Co Ltd Server device, imaging apparatus, imaging system, imaging method and imaging apparatus control program
JP2004072377A (en) * 2002-08-06 2004-03-04 Sharp Corp Camera, camera system, and recording medium
JP2005045398A (en) * 2003-07-24 2005-02-17 Canon Inc Method and device for photography assistance, and photographing device
JP2005269562A (en) * 2004-03-22 2005-09-29 Fuji Photo Film Co Ltd Photographing apparatus
JP2005341016A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2006074368A (en) * 2004-09-01 2006-03-16 Nikon Corp Electronic camera

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101417812B1 (en) 2007-12-28 2014-07-09 삼성전자주식회사 Apparatus and method for digital picturing image
CN102186019A (en) * 2008-03-24 2011-09-14 索尼株式会社 Imaging apparatus, control method thereof, and program
EP2106127A2 (en) 2008-03-24 2009-09-30 Sony Corporation Imaging apparatus, control method thereof, and program
US8594390B2 (en) 2008-04-25 2013-11-26 Sony Corporation Composition determination device, composition determination method, and program
JP2009267787A (en) * 2008-04-25 2009-11-12 Sony Corp Composition determination device, composition determination method, and program
US9679394B2 (en) 2008-04-25 2017-06-13 Sony Corporation Composition determination device, composition determination method, and program
JP2009296142A (en) * 2008-06-03 2009-12-17 Canon Inc Imaging device
JP2010081462A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Information recording/reproducing device
KR101618759B1 (en) * 2008-12-24 2016-05-09 삼성전자주식회사 Apparatus and method for capturing image
JP2011019051A (en) * 2009-07-08 2011-01-27 Sony Ericsson Mobilecommunications Japan Inc Photographing device and photographing control method
EP2275864B1 (en) * 2009-07-08 2017-04-05 Sony Mobile Communications Inc. Photographing device and photographing control method
JP2011049716A (en) * 2009-08-26 2011-03-10 Sanyo Electric Co Ltd Electronic camera
JP2011097194A (en) * 2009-10-27 2011-05-12 Canon Inc Imaging apparatus, method of controlling the same, and program
JP2011199702A (en) * 2010-03-23 2011-10-06 Casio Computer Co Ltd Camera, camera control program, imaging method, and object information transmission reception system
US8412031B2 (en) 2010-03-23 2013-04-02 Casio Computer Co., Ltd. Camera with a function of automatically setting shooting conditions and shooting method
JP2012199807A (en) * 2011-03-22 2012-10-18 Casio Comput Co Ltd Imaging apparatus, imaging method, and program
JP2013165366A (en) * 2012-02-10 2013-08-22 Sony Corp Image processing device, image processing method, and program
JP2013207681A (en) * 2012-03-29 2013-10-07 Fujitsu Ltd Imaging apparatus and photographing method
JP5379334B1 (en) * 2012-06-12 2013-12-25 オリンパスイメージング株式会社 Imaging device
WO2013187100A1 (en) * 2012-06-12 2013-12-19 オリンパスイメージング株式会社 Imaging device
CN104094588A (en) * 2012-06-12 2014-10-08 奥林巴斯映像株式会社 Imaging device
US9639940B2 (en) 2012-06-12 2017-05-02 Olympus Corporation Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
US9237273B2 (en) 2012-06-12 2016-01-12 Olympus Corporation Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
JP2012239194A (en) * 2012-07-12 2012-12-06 Casio Comput Co Ltd Camera, camera control program, and imaging method
KR20140101169A (en) * 2013-02-08 2014-08-19 삼성전자주식회사 Guide method for taking a picture and mobile terminal implementing the same
KR102026717B1 (en) * 2013-02-08 2019-10-04 삼성전자 주식회사 Guide method for taking a picture and mobile terminal implementing the same
US9262696B2 (en) 2013-10-30 2016-02-16 Intel Corporation Image capture feedback
WO2015065386A1 (en) * 2013-10-30 2015-05-07 Intel Corporation Image capture feedback
JP2018530177A (en) * 2015-07-31 2018-10-11 ソニー株式会社 Method and system for assisting a user in capturing an image or video
WO2022086028A1 (en) * 2020-10-21 2022-04-28 삼성전자주식회사 Electronic device and method for controlling same

Also Published As

Publication number Publication date
JP4864502B2 (en) 2012-02-01

Similar Documents

Publication Publication Date Title
JP4864502B2 (en) Imaging apparatus and imaging condition guide method
US9679394B2 (en) Composition determination device, composition determination method, and program
KR101481830B1 (en) Composition determining apparatus, composition determining method, and recording medium
US7649551B2 (en) Electronic camera system, photographing ordering device and photographing system
KR101412772B1 (en) Camera and method for providing guide information for image capture
KR101762769B1 (en) Apparatus and method for capturing subject in photographing device
JP2008148333A (en) Photographing system
JP2005348181A (en) Photography system, its control method and program for control
US9215340B2 (en) Display apparatus, display method, and computer-readable recording medium
JP2007148691A (en) Image processor
JP5233727B2 (en) Electronic camera
JP5248951B2 (en) CAMERA DEVICE, IMAGE SHOOTING SUPPORT DEVICE, IMAGE SHOOTING SUPPORT METHOD, AND IMAGE SHOOTING SUPPORT PROGRAM
JP4404805B2 (en) Imaging device
JPH09322055A (en) Electronic camera system
TWI485505B (en) Digital camera and image capturing method thereof
JP2008236015A (en) Image processor, imaging apparatus and its program
JP2012169714A (en) Imaging apparatus and imaging method
JP5293427B2 (en) Imaging apparatus and imaging control program
JP4259960B2 (en) Imaging apparatus and information transmission system
JP2003241073A (en) Camera
JP2004274735A (en) Imaging apparatus and image processing apparatus
JP2006113358A (en) Digital camera with automatic azimuth control function
JP2013207681A (en) Imaging apparatus and photographing method
JP2006203863A (en) Imaging system and imaging method
JP2010081462A (en) Information recording/reproducing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100401

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110615

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111109

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees