JP2011135527A - Digital camera - Google Patents

Digital camera Download PDF

Info

Publication number
JP2011135527A
JP2011135527A JP2009295601A JP2009295601A JP2011135527A JP 2011135527 A JP2011135527 A JP 2011135527A JP 2009295601 A JP2009295601 A JP 2009295601A JP 2009295601 A JP2009295601 A JP 2009295601A JP 2011135527 A JP2011135527 A JP 2011135527A
Authority
JP
Japan
Prior art keywords
composition
unit
image
digital camera
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009295601A
Other languages
Japanese (ja)
Inventor
Akihiro Yoshizawa
昭弘 義澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009295601A priority Critical patent/JP2011135527A/en
Publication of JP2011135527A publication Critical patent/JP2011135527A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a digital camera capable of presenting appropriate composition in accordance with a scene that a user attempts to capture. <P>SOLUTION: A digital camera includes: an imaging section for producing image data representing a subject image; a live-view display section for performing real-time motion picture display of a scene being captured by the imaging section; a sample acquiring section for acquiring at least a part of live-view image data used for the motion picture display as a sample image; a composition evaluating section for evaluating the composition of each of sample images acquired on the basis of a predetermined criterion; and a composition presenting section for selectively presenting the composition while overlapping the motion picture display by the live-view display section on the basis of the sample image having the composition to which the highest evaluation has been given by the composition evaluating section. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ライブビュー機能を備えたデジタルカメラに関する。   The present invention relates to a digital camera having a live view function.

多くのデジタルカメラには、例えば、撮像素子で得られる画像信号を間引き読み出しするなどしてスルー画を取得し、このスルー画を所定のフレームレートで液晶表示部に動画表示させる機能が備えられている。このようなライブビュー機能を用いて、デジタルカメラで撮影される範囲を利用者に提示することにより、利用者が本撮影を行うのに先立って構図の決定を支援することができる。   Many digital cameras have a function of acquiring a through image by, for example, thinning and reading out an image signal obtained by an image sensor, and displaying the through image on a liquid crystal display unit at a predetermined frame rate. Yes. By using such a live view function to present the range captured by the digital camera to the user, it is possible to assist the user in determining the composition prior to the actual shooting.

ライブビュー機能を利用した技術としては、例えば、ライブビュー画像に方眼マットや一般的な構図を示す補助枠を重ね合わせて表示する技術が提案されている(特許文献1参照)。   As a technique using the live view function, for example, a technique has been proposed in which a live view image and an auxiliary frame indicating a general composition are superimposed and displayed (see Patent Document 1).

また、動画撮影を中断した後に再開する際に、動画撮影の最終フレームを半透過表示させて、撮影を再開後に得られた動画像と中断直前の動画像とのつなぎ目を合わせやすくする技術も提案されている(特許文献2参照)。   In addition, when resuming video recording after it has been interrupted, we also proposed a technology that makes it possible to make the transition between the moving image obtained after resuming shooting and the moving image just before the interruption easier by displaying the last frame of the moving image shooting semi-transparently. (See Patent Document 2).

一方、撮影された画像の中の異なる領域を、様々な構図の画像として切り出して提示し、利用者が所望の構図の画像を選択するようにした技術も提案されている(特許文献3参照)。   On the other hand, a technique has also been proposed in which different regions in a photographed image are cut out and presented as images of various compositions, and a user selects an image of a desired composition (see Patent Document 3). .

特開2000−270242号公報JP 2000-270242 A 特開2006−129424号公報JP 2006-129424 A 特開2007−180664号公報JP 2007-180664 A

ところで、従来の技術において、ライブビュー画像に重ね合わせられていた補助枠は、例えば、ポートレートや集合写真などの撮影において好適とされる構図を一般化したものに対応している。このため、利用者が撮影しようとしているシーンに、表示された補助枠が適合しない場合もあった。   By the way, in the conventional technique, the auxiliary frame superimposed on the live view image corresponds to a generalized composition suitable for photographing such as portraits and group photographs. For this reason, the displayed auxiliary frame may not be suitable for the scene that the user intends to shoot.

本件開示は、利用者が撮影しようとしているシーンに合わせて、好適な構図を提示することが可能なデジタルカメラを提供することを目的とする。   An object of the present disclosure is to provide a digital camera capable of presenting a suitable composition in accordance with a scene that a user intends to shoot.

上述した目的は、以下に開示するデジタルカメラによって達成することができる。   The above-described object can be achieved by a digital camera disclosed below.

デジタルカメラは、被写体像を表す画像データを生成する撮像部と、撮像部に捉えられているシーンを実時間で動画表示するライブビュー表示部と、動画表示に用いられるライブビュー画像データの少なくとも一部をサンプル画像として取得するサンプル取得部と、取得されたサンプル画像それぞれの構図を所定の基準に基づいて評価する構図評価部と、構図評価部によって最高の評価が与えられた構図を持つサンプル画像に基づいて、構図を選択的にライブビュー表示部による動画表示に重ねて提示する構図提示部とを備える。   The digital camera includes at least one of an imaging unit that generates image data representing a subject image, a live view display unit that displays a scene captured by the imaging unit in real time, and live view image data used for moving image display. A sample acquisition unit that acquires a part as a sample image, a composition evaluation unit that evaluates the composition of each of the acquired sample images based on a predetermined standard, and a sample image that has the composition given the highest evaluation by the composition evaluation unit And a composition presentation unit that selectively presents the composition on the moving image display by the live view display unit.

以上に説明した構成を有するデジタルカメラでは、利用者が撮影しようとしているシーンに合わせて、好適な構図を提示することができる。   In the digital camera having the configuration described above, a suitable composition can be presented in accordance with the scene that the user is going to shoot.

デジタルカメラの一実施形態を示す図である。It is a figure which shows one Embodiment of a digital camera. サンプル画像の例を示す図である。It is a figure which shows the example of a sample image. 構図解析処理を説明する図である。It is a figure explaining composition analysis processing. 構図評価動作を表す流れ図である。It is a flowchart showing composition evaluation operation. 構図提示の例を示す図である。It is a figure which shows the example of composition presentation. デジタルカメラの別実施形態を示す図である。It is a figure which shows another embodiment of a digital camera. トリミングによる構図の最適化とトリミングを適用した構図の提示例を示す図である。It is a figure which shows the example of presentation of the composition which applied the optimization of the composition by trimming, and trimming. デジタルカメラの別実施形態を示す図である。It is a figure which shows another embodiment of a digital camera. トリミングに基づくズーム倍率制御を適用した構図提示例を示す図である。It is a figure which shows the composition presentation example to which the zoom magnification control based on trimming was applied.

以下、図面に基づいて、本発明の実施形態について詳細に説明する。
(実施形態1)
図1に、デジタルカメラの一実施形態を示す。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
FIG. 1 shows an embodiment of a digital camera.

図1に示したデジタルカメラにおいて、撮像部10は、撮影光学系11と撮像素子12を備えている。この撮像素子12の出力信号は、信号処理部13によってデジタルデータに変換される。図1に示したメモリ14、画像処理部15および記録/再生処理部16は、バスを介して撮影制御部18に接続されている。この撮影制御部18は、操作パネル19を介して入力される利用者からの指示に基づいて、撮像部10による撮影動作やバスを介して接続された各部の動作を制御する。   In the digital camera shown in FIG. 1, the imaging unit 10 includes a photographic optical system 11 and an imaging element 12. The output signal of the image sensor 12 is converted into digital data by the signal processing unit 13. The memory 14, the image processing unit 15, and the recording / playback processing unit 16 illustrated in FIG. 1 are connected to the photographing control unit 18 via a bus. The imaging control unit 18 controls the imaging operation by the imaging unit 10 and the operation of each unit connected via the bus based on an instruction from the user input via the operation panel 19.

操作パネル19のレリーズボタンの押下により、静止画像の撮影が指示されたときに、画像処理部15は、撮影制御部18からの指示に応じて、信号処理部13から撮像素子12の全画素に対応するデジタルデータを受け取る。このとき、画像処理部15は、このデジタルデータについて補間処理などを行い、撮像部10の撮像範囲に対応する画像データを生成して、これをメモリ14に保持する。この画像データは、例えば、バスを介して記録/再生処理部16に渡され、メモリカードなどの記憶媒体17に記録されるとともに、静止画表示制御部24を介して液晶表示部23に渡され、表示画面を介して利用者に提示される。   When a still image is instructed by pressing the release button on the operation panel 19, the image processing unit 15 applies all signals from the signal processing unit 13 to all the pixels of the image sensor 12 in accordance with an instruction from the imaging control unit 18. Receive the corresponding digital data. At this time, the image processing unit 15 performs interpolation processing or the like on the digital data, generates image data corresponding to the imaging range of the imaging unit 10, and holds this in the memory 14. This image data is, for example, passed to the recording / playback processing unit 16 via the bus, recorded on the storage medium 17 such as a memory card, and passed to the liquid crystal display unit 23 via the still image display control unit 24. And presented to the user via the display screen.

一方、静止画像の撮影タイミング以外では、撮像素子12の出力信号は、利用者に撮像部10による撮像範囲を表す動画像を提示するライブビュー機能に利用される。図1に示したライブビュー表示部20は、動画表示処理部22と液晶表示部23とを備えている。ライブビュー機能のための動画像データは、例えば、信号処理部13によって撮像素子12から所定のフレームレートで間引き読み出しされた画像信号に基づいて生成される。そして、この動画像データは、動画表示制御部22を介して液晶表示部23に渡され、表示画面に表示される。また、この動画像データは、被写体までの距離の測定や被写界輝度の測定にも利用される。   On the other hand, other than the still image capturing timing, the output signal of the image sensor 12 is used for a live view function that presents a moving image representing an imaging range by the imaging unit 10 to the user. The live view display unit 20 illustrated in FIG. 1 includes a moving image display processing unit 22 and a liquid crystal display unit 23. The moving image data for the live view function is generated based on, for example, an image signal read out by the signal processing unit 13 from the image sensor 12 at a predetermined frame rate. The moving image data is transferred to the liquid crystal display unit 23 via the moving image display control unit 22 and displayed on the display screen. The moving image data is also used for measuring the distance to the subject and for measuring the field luminance.

以下の説明では、ライブビュー機能に利用されている動画像データに含まれる各フレームの画像データをライブビュー画像データと称する。   In the following description, the image data of each frame included in the moving image data used for the live view function is referred to as live view image data.

図1に示したサンプル取得部25は、サンプル抽出制御部26とサンプル保持部27とを備える。サンプル抽出制御部26は、例えば、画像処理部15からバスを介して動画表示制御部22に所定のフレームレートで転送されるライブビュー画像データの中から、定期的にサンプル画像データを抽出して、サンプル保持部27に保持する。   The sample acquisition unit 25 illustrated in FIG. 1 includes a sample extraction control unit 26 and a sample holding unit 27. For example, the sample extraction control unit 26 periodically extracts sample image data from live view image data transferred at a predetermined frame rate from the image processing unit 15 to the moving image display control unit 22 via a bus. And held in the sample holder 27.

利用者が表示画面を眺めながら撮影の瞬間を狙っている際には、利用者の操作によって撮像部10で捉えられる撮像範囲が刻々と変化していく。このような撮像範囲の時間的な変化は、ライブビュー画像データによって表示される画像の構図に現れる。したがって、サンプル抽出制御部26により、例えば、所定の時間ごとにサンプル画像を抽出すれば、利用者が撮影しようとしているシーンを様々な構図で捉えたサンプル画像が得られる。   When the user is aiming at the moment of shooting while looking at the display screen, the imaging range captured by the imaging unit 10 is changed every moment by the user's operation. Such temporal change of the imaging range appears in the composition of the image displayed by the live view image data. Therefore, for example, if sample images are extracted at predetermined time intervals by the sample extraction control unit 26, sample images in which the scene that the user is about to capture are captured in various compositions can be obtained.

なお、サンプル抽出制御部26により、利用者に対して撮像部10の撮像範囲の微調整を促すメッセージを作成し、動画表示制御部22を介してこのメッセージを液晶表示部23に表示させることもできる。例えば、「カメラをパンさせてください」のようなメッセージを表示させてから、上述したようにしてライブビュー画像データを抽出することにより、主要な被写体と背景との関係が様々に異なっているサンプル画像を取得することができる。   Note that the sample extraction control unit 26 may create a message that prompts the user to fine-tune the imaging range of the imaging unit 10 and display the message on the liquid crystal display unit 23 via the moving image display control unit 22. it can. For example, by displaying a message such as “Please pan the camera” and then extracting the live view image data as described above, the sample has a different relationship between the main subject and the background. Images can be acquired.

図2に、サンプル画像の例を示す。図2に示したサンプル画像の例では、一人の人物と背景が、これらの位置関係が異なる様々な構図で捉えられている。サンプル抽出制御部26は、所定数のサンプル画像を抽出してサンプル保持部23に保持することができる。このとき、サンプル抽出制御部26は、例えば、デジタルカメラの向きが所定に閾値よりも大きく変化したときのライブビュー画像データをサンプル画像として抽出することができる。また、サンプル抽出制御部26は、各フレームのライブビュー画像データを比較して、例えば、輝度値の平均などに大きな変化を検出したときにサンプル画像を抽出することもできる。   FIG. 2 shows an example of a sample image. In the example of the sample image shown in FIG. 2, one person and the background are captured in various compositions having different positional relationships. The sample extraction control unit 26 can extract a predetermined number of sample images and hold them in the sample holding unit 23. At this time, the sample extraction control unit 26 can extract, for example, live view image data when the orientation of the digital camera changes larger than a predetermined threshold as a sample image. The sample extraction control unit 26 can also compare the live view image data of each frame and extract a sample image when a large change is detected in, for example, the average luminance value.

上述したサンプル抽出制御部26によってサンプル画像として抽出されたライブビュー画像データは、サンプル保持部27を介して構図評価部28および構図提示部32の処理に供される。   The live view image data extracted as the sample image by the sample extraction control unit 26 described above is provided to the composition evaluation unit 28 and the composition presentation unit 32 via the sample holding unit 27.

図1に示した構図評価部28は、構図解析部29と、評価値算出部30と、評価基準保持部31とを備えている。構図解析部29は、各サンプル画像を解析して、個々の構図の特徴を抽出する。評価値算出部30は、構図解析部29で抽出された構図の特徴と評価基準保持部31に保持された評価基準とに基づいて、各サンプル画像の構図を評価する。   The composition evaluation unit 28 illustrated in FIG. 1 includes a composition analysis unit 29, an evaluation value calculation unit 30, and an evaluation reference holding unit 31. The composition analysis unit 29 analyzes each sample image and extracts the characteristics of each composition. The evaluation value calculation unit 30 evaluates the composition of each sample image based on the composition features extracted by the composition analysis unit 29 and the evaluation criteria held in the evaluation reference holding unit 31.

図3に、構図解析処理を説明する図を示す。また、図4に、構図評価動作を表す流れ図を示す。   FIG. 3 is a diagram for explaining composition analysis processing. FIG. 4 is a flowchart showing the composition evaluation operation.

構図解析部29は、まず、サンプル画像について顔検出処理を行い(図4のステップS1)、サンプル画像に写っている人物の位置や大きさを示す情報を取得する。図3(a)に示した例では、一人の人物が検出され、図3(b)に示した例では、3人の人物が検出される。   The composition analysis unit 29 first performs face detection processing on the sample image (step S1 in FIG. 4), and acquires information indicating the position and size of the person shown in the sample image. In the example shown in FIG. 3A, one person is detected, and in the example shown in FIG. 3B, three persons are detected.

構図解析部29は、顔検出処理によって人物を検出したときに(図4のステップS2の肯定判定)、サンプル画像に捉えられている人物が複数であるか一人であるかを判定する(ステップS3)。   When the person is detected by the face detection process (affirmative determination in step S2 in FIG. 4), the composition analysis unit 29 determines whether there are a plurality of persons or one person captured in the sample image (step S3). ).

図3(b)に示した例のように、サンプル画像に複数の人物が捉えられている場合に(ステップS3の否定判定)、構図解析部29は、各人物の像が占めている位置を特定する。そして、構図解析部29で得られたこれらの被写体位置は、評価値算出部30により、評価基準保持部31に保持された評価基準と比較される。   As in the example shown in FIG. 3B, when a plurality of persons are captured in the sample image (negative determination in step S3), the composition analysis unit 29 determines the position occupied by the image of each person. Identify. Then, these subject positions obtained by the composition analysis unit 29 are compared by the evaluation value calculation unit 30 with the evaluation criteria held in the evaluation criteria holding unit 31.

このとき、評価値算出部30は、例えば、図3(b)に示した例に対応して得られた3人分の被写体位置と、3人の人物を画面内で均等に配置した場合の位置との距離の和を、サンプル画像の構図と理想的な構図との差異を示す指標の一つとして算出する。なお、図3(b)において、各被写体位置を破線で示し、均等配置位置を一点鎖線で示した。また、図1に示した評価基準保持部31は、被写体の数に対応する均等配置位置をそれぞれ保持することもできるし、複数の被写体を画面内で均等に配置する場合に満たすべき条件や均等配置位置を算出するための計算式を保持することもできる。   At this time, for example, the evaluation value calculation unit 30 corresponds to the case where the subject positions for three persons obtained corresponding to the example shown in FIG. 3B and the three persons are evenly arranged in the screen. The sum of the distance to the position is calculated as one index indicating the difference between the composition of the sample image and the ideal composition. In FIG. 3B, each subject position is indicated by a broken line, and an evenly arranged position is indicated by an alternate long and short dash line. Further, the evaluation reference holding unit 31 shown in FIG. 1 can also hold the equal arrangement positions corresponding to the number of subjects, and the conditions and equality that should be satisfied when a plurality of subjects are evenly arranged in the screen. It is also possible to hold a calculation formula for calculating the arrangement position.

一方、図3(a)に示した例のように、サンプル画像に写っている人物が一人であった場合に(ステップS3の肯定判定)、構図解析部29は、検出された人物の顔の部分を表す画像データについて、更に解析処理を行う。そして、この解析処理の過程で、構図解析部29は、被写体の人物の顔における眼や鼻の位置を特定し、顔の向きを判断する(ステップS5)。例えば、図3(a)に示した例のように、検出された目や鼻の位置が顔に対応する領域の左側に偏っている場合に、構図解析部29は、このサンプル画像に人物は左向きであると判断する。   On the other hand, as in the example shown in FIG. 3A, when there is only one person in the sample image (affirmative determination in step S3), the composition analysis unit 29 determines the detected face of the person. Further analysis processing is performed on the image data representing the portion. Then, in the course of this analysis process, the composition analysis unit 29 identifies the positions of the eyes and nose on the face of the subject person and determines the face orientation (step S5). For example, as in the example shown in FIG. 3A, when the detected eye or nose position is biased to the left side of the region corresponding to the face, the composition analysis unit 29 displays the person in the sample image. Judged to be facing left.

この場合に、評価値算出部30は、例えば、画面を黄金分割する黄金分割線のうち、被写体の顔の向きに対応する黄金分割線の位置と被写体の位置との距離を、サンプル画像の構図と理想的な構図との差異を示す指標の一つとして算出する(ステップS6)。図3(a)に示した例では、評価値算出部30により、右寄りの黄金分割線の位置と被写体の位置との差が求められている。なお、図3(a)においては、各被写体位置を破線で示し、黄金分割位置を一点鎖線で示した。   In this case, the evaluation value calculation unit 30 composes the distance between the position of the subject and the position of the golden dividing line corresponding to the orientation of the subject's face among the golden dividing lines that divide the screen into golden parts, for example. Is calculated as one index indicating the difference between the ideal composition and the ideal composition (step S6). In the example shown in FIG. 3A, the evaluation value calculation unit 30 obtains the difference between the position of the right golden dividing line and the position of the subject. In FIG. 3A, each subject position is indicated by a broken line, and the golden division position is indicated by a one-dot chain line.

このようにして、サンプル画像に捉えられた人物に関する構図についての評価指標を算出した後に、構図解析部29と評価値算出部30により、背景に関する構図についての評価が行われる。   In this way, after calculating the evaluation index for the composition related to the person captured in the sample image, the composition analysis unit 29 and the evaluation value calculation unit 30 evaluate the composition regarding the background.

このとき、構図解析部29は、サンプル画像の輝度分布に基づいて、明るさの異なる領域の境界を検出する(ステップS7)。構図解析部29は、例えば、背景に捉えられた山や建物などと空との間の境界線を明暗境界線として検出し、その平均的な位置を算出して評価値算出部30に渡すことができる。   At this time, the composition analysis unit 29 detects a boundary between regions having different brightnesses based on the luminance distribution of the sample image (step S7). The composition analysis unit 29 detects, for example, a boundary line between a mountain or a building captured in the background and the sky as a light / dark boundary line, calculates an average position thereof, and passes it to the evaluation value calculation unit 30. Can do.

評価値算出部30は、構図解析部29から受け取った明暗境界線の位置と、画面を水平公報に黄金分割する黄金分割線のうち近い方との距離を、サンプル画像の構図と理想的な構図との差異を示す指標の一つとして求める(ステップS8)。   The evaluation value calculation unit 30 calculates the distance between the position of the light / dark boundary line received from the composition analysis unit 29 and the closer one of the golden division lines for dividing the screen into the golden gazette in the horizontal publication, and the composition of the sample image and the ideal composition. It is obtained as one of the indexes indicating the difference between (step S8).

次に、評価値算出部30は、人物に関する構図についての評価指標と背景に関する構図についての評価指標との双方に基づいて、サンプル画像の構図全体としての評価値を算出する(ステップS9)。評価値算出部30は、例えば、それぞれの評価指標に適切な重みを乗じて足し合わせることにより、人物と背景の両方について、理想的な構図からのずれの大きさを反映した評価値を求めることができる。   Next, the evaluation value calculation unit 30 calculates an evaluation value for the entire composition of the sample image based on both the evaluation index for the composition relating to the person and the evaluation index for the composition relating to the background (step S9). The evaluation value calculation unit 30 obtains an evaluation value that reflects the magnitude of deviation from the ideal composition for both the person and the background, for example, by multiplying each evaluation index by an appropriate weight. Can do.

上述した例では、サンプル画像について最終的に得られた評価値は、サンプル画像の人物に関する構図および背景に関する構図が、理想的な構図からどれだけ隔たっているかを示している。つまり、評価値の値が小さいサンプル画像の構図は、値の大きな評価値が与えられたサンプル画像の構図に比べて、理想的な構図からの隔たりが小さくなっている。したがって、取得されたサンプル画像の中で最も小さい評価値が与えられたサンプル画像の構図が、最も理想的な構図に近く、最も高い評価が得られた構図であると判断することができる。   In the above-described example, the evaluation value finally obtained for the sample image indicates how far the composition relating to the person and the composition relating to the background of the sample image are separated from the ideal composition. In other words, the composition of the sample image having a small evaluation value has a smaller distance from the ideal composition than the composition of the sample image having a large evaluation value. Therefore, it can be determined that the composition of the sample image given the smallest evaluation value among the obtained sample images is close to the most ideal composition and has the highest evaluation.

なお、評価値算出部30においては、人物に関する構図についての評価指標に大きな重みを与えることが望ましい。これにより、人物に関する構図を重視して全体としての評価値を求めることができる。また、複数の人物を被写体とするサンプル画像については、構図解析部29において、上述した各被写体の位置に加えて、ピントが合っている被写体を検出しておき、この被写体の位置について特に大きな重みを与えて評価値を求めることもできる。更に、ピンボケの度合いが大きい人物の被写体については、人物の数に含めないようにすることもできる。このようにして、撮像部10の合焦状態に関する情報を利用することにより、画面内に偶然に写りこんだ人物などを排除して、重要な被写体に関する構図を評価することができる。   In the evaluation value calculation unit 30, it is desirable to give a large weight to the evaluation index for the composition relating to the person. As a result, the overall evaluation value can be obtained with emphasis on the composition relating to the person. In addition, for a sample image having a plurality of persons as subjects, the composition analysis unit 29 detects in-focus subjects in addition to the positions of the subjects described above, and this subject position has a particularly high weight. The evaluation value can also be obtained by giving. Furthermore, a subject of a person with a high degree of out-of-focus can be excluded from the number of people. In this way, by using the information regarding the in-focus state of the image capturing unit 10, it is possible to eliminate a person who accidentally appears in the screen and evaluate a composition related to an important subject.

また、上述した例とは逆に、各サンプル画像の構図と理想的な構図との隔たりの少なさを示す評価指標を求めることもできる。例えば、評価値算出部30により、複数の人物を被写体とするサンプル画像について、各被写体の位置と対応する均等配置位置との距離の逆数の和を、人物に関する構図と理想的な構図との近さを示す評価指標として求めることもできる。同様に、評価値算出部30は、一人の人物を被写体とするサンプル画像について、この人物の向きに対応する黄金分割位置と被写体位置との近さを示す評価指標を算出すればよい。同様にして、評価値算出部30は、このサンプル画像の背景に関する構図についての評価指標として、明暗境界線の平均位置と黄金分割位置との距離の近さを評価することもできる。そして、これらの評価指標に基づいて、サンプル画像の構図全体としての評価値を算出することができる。この場合は、取得されたサンプル画像の中で最大の評価値が与えられたサンプル画像が、最も理想的な構図に近く、最も高い評価が得られた構図であると判断することができる。   In contrast to the above-described example, an evaluation index indicating a small difference between the composition of each sample image and the ideal composition can be obtained. For example, the evaluation value calculation unit 30 calculates the sum of the reciprocal of the distance between the position of each subject and the corresponding equally arranged position for the sample image having a plurality of persons as subjects, and the composition between the person and the ideal composition. It can also be obtained as an evaluation index indicating the degree. Similarly, the evaluation value calculation unit 30 may calculate an evaluation index indicating the proximity between the golden division position corresponding to the orientation of the person and the subject position for the sample image with one person as the subject. Similarly, the evaluation value calculation unit 30 can also evaluate the closeness of the distance between the average position of the light / dark boundary line and the golden division position as an evaluation index for the composition relating to the background of the sample image. Then, based on these evaluation indexes, an evaluation value as a whole composition of the sample image can be calculated. In this case, it can be determined that the sample image given the maximum evaluation value among the obtained sample images is close to the most ideal composition and has the highest evaluation.

更にまた、例えば、被写体の位置と黄金分割位置との距離あるいはその逆数をそのまま評価指標とする代わりに、距離あるいはその逆数が予め設定された複数段階のうちいずれに属するかに応じて、その段階に対応するスコアを評価指標とすることもできる。この場合は、評価値算出部30は、評価基準ごとに求めたスコアに、それぞれ対応する重みを乗じた加重スコアの合計として、各サンプル画像の構図全体としての評価値を求めることができる。   Furthermore, for example, instead of using the distance between the subject position and the golden division position or its reciprocal as it is as an evaluation index as it is, the level or the reciprocal thereof is determined depending on which of a plurality of preset stages it belongs to. A score corresponding to can be used as an evaluation index. In this case, the evaluation value calculation unit 30 can obtain the evaluation value of the entire composition of each sample image as the sum of the weighted scores obtained by multiplying the score obtained for each evaluation criterion by the corresponding weight.

なお、サンプル画像に人物が捉えられていなかった場合は(ステップS2の否定判定)、上述したステップS3〜ステップS6はスキップされ、ステップS7からステップS8の手順に従って求められた背景に関する評価指標が求められる。そして、この背景に関する評価指標に基づいて、各サンプル画像の評価値が決定される。   If no person is captured in the sample image (negative determination in step S2), the above-described steps S3 to S6 are skipped, and an evaluation index related to the background obtained according to the procedure from step S7 to step S8 is obtained. It is done. Then, the evaluation value of each sample image is determined based on the evaluation index related to the background.

また、構図解析部29は、サンプル画像に基づいて算出された被写界距離に基づいて、このサンプル画像に含まれている人物以外の被写体とその背景とを判別し、この判別結果を構図の評価に供することもできる。この場合に、構図解析部29は、被写体として判別した人物以外の物体の像が画面において占める位置を検出する。そして、評価値算出部30は、これらの被写体位置に基づいて、上述したステップS4〜ステップS6と同様にして、画面における配置バランスを評価すればよい。   Further, the composition analysis unit 29 determines a subject other than a person included in the sample image and its background based on the object distance calculated based on the sample image, and uses the determination result as a composition. It can also be used for evaluation. In this case, the composition analysis unit 29 detects a position occupied by an image of an object other than a person determined as a subject on the screen. Then, the evaluation value calculation unit 30 may evaluate the arrangement balance on the screen based on these subject positions in the same manner as in steps S4 to S6 described above.

次に、上述したようにして各サンプル画像の構図について求められた評価値に基づいて、利用者に推奨する構図を提示する方法について説明する。   Next, a method for presenting a recommended composition to the user based on the evaluation value obtained for the composition of each sample image as described above will be described.

図1に示した構図提示部32は、画像読出部33と半透過表示制御部34とを備えている。画像読出部33は、構図評価部28で得られた評価結果に基づいて、最も高い評価結果が与えられたサンプル画像をサンプル保持部27から読み出して、半透過表示制御部34に渡す。   The composition presentation unit 32 illustrated in FIG. 1 includes an image reading unit 33 and a transflective display control unit 34. Based on the evaluation result obtained by the composition evaluation unit 28, the image reading unit 33 reads the sample image given the highest evaluation result from the sample holding unit 27 and passes it to the transflective display control unit 34.

例えば、図2に示したサンプル画像の例のうち、符号Bで示したサンプル画像Bの構図が、構図評価部28によって最も高く評価された場合に、この評価結果に基づいて、画像読出部33により、上述したサンプル画像Bがサンプル保持部27から読み出される。   For example, in the example of the sample image shown in FIG. 2, when the composition of the sample image B indicated by the symbol B is most highly evaluated by the composition evaluation unit 28, the image reading unit 33 is based on the evaluation result. Thus, the above-described sample image B is read from the sample holding unit 27.

画像読出部33からサンプル画像を受け取った半透過表示制御部34は、液晶表示部23に表示されているライブビュー画像に重ねて、このサンプル画像を半透過状態で表示させるための制御を行う。   The transflective display control unit 34 that has received the sample image from the image reading unit 33 performs control for displaying the sample image in a translucent state on the live view image displayed on the liquid crystal display unit 23.

図5に、構図提示部32による構図提示の例を示す。図5に示した例では、ライブビュー機能によって表示されている動画像に重ねて、上述したサンプル画像Bが半透過状態で表示されている。なお、図5の例においては、サンプル画像Bに捉えられた人物および背景の大まかな輪郭線のみを、太い網掛けの線で示した。   FIG. 5 shows an example of composition presentation by the composition presentation unit 32. In the example illustrated in FIG. 5, the above-described sample image B is displayed in a semi-transparent state so as to be superimposed on the moving image displayed by the live view function. In the example of FIG. 5, only the rough outlines of the person and background captured in the sample image B are indicated by thick shaded lines.

半透過表示制御部34は、評価結果に基づいて選択されたサンプル画像をそのまま半透過表示させることもできるし、このサンプル画像から抽出した被写体の輪郭を表示させることもできる。また、半透過表示制御部34により、抽出した輪郭の色を変えるなどして強調表示させることもできる。更に、半透過表示制御部34により、構図の評価基準として用いられた黄金分割位置などを、上述したサンプル画像あるいは輪郭などとともに表示させることもできる。   The semi-transmissive display control unit 34 can display the sample image selected based on the evaluation result as it is semi-transparent, or can display the contour of the subject extracted from the sample image. Further, the translucent display control unit 34 can highlight the extracted outline by changing the color of the outline. Further, the semi-transparent display control unit 34 can display the golden division position and the like used as the composition evaluation reference together with the above-described sample image or outline.

このようにして、図1に示したデジタルカメラでは、ライブビュー画像データから抽出されたサンプル画像について、それぞれの構図を評価し、最も高く評価されたサンプル画像に対応する構図を、ライブビュー画像に重ねて表示することができる。   In this way, in the digital camera shown in FIG. 1, the composition of each sample image extracted from the live view image data is evaluated, and the composition corresponding to the most highly evaluated sample image is used as the live view image. It can be displayed overlaid.

上述したようにして提示される構図は、利用者が実際に撮影しようとしているときのライブビュー画像の中から選択されているので、利用者が撮影しようとしているシーンに含まれる被写体や背景の組み合わせが反映されている。   The composition presented as described above is selected from live view images when the user is actually shooting, so the combination of the subject and background included in the scene that the user is shooting Is reflected.

したがって、予めモデル化された構図を提示する場合に比べて、撮影しようとしているシーンとの適合性が高い構図を提示して、この構図にライブビュー画像を一致させるようにカメラの操作するように促すことができる。   Therefore, as compared with the case where a pre-modeled composition is presented, a composition that is highly compatible with the scene to be photographed is presented, and the camera is operated so that the live view image matches this composition. Can be urged.

これにより、モデル化によって類型的された構図に当てはめるのではなく、個々の利用者の意向や嗜好を活かしながら、しかも、理想的な構図に近い構図での撮影に利用者を誘導することができる。したがって、図1に示したようなデジタルカメラによれば、実際の撮影を通して、見栄えのよい静止画像を撮影するために必要な知識を習得する機会を、利用者に提供することができる。   This makes it possible to guide the user to photographing with a composition that is close to the ideal composition while making use of the intentions and preferences of individual users, instead of applying it to the composition typified by modeling. . Therefore, according to the digital camera as shown in FIG. 1, it is possible to provide the user with an opportunity to acquire knowledge necessary for photographing a good-looking still image through actual photographing.

更に、構図解析部29により、各サンプル画像に基づいて、カメラを90度回転させた状態で同じ被写体を捉えた場合の構図を推定し、推定した構図について、評価値算出部30により、カメラの向きに適合する評価基準に基づいて評価値を算出してもよい。このような評価を適用する場合には、カメラを横に構えた状態でライブビュー画像から取得されたサンプル画像について、横位置での構図に対応する評価結果と縦位置に変換した場合の構図に対応する評価結果が得られる。そして、縦位置に変換された構図に対して、評価値算出部30により、最も高い評価値が与えられる場合もありうる。   Further, the composition analysis unit 29 estimates the composition when the same subject is captured with the camera rotated by 90 degrees based on each sample image, and the evaluation value calculation unit 30 determines the composition of the camera for the estimated composition. The evaluation value may be calculated based on an evaluation standard that matches the orientation. When applying such an evaluation, the sample image acquired from the live view image with the camera held horizontally is converted into the evaluation result corresponding to the composition in the horizontal position and the composition in the vertical position. A corresponding evaluation result is obtained. Then, the evaluation value calculation unit 30 may give the highest evaluation value to the composition converted into the vertical position.

このように、縦横を変換した場合の構図が、構図評価部28によって最も高く評価された場合に、半透過表示制御部34は、利用者に、カメラの向きの変更を促した上で、対応するサンプル画像の縦横を変換した画像を半透過表示させればよい。   As described above, when the composition in the case where the vertical and horizontal directions are converted is most highly evaluated by the composition evaluation unit 28, the transflective display control unit 34 prompts the user to change the orientation of the camera, and then responds. An image obtained by converting the sample image in the vertical and horizontal directions may be displayed semi-transparently.

このように、サンプル画像の縦横を変換した画像を含めた構図評価技法およびこれに対応して構図を提示する技法を適用することにより、カメラを構える方向を含めて、利用者に撮影技術を指南することができる。   In this way, by applying a composition evaluation technique including an image obtained by converting the vertical and horizontal directions of the sample image and a technique for presenting the composition corresponding thereto, the user is instructed to take a photographing technique including the direction in which the camera is held. can do.

また更に、好適な構図の提示を通して、撮像部10に捉えられる撮像範囲の大きさと被写体の大きさのバランスについての知識を習得する機会を、利用者に提供することもできる。
(実施形態2)
図6に、デジタルカメラの別実施形態を示す。なお、図6に示した構成要素のうち、図1に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
Furthermore, the user can be given an opportunity to acquire knowledge about the balance between the size of the imaging range captured by the imaging unit 10 and the size of the subject through the presentation of a suitable composition.
(Embodiment 2)
FIG. 6 shows another embodiment of the digital camera. 6 that are the same as those shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

図6に示し構図評価部28は、図1に示した各部に加えて、トリミング設定部35を備えている。また、構図提示部32は、図1に示した半透過表示制御部34に代えて、提示制御部37と線画生成部36とを備えている。   The composition evaluation unit 28 shown in FIG. 6 includes a trimming setting unit 35 in addition to the units shown in FIG. The composition presentation unit 32 includes a presentation control unit 37 and a line drawing generation unit 36 instead of the transflective display control unit 34 shown in FIG.

トリミング設定部35は、構図解析部29による解析結果に基づいて、各サンプル画像について適切なトリミングを設定する。例えば、構図解析部29による解析結果によって、サンプル画像において、被写体の配置が偏っていることが示されている場合などに、トリミング設定部35は、被写体の配置が中央あるいは黄金分割位置に近づくように、トリミングを設定することができる。   The trimming setting unit 35 sets an appropriate trimming for each sample image based on the analysis result by the composition analysis unit 29. For example, when the result of the analysis by the composition analysis unit 29 indicates that the subject arrangement is biased in the sample image, the trimming setting unit 35 causes the subject arrangement to approach the center or the golden division position. In addition, trimming can be set.

図7(a)に、トリミングによる構図の最適化の例を示す。図7(a)に示した例では、サンプル画像において画面の中央よりとなっている人物の配置が、トリミングによって、黄金分割位置に近づけられている。なお、図7(a)においては、トリミング設定部35によって設定されたトリミング範囲を破線で示した。   FIG. 7A shows an example of composition optimization by trimming. In the example shown in FIG. 7A, the arrangement of the person from the center of the screen in the sample image is brought closer to the golden division position by trimming. In FIG. 7A, the trimming range set by the trimming setting unit 35 is indicated by a broken line.

このようにしてトリミングされたサンプル画像について、構図解析部29によって再び構図解析を行い、この結果に基づいて、評価値算出部30により、トリミングによる最適化を適用した場合の構図について評価値を求めることができる。   The composition analysis unit 29 performs composition analysis again on the sample image trimmed in this manner, and based on this result, the evaluation value calculation unit 30 obtains an evaluation value for the composition when optimization by trimming is applied. be able to.

構図提示部32に備えられた提示制御部37は、構図評価部28による評価結果に基づいて、画像読出部33に最も高く評価された構図に対応するサンプル画像の読み出しを指示する。そして、この指示に応じて、画像読出部33によってサンプル保持部27から読み出されたサンプル画像は、提示制御部37を介して液晶表示部23による表示処理に供される。   The presentation control unit 37 provided in the composition presentation unit 32 instructs the image reading unit 33 to read out the sample image corresponding to the highest evaluated composition based on the evaluation result by the composition evaluation unit 28. In response to this instruction, the sample image read from the sample holding unit 27 by the image reading unit 33 is subjected to display processing by the liquid crystal display unit 23 via the presentation control unit 37.

提示制御部37は、読み出しを指示した画像に対応する構図の評価の際にトリミングが適用されていなかった場合は、上述した実施形態1と同様にして、サンプル画像を半透過状態で液晶表示部23に表示させる処理を行う。   When trimming is not applied in the evaluation of the composition corresponding to the image instructed to be read, the presentation control unit 37 displays the sample image in a semi-transparent state in the liquid crystal display unit in the same manner as in the first embodiment. The processing to be displayed on the screen 23 is performed.

一方、読み出しを指示したサンプル画像に対応する構図の評価にトリミングが適用されていた場合に、提示制御部37は、画像読出部33から受け取ったサンプル画像にトリミングを適用する。例えば、サンプル画像からトリミング範囲を抽出し、このトリミング範囲を拡大した上で、液晶表示部23に渡し、ライブビュー画像に重ねて半透過状態で表示させる。また、提示制御部37は、線画生成部36に対して、トリミング範囲を示す線画の生成を指示する。これに応じて、線画生成部36は、トリミング設定部35から指定されたサンプル画像に対応するトリミング範囲を示す情報を受け取り、この範囲を液晶表示部23の表示画面に表示するための表示情報を生成する。この表示情報は、提示制御部37を介して液晶表示部23に渡され、この表示情報に基づいて、トリミング範囲を示す線画が、ライブビュー画像および好適な構図を示すサンプル画像の拡大像に重ねられて表示画面に表示される。   On the other hand, when the trimming is applied to the evaluation of the composition corresponding to the sample image instructed to be read, the presentation control unit 37 applies the trimming to the sample image received from the image reading unit 33. For example, a trimming range is extracted from the sample image, and the trimming range is enlarged and then transferred to the liquid crystal display unit 23 to be displayed in a semi-transparent state on the live view image. In addition, the presentation control unit 37 instructs the line drawing generation unit 36 to generate a line drawing indicating the trimming range. In response to this, the line drawing generation unit 36 receives information indicating the trimming range corresponding to the sample image designated from the trimming setting unit 35, and displays display information for displaying this range on the display screen of the liquid crystal display unit 23. Generate. This display information is passed to the liquid crystal display unit 23 via the presentation control unit 37, and on the basis of this display information, the line drawing indicating the trimming range is superimposed on the enlarged image of the live view image and the sample image indicating a suitable composition. Displayed on the display screen.

図7(b)に、トリミングを適用した構図の提示例を示す。図7(b)に示した例では、左向きの人物が中央よりの配置で捉えられたライブビュー画像に重ねて、選択されたサンプル画像のトリミング範囲を表示画面一杯に拡大した画像が、半透過表示されている。また、図7(b)に示した例では、トリミング範囲と元のサンプル画像の撮影範囲との対比を示す線画がトリミング範囲を示す線画として提示されている。なお、図7(b)に示した例では、好適な構図を示すサンプル画像の拡大像を太い網掛け線で示し、また、トリミング範囲を示す線画を破線で示した。また、トリミング範囲を示す線画に合わせて、この線画で示されるトリミング範囲を画面に一致させる操作を促す矢印やズーム倍率の変更を促すメッセージを提示することもできる。   FIG. 7B shows a presentation example of a composition to which trimming is applied. In the example shown in FIG. 7B, an image in which the trimming range of the selected sample image is enlarged to fill the display screen is superimposed on the live view image in which the person facing left is captured from the center. It is displayed. Further, in the example shown in FIG. 7B, a line drawing showing the comparison between the trimming range and the photographing range of the original sample image is presented as a line drawing showing the trimming range. In the example shown in FIG. 7B, an enlarged image of the sample image showing a preferable composition is shown by a thick shaded line, and a line drawing showing the trimming range is shown by a broken line. In addition, in accordance with the line drawing indicating the trimming range, an arrow for prompting an operation for matching the trimming range indicated by the line drawing with the screen or a message for prompting a change in zoom magnification can be presented.

このようにして、撮影範囲の大きさと被写体の大きさとのバランスを変えることも視野に入れて、更に好適な構図を利用者に提示することができる。   In this way, a more suitable composition can be presented to the user in view of changing the balance between the size of the shooting range and the size of the subject.

更に、上述したようにして設定されたトリミング範囲と撮影範囲とを一致させる制御を適用することもできる。
(実施形態3)
図8に、デジタルカメラの別実施形態を示す。なお、図8に示した構成要素のうち、図6に示した構成要素と同等のものについては、同一の符号を付して示し、その説明は省略する。
Furthermore, it is possible to apply control for matching the trimming range set as described above with the photographing range.
(Embodiment 3)
FIG. 8 shows another embodiment of the digital camera. 8 that are the same as those shown in FIG. 6 are given the same reference numerals, and descriptions thereof are omitted.

図8に示した提示制御部37は、上述した実施形態2と同様にして、サンプル画像に基づいて好適な構図を提示する。また、提示制御部37は、トリミング範囲と示す線画の生成を線画生成部36に指示する代わりに、撮影制御部19を介して撮像部10の撮影光学系11を操作してズーム倍率を変更し、撮影範囲を設定されたトリミング範囲と一致させる。   The presentation control unit 37 illustrated in FIG. 8 presents a suitable composition based on the sample image in the same manner as in the second embodiment described above. In addition, the presentation control unit 37 operates the shooting optical system 11 of the imaging unit 10 via the shooting control unit 19 to change the zoom magnification instead of instructing the line drawing generation unit 36 to generate a line drawing indicating the trimming range. , Match the shooting range with the set trimming range.

図9に、トリミングに基づくズーム倍率制御を適用した構図提示例を示す。図9に示した例では、図9(a)に破線で示したトリミング範囲の画像が、図9(b)に太い網掛け線で示すように拡大され、好適な構図として提示される。   FIG. 9 shows a composition presentation example to which zoom magnification control based on trimming is applied. In the example shown in FIG. 9, the image in the trimming range indicated by the broken line in FIG. 9A is enlarged as indicated by the thick shaded line in FIG. 9B and presented as a suitable composition.

このとき、提示制御部37からの指示に応じて、撮影制御部19は、撮影光学系11のズーム倍率を、トリミング範囲を撮影範囲に一致させるように変更する。これにより、このトリミング範囲に対応する範囲を撮影して得られる動画像が、ライブビュー画像として液晶表示部23に表示される。この場合に、図9(b)に示すように、ライブビュー画像に捉えられた被写体と好適な構図を示す半透過画像における被写体とはほぼ同じ大きさで表示される。   At this time, in response to an instruction from the presentation control unit 37, the shooting control unit 19 changes the zoom magnification of the shooting optical system 11 so that the trimming range matches the shooting range. Thereby, a moving image obtained by photographing a range corresponding to the trimming range is displayed on the liquid crystal display unit 23 as a live view image. In this case, as shown in FIG. 9B, the subject captured in the live view image and the subject in the semi-transparent image showing a suitable composition are displayed with substantially the same size.

なお、上述したようにして、撮影制御部19を介して撮影光学系11のズーム倍率を直接的に変更する代わりに、ライブビュー画像のトリミング範囲に対応する部分を拡大して動画像表示に供することもできる。   Note that, as described above, instead of directly changing the zoom magnification of the photographing optical system 11 via the photographing control unit 19, the portion corresponding to the trimming range of the live view image is enlarged and used for moving image display. You can also

更に、上述した実施形態1,2,3のデジタルカメラにおいて、好適な構図の提示に応じて、利用者がカメラを操作している過程で、好適な構図とライブビュー画像の構図との類似度が所定の閾値以上となったときに、自動的に撮影を実行することもできる。   Furthermore, in the digital cameras of the first, second, and third embodiments described above, the similarity between the preferred composition and the composition of the live view image in the process of the user operating the camera according to the presentation of the preferred composition. It is also possible to automatically perform shooting when the value becomes equal to or greater than a predetermined threshold.

10…撮像部、11…撮影光学系、12…撮像素子、13…信号処理部、14…メモリ、15…画像処理部、16…記録/再生処理部、17…記憶媒体、18…操作パネル、19…撮影制御部、21…ライブビュー表示部、22…動作表示制御部、23…液晶表示部、24…静止画表示制御部、25…サンプル取得部、26…サンプル抽出制御部、27…サンプル保持部、28…構図評価部、29…構図解析部、30…評価値算出部、31…評価基準保持部、32…構図提示部、33…画像読出部、34…半透過表示制御部、35…トリミング設定部、36…線画生成部、37…提示制御部。
DESCRIPTION OF SYMBOLS 10 ... Imaging part, 11 ... Imaging optical system, 12 ... Imaging element, 13 ... Signal processing part, 14 ... Memory, 15 ... Image processing part, 16 ... Recording / reproduction processing part, 17 ... Storage medium, 18 ... Operation panel, DESCRIPTION OF SYMBOLS 19 ... Shooting control part, 21 ... Live view display part, 22 ... Operation display control part, 23 ... Liquid crystal display part, 24 ... Still image display control part, 25 ... Sample acquisition part, 26 ... Sample extraction control part, 27 ... Sample Holding unit, 28 ... Composition evaluation unit, 29 ... Composition analysis unit, 30 ... Evaluation value calculation unit, 31 ... Evaluation reference holding unit, 32 ... Composition presentation unit, 33 ... Image reading unit, 34 ... Translucent display control unit, 35 ... trimming setting unit, 36 ... line drawing generation unit, 37 ... presentation control unit.

Claims (8)

被写体像を表す画像データを生成する撮像部と、
前記撮像部に捉えられているシーンを実時間で動画表示するライブビュー表示部と、
前記動画表示に用いられるライブビュー画像データの少なくとも一部をサンプル画像として取得するサンプル取得部と、
取得されたサンプル画像それぞれの構図を所定の基準に基づいて評価する構図評価部と、
前記構図評価部によって最高の評価が与えられた構図を持つサンプル画像に基づいて、前記構図を選択的に前記ライブビュー表示部による動画表示に重ねて提示する構図提示部と
を備えたことを特徴とするデジタルカメラ。
An imaging unit that generates image data representing a subject image;
A live view display unit that displays a moving image of the scene captured by the imaging unit in real time;
A sample acquisition unit for acquiring at least a part of live view image data used for the moving image display as a sample image;
A composition evaluation unit that evaluates the composition of each acquired sample image based on a predetermined standard;
A composition presentation unit that selectively presents the composition on a moving image display by the live view display unit based on a sample image having a composition that has been given the highest evaluation by the composition evaluation unit. A digital camera.
請求項1に記載のデジタルカメラにおいて、
前記サンプル取得部は、前記動画表示に供される各フレームの画像データの構図を時間的に変化させる操作を促すメッセージを、前記ライブビュー表示部を介して表示させるメッセージ表示部を備え、所定の時間間隔でライブビュー画像データからサンプル画像を取得する
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The sample acquisition unit includes a message display unit that displays, via the live view display unit, a message that prompts an operation to change the composition of the image data of each frame used for the moving image display. A digital camera that acquires sample images from live view image data at time intervals.
請求項1に記載のデジタルカメラにおいて、
前記構図評価部は、前記サンプル画像を解析して得られる少なくとも一つの特徴と、各特徴について設定された基準との差異に基づいて、前記構図に対応する評価値を算出する
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The composition evaluation unit calculates an evaluation value corresponding to the composition based on a difference between at least one feature obtained by analyzing the sample image and a reference set for each feature. Digital camera.
請求項1に記載のデジタルカメラにおいて、
前記構図提示部は、前記最も高い評価を得た構図を持つライブビュー画像を、前記ライブビュー表示部による動画表示に重ねて半透過表示させる
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The digital camera characterized in that the composition presentation unit displays the live view image having the composition with the highest evaluation on the moving image display by the live view display unit in a translucent manner.
請求項3に記載のデジタルカメラにおいて、
前記構図提示部は、前記構図評価部において構図の評価に用いられた基準を示す参照画像を、前記最高の評価が与えられた構図に合わせて提示する
ことを特徴とするデジタルカメラ。
The digital camera according to claim 3, wherein
The digital camera characterized in that the composition presentation unit presents a reference image indicating a standard used for composition evaluation by the composition evaluation unit in accordance with the composition having the highest evaluation.
請求項1に記載のデジタルカメラにおいて、
前記構図評価部は、前記サンプル画像とともに、前記サンプル画像の少なくとも一部について、前記サンプル画像を回転させた画像を解析して得られる少なくとも一つの特徴と、各特徴について設定された基準との差異に基づいて、前記構図に対応する評価値を算出し、
前記構図提示部は、前記回転させた画像について得られた構図の評価値が最も高い場合に、前記ライブビュー表示部による動画表示を回転させるとともに、前記最も高い評価を得た構図に対応するサンプル画像を同様に回転させて、前記動画表示に重ねて半透過表示させる
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The composition evaluation unit includes a difference between at least one feature obtained by analyzing an image obtained by rotating the sample image for at least a part of the sample image together with the sample image, and a reference set for each feature On the basis of the evaluation value corresponding to the composition,
The composition presenting unit rotates the moving image display by the live view display unit when the composition evaluation value obtained for the rotated image is the highest, and the sample corresponding to the composition obtained the highest evaluation A digital camera, wherein an image is rotated in the same manner and is displayed semi-transparently on the moving image display.
請求項1に記載のデジタルカメラにおいて、
前記構図評価部は、前記サンプル画像の少なくとも一部について、前記サンプル画像を解析して得られる少なくとも一つの特徴と、各特徴について設定された基準との差異を小さくするようなトリミング範囲を設定するトリミング設定部を備え、
前記構図提示部は、前記トリミング設定部によってトリミング範囲が設定されたサンプル画像に基づいて構図の提示を行う際に、前記トリミング範囲を示す線図を、前記ライブビュー表示部による動画表示に重ねて提示する
ことを特徴とするデジタルカメラ。
The digital camera according to claim 1, wherein
The composition evaluation unit sets, for at least a part of the sample image, a trimming range that reduces a difference between at least one feature obtained by analyzing the sample image and a reference set for each feature. Trimming setting section
The composition presentation unit superimposes a diagram showing the trimming range on the moving image display by the live view display unit when presenting the composition based on the sample image in which the trimming range is set by the trimming setting unit. A digital camera characterized by presentation.
請求項1に記載のデジタルカメラにおいて、
前記構図評価部は、前記サンプル画像の少なくとも一部について、前記サンプル画像を解析して得られる少なくとも一つの特徴と、各特徴について設定された基準との差異を小さくするようなトリミング範囲を設定するトリミング設定部を備え、
前記構図提示部は、前記トリミング設定部によってトリミング範囲が設定されたサンプル画像に基づいて構図の提示を行う際に、前記トリミング範囲に応じて、前記撮像部のズーム倍率を制御する倍率制御部を備えた
ことを特徴とするデジタルカメラ。

The digital camera according to claim 1, wherein
The composition evaluation unit sets, for at least a part of the sample image, a trimming range that reduces a difference between at least one feature obtained by analyzing the sample image and a reference set for each feature. Trimming setting section
The composition presentation unit includes a magnification control unit that controls the zoom magnification of the imaging unit according to the trimming range when the composition is presented based on the sample image in which the trimming range is set by the trimming setting unit. A digital camera characterized by having it.

JP2009295601A 2009-12-25 2009-12-25 Digital camera Withdrawn JP2011135527A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009295601A JP2011135527A (en) 2009-12-25 2009-12-25 Digital camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009295601A JP2011135527A (en) 2009-12-25 2009-12-25 Digital camera

Publications (1)

Publication Number Publication Date
JP2011135527A true JP2011135527A (en) 2011-07-07

Family

ID=44347737

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009295601A Withdrawn JP2011135527A (en) 2009-12-25 2009-12-25 Digital camera

Country Status (1)

Country Link
JP (1) JP2011135527A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013187100A1 (en) 2012-06-12 2013-12-19 オリンパスイメージング株式会社 Imaging device
JP2016516369A (en) * 2013-03-27 2016-06-02 ▲華▼▲為▼終端有限公司Huawei Device Co., Ltd. Photo output method and apparatus
US9628700B2 (en) 2013-11-18 2017-04-18 Olympus Corporation Imaging apparatus, imaging assist method, and non-transitory recoding medium storing an imaging assist program
EP4096214A3 (en) * 2021-05-06 2023-05-03 Canon Kabushiki Kaisha Imaging control apparatus, server apparatus, imaging control method, and program
WO2023163217A1 (en) * 2022-02-28 2023-08-31 富士フイルム株式会社 Processing device, processing method, and process program
JP7447538B2 (en) 2020-02-25 2024-03-12 大日本印刷株式会社 Photographed image evaluation system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013187100A1 (en) 2012-06-12 2013-12-19 オリンパスイメージング株式会社 Imaging device
US9237273B2 (en) 2012-06-12 2016-01-12 Olympus Corporation Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
US9639940B2 (en) 2012-06-12 2017-05-02 Olympus Corporation Imaging apparatus and methods for generating a guide display showing a photographing technique for approximating a composition of a subject image to that of a sample image
JP2016516369A (en) * 2013-03-27 2016-06-02 ▲華▼▲為▼終端有限公司Huawei Device Co., Ltd. Photo output method and apparatus
US9628700B2 (en) 2013-11-18 2017-04-18 Olympus Corporation Imaging apparatus, imaging assist method, and non-transitory recoding medium storing an imaging assist program
JP7447538B2 (en) 2020-02-25 2024-03-12 大日本印刷株式会社 Photographed image evaluation system
EP4096214A3 (en) * 2021-05-06 2023-05-03 Canon Kabushiki Kaisha Imaging control apparatus, server apparatus, imaging control method, and program
WO2023163217A1 (en) * 2022-02-28 2023-08-31 富士フイルム株式会社 Processing device, processing method, and process program

Similar Documents

Publication Publication Date Title
US7855737B2 (en) Method of making a digital camera image of a scene including the camera user
JP4663699B2 (en) Image display device and image display method
JP6564271B2 (en) Imaging apparatus, image processing method, program, and storage medium
JP2004320286A (en) Digital camera
JP2004317699A (en) Digital camera
KR20110006878A (en) Apparatus and method for generating image including a plurality of persons
JP2006201531A (en) Imaging device
JP2011135527A (en) Digital camera
JP5042896B2 (en) Image processing apparatus and image processing program
JP2003338955A (en) Camera with advising functions
JP5272775B2 (en) Electronic still camera
JP2005056175A (en) Image estimation device
JP2009200900A (en) Imaging apparatus
JP2019169985A (en) Image processing apparatus
JP5530548B2 (en) Facial expression database registration method and facial expression database registration apparatus
JP5383308B2 (en) Image processing device
JP6497030B2 (en) Imaging system, information processing apparatus, imaging method, program, storage medium
JP2008054031A (en) Digital camera and display control method
JP7319871B2 (en) Image processing device, image processing method, program, storage medium
JP2008167028A (en) Imaging apparatus
JP4865631B2 (en) Imaging device
JP2016012846A (en) Imaging apparatus, and control method and control program of the same
JP2013011944A (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP5423851B2 (en) Electronic camera
JP5711296B2 (en) Imaging method and imaging apparatus

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305