JP2003274226A - Camera having composition advising function - Google Patents

Camera having composition advising function

Info

Publication number
JP2003274226A
JP2003274226A JP2002379688A JP2002379688A JP2003274226A JP 2003274226 A JP2003274226 A JP 2003274226A JP 2002379688 A JP2002379688 A JP 2002379688A JP 2002379688 A JP2002379688 A JP 2002379688A JP 2003274226 A JP2003274226 A JP 2003274226A
Authority
JP
Japan
Prior art keywords
composition
camera
detected
warning
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002379688A
Other languages
Japanese (ja)
Other versions
JP4165216B2 (en
Inventor
Hirobumi Suzuki
鈴木  博文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2002379688A priority Critical patent/JP4165216B2/en
Publication of JP2003274226A publication Critical patent/JP2003274226A/en
Application granted granted Critical
Publication of JP4165216B2 publication Critical patent/JP4165216B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Adjustment Of Camera Lenses (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To avoid generating photographs with poor compositions from different viewpoints from conventional ones. <P>SOLUTION: A camera comprises: means 1, 4 for detecting information about a luminance distribution in a photographing screen; a means 1 for extracting an edge corresponding to a top end of a main object from the photographing screen to detect its position, based on the detected information about the luminance distribution; a means 1 for comparing the detected edge position with a predetermined proper range to decide whether the composition is well or poor; and a means 9 for outputting a warning when the composition is decided to be poor. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、構図アドバイス機能を
備えたカメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera having a composition advice function.

【0002】[0002]

【従来の技術】写真を見る人に不快感を与えるために構
図不良とされる幾つかの典型例が従来から経験的に知ら
れている。そして、そのような典型例に該当するか否か
を判別して構図不良写真の撮影を防止するカメラが提案
されている。例えば、撮影画面の中央から上下方向およ
び左右方向へ一定範囲の輝度分布を測定し、この範囲内
でのコントラスト変化が所定値より大きいときに構図不
良として撮影者に警告を発するカメラが記載ある(例え
ば、特許文献1)。水平線や地平線のように撮影画面を
二分するエッジが人物の首を横切る構図や、電柱、樹木
等等の構造物が人物の頭から上方へ突き出る構図は上述
した構図不良の典型例であり、上記のカメラによれば、
撮影画面の中央に人物の顔が捉えられている限りそのよ
うな典型例をほぼ正確に判別できる。
2. Description of the Related Art Some typical examples of poor composition due to the discomfort of a viewer of a photograph have been empirically known. Then, a camera has been proposed which determines whether or not such a typical example is applicable to prevent photographing of a defective composition photograph. For example, there is a camera that measures a luminance distribution in a certain range in the vertical and horizontal directions from the center of the shooting screen and issues a warning to the photographer as a poor composition when the contrast change within this range is larger than a predetermined value ( For example, Patent Document 1). A composition in which an edge that bisects a shooting screen, such as a horizon or a horizon, crosses a person's neck, or a structure in which structures such as telephone poles and trees project upward from the person's head is a typical example of the above-described poor composition. According to the camera of
As long as a person's face is captured in the center of the shooting screen, such a typical example can be discriminated almost accurately.

【0003】[0003]

【特許文献1】特開平4−67133号公報[Patent Document 1] Japanese Patent Application Laid-Open No. 4-67133

【0004】[0004]

【発明が解決しようとする課題】しかしながら、構図不
良とされる典型例は上記の二例に限らない。例えば撮影
画面を二分するエッジが斜めに傾いている構図は、見る
人に不安定感を与えるために構図不良とされるが、その
ような傾きは上記公報のカメラで検出できない。また、
人物を撮影画面の中央から外して撮影する場合、上記公
報のカメラでは水平線や電柱等が人物の頭と重なってい
てもそれを構図不良として検出できない。さらに、低輝
度時は撮影画面内のコントラスト変化が小さいので正確
な判断ができない。
However, typical examples of defective composition are not limited to the above two examples. For example, a composition in which an edge that bisects a photographic screen is obliquely inclined gives a viewer a sense of instability and is thus considered as a poor composition, but such an inclination cannot be detected by the camera of the above publication. Also,
When taking a picture of a person by removing it from the center of the photographing screen, even if the horizon, telephone pole, etc. overlap the person's head, the camera of the above publication cannot detect it as poor composition. Further, when the brightness is low, the change in the contrast in the photographing screen is small, so that an accurate judgment cannot be made.

【0005】本発明の目的は、従来とは異なる観点から
構図不良写真の発生を防止できるカメラ、および構図不
良の典型例を従来よりも多彩かつ正確に判別できるカメ
ラを提供することにある。
An object of the present invention is to provide a camera capable of preventing the occurrence of a defective composition photograph from a viewpoint different from the conventional one, and a camera capable of discriminating typical examples of the defective composition more versatilely and more accurately than the conventional one.

【0006】[0006]

【課題を解決するための手段】請求項1の発明に係る構
図アドバイス機能を備えたカメラは、撮影画面内の輝度
分布に関連する情報を検出する輝度情報検出手段と、検
出された輝度分布に関連する情報に基づいて、撮影画面
内から主要被写体の上端に対応するエッジを抽出してそ
の位置を検出するエッジ検出手段と、検出されたエッジ
の位置を予め定められた適正範囲と対比して構図の良否
を判定する構図良否判定手段と、構図不良が判定された
ときに警告を出力する警告手段とを具備する。請求項
2,3の発明に係る構図アドバイス機能を備えたカメラ
は、撮影画面内の輝度分布に関連する情報を検出する輝
度情報検出手段と、検出された輝度分布に関連する情報
に基づいて、撮影画面の対向する二辺の間に延びるエッ
ジを抽出してその傾きを検出するエッジ検出手段と、検
出されたエッジの傾きを予め定められた適正範囲と対比
して構図の良否を判定する構図良否判定手段と、構図不
良が判定されたときに警告を出力する警告手段とを具備
する。特に請求項3の発明は、上記検出されたエッジの
傾きと、適正範囲とに基づいて構図の修正方向を判定す
る修正方向判定手段と、判定された修正方向を表示する
表示手段とを備える。請求項4の発明に係る構図アドバ
イス機能を備えたカメラは、撮影画面内での撮影者の注
視点の分布に関連する情報を検出する注視点情報検出手
段と、検出された注視点の分布に関連する情報に基づい
て撮影画面内の主要被写体の位置を検出する主要被写体
検出手段と、撮影画面内の輝度分布に関連する情報を検
出する輝度情報検出手段と、検出された輝度分布に関連
する情報に基づいて撮影画面内から特定種類のエッジを
抽出してその位置を検出するエッジ検出手段と、検出さ
れた主要被写体の位置と、検出されたエッジの種類およ
び位置とに基づいて構図の良否を判定する判定手段と、
構図不良が判定されたときに警告を出力する警告手段と
を具備する。請求項1〜4のいずれかの発明において、
カメラの手ブレ状態に対応する情報を検出する手ブレ情
報検出手段と、検出された手ブレ状態が構図良否の判定
に適当な範囲内か否かを判別する手ブレ状態判別手段
と、手ブレ状態が構図良否の判定に不適当な範囲にある
と判別したとき警告を出力する手ブレ警告手段とを更に
設けてもよい(請求項5)。
According to a first aspect of the present invention, there is provided a camera having a composition advice function, a brightness information detecting means for detecting information related to a brightness distribution in a photographing screen, and a detected brightness distribution. On the basis of the related information, the edge detection means for extracting the edge corresponding to the upper end of the main subject from the shooting screen and detecting the position thereof, and the position of the detected edge are compared with a predetermined appropriate range. The image forming apparatus includes a composition quality determining unit that determines whether the composition is good and bad, and a warning unit that outputs a warning when the composition is defective. A camera having a composition advice function according to the inventions of claims 2 and 3, based on brightness information detecting means for detecting information related to the brightness distribution in the photographing screen, and information related to the detected brightness distribution, Edge detection means for extracting an edge extending between two opposite sides of the photographic screen and detecting the inclination thereof, and a composition for determining the quality of the composition by comparing the inclination of the detected edge with a predetermined appropriate range. It is provided with a pass / fail judgment means and a warning means for outputting a warning when a defective composition is judged. In particular, the invention of claim 3 comprises a correction direction determination means for determining the correction direction of the composition based on the detected inclination of the edge and the appropriate range, and a display means for displaying the determined correction direction. A camera provided with a composition advice function according to the invention of claim 4 provides a gazing point information detecting means for detecting information related to the distribution of the gazing points of the photographer in the photographing screen, and a distribution of the detected gazing points. Main subject detecting means for detecting the position of the main subject in the photographing screen based on the related information, luminance information detecting means for detecting information relating to the luminance distribution in the photographing screen, and relation to the detected luminance distribution Edge detection means for extracting a specific type of edge from the photographing screen based on the information and detecting its position, the position of the detected main subject, and the quality of the composition based on the detected type and position of the edge. Determination means for determining
And a warning unit that outputs a warning when it is determined that the composition is not good. In the invention according to any one of claims 1 to 4,
A camera shake information detection unit that detects information corresponding to the camera shake state, a camera shake state determination unit that determines whether the detected camera shake state is within an appropriate range for determining whether the composition is good or bad, A camera shake warning unit may be further provided for outputting a warning when it is determined that the state is in a range unsuitable for determining the quality of the composition (claim 5).

【0007】[0007]

【実施例】−第1実施例− 以下、図1〜図6を参照して本発明の第1実施例を説明
する。図1は本実施例に係るカメラの制御系のブロック
図である。図中符号1はカメラの動作を制御するCPU
であり、このCPU1には、視線検出装置2、ブレ検出
装置3、測光装置4、測距装置5、焦点距離検出装置
6、姿勢検出装置7、撮影モード入力装置8および表示
装置9が接続されている。
EXAMPLES First Example A first example of the present invention will be described below with reference to FIGS. FIG. 1 is a block diagram of a control system of the camera according to this embodiment. In the figure, reference numeral 1 is a CPU that controls the operation of the camera.
The CPU 1 is connected to the line-of-sight detecting device 2, the blur detecting device 3, the photometric device 4, the distance measuring device 5, the focal length detecting device 6, the posture detecting device 7, the photographing mode input device 8 and the display device 9. ing.

【0008】視線検出装置2は、カメラのファインダ
(不図示)を覗き込む撮影者の瞳に向けて赤外光を照射
し、角膜からの反射光および眼球像とから眼球の回転角
度を求めて撮影画面内での撮影者の注視点を特定する。
視線検出装置2が検出した注視点に関する情報はCPU
1に送出される。ブレ検出装置3は例えばカメラボディ
の加速度や角速度により手ブレの大小を検出し、検出し
たブレの大きさに応じた信号をCPU1に出力する。測
光装置4は、図2に示すようにn行×m列のマトリクス
状に配置された受光素子PSにより撮影画面を分割測光
する二次元電荷蓄積型イメージセンサである。測光装置
4の素子PSの位置は、図2にも示したように撮影画面
の水平方向をx軸、垂直方向をy軸方向とする二次元直
交座標系の座標値により表される。なお、図2は、撮影
画面が横長となるカメラの横位置の状態を示す。撮影画
面が縦長となるカメラの縦位置では、撮影画面の短辺方
向がx軸方向、長辺方向がy軸方向である。
The line-of-sight detection device 2 irradiates infrared rays toward the photographer's pupil looking into a viewfinder (not shown) of the camera, and obtains the rotation angle of the eyeball from the reflected light from the cornea and the eyeball image. The gaze point of the photographer within the shooting screen is specified.
Information regarding the gazing point detected by the line-of-sight detection device 2 is stored in the CPU.
Sent to 1. The blur detection device 3 detects the magnitude of camera shake by, for example, the acceleration or angular velocity of the camera body, and outputs a signal corresponding to the detected blur size to the CPU 1. The photometric device 4 is a two-dimensional charge storage type image sensor that divides and measures the photographic screen by the light receiving elements PS arranged in a matrix of n rows × m columns as shown in FIG. The position of the element PS of the photometric device 4 is represented by coordinate values in a two-dimensional orthogonal coordinate system in which the horizontal direction of the photographic screen is the x-axis and the vertical direction is the y-axis direction, as shown in FIG. It should be noted that FIG. 2 shows a state in which the photographing screen is horizontally long and the camera is in the horizontal position. At the vertical position of the camera where the shooting screen is vertically long, the short side direction of the shooting screen is the x-axis direction and the long side direction is the y-axis direction.

【0009】測距装置5は、撮影距離(カメラのフィル
ム面から主要被写体までの距離)を検出し、その検出結
果に応じた信号をCPU1に出力する。撮影距離の検出
は、例えば撮影レンズの距離リングの回転位置に基づい
て演算し、あるいは被写体に赤外光を照射して検出す
る。焦点距離検出装置6は、撮影レンズの焦点距離に関
する情報を撮影レンズに内蔵されたROMから読み取っ
てCPU1に出力する。撮影レンズの交換が不可能なカ
メラでは、焦点距離検出装置6を省略して予めCPU1
に焦点距離情報を与えてもよい。
The distance measuring device 5 detects a photographing distance (distance from the film surface of the camera to the main subject) and outputs a signal according to the detection result to the CPU 1. The detection of the shooting distance is performed based on, for example, the rotational position of the distance ring of the shooting lens, or is detected by irradiating the subject with infrared light. The focal length detection device 6 reads the information regarding the focal length of the taking lens from the ROM incorporated in the taking lens and outputs it to the CPU 1. In a camera in which the taking lens cannot be replaced, the focal length detecting device 6 is omitted and the CPU 1
May be provided with focal length information.

【0010】姿勢検出装置7はカメラが横位置にあるか
縦位置にあるかを検出してCPU1に出力する。既述の
ように、横位置とは撮影画面の長辺方向と水平方向とが
一致する位置を、縦位置とは撮影画面の短辺方向と水平
方向とが一致する位置をいう。撮影モード入力装置8
は、例えば人物撮影を目的とするポートレートモード、
風景撮影を目的とする風景モードなど、撮影目的に応じ
た撮影モードを撮影者が入力するためのものである。表
示装置9は、露出値などの撮影情報をカメラボディ上面
やファインダ内に表示する機能を備えるとともに、ブザ
ーや合成音声、振動等による警告機能を備える。
The attitude detection device 7 detects whether the camera is in the horizontal position or the vertical position and outputs it to the CPU 1. As described above, the horizontal position means a position where the long side direction of the photographing screen coincides with the horizontal direction, and the vertical position means a position where the short side direction of the photographing screen coincides with the horizontal direction. Shooting mode input device 8
Is, for example, a portrait mode intended for portrait photography,
This is for the photographer to input a shooting mode according to the shooting purpose, such as a landscape mode for shooting scenery. The display device 9 has a function of displaying shooting information such as an exposure value on the upper surface of the camera body or a viewfinder, and also has a warning function by a buzzer, synthetic voice, vibration, or the like.

【0011】CPU1は、各装置2〜8からの信号を必
要に応じて読み込んで不図示のシャッタおよび絞りを制
御し、撮影レンズを合焦位置へ駆動する。また、撮影動
作に先立ってCPU1は図4および図5に示す手順によ
り構図推定処理を行なう。以下、この構図推定処理を説
明する。なお、構図推定処理は、例えばレリーズ釦の半
押し操作に応答して実行するとよい。
The CPU 1 reads a signal from each of the devices 2 to 8 as necessary, controls a shutter and an aperture (not shown), and drives the photographing lens to a focus position. Prior to the shooting operation, the CPU 1 performs composition estimation processing according to the procedure shown in FIGS. 4 and 5. The composition estimation process will be described below. The composition estimation process may be executed in response to a half-press operation of the release button, for example.

【0012】図4に示すように、構図推定処理では、ス
テップS1にて撮影モード入力装置8から入力される撮
影モードを読み込む。ついでステップS2では、撮影モ
ードに応じた「判定撮影倍率a」を設定する。「判定撮
影倍率a」については後述する。ステップS3では姿勢
検出装置7の出力からカメラの姿勢を検出し、続くステ
ップS4では視線検出装置2からの信号処理に必要な撮
影画面の分割パターンをカメラの姿勢に応じて選択す
る。例えばカメラの横位置では、図3(a)に示すよう
に撮影画面Pをv行×u列のマトリクス状の領域Wに分
割したパターンが選択される。この分割パターンの分割
個数(u,vの値)は上述した測光装置4の分割個数
(m,nの値)と同一でも、異なってもよい。なお、以
下では領域Wの位置を、測光装置4よる分割領域と同じ
く、撮影画面の水平方向をx軸、垂直方向をy軸方向と
する二次元直交座標系の座標値により表し、任意の位置
の領域をW(i,j)とする。カメラボディが縦位置に
構えられたときの分割パターンは図示を省略する。
As shown in FIG. 4, in the composition estimation process, the photographing mode input from the photographing mode input device 8 is read in step S1. Then, in step S2, the "determination photographing magnification a" according to the photographing mode is set. The “determination photographing magnification a” will be described later. In step S3, the posture of the camera is detected from the output of the posture detection device 7, and in the following step S4, the division pattern of the photographing screen necessary for the signal processing from the line-of-sight detection device 2 is selected according to the posture of the camera. For example, at the lateral position of the camera, as shown in FIG. 3A, a pattern obtained by dividing the photographing screen P into a matrix W of v rows × u columns is selected. The number of divisions (values of u and v) of this division pattern may be the same as or different from the number of divisions (values of m and n) of the photometric device 4 described above. In the following, the position of the area W is represented by the coordinate value of the two-dimensional orthogonal coordinate system in which the horizontal direction of the photographic screen is the x-axis and the vertical direction is the y-axis direction, as in the case of the divided areas by the photometric device 4, and any position The area of is defined as W (i, j). Illustration of the division pattern when the camera body is held in the vertical position is omitted.

【0013】ステップS4で分割パターンを選択した後
は、ステップS5にて分割パターンに対応するエリア係
数αを設定する。例えば図3(a)に示す分割パターン
が選択されたときには、図3(b)に示すように領域W
(1,1)〜W(i,j)〜W(u,v)毎にエリア係
数α(1,1)〜α(i,j)〜α(u,v)が与えら
れる。エリア係数α(i,j)は、撮影画面の中央から
離れるほど大きく設定される。なお、エリア係数α
(i,j)は、撮影画面中央からの距離に比例して増加
させ、あるいは距離に対して2次以上の増加関数となる
ように変化させてもよい。
After selecting the division pattern in step S4, the area coefficient α corresponding to the division pattern is set in step S5. For example, when the division pattern shown in FIG. 3A is selected, as shown in FIG.
Area coefficients α (1,1) to α (i, j) to α (u, v) are given for each of (1,1) to W (i, j) to W (u, v). The area coefficient α (i, j) is set to be larger as the distance from the center of the shooting screen increases. The area coefficient α
(I, j) may be increased in proportion to the distance from the center of the shooting screen, or may be changed so as to be a quadratic or higher increasing function with respect to the distance.

【0014】エリア係数αを設定した後は、ステップS
6でブレ検出装置3からの信号を読み込み、続くステッ
プS7で検出したブレ量が適正範囲か否かを判別する。
ブレ量が適正範囲であればステップS8へ進み、適正範
囲を越えるときはステップS17へ進む。なお、ブレ量
を判定するのは、カメラブレが大きくなると構図が定ま
らず、撮影画面が不安定となって注視点の検出精度が悪
化するからである。
After setting the area coefficient α, step S
In step 6, the signal from the blur detection device 3 is read, and in the subsequent step S7 it is determined whether or not the blur amount detected is in the proper range.
If the shake amount is within the proper range, the process proceeds to step S8, and if it exceeds the proper range, the process proceeds to step S17. Note that the amount of blurring is determined because the composition is not determined when the camera shake is large, the shooting screen becomes unstable, and the detection accuracy of the gazing point deteriorates.

【0015】ステップS8では焦点距離検出装置6から
の信号により撮影レンズの焦点距離fを検出し、続くス
テップS9では測距装置5からの信号により撮影距離D
を求める。ステップS10では、撮影倍率βを式β=f
/(D−f)によって求める。簡単のためβ=f/Dと
してもよい。
In step S8, the focal length f of the photographing lens is detected by the signal from the focal length detecting device 6, and in the following step S9, the photographing distance D is detected by the signal from the distance measuring device 5.
Ask for. In step S10, the photographing magnification β is calculated by the equation β = f
/ (D-f). For simplicity, β = f / D may be set.

【0016】続くステップS11(図5)では、算出さ
れた撮影倍率βがステップS2で設定した判定撮影倍率
a以上か否か判断する。判定撮影倍率a以上であればス
テップS12へ、判定撮影倍率a未満であればステップ
S13へ進む。ステップS12またはステップS13で
は、視線検出装置2が検出する注視点とステップS4,
S5にて設定した分割パターン、エリア係数とに基づい
て、一定時間内における撮影者の注視点の散らばり程度
を表す指数(以下、離散指数と呼ぶ。)Eを演算する。
以下、この離散指数Eの演算処理を図6により説明す
る。
In the following step S11 (FIG. 5), it is determined whether the calculated photographing magnification β is equal to or larger than the judgment photographing magnification a set in step S2. If it is equal to or larger than the determination photographing magnification a, the process proceeds to step S12, and if it is smaller than the determination photographing magnification a, the process proceeds to step S13. In step S12 or step S13, the gazing point detected by the line-of-sight detection device 2 and step S4,
Based on the division pattern and the area coefficient set in S5, an index (hereinafter, referred to as a discrete index) E representing the degree of dispersion of the gazing points of the photographer within a fixed time is calculated.
The calculation process of the discrete index E will be described below with reference to FIG.

【0017】図6の処理では、まずステップS101に
て離散指数Eの演算周期を設定するタイマを起動する。
続くステップS102では視線検出装置2が検出する注
視点の位置を読み込み、その位置が図3(a)の領域W
(1,1)〜W(u,v)のいずれに属するかを識別す
る。次のステップS103では注視点が存在する領域W
(i,j)に関してのみ注視点の存在時間t(i,j)
を積算する。この後、ステップS104にて視線検出装
置2からの信号により注視点の位置を確認する。続くス
テップS105では、ステップS104で確認した注視
点の属する領域W(i,j)がそれまでの領域から変化
しているか否かを判別する。領域W(i,j)が変化し
ていれば、ステップS106にて存在時間t(i,j)
を積算する領域を新たな領域に変更してステップS10
7へ進む。領域W(i,j)に変化がなければステップ
S106を省略してステップS107へ進む。
In the process of FIG. 6, first, in step S101, a timer for setting the calculation cycle of the discrete exponent E is started.
In the following step S102, the position of the gazing point detected by the line-of-sight detection device 2 is read, and the position is the area W in FIG.
Which of (1,1) to W (u, v) it belongs to is identified. In the next step S103, the region W in which the gazing point exists
Existence time t (i, j) of the gazing point only for (i, j)
Is added. After this, in step S104, the position of the gazing point is confirmed by the signal from the visual line detection device 2. In the following step S105, it is determined whether or not the region W (i, j) to which the gazing point confirmed in step S104 belongs has changed from the regions up to that point. If the region W (i, j) has changed, the existence time t (i, j) is determined in step S106.
Is changed to a new area and step S10 is performed.
Proceed to 7. If there is no change in the region W (i, j), step S106 is omitted and the process proceeds to step S107.

【0018】ステップS107ではステップS101で
起動したタイマの積算時間が所定秒時に達したか否か判
別し、達していなければステップS103に戻って上述
の処理を繰り返す。ステップS107でタイムアップと
判断したときはステップS108ですべての領域W
(i,j)に関する存在時間t(i,j)の積算を終了
し、続くステップS109で下式により離散指数Eを演
算する。
In step S107, it is determined whether or not the integrated time of the timer started in step S101 has reached a predetermined time, and if not, the process returns to step S103 and the above-described processing is repeated. When it is determined that the time is up in step S107, all areas W are determined in step S108.
The integration of the existence time t (i, j) for (i, j) is completed, and the discrete exponent E is calculated by the following equation in step S109.

【数1】E=Σ(α(i,j)×t(i,j)) ……
(i=1〜u,j=1〜v) この式から明らかなように、離散指数Eは図3(c)に
示す領域W(1,1)〜W(u,v)毎の注視点の存在
時間t(1,1)〜t(u,v)に、図3(b)に示す
領域W(i,j)毎のエリア係数α(i,j)を乗算し
た値の総和である。ステップS109の終了後は図5に
示す処理へ復帰する。
[Equation 1] E = Σ (α (i, j) × t (i, j))
(I = 1 to u, j = 1 to v) As is clear from this equation, the discrete index E is the gazing point for each of the regions W (1,1) to W (u, v) shown in FIG. 3 is a sum of values obtained by multiplying the existence time t (1,1) to t (u, v) by the area coefficient α (i, j) of each region W (i, j) shown in FIG. 3B. . After the end of step S109, the process returns to the process shown in FIG.

【0019】再び図5に戻って説明する。離散指数Eの
演算後はステップS14またはステップS15に進み、
演算された離散指数Eが基準値b,c以上か否か判断す
る。基準値b,c以上であればステップS16へ進み、
表示装置9により構図が良好である旨を撮影者に知らし
める。一方、ステップS14,S15にて離散指数Eが
基準値b,c未満のときはステップS17へ進み、表示
装置9のブザー等により撮影者に対して警告を発する。
なお、基準値b,cはb<cの関係にある。
Returning to FIG. 5, the description will be continued. After calculating the discrete exponent E, the process proceeds to step S14 or step S15,
It is determined whether the calculated discrete index E is equal to or greater than the reference values b and c. If it is the reference value b or c or more, the process proceeds to step S16,
The display device 9 informs the photographer that the composition is good. On the other hand, when the discrete index E is less than the reference values b and c in steps S14 and S15, the process proceeds to step S17, and the buzzer of the display device 9 or the like issues a warning to the photographer.
The reference values b and c have a relationship of b <c.

【0020】以上の処理によれば、撮影画面の中央から
離れるほどエリア係数α(i,j)が大きくなるので、
撮影者が撮影画面の中央部を集中的に注視したときはス
テップS12またはステップS13で演算される離散指
数Eが小さくなり、ステップS14またはステップS1
5で基準値b,c未満と判定されてステップS17で警
告が発せられる可能性が高まる。反対に、撮影者が撮影
画面の周辺も満遍なく注視すれば離散指数Eが大きくな
り、ステップS14またはステップS15で基準値b,
c以上と判定されてステップS16で構図良好表示がな
される可能性が高くなる。撮影者の注視点が撮影画面の
中央部に集中する場合は、撮影者が主要被写体のみを注
視し、背景に考慮を払っていないので、構図不良が生じ
る可能性が高い。したがってステップS17での警告
は、撮影者に対して構図確認を催促する情報として有効
に機能する。なお、構図判定ができないほどカメラブレ
が大きいときもステップS17にて警告が発せられる。
According to the above processing, the area coefficient α (i, j) increases as the distance from the center of the photographing screen increases.
When the photographer pays close attention to the central part of the photographing screen, the discrete index E calculated in step S12 or step S13 becomes small, and step S14 or step S1.
It is determined that the value is less than the reference values b and c in 5 and the possibility that a warning is issued in step S17 increases. On the contrary, if the photographer pays close attention to the periphery of the photographing screen, the discrete index E increases, and the reference value b,
There is a high possibility that the composition is displayed in good condition in step S16 when it is determined that the value is c or more. When the gazing point of the photographer is concentrated on the central part of the photographing screen, the photographer gazes only at the main subject and does not pay attention to the background, so that there is a high possibility of poor composition. Therefore, the warning in step S17 effectively functions as information for urging the photographer to confirm the composition. Even if the camera shake is so great that the composition cannot be determined, a warning is issued in step S17.

【0021】本実施例では、撮影者の注視点分布に基づ
いて構図不良を推定するので、撮影画面内の水平線等の
検出が困難な低輝度時やローコントラスト時でも機能が
損われない。なお、本実施例では撮影画面の周辺のみを
注視したときも離散指数Eが高くなって警告が発せられ
ない可能性が高くなる。しかしながら、撮影者が意識し
て撮影画面の周辺を注視するときは、構図の決定に何等
かの意図が含まれていると考えて差し支えなく、警告を
与えなくとも不都合はない。
In this embodiment, the composition failure is estimated based on the distribution of the gazing points of the photographer, so that the function is not impaired even at low brightness or low contrast where it is difficult to detect horizontal lines and the like in the photographing screen. In the present embodiment, the discrete index E becomes high even when gazing only around the periphery of the shooting screen, and there is a high possibility that a warning will not be issued. However, when the photographer is consciously gazing at the periphery of the photographing screen, it may be considered that some intention is included in the determination of the composition, and there is no inconvenience even if the warning is not given.

【0022】実施例では撮影倍率βと判定撮影倍率aと
の大小関係に応じて基準値b,cが変更され、しかもb
<cである。このため、注視点の散らばり程度が同程度
であっても、撮影倍率βが小さいとき、すなわちβ<a
の場合(ステップS13,15側)がβ≧aの場合(ス
テップS12,14側)よりも警告が発せられる可能性
が高くなる。これは、撮影倍率βが小さくなるほど主要
被写体が撮影画面内に占める大きさが減少し、撮影画面
の周辺を注視して構図の良否を確認する必要性が高まる
ためである。
In the embodiment, the reference values b and c are changed according to the magnitude relationship between the photographing magnification β and the judgment photographing magnification a, and b
<C. Therefore, even if the degree of scatter of the gazing points is the same, when the photographing magnification β is small, that is, β <a
In the case of (step S13, 15 side), the warning is more likely to be issued than in the case of β ≧ a (step S12, 14 side). This is because as the shooting magnification β decreases, the size of the main subject occupied in the shooting screen decreases, and it becomes more necessary to gaze at the periphery of the shooting screen to confirm the quality of the composition.

【0023】判定撮影倍率aを撮影モードに応じて変更
するのも撮影画面周辺の注視の必要度を考慮したためで
ある。例えばポートレートモードでは主要被写体たる人
物が大きく捕えられかつ背景がぼけるので背景を注視す
る必要が薄れて判定撮影倍率aを小さく設定しても差し
支えないのに対し、風景モードでは撮影画面の隅々まで
注視する必要が高まるので判定撮影倍率aも高く設定す
る必要がある。なお、撮影画面の中央部のエリア係数
が、風景モードよりもポートレートモードで大きくなる
ように変化させてもよい。
The judgment photographing magnification a is changed according to the photographing mode because the necessity of gazing around the photographing screen is taken into consideration. For example, in portrait mode, the person who is the main subject is greatly captured and the background is blurred, so it is no longer necessary to gaze at the background, and it is safe to set the determination shooting magnification a small. Since it becomes more necessary to gaze up to, it is necessary to set the determination photographing magnification a high. The area coefficient at the center of the shooting screen may be changed to be larger in the portrait mode than in the landscape mode.

【0024】図7に示すように表示装置9に構図警告装
置9Aとブレ警告装置9Bとを設け、図8に示すよう
に、ステップS14またはステップS15で構図不良と
推定したときにはステップS17に進んで構図警告装置
9Aで構図確認の催促を、ステップS7でブレ大と判定
したときはステップS18へ進んでブレ警告装置9Bに
よりブレの警告を与えてもよい。
As shown in FIG. 7, the display device 9 is provided with a composition warning device 9A and a shake warning device 9B. As shown in FIG. 8, when it is estimated that the composition is poor in step S14 or step S15, the process proceeds to step S17. When the composition warning device 9A prompts the user to confirm the composition, and when it is determined in step S7 that the blurring is large, the process may proceed to step S18 to give the blurring warning by the blurring warning device 9B.

【0025】撮影画面内で一定時間内に注視点が最も集
中する領域を主要被写体の位置として特定し、かかる位
置から離れるほどエリア係数α(i,j)が大きくなる
ように設定することで、主要被写体からの注視点の散ら
ばりの程度に応じて離散指数Eを増減させることも可能
である。図9に示すように撮影画面Pに複数の焦点検出
領域AFを設定し、いずれか一つの領域を選択可能とし
たカメラでは、選択された焦点検出領域AFから注視点
が離れるほどエリア係数α(i,j)が大きくなるよう
にしてもよい。この場合、焦点検出領域AFの選択は、
撮影者が指示するものでも、カメラ側が自動的に選択す
るものでもよい。撮影者の視線に基づいて焦点検出領域
AFを選択するカメラであっても、選択された焦点検出
領域AFから離れるほどエリア係数α(i,j)が大き
くなるように設定すればよい。また、焦点検出領域AF
の位置に係わりなく撮影画面の中央から離れるほどエリ
ア係数α(i,j)を大きく設定した場合において、撮
影者の視線により焦点検出領域AFを選択する場合に
は、選択される焦点検出領域AFに一時的に視線が集中
するので、その間の注視点分布情報を離散指数Eの演算
データに取り込まないようにすればよい。
By specifying the area where the gazing point is most concentrated within a fixed time within the photographing screen as the position of the main subject, and setting the area coefficient α (i, j) to increase as the distance from this position increases, It is also possible to increase / decrease the discrete index E according to the degree of dispersion of the gazing points from the main subject. As shown in FIG. 9, in a camera in which a plurality of focus detection areas AF are set on the shooting screen P and any one of the areas can be selected, the area coefficient α ( i, j) may be increased. In this case, the focus detection area AF is selected
It may be instructed by the photographer or automatically selected by the camera. Even in a camera that selects the focus detection area AF based on the line of sight of the photographer, the area coefficient α (i, j) may be set to increase as the distance from the selected focus detection area AF increases. Also, the focus detection area AF
In the case where the area coefficient α (i, j) is set to be larger as the distance from the center of the shooting screen is increased irrespective of the position of, the focus detection area AF is selected when the focus detection area AF is selected by the photographer's line of sight. Since the line of sight is temporarily concentrated on, it suffices not to capture the gazing point distribution information during that time into the calculation data of the discrete index E.

【0026】−第2の実施例− 図10〜図22により本発明の第2実施例を説明する。
なお、本実施例は、上述した第1実施例に対してCPU
1での構図推定処理を変更したものである。したがっ
て、第1実施例との共通部分には同一符号を付してその
説明を省略し、構図推定処理の特徴部分を説明する。
-Second Embodiment- A second embodiment of the present invention will be described with reference to FIGS.
It should be noted that this embodiment is different from the first embodiment in that the CPU
The composition estimation process in 1 is changed. Therefore, the same parts as those of the first embodiment are designated by the same reference numerals and the description thereof will be omitted, and the characteristic part of the composition estimation processing will be described.

【0027】図10は本実施例の構図推定処理の一部を
示すものである。図中のステップS11は上述した第1
実施例のステップS11と共通し、ステップS11より
も前段階では図4に示すステップS1〜ステップS10
が実行される。ステップS11にて撮影倍率βが判定撮
影倍率aよりも大きいときはステップS21へ進み、現
在の撮影画面の構図が予め定められた構図不良条件に該
当する程度を表す指数(以下、構図不良指数と呼ぶ。)
Gを、測光装置4の素子PS(図2参照)毎の測光値B
vに基づいて演算する。この構図不良指数Gの演算の詳
細は後述する。
FIG. 10 shows a part of the composition estimation processing of this embodiment. Step S11 in the figure is the first step described above.
In common with step S11 of the embodiment, steps S1 to S10 shown in FIG. 4 are performed before step S11.
Is executed. When the shooting magnification β is larger than the determination shooting magnification a in step S11, the process proceeds to step S21, and an index (hereinafter referred to as a composition failure index) indicating the degree to which the composition of the current shooting screen satisfies a predetermined composition failure condition. Call.)
G is a photometric value B for each element PS (see FIG. 2) of the photometric device 4
Calculate based on v. Details of the calculation of the composition failure index G will be described later.

【0028】ステップS11で判定撮影倍率a未満のと
きはステップS22へ進み、離散指数Eを演算する。こ
の離散指数Eの演算処理は図6に示すものと同一であ
る。離散指数Eの演算後はステップS23へ進み、離散
指数Eが基準値h以上か否か判断する。基準値h以上で
あればステップS24へ進んで構図不良指数Gを演算
し、基準値h未満であればステップS25へ進んで表示
装置9のブザー等により撮影者に対して警告を発する。
このときの警告は、第1実施例と同様に撮影者が撮影画
面の周辺の構図を確認していないことに対するものであ
る。判定撮影倍率aおよび基準値hは、第1実施例の判
定撮影倍率a、基準値b,cと一致するとは限らない。
When the magnification is less than the judgment photographing magnification a in step S11, the process proceeds to step S22 to calculate the discrete index E. The calculation process of the discrete exponent E is the same as that shown in FIG. After the calculation of the discrete exponent E, the process proceeds to step S23, and it is determined whether the discrete exponent E is the reference value h or more. If it is equal to or greater than the reference value h, the process proceeds to step S24 to calculate the composition failure index G, and if it is less than the reference value h, the process proceeds to step S25 to issue a warning to the photographer by the buzzer or the like of the display device 9.
The warning at this time is for the photographer not confirming the composition around the photographing screen as in the first embodiment. The determination photographing magnification a and the reference value h do not always match the determination photographing magnification a and the reference values b and c of the first embodiment.

【0029】図11は構図不良指数Gの演算処理を示す
ものである。この処理では、まずステップS201にて
姿勢検出装置7からの出力によりカメラが横位置か否か
を判断する。横位置でなければステップS202へ進
み、図2に示す測光装置4の素子数mを以降の処理で用
いる定数n、素子数nを以降の処理で用いる定数mとし
て定義する。横位置のときは素子数mが定数m、素子数
nが定数nとしてそのまま使用される。このような操作
を行うのは、CPU1がカメラの縦位置および横位置に
拘らず撮影画面の水平方向をX軸方向、垂直方向をY軸
方向として扱うため、縦位置と横位置とで測光装置4の
X軸方向、Y軸方向の素子数が入れ替わるためである。
FIG. 11 shows the calculation processing of the composition failure index G. In this process, first, in step S201, it is determined from the output from the posture detection device 7 whether the camera is in the lateral position. If it is not in the lateral position, the process proceeds to step S202, and the number of elements m of the photometric device 4 shown in FIG. 2 is defined as a constant n used in subsequent processing, and the number of elements n is defined as a constant m used in subsequent processing. In the lateral position, the number of elements m is a constant m, and the number of elements n is a constant n. This operation is performed because the CPU 1 treats the horizontal direction of the photographic screen as the X-axis direction and the vertical direction as the Y-axis direction regardless of the vertical position and the horizontal position of the camera. This is because the number of elements in the X-axis direction and the number of elements in the Y-axis direction of 4 are interchanged.

【0030】素子数m,nをカメラの姿勢に応じて定義
した後は、ステップS203で、電柱や立木等の柱状物
が構図不良を引き起こす程度を表す指数(以下、柱状物
不良指数と呼ぶ。)G1を演算する。ステップS204
では主要被写体の位置が構図不良を引き起こす程度を表
す指数(以下、主要被写体不良指数と呼ぶ。)G2を演
算する。ステップS205では、水平線や地平線等、撮
影画面を二分するような水平エッジが構図不良を引き起
こす程度を表す指数(以下、水平エッジ不良指数と呼
ぶ。)G3を演算する。なお、これらの指数G1〜G3は
構図不良を引き起こす程度が高いほど大きくなるように
設定される。各指数G1〜G3の演算手順の詳細は後述す
る。
After defining the number of elements m and n according to the posture of the camera, in step S203, an index indicating the degree to which a columnar object such as a utility pole or a stand causes composition failure (hereinafter referred to as a columnar object defect index). ) Calculate G1. Step S204
Then, an index (hereinafter referred to as a main subject defect index) G2 indicating the degree to which the position of the main subject causes a poor composition is calculated. In step S205, an index (hereinafter referred to as a horizontal edge defect index) G3 indicating the degree to which a horizontal edge such as a horizon or a horizon that divides the photographic screen causes a poor composition is calculated. The indexes G1 to G3 are set to be larger as the degree of composition failure increases. Details of the calculation procedure of each index G1 to G3 will be described later.

【0031】指数G1〜G3の演算後はステップS206
へ進み、構図不良指数Gとして各指数G1〜G3の総和
(G1+G2+G3)を求める。構図不良指数Gの演算後
は図10に示すステップS26またはステップS27に
進み、演算された構図不良指数Gが基準値p,q以上か
否か判断する。基準値p,q未満であればステップS2
8へ進み、表示装置9により構図が良好であることを撮
影者に知らせる。一方、ステップS26,S27にて構
図不良指数Gが基準値p,q以上のときはステップS2
5へ進み、表示装置9のブザー等により撮影者に対して
警告を発する。なお、基準値p,qはp>qの関係にあ
る。カメラボディのブレが大きいときにも第1実施例と
同様にステップS25の処理が実行されて警告が発せら
れる。
After the calculation of the indexes G1 to G3, step S206
Then, the process proceeds to the composition failure index G, and the total sum (G1 + G2 + G3) of each index G1 to G3 is obtained. After the calculation of the composition failure index G, the process proceeds to step S26 or step S27 shown in FIG. 10, and it is determined whether the calculated composition failure index G is equal to or greater than the reference values p and q. If less than the reference values p and q, step S2
8, the display device 9 informs the photographer that the composition is good. On the other hand, if the composition failure index G is equal to or greater than the reference values p and q in steps S26 and S27, step S2
5, the buzzer of the display device 9 or the like issues a warning to the photographer. The reference values p and q have a relation of p> q. Even when the camera body is greatly shaken, the process of step S25 is executed and a warning is issued as in the first embodiment.

【0032】図12〜図22により各指数G1〜G3の演
算手順を説明する。 (1)柱状物不良指数G1の演算処理 図12,図13は柱状物不良指数G1の演算手順を示す
ものである。図14(a)に示すように、撮影画面Pの
垂直方向に真っ直ぐ延びた状態で撮影されるべき柱状物
(樹木、電柱、支柱等)X1が同図(b)に示すように
傾いて撮影される と構図不良を引き起こす。このよう
な要素を構図不良の推定に反映させるべく、図12,図
13の処理では測光装置4が検出する測光値分布に基づ
いて撮影画面中の柱状物X1を検出し、柱状物X1のエッ
ジ(背景との境界)eL,eRの傾きの程度を指数化す
る。なお、以下の説明では、図15に示すように測光装
置4の素子PSのうちX座標を同じくする素子の列をy
列とし、Y軸方向最下端から上側へj番目のy列をyj
列と表現する。図15はカメラが横位置で、素子PSの
個 数がm=30,n=20の例である。
The calculation procedure of each index G1 to G3 will be described with reference to FIGS. (1) Calculation Processing of Columnar Defect Index G1 FIGS. 12 and 13 show the calculation procedure of the columnar defect index G1. As shown in FIG. 14 (a), a columnar object (tree, utility pole, support post, etc.) X1 to be photographed in a state where it is extended straight in the vertical direction of the photographing screen P is tilted as shown in FIG. 14 (b). If this happens, the composition will be poor. In order to reflect such an element in the estimation of poor composition, in the processing of FIGS. 12 and 13, the columnar object X1 in the photographing screen is detected based on the photometric value distribution detected by the photometric device 4, and the edge of the columnar object X1 is detected. (Boundary with background) The degree of inclination of eL and eR is indexed. In the following description, among the elements PS of the photometric device 4, as shown in FIG.
Row, and the j-th y-row from the bottom in the Y-axis direction to the upper side is yj
Expressed as a column. FIG. 15 shows an example in which the camera is in the horizontal position and the number of elements PS is m = 30 and n = 20.

【0033】図12に示すように、指数G1の演算で
は、ステップS211で走査列を指定する変数jを初期
値1に設定し、ステップS212でyj列の素子PS
(1,j)〜PS(m,j)の測光値の走査を開始す
る。次のステップS213では、yj 列において同一測
光値Bvの素子PSが所定個数A以上連続するか否か判
断する。連続するときはステップS214に進み、ステ
ップS213の条件に該当する測光値Bvおよび素子の
組の位置を記憶する。条件に該当する素子の組が存在し
ないときはステップS214を省略してステップS21
5へ進む。
As shown in FIG. 12, in the calculation of the index G1, the variable j designating the scanning row is set to the initial value 1 in step S211, and the element PS of the yj row is set in step S212.
The scanning of the photometric values of (1, j) to PS (m, j) is started. In the next step S213, it is determined whether or not a predetermined number A of elements PS having the same photometric value Bv continue in the yj column. When they continue, the process proceeds to step S214, and the photometric value Bv and the position of the element set corresponding to the condition of step S213 are stored. If there is no set of elements that meet the conditions, step S214 is omitted and step S21 is performed.
Go to 5.

【0034】ステップS215ではyj列の走査が終了
したか否かを判断し、走査途中であればステップS21
3へ戻る。yj列の走査が終了したときはステップS2
16へ進み、変数jがY軸方向の素子数nに一致するか
否かを判断する。一致しなければステップS217で変
数jに1を加算してステップS212へ戻る。変数jが
素子数nに一致するときはステップS218へ進む。
In step S215, it is determined whether or not the scanning of the yj-th column is completed, and if scanning is in progress, step S21.
Return to 3. When the scanning of the yjth column is completed, step S2
In step 16, it is determined whether the variable j matches the number n of elements in the Y-axis direction. If they do not match, 1 is added to the variable j in step S217, and the process returns to step S212. When the variable j matches the number of elements n, the process proceeds to step S218.

【0035】ステップS218では、ステップS214
で記憶した測光値Bvのうち、すべてのy列(y1列〜
yn列)に共通するものがあるか否か判断する。なお、
ステップS213およびステップS218にて、各素子
PSの測光値Bvが等しいか否かを判断する際には、測
光値Bvの差が一定の許容範囲内にあれば同一として扱
ってよい。
In step S218, step S214 is performed.
All the y columns (y1 column ~
yn column) to see if there is something in common. In addition,
When it is determined in step S213 and step S218 whether or not the photometric values Bv of the respective elements PS are equal to each other, they may be treated as the same if the difference between the photometric values Bv is within a certain allowable range.

【0036】すべてのy列に共通する測光値Bvが存在
するときはステップS219へ進み、すべてのy列間で
測光値Bvの素子が所定個数C以上接しているか否か判
断する。この条件が満たされているときはステップS2
20へ進み、複数の測光値Bvについて上記の条件が満
たされたか否か判断する。複数の測光値について満たさ
れているときはステップS221へ進み、最も低い測光
値の素子の組を以降の処理対象として選択する。例え
ば、ステップS214にて2つの測光値Bv1,Bv2
(Bv1<Bv2)の素子の組が記憶され、測光値Bv
1,Bv2の素子の組いずれもがステップS218,S2
19の条件を満たすときは、ステップS214で記憶し
た測光値Bv1の素子の組を処理対象として選択され
る。なお、ステップS 220が否定されたときはステ
ップS221が省略され、ステップS214で記憶され
た測光値Bvの素子の組がそのまま処理対象に選択され
る。
When the photometric value Bv common to all the y columns exists, the process proceeds to step S219, and it is determined whether or not the number of elements having the photometric value Bv are equal to or more than the predetermined number C between all the y columns. If this condition is met, step S2
In step 20, it is determined whether or not the above conditions are satisfied for a plurality of photometric values Bv. If the plurality of photometric values are satisfied, the process proceeds to step S221, and the set of elements having the lowest photometric value is selected as the subsequent processing target. For example, in step S214, two photometric values Bv1 and Bv2
A set of elements (Bv1 <Bv2) is stored, and the photometric value Bv
Both the element set of 1 and the element of Bv2 are steps S218 and S2.
When the condition of 19 is satisfied, the set of elements having the photometric value Bv1 stored in step S214 is selected as the processing target. When step S220 is denied, step S221 is omitted and the set of elements having the photometric value Bv stored in step S214 is directly selected for processing.

【0037】測光値Bvの素子の組を選択した後はステ
ップS222(図13)へ進む。ステップS222で
は、選択された測光値Bvの素子のうち、y1列および
yn列で最も左側に位置する素子のX座標をそれぞれX
a,Xc、y1列およびyn列で最も右側に位置する素子
のX座標をそれぞれXb,Xdとして定義する。なお、
y1列は撮影画面の下端、yn列は撮影画面の上端に位置
する素子列である。次のステップS223では、下式に
よりy1列,yn列における測光値Bvの素子の左右端の
ずれ量ΔXL,ΔXRを求める。
After selecting the set of elements having the photometric value Bv, the process proceeds to step S222 (FIG. 13). In step S222, among the elements having the selected photometric value Bv, the X coordinate of the element on the leftmost side in the y1 and yn columns is set to X.
The X coordinate of the element located on the rightmost side in the a, Xc, y1 and yn columns is defined as Xb and Xd, respectively. In addition,
The y1 column is the lower end of the photographing screen, and the yn column is the element column located at the upper end of the photographing screen. In the next step S223, the shift amounts ΔXL and ΔXR of the left and right ends of the element of the photometric value Bv in the y1 and yn columns are calculated by the following equation.

【数2】ΔXL=Xc−Xa ΔXR=Xd−Xb[Formula 2] ΔXL = Xc−Xa ΔXR = Xd-Xb

【0038】ステップS224では、ΔXL,ΔXRの正
負符号が一致するか否かを判断する。一致していればス
テップS225へ進み、ΔXLの絶対値がΔXRの絶対値
よりも小さいか否か判断する。小さければステップS2
26へ進み、ΔXRの絶対値に 応じて指数G1を設定す
る。ΔXLの絶対値がΔXRの絶対値よりも大きいときは
ステップS227に進み、ΔXLの絶対値に応じて指数
G1を設定する。なお、ΔXL,ΔXRが大きいほど指数
G1も大きく設定するが、ΔXL,ΔXRに比例して 指数
G1を増加させ、あるいはΔXL,ΔXRに対して二次以
上の増加関数で指数 G1を増加させてもよい。
In step S224, it is determined whether the positive and negative signs of ΔXL and ΔXR match. If they match, the process advances to step S225 to determine whether the absolute value of ΔXL is smaller than the absolute value of ΔXR. If small, step S2
Go to step 26 and set the index G1 according to the absolute value of ΔXR. When the absolute value of ΔXL is larger than the absolute value of ΔXR, the process proceeds to step S227, and the index G1 is set according to the absolute value of ΔXL. The larger the ΔXL and ΔXR, the larger the index G1 is set. However, if the index G1 is increased in proportion to ΔXL and ΔXR, or if the index G1 is increased by a quadratic or more increasing function with respect to ΔXL and ΔXR. Good.

【0039】ステップS218、ステップS219およ
びステップS224が否定判断されたときはステップS
228へ進み、指数G1=0とする。ステップS226
〜228の終了後は図11に示す処理へ復帰する。
When step S218, step S219 and step S224 are negatively determined, step S
Proceed to 228 and set the index G1 = 0. Step S226
After 228 to 228, the process returns to the process shown in FIG.

【0040】次に、図12,図13の処理の具体例を図
16に基づいて説明する。なお、測光装置4の素子の配
列は図15に示す通りとし、ステップS213での所定
個数A=5、ステップS219での所定個数C=4とす
る。図16は、図14(b)に示す撮影画面Pと測光装
置4の素子PSの配列との対応を示すものである。一般
に、柱状物X1の輝度は背景部分よりも低いため、柱状
物X1上に位置する素子が背景部分よりも低い一様な測
光値Bv1を検出し、背景上に位置する素子が測光値B
v1よりも一様に明るい測光値Bv2を検出するものとし
た。柱状物X1に対する撮影距離が短く、そこに撮影レ
ンズのピントが合っている状態では、背景部分が被写界
深度から外れてボケるため、背景が一様に明るいと見做
して差し支えない。
Next, a specific example of the processing shown in FIGS. 12 and 13 will be described with reference to FIG. The elements of the photometric device 4 are arranged as shown in FIG. 15, and the predetermined number A = 5 in step S213 and the predetermined number C = 4 in step S219. FIG. 16 shows the correspondence between the shooting screen P shown in FIG. 14B and the arrangement of the elements PS of the photometric device 4. In general, since the brightness of the columnar object X1 is lower than that of the background portion, the element located on the columnar object X1 detects a uniform photometric value Bv1 lower than the background portion, and the element located on the background detects the photometric value Bv1.
The photometric value Bv2 that is uniformly brighter than v1 is detected. When the photographing distance to the columnar object X1 is short and the photographing lens is in focus there, the background portion is out of the depth of field and blurred, so that the background can be regarded as uniformly bright.

【0041】図16に示す撮影画面に対して図12,1
3の処理を適用した場合、ステップS211〜ステップ
S215により、y1列に関して素子PS(1,1)〜
PS(7,1)が同一測光値Bv2の組として記憶さ
れ、素子PS(9,1)〜PS(14,1)が同一測光
値Bv1の組として記憶され、素子PS(16,1)〜
PS(30,1)が同一測光値Bv2の組として記憶さ
れる。以下、同様の処理がy2列〜y20列について繰り
返され、y20列では素子PS(1,20)〜PS(4,
20)が同一測光値Bv2の組として記憶され、素子P
S(6,20)〜PS(11,20)が同一測光値Bv
1の組として記憶され、素子PS(13,20)〜PS
(20,20)が同一測光値Bv2の組として記憶され
る。
12 and 1 for the photographing screen shown in FIG.
When the process of No. 3 is applied, the elements PS (1,1) to
PS (7,1) is stored as a set of the same photometric value Bv2, and elements PS (9,1) to PS (14,1) are stored as a set of the same photometric value Bv1 and elements PS (16,1) to
PS (30,1) is stored as a set of the same photometric value Bv2. Hereinafter, similar processing is repeated for the y2 to y20 columns, and in the y20 column, the elements PS (1, 20) to PS (4,
20) is stored as a set of the same photometric value Bv2, and the element P
S (6,20) to PS (11,20) are the same photometric value Bv
Are stored as one set, and the elements PS (13,20) to PS
(20, 20) is stored as a set of the same photometric value Bv2.

【0042】y1列〜y20列に共通する測光値Bv1,B
v2が存在し、測光値Bv1の素子がy列間で接する数、
測光値Bv2の素子がy列間で接する数がy1列〜y20列
まですべてC(=4)個以上であるため、ステップS2
18,ステップS219はいずれも肯定される。そし
て、測光値Bv1<Bv2より、ステップS220で測光
値Bv1の素子の組が処理対象に選択される。ステップ
S221では、y1列およびy20列における測光値Bv1
の素子の左右端のX座標が選ばれてXa=9,Xb=1
4,Xc=6,Xd=11となり、ステップS223で
はΔXL=6−9=−3、ΔXR=11−14=−3とな
る。ΔXL,ΔXRの正負符号はともに負であるからステ
ップS224が肯定される。ΔXL、ΔXRの絶対値が等
しいのでステップS225が肯定され、ステップS22
6にてΔXLの絶対値(=3)に応じて指数G1が設定さ
れる。
Photometric values Bv1 and B common to columns y1 to y20
v2 exists, and the number of elements with photometric value Bv1 contacting between y columns,
Since the number of the elements having the photometric value Bv2 contacting between the y columns is at least C (= 4) from the y1 column to the y20 column, step S2
18, step S219 is affirmed. Then, from the photometric value Bv1 <Bv2, a set of elements having the photometric value Bv1 is selected as a processing target in step S220. In step S221, the photometric values Bv1 in the y1 and y20 columns
X-coordinates of the left and right ends of the element are selected and Xa = 9, Xb = 1
4, Xc = 6, Xd = 11, and ΔXL = 6−9 = −3 and ΔXR = 11−14 = −3 in step S223. Since the positive and negative signs of ΔXL and ΔXR are both negative, step S224 is affirmed. Since the absolute values of ΔXL and ΔXR are the same, step S225 is affirmed and step S22
At 6, the index G1 is set according to the absolute value (= 3) of ΔXL.

【0043】以上から明らかなように、図12,図13
の処理では同一測光値Bvの素子が撮影画面の水平方向
へ所定個数A以上連続するか否か、および同一測光値B
vの素子が各y列間で所定個数C以上接するか否かによ
り、撮影画面を左右に二分する柱状物X1が存在するか
否か判断される。柱状物X1が存在するときは、撮影画
面の上下端における柱状物X1のエッジeL,eR(図1
4参照)のずれ量ΔXL、ΔXRが求められ、いずれか大
きい方の値に応じて指数G1が設定される。したがっ
て、指数G1は、柱状物の傾きが構図不良に与える影響
の大小を示している。なお、円錐体のように高さに応じ
て幅が変化する構造物では、撮影画面の垂直方向と平行
であってもそのエッジが傾くので、単一のエッジのみを
評価した場合は構図不良と誤って判断されるおそれがあ
る。ところが、図12,図13の処理ではステップS2
24にて柱状物の両側のエッジの傾き方向が一致するか
否かを判別するので、そのようなおそれがない。
As is clear from the above, FIG. 12 and FIG.
In the processing, whether or not the number of elements having the same photometric value Bv continue in the horizontal direction of the photographing screen by the predetermined number A or more, and the same photometric value Bv
It is determined whether or not there is a columnar object X1 that divides the photographic screen into left and right parts depending on whether or not a predetermined number C of v elements are in contact with each other in each y column. When the columnar object X1 exists, the edges eL and eR of the columnar object X1 at the upper and lower ends of the photographing screen (see FIG.
The deviation amounts ΔXL and ΔXR (see 4) are obtained, and the index G1 is set according to the larger value. Therefore, the index G1 indicates the magnitude of the influence of the inclination of the columnar object on the poor composition. In a structure such as a cone whose width changes according to height, its edge is inclined even if it is parallel to the vertical direction of the shooting screen, so if only a single edge is evaluated, the composition is poor. There is a risk of being incorrectly judged. However, in the processing of FIGS. 12 and 13, step S2
Since it is determined at 24 whether or not the inclination directions of the edges on both sides of the columnar object match, there is no such possibility.

【0044】(2)主要被写体不良指数G2の演算処理 図17および図18により主要被写体不良指数G2の演
算処理(図11のステップS204)を説明する。図1
8(a)に示すように、撮影画面Pの主要被写体(この
例では人物)X2が、同図(b)に示すように撮影画面
Pの上端から大きく離れ、あるいはその逆に撮影画面P
の上端に過度に接近すると構図不良を引き起こす。この
ような要素を構図不良の推定に反映させるべく、図17
の処理では、測光装置4が検出する測光値分布に基づい
て主要被写体の上端位置を検出し、その適正範囲からの
ずれ量を指数化する。なお、以下の説明でも、上記と同
様に測光装置4の素子PSのうちX座標を同じくする素
子の列をy列と呼び、Y軸方向最下端から上側へj番目
のy列をyj列と表現する。
(2) Calculation processing of main subject defect index G2 The calculation processing of the main subject defect index G2 (step S204 in FIG. 11) will be described with reference to FIGS. Figure 1
As shown in FIG. 8 (a), the main subject (person in this example) X2 of the shooting screen P is largely separated from the upper end of the shooting screen P as shown in FIG. 8 (b), or vice versa.
If it is too close to the upper edge of the, composition failure will occur. In order to reflect such an element in the estimation of poor composition, FIG.
In the process (1), the upper end position of the main subject is detected based on the photometric value distribution detected by the photometric device 4, and the amount of deviation from the appropriate range is indexed. In the following description as well, the row of elements having the same X coordinate among the elements PS of the photometric device 4 will be referred to as the y row, and the j-th y row from the lowermost end in the Y-axis direction to the yj row will be referred to as the yj row. Express.

【0045】図17に示すように、指数G2の演算で
は、まずステップS241で走査列を指定する変数jを
初期値1に設定し、ステップS242でyj列の素子P
S(1,j)〜PS(m,j)の測光値を走査する。次
のステップS243では、yj列 において同一測光値B
vの素子PSがyj列の全素子数mのF%以上存在する
か 否か判断する。存在するときはステップS244に
進み、yj列を素子列yz1と定義してステップS246
へ進む。ステップS243の条件が満たされないときは
ステップS245へ進み、yj列を素子列yz0と定義し
てステップS246へ進む。同一測光値Bvか否かの判
断に際しては、図12,13の例と同様に一定の許容範
囲を設けてよい。
As shown in FIG. 17, in the calculation of the index G2, the variable j designating the scan row is first set to the initial value 1 in step S241, and the element P of the yj row is set in step S242.
The photometric values of S (1, j) to PS (m, j) are scanned. In the next step S243, the same photometric value B in the yj column
It is judged whether or not the element PS of v is present in F% or more of the total number m of elements in the yj column. If it exists, the process proceeds to step S244, the yj column is defined as the element column yz1, and the step S246 is performed.
Go to. If the condition of step S243 is not satisfied, the process proceeds to step S245, the yj column is defined as the element column yz0, and the process proceeds to step S246. When determining whether or not they have the same photometric value Bv, a certain allowable range may be provided as in the example of FIGS.

【0046】ステップS246では変数jがY軸方向の
素子数nに一致するか否か判断する。一致しなければス
テップS247で変数jに1を加算してステップS24
2へ戻る。一致するときはステップS248へ進む。ス
テップS248では、素子列yz0とyz1との境界が撮
影画面内に存在するか否かを判断する。存在していれば
ステップS249へ進み、境界が単数か否か判断する。
単数であればステップS250へ進み、境界位置を挟ん
で隣接する2つのy列のいずれか一方のY座標を境界座
標YLとして定義する。なお、本実施例では境界の下側
のy列のY座標を 界座標とした。続くステップS25
1では、下式により境界座標YLが適正範囲 内か否か判
断する。
In step S246, it is determined whether the variable j matches the number n of elements in the Y-axis direction. If they do not match, 1 is added to the variable j in step S247, and step S24
Return to 2. If they match, the process proceeds to step S248. In step S248, it is determined whether or not the boundary between the element arrays yz0 and yz1 exists within the shooting screen. If it exists, the process proceeds to step S249, and it is determined whether or not there is a single boundary.
If it is a single number, the process proceeds to step S250, and the Y coordinate of either one of two adjacent y columns across the boundary position is defined as the boundary coordinate YL. In this example, the Y coordinate of the y column below the boundary was used as the field coordinate. Continued Step S25
At 1, it is determined whether the boundary coordinate YL is within the proper range by the following formula.

【数3】K・n≦YL≦L・n[Equation 3] K ・ n ≦ YL ≦ L ・ n

【0047】上式を満たすときはステップS252へ進
み、指数G2=0とする。一方、上式を満たさないとき
はステップS253へ進み、座標YLに応じて指数G2を
設定する。この場合、座標YLが上式に示す適正範囲か
ら外れる量が大きいほど指数G2も大きくする。ステッ
プS252,253の後は図11に示す処理に復帰す
る。なお、F%は、測光装置4のX軸方向の素子数に応
じて定めるが、なるべく100%に近い値が好ましい。
係数K,Lは、撮影画面の上端から主要被写体の上端ま
での間隔の適正範囲を与えるもので、一般的なポートレ
ート撮影ではK=0.8,L=0.9程度が好適であ
る。
When the above equation is satisfied, the process proceeds to step S252 and the index G2 = 0. On the other hand, if the above equation is not satisfied, the process proceeds to step S253, and the index G2 is set according to the coordinate YL. In this case, the index G2 is increased as the amount by which the coordinate YL deviates from the appropriate range shown in the above equation. After steps S252 and S253, the process returns to the process shown in FIG. The F% is determined according to the number of elements in the X-axis direction of the photometric device 4, but a value as close to 100% as possible is preferable.
The coefficients K and L give an appropriate range of the distance from the upper end of the shooting screen to the upper end of the main subject, and in general portrait shooting, K = 0.8 and L = 0.9 are preferable.

【0048】図18(b)を参照して図17の処理の具
体例を説明する。図18(b)は、カメラが縦位置で、
測光装置4の素子PSの個数がn=30,m=20の場
合における素子PSと撮影画面Pとの対応関係を示した
もので、図中の斜線部分が主要被写体X2である。な
お、縦位置での素子数の取り扱いは図11のステップS
202の部分で既に説明した通りである。主要被写体X
2以外の背景部分は被写界深度から外れてボケるため、
背景部分に対応する素子は、主要被写体X2に対応する
素子よりも明るい一定の測光値Bv1を検出すると見做
す。また、F=100とした。
A specific example of the processing of FIG. 17 will be described with reference to FIG. In FIG. 18B, the camera is in the vertical position,
The correspondence between the elements PS and the photographic screen P when the number of elements PS of the photometric device 4 is n = 30 and m = 20 is shown, and the shaded portion in the figure is the main subject X2. The number of elements in the vertical position is handled in step S of FIG.
This is as already described in the section 202. Main subject X
Since the background part other than 2 is out of the depth of field and blurred,
The element corresponding to the background portion is regarded as detecting a constant photometric value Bv1 which is brighter than the element corresponding to the main subject X2. Further, F = 100.

【0049】図18(b)に示す撮影画面に対して図1
7の処理を適用した場合、y1列〜y19列に関しては、
主要被写体X2と背景が混在するために同一測光値Bv1
の素子PSがF(=100)%存在することはなく、ス
テップS243が否定される。このため、y1列〜y19
列はステップS245で素子列yz0として定義され
る。y20列〜y30列には背景のみが存在するため同一測
光値Bv1の素子がF%以上 存在し、ステップS243
が肯定される。このため、ステップS244でy20列〜
y30列は素子列yz1として定義される。そして、素子
列yz0とyz1との境 界が一箇所だけ存在するからス
テップS248,S249が肯定され、ステップS25
0で素子列yz0の上限であるy19列のY座標「19」
が境界座標YLとして定義される。
The photographing screen shown in FIG. 18B is shown in FIG.
When the process of 7 is applied, for columns y1 to y19,
Since the main subject X2 and the background are mixed, the same photometric value Bv1
The element PS does not exist in F (= 100)%, and the step S243 is denied. Therefore, column y1 to y19
The row is defined as the element row yz0 in step S245. Since only the background exists in the columns y20 to y30, there are F% or more elements having the same photometric value Bv1.
Is affirmed. Therefore, in step S244, the y20 column-
The y30 column is defined as the element column yz1. Then, since there is only one boundary between the element arrays yz0 and yz1, steps S248 and S249 are affirmed, and step S25
If 0, the Y coordinate of the y19 column, which is the upper limit of the element column yz0, is “19”
Is defined as the boundary coordinate YL.

【0050】次のステップS251にてK=0.8、L
=0.9とすれば、K・n=24、L・n=27である
からYL<K・nとなり、境界座標YLが適正範囲にない
と判断される。したがって、ステップS253で境界座
標YLとK・nとの差に応じた指数G2が設定される。
In the next step S251, K = 0.8, L
= 0.9, K · n = 24 and L · n = 27, so YL <K · n, and it is determined that the boundary coordinate YL is not within the proper range. Therefore, in step S253, the index G2 is set according to the difference between the boundary coordinates YL and Kn.

【0051】以上から明らかなように、図17の処理で
は単一のy列中に同一測光値BvがF%以上存在するか
否かによってそのy列中に主要被写体と背景とが混在す
るか否かが判別され、混在する素子列yz0と混在しな
い素子列yz1との境界が主要被写体の上端と見做され
る。そして、主要被写体の上端が適正範囲にないとき
は、適正範囲からのずれ量に応じて指数G2が設定され
る。したがって、指数G2は、主要被写体位置の不適切
な程度をよく示している。なお、人物の上半身等を撮影
するときは主要被写体よりも下側で背景に対応する素子
が100%近くを占めることはあり得ない。このため、
ステップS249により主要被写体か否かの誤判断が防
止される。
As is clear from the above, in the processing of FIG. 17, whether the main subject and the background are mixed in the y column depending on whether the same photometric value Bv is F% or more in the single y column. It is determined whether or not it is present, and the boundary between the mixed element row yz0 and the non-mixed element row yz1 is regarded as the upper end of the main subject. When the upper end of the main subject is not within the proper range, the index G2 is set according to the amount of deviation from the proper range. Therefore, the index G2 well indicates an inappropriate degree of the main subject position. It should be noted that when photographing the upper half of the body of a person, it is unlikely that elements corresponding to the background will occupy nearly 100% below the main subject. For this reason,
Step S249 prevents an erroneous determination as to whether the subject is the main subject.

【0052】(3)水平エッジ不良指数G3の演算処理 図19〜図22により水平エッジ不良指数G3の演算処
理(図11のステップS205)を説明する。図21に
示すように、撮影画面Pを上下に二分するエッジX3が
同図に二点鎖線L1で示すように撮影画面Pの中央を横
切り、あるいは二点鎖線L2で示すように撮影画面の水
平方向から傾くと構図不良を引き起こす。このような要
素を構図不良の推定に反映させるべく、図19,図20
の処理では、測光装置4の検出する測光値分布に基づい
て撮影画面中の水平エッジX3を検出 し、その位置や傾
きの不適切な程度を指数化する。なお、以下の説明で
は、測光装置4の素子PSのうちY座標を同じくする素
子の列をx列と呼び、X軸方向左端から右側へi番目の
x列をxi列と表現する。
(3) Calculation processing of horizontal edge defect index G3 The calculation processing of the horizontal edge defect index G3 (step S205 in FIG. 11) will be described with reference to FIGS. As shown in FIG. 21, an edge X3, which divides the shooting screen P into upper and lower parts, crosses the center of the shooting screen P as shown by a two-dot chain line L1 in the figure, or the horizontal direction of the shooting screen as shown by a two-dot chain line L2. Inclination from the direction causes composition failure. 19 and 20 in order to reflect such an element in the estimation of poor composition.
In the process (1), the horizontal edge X3 in the photographic screen is detected based on the photometric value distribution detected by the photometric device 4, and the inappropriate degree of its position and inclination is indexed. In the following description, a row of elements having the same Y coordinate among the elements PS of the photometric device 4 is called an x row, and the i-th x row from the left end in the X-axis direction to the right side is expressed as an xi row.

【0053】図19に示すように、水平エッジ不良指数
G3の演算では、まずステップS271でx1列およびx
m列を走査してそれぞれの測光値分布を検出する。x1列
は撮影画面の水平方向左端の素子列であり、xm列は右
端の素子列である。次のステップS272では、同一測
光値Bvの素子がT個以上連続するか否かをx1列、xm
列について判断する。x1列、xm列の双方がステップS
272の条件を満た すときはステップS273へ進
み、上記の条件に該当する測光値Bvおよび素子の位置
を記憶する。x1列、xm列のいずれか一方でもステップ
S272の条件を満たさないときはステップS284
(図20)へ進む。
As shown in FIG. 19, in the calculation of the horizontal edge defect index G3, first in step S271, the x1 column and the x1 column are calculated.
The m columns are scanned to detect the respective photometric value distributions. The x1 row is the element row at the left end in the horizontal direction of the photographing screen, and the xm row is the element row at the right end. In the next step S272, it is determined whether or not T or more elements having the same photometric value Bv continue, in the x1 column, xm.
Make decisions about columns. Steps S for both x1 and xm columns
When the condition of 272 is satisfied, the process proceeds to step S273, and the photometric value Bv and the position of the element corresponding to the above condition are stored. If the condition in step S272 is not satisfied in either the x1 column or the xm column, step S284.
Proceed to (Fig. 20).

【0054】ステップS274では、x1列、xm列に共
通する二種類の測光値Bv1、Bv2がステップS273
で記憶されたか否かを判断する。記憶されていればステ
ップS275へ進み、そうでなければステップS284
へ進む。ステップS275では測光値Bv1の素子と測
光値Bv2の素子とがx1列、xm列中で接しているか否
かを判断する。接していればステップS276へ進み、
そうでなければステップS284へ進む。ステップS2
76では、x1列における測光値Bv1,Bv2の素子の
接点のY座標をYa,Yb、xm列における測光値Bv
1,Bv2の素子の接点のY座標をYc,Ydとして定義
する。続くステップS277では、x1列、xm列の測光
値Bv1,Bv2の素子の上下関係を判別する判定値J
1,Jmを下式 により演算する。
In step S274, two types of photometric values Bv1 and Bv2 common to the x1 column and the xm column are obtained in step S273.
It is determined whether or not it is stored in. If it is stored, the process proceeds to step S275, and if not, step S284.
Go to. In step S275, it is determined whether the element having the photometric value Bv1 and the element having the photometric value Bv2 are in contact with each other in the x1 and xm columns. If so, go to step S276,
Otherwise, it proceeds to step S284. Step S2
At 76, the Y coordinates of the contact points of the elements of the photometric values Bv1 and Bv2 in the x1 column are Ya, Yb, and the photometric value Bv in the xm column.
The Y coordinate of the contact point of the element of 1 and Bv2 is defined as Yc and Yd. In the following step S277, a judgment value J for discriminating the vertical relationship of the elements of the photometric values Bv1 and Bv2 in the x1 and xm columns
Calculate 1 and Jm by the following formula.

【数4】J1=Ya−Yb Jm=Yc−Yd[Equation 4] J1 = Ya−Yb Jm = Yc-Yd

【0055】次のステップS278では、判定値J1,
Jmの正負符号が一致するか否かを判断する。一致して
いればステップS279へ進み、そうでなければステッ
プS274へ進む。ステップS279では、Ya,Yb
の小さい方をx1列における境界座標Yx1、Yc,Yd
の小さい方をxm列における境界座標Yxmとして定義す
る。続くステップS280(図20)では、下式により
撮影画面の左右端でのエッジのずれ量ΔYを演算し、そ
の値が許容値H0以下か否かを判断する。
In the next step S278, the judgment value J1,
It is determined whether the signs of Jm are the same. If they match, the process proceeds to step S279, and if not, the process proceeds to step S274. In step S279, Ya, Yb
The smaller of the two, the boundary coordinates Yx1, Yc, Yd in the x1 column
The smaller one is defined as the boundary coordinate Yxm in the xm column. In a succeeding step S280 (FIG. 20), an edge deviation amount ΔY at the left and right ends of the photographing screen is calculated by the following formula, and it is determined whether or not the value is equal to or less than an allowable value H0.

【数5】ΔY=|Yx1−Yxm|[Formula 5] ΔY = | Yx1−Yxm |

【0056】ずれ量ΔYが許容値H0以下であればステ
ップS281へ進み、下式により境界座標Yx1(Yxmに
代えてもよい)が不適切な範囲にあるか否かを判断す
る。
If the deviation amount ΔY is less than or equal to the allowable value H0, the process proceeds to step S281, and it is determined whether the boundary coordinate Yx1 (which may be replaced with Yxm) is in an inappropriate range according to the following equation.

【数6】P・n≦Yx1≦Q・n 係数P,Qは水平エッジX3が撮影画面の中央部を横切
るか否かを判別するためのもので、P=0.4、Q=
0.6程度が好適である。
[Equation 6] P · n ≦ Yx1 ≦ Q · n Coefficients P and Q are for determining whether or not the horizontal edge X3 crosses the central portion of the photographing screen, and P = 0.4 and Q =
About 0.6 is preferable.

【0057】ステップS281の条件が満たされるとき
はステップS282へ進み、指数G3を最大値に設定す
る。ステップS280が否定されたときはステップS2
83へ進み、ずれ量ΔYに応じて指数G3を設定する。
この場合、ずれ量ΔYが大きいほど指数G3も大きくす
る。その増加の程度は、ずれ量ΔYに比例して増加さ
せ、あるいはずれ量ΔYに対して二次以上の増加関数で
増加させてもよい。ステップS281が否定されたとき
はステップS284へ進む。ステップS284では指数
G3=0に設定する。ステップS282,S283,S
284の終了後は図11に示す処理へ復帰する。
When the condition of step S281 is satisfied, the process proceeds to step S282, and the index G3 is set to the maximum value. When step S280 is denied, step S2
Proceeding to 83, the index G3 is set according to the deviation amount .DELTA.Y.
In this case, the index G3 is increased as the deviation amount ΔY is increased. The degree of increase may be increased in proportion to the shift amount ΔY, or may be increased by a quadratic or more increasing function with respect to the shift amount ΔY. When step S281 is denied, it progresses to step S284. In step S284, the index G3 = 0 is set. Steps S282, S283, S
After the end of 284, the process returns to the process shown in FIG.

【0058】図22を参照して図19,図20の処理の
具体例を説明する。図22(a)は水平エッジX3が撮
影画面の中央を横切る構図、同図(b)は水平エッジX
3が傾く構図を測光装置4の素子PSの配列と対応させ
て示すものである。素子PSの配列は図15に示す通り
である。ステップS272での所定個数T=4とした。
簡単のため、水平エッジX3よりも上側の領域、下側の
領域では測光値が均一であると見做した。実際の撮影画
面では様々な測光値が検出されるが、水平線や地平線が
存在する場合にはその上下で測光値に明確な差が表われ
る。したがって、図19,図20の処理に際して同一測
光値Bvか否かを判断する許容幅を適当に設定し、ある
いは測光装置4の測光値を適当な閾値で二値化すれば、
撮影画面を図22のように見做すことができる。
A specific example of the processing of FIGS. 19 and 20 will be described with reference to FIG. 22A shows a composition in which the horizontal edge X3 crosses the center of the photographing screen, and FIG. 22B shows the horizontal edge X3.
The composition in which 3 is tilted is shown in correspondence with the arrangement of the elements PS of the photometric device 4. The arrangement of the elements PS is as shown in FIG. The predetermined number T = 4 in step S272 is set.
For the sake of simplicity, it is considered that the photometric values are uniform in the area above and below the horizontal edge X3. Although various photometric values are detected on the actual shooting screen, if there is a horizon or a horizon, there is a clear difference in the photometric values above and below that line. Therefore, in the processing of FIGS. 19 and 20, if the allowable range for judging whether or not the same photometric value Bv is set, or if the photometric value of the photometric device 4 is binarized with an appropriate threshold value,
The shooting screen can be regarded as shown in FIG.

【0059】図22(a)の撮影画面に図19,図20
の処理を適用した場合、ステップS271〜S273に
より、x1列に関して素子PS(1,1)〜PS(1,
10)が測光値Bv1の組として、素子PS(1,1
1)〜PS(1,20)が測光値 Bv2の組として記憶
される。x30列に関しては、素子PS(30,1)〜P
S (30,10)が測光値Bv1の組として、素子PS
(30,11)〜PS(3 0,20)が測光値Bv2の
組として記憶される。このようにx1列、x30列に共通
する二種類の測光値Bv1,Bv2が記憶され、測光値B
v1の素子と測光値B v2の素子とがx1列,x30列でそ
れぞれ接しているから、ステップS274,275が肯
定される。このため、ステップS276では、x1列の
素子PS(1, 10)、PS(1,11)のY座標
「10」,「11」がYa,Ybとして定義され、x30
列の素子PS(30,10)、PS(30,11)のY
座標「10」,「11」がYc,Ydとして定義され
る。これにより、ステップS277ではJ1=J30=−
1となり、いずれも負の値であるからステップS278
が肯定され、ステップS279でYx1=Ya=10、Y
xm=Yc=10となる。
The shooting screen shown in FIG. 22A is displayed on the screen shown in FIGS.
When the processing of step S271 to step S273 is applied, the elements PS (1,1) to PS (1,
10) is the element PS (1,1
1) to PS (1,20) are stored as a set of photometric values Bv2. For the x30 column, the elements PS (30,1) to P (30,1) to P
S (30,10) is a set of photometric values Bv1 and the element PS
(30,11) to PS (30,20) are stored as a set of photometric values Bv2. In this way, two types of photometric values Bv1 and Bv2 common to the x1 column and the x30 column are stored, and the photometric value B
Since the element of v1 and the element of the photometric value B v2 are in contact with the x1 column and the x30 column, respectively, steps S274 and 275 are affirmed. Therefore, in step S276, the Y coordinates "10" and "11" of the elements PS (1, 10) and PS (1, 11) in the x1 column are defined as Ya and Yb, and x30
Y of row elements PS (30,10) and PS (30,11)
The coordinates “10” and “11” are defined as Yc and Yd. As a result, in step S277, J1 = J30 =-
Since it is 1 and both are negative values, step S278
Is affirmed, and Yx1 = Ya = 10, Y in step S279.
xm = Yc = 10.

【0060】以上のYx1、Yxmに対して、ステップS2
80ではΔY=0となり、この値は許容値H0以内であ
るからステップS280が肯定される。ステップS28
1では、P=0.4、Q=0.6とすれば、n=20よ
りP・n=8、Q・n=12であり、Yx1=10だから
水平エッジG3が撮影画面の中央部を横切ることが判明
する。そして、ステップS282により指数G3が最大
値に設定される。
With respect to the above Yx1 and Yxm, step S2
At 80, ΔY = 0, and since this value is within the allowable value H0, step S280 is affirmed. Step S28
In 1, if P = 0.4 and Q = 0.6, P · n = 8 and Q · n = 12 from n = 20, and Yx1 = 10, so the horizontal edge G3 is in the center of the photographic screen. Turns out to cross. Then, in step S282, the index G3 is set to the maximum value.

【0061】図22(b)の撮影画面に対しては、ステ
ップS271〜S273によりx1列に関して素子PS
(1,1)〜PS(1,10)が測光値Bv1の組とし
て、素子PS(1,11)〜PS(1,20)が測光値
Bv2の組として記憶される。x30列に関しては、素子
PS(30,1)〜PS(30,4)が測光値Bv1の
組として、素子PS(30,5)〜PS(30,20)
が測光値Bv2の組とし て記憶される。この場合も、x
1列、x30列に共通する二種類の測光値Bv1,Bv2が
存在し、測光値Bv1,Bv2の素子の組がx1列,x30
列でそれぞれ接するからステップS274,275が肯
定され、ステップS276ではx1列のPS (1,1
0)、PS(1,11)のY座標「10」,「11」が
Ya,Ybとして定義され、x30列のPS(30,
4)、PS(30,5)のY座標「4」,「5」がY
c,Ydとして定義される。これにより、J1=J30=
−1となりい ずれも負の値であるからステップS27
8が肯定され、ステップS279でYx1=Ya=10、
Yxm=Yc=4となる。このようなYx1、Yxmに対し
て、ステップS280ではΔY=6となり、例えば許容
値H0=3であればステップS28 0は否定される。こ
のため、ステップS283でずれ量ΔYに応じた指数G
3が 設定される。
With respect to the photographing screen of FIG. 22 (b), the element PS for the x1 column is processed by steps S271 to S273.
(1,1) to PS (1,10) are stored as a set of photometric values Bv1, and elements PS (1,11) to PS (1,20) are stored as a set of photometric values Bv2. Regarding the x30 column, the elements PS (30,1) to PS (30,4) have the photometric value Bv1.
As a set, elements PS (30,5) to PS (30,20)
Are stored as a set of photometric values Bv2. Again, x
There are two types of photometric values Bv1 and Bv2 that are common to the 1st row and the x30 row, and the set of elements having the photometric values Bv1 and Bv2 is the x1 row and the x30 row.
Steps S274 and 275 are affirmative because they touch each other in the row, and in step S276, PS (1,1
0) and PS (1,11) Y coordinates “10” and “11” are defined as Ya and Yb, and PS (30,
4), Y coordinates “4” and “5” of PS (30, 5) are Y
c, Yd. As a result, J1 = J30 =
Since it is -1, the difference is also a negative value, so step S27
8 is affirmed, and Yx1 = Ya = 10 in step S279,
Yxm = Yc = 4. For such Yx1 and Yxm, ΔY = 6 in step S280, and step S280 is denied if the allowable value H0 = 3, for example. Therefore, in step S283, the index G corresponding to the shift amount ΔY
3 is set.

【0062】以上から明らかなように、図19,図20
の処理では撮影画面の水平方向両端のx1列,xm列に、
これらの素子列を上下に二分するエッジが存在するか否
かがステップS271〜ステップS275により判断さ
れ、そのようなエッジが存在するときには、x1列,xm
列の測光値の上下関係によりx1列,xm列のエッジを同
一の水平エッジX3と見做してよいか否かがステップS
276〜ステップS278で判断される。同一の水平エ
ッジX3と判断されたときはステップS279でその両
端のY座標がYx1、Yxmとして定義される。そして、水
平エッジX3の傾きがY座標Yx1、Yxmのずれ量ΔYと
して演算され、ずれ量ΔYが許容値H0を越えるときは
ずれが大きいほど指数G3が大きく設定される。水平エ
ッジX3の傾きが許容範囲であっても、それが撮影画面
の中央部を横切るときにはステップS281,ステップ
S282により指数G3が最大値に設定される。したが
って、指数G3は、水平エッジX3の位置や傾きが構図不
良に与える影響の大きさをよく示している。
As is clear from the above, FIG. 19 and FIG.
In the processing of, in the x1 and xm columns at the horizontal ends of the shooting screen,
It is determined in steps S271 to S275 whether or not there is an edge that divides these element rows into upper and lower parts. If such an edge exists, x1 row, xm
It is determined in step S whether the edges of the x1 and xm columns may be regarded as the same horizontal edge X3 due to the vertical relationship of the photometric values of the columns.
It is determined in steps 276 to S278. When it is determined that they are the same horizontal edge X3, the Y coordinates of both ends thereof are defined as Yx1 and Yxm in step S279. Then, the inclination of the horizontal edge X3 is calculated as the deviation amount ΔY of the Y coordinates Yx1 and Yxm. When the deviation amount ΔY exceeds the allowable value H0, the larger the deviation is, the larger the index G3 is set. Even if the inclination of the horizontal edge X3 is within the allowable range, the index G3 is set to the maximum value in steps S281 and S282 when the horizontal edge X3 crosses the central portion of the photographing screen. Therefore, the index G3 well indicates the magnitude of the influence of the position and inclination of the horizontal edge X3 on the poor composition.

【0063】以上説明したように、本実施例によれば、
柱状物の傾き、主要被写体の位置、水平エッジの位置お
よび傾きが構図不良条件に該当する程度が高くなるほど
構図不良指数Gが大きくなり、図10に示すステップS
26またはステップS27で構図不良指数Gが基準値
p,q以上となってステップS25により警告が発せら
れる可能性が高まる。撮影画面内に存在するエッジの種
類毎に固有の構図不良条件が設定され、それらとの対比
でエッジ毎に指数G1〜G3が演算されるので、従来例よ
りも多彩かつ正確に構図不良を推定できる。
As described above, according to this embodiment,
The composition failure index G increases as the degree to which the tilt of the columnar object, the position of the main subject, the position of the horizontal edge, and the tilt satisfy the composition failure condition increases, and step S shown in FIG.
26 or the composition failure index G becomes equal to or greater than the reference values p and q in step S27, the possibility that a warning is issued in step S25 increases. Unique composition failure conditions are set for each type of edge present in the shooting screen, and the indices G1 to G3 are calculated for each edge in comparison with these conditions, so composition failure is estimated more versatilely and more accurately than in the conventional example. it can.

【0064】本実施例では、基準値p>qのため撮影倍
率βが判定撮影倍率a以上のときに構図良好と判断され
る可能性が高くなる。これは、撮影倍率βが大きくなる
と主要被写体が大きくなって背景中のエッジが構図の良
否に与える影響が減少するためである。β≧aのとき離
散指数Eの演算を省略するのは、撮影倍率βが大きくな
ると撮影画面の周辺を注視する必要性が低下するため、
離散指数Eの演算に要する時間を省略して無駄時間の発
生を防止したためである。ただし、β≧aのときでも離
散指数Eを演算し、その大小に応じて警告を与えるよう
にしてもよい。β<aの場合、第1実施例のように離散
指数Eを演算するルートを撮影倍率βに応じて2以上に
分割してもよい。反対にβ<aの場合でも離散指数Eの
演算を省略してもよい。撮影モードに応じて構図不良条
件(例えば水平エッジX3の傾きの許容範囲)を変更す
ることにより、撮影モード毎により正確な構図良否の推
定が可能となる。指数G1〜G3と基準値p,qとの関係
は、指数G1〜G3の最大値よりも基準値p,qを小さく
設定し、あるいは指数G1〜G3の最大値よりも基準値
p,qを大きく設定してもよい。
In the present embodiment, since the reference value p> q, the composition is likely to be judged to be good when the photographing magnification β is equal to or larger than the judgment photographing magnification a. This is because as the shooting magnification β becomes larger, the main subject becomes larger and the influence of the edge in the background on the quality of the composition is reduced. The reason why the calculation of the discrete index E is omitted when β ≧ a is that the necessity of gazing at the periphery of the shooting screen decreases as the shooting magnification β increases.
This is because the time required to calculate the discrete exponent E is omitted to prevent the occurrence of dead time. However, even when β ≧ a, the discrete exponent E may be calculated and a warning may be given according to the magnitude. When β <a, the route for calculating the discrete exponent E may be divided into two or more according to the photographing magnification β as in the first embodiment. On the contrary, the calculation of the discrete exponent E may be omitted even when β <a. By changing the composition failure condition (for example, the allowable range of the inclination of the horizontal edge X3) according to the shooting mode, it is possible to more accurately estimate the composition quality for each shooting mode. Regarding the relationship between the indexes G1 to G3 and the reference values p and q, the reference values p and q are set smaller than the maximum values of the indexes G1 to G3, or the reference values p and q are set to be smaller than the maximum values of the indexes G1 to G3. It may be set large.

【0065】上述した指数G1〜G3の演算は、1または
2種類を選択的に実行してもよい。例えば撮影倍率βが
大きいときはポートレート撮影の可能性が大きくて背景
に考慮を払う必要性が薄れるのに対して、撮影倍率βが
小さいときは背景の影響が大きいので、図10のステッ
プS11が肯定されたときには主要被写体不良指数G2
のみを演算し、ステップS11が否定されたときには水
平エッジ不良指数G3のみを演算してもよい。撮影モー
ドがポートレートモードのときに主要被写体不良指数G
2を、風景モードのときに水平エッジ不良指数G3を、記
念撮影モードのときに柱状物不良指数G1を演算するな
ど、撮影モードに応じて演算手順を使い分けてもよい。
The above-described calculation of the indexes G1 to G3 may be selectively executed by one or two kinds. For example, when the shooting magnification β is large, the possibility of portrait shooting is high and it is less necessary to pay attention to the background. On the other hand, when the shooting magnification β is small, the influence of the background is large. Is affirmative, the main subject defect index G2
Only the horizontal edge defect index G3 may be calculated when step S11 is denied. Main subject defect index G when shooting mode is portrait mode
2, the horizontal edge defect index G3 may be calculated in the landscape mode, and the columnar object defect index G1 may be calculated in the commemorative photographing mode.

【0066】−第3実施例− 図23〜図27を参照して本発明の第3実施例を説明す
る。上述した第1実施例、第2実施例との共通部分には
同一符号を付し、説明を省略する。
-Third Embodiment- A third embodiment of the present invention will be described with reference to FIGS. The same parts as those of the first and second embodiments described above are designated by the same reference numerals and the description thereof will be omitted.

【0067】図23に示すように、本実施例では表示装
置9にブレ警告装置9Bと構図修正指示表示装置9Cと
が設けられる。CPU1は撮影に先立って後述する修正
方向検出処理を実行し、測光装置4が検出する測光値の
分布に基づいて構図の修正方向を検出する。その結果が
構図修正指示表示装置9Cにより表示される。
As shown in FIG. 23, in this embodiment, the display device 9 is provided with a shake warning device 9B and a composition correction instruction display device 9C. Prior to photographing, the CPU 1 executes a correction direction detection process, which will be described later, and detects the correction direction of the composition based on the distribution of the photometric values detected by the photometric device 4. The result is displayed by the composition correction instruction display device 9C.

【0068】ブレ警告装置9Bおよび構図修正指示表示
装置9Cを図24に示す。図24の装置では、カメラの
ファインダ視野FSの左側および上側に表示器90,9
1が設けられる。表示器90は三角形状の方向指示灯9
0U,90Lと、これらの間に配置された円形の中心灯
90Cとを備える。カメラを撮影画面の短辺方向(図の
上下方向)に振って構図を修正すべきときは、修正方向
に対応する側の方向指示灯90Uまたは方向指示灯90
Lが点灯する。短辺方向へカメラを動かす必要がないと
きは中心灯90Cが点灯する。表示器91は三角形状の
方向指示灯91R,91Lと、これらの間に配置された
円形の中心灯91Cとを備える。カメラを撮影画面の長
辺方向(図の左右方向)に振って構図を修正すべきとき
は、修正方向に対応する側の方向指示灯91Rまたは方
向指示灯91Lが点灯する。撮影画面の長辺方向にカメ
ラを動かす必要がないときは中心灯91Cが点灯する。
ブレ警告を行なうときは、表示器90,91の全灯が点
滅する。構図確認を催促するときは表示器90,91の
全灯が点灯したままとなる。
FIG. 24 shows the shake warning device 9B and the composition correction instruction display device 9C. In the device of FIG. 24, the display devices 90, 9 are provided on the left side and the upper side of the viewfinder field FS of the camera.
1 is provided. The display 90 is a triangular direction indicator light 9.
0U and 90L, and a circular center lamp 90C arranged between them. When the camera should be shaken in the direction of the short side of the shooting screen (vertical direction in the figure) to correct the composition, the direction indicator light 90U or the direction indicator light 90 on the side corresponding to the correction direction
L lights up. When it is not necessary to move the camera in the short side direction, the center lamp 90C is turned on. The display 91 includes triangular direction indicator lights 91R and 91L, and a circular center lamp 91C disposed between them. When the composition is to be corrected by shaking the camera in the long side direction (left and right direction of the drawing) of the photographing screen, the direction indicator lamp 91R or 91L on the side corresponding to the correction direction is turned on. When it is not necessary to move the camera in the long side direction of the shooting screen, the center lamp 91C lights up.
When performing the shake warning, all the lights of the display devices 90 and 91 blink. When the composition confirmation is urged, all the lights of the display devices 90 and 91 remain lit.

【0069】図25は本実施例のCPU1による構図推
定手順の一部を示すものである。図中のステップS1
1、ステップS22、ステップS23は図10中の同一
ステップと共通し、図中のステップS17,18は図8
中の同一ステップと共通するので説明を省略する。ステ
ップS11よりも前段階では図4に示すステップS1〜
ステップS10が実行される。
FIG. 25 shows a part of the composition estimation procedure by the CPU 1 of this embodiment. Step S1 in the figure
1, step S22 and step S23 are common to the same step in FIG. 10, and steps S17 and 18 in the figure are the same as those in FIG.
The description is omitted because it is the same as the same step. At steps prior to step S11, steps S1 to S1 shown in FIG.
Step S10 is executed.

【0070】本実施例では、ステップS11で撮影倍率
βが判定撮影倍率a以上と判断したとき、およびステッ
プS23で離散指数Eが基準値h以上と判断したときス
テップS31へ進んで構図修正方向の検出処理を行う。
この処理の詳細は後述する。ステップS32では、ステ
ップS31で構図の修正方向が特定されたか否かを判断
する。修正方向が特定されているときはステップS33
へ進み、その方向への修正を表示器90または91で表
示する。ステップS32で修正方向がないと判断したと
きはステップS34へ進み、構図良好表示を行う。
In the present embodiment, when it is determined in step S11 that the shooting magnification β is greater than or equal to the determination shooting magnification a, and when it is determined in step S23 that the discrete index E is greater than or equal to the reference value h, the process proceeds to step S31. Perform detection processing.
Details of this processing will be described later. In step S32, it is determined whether or not the composition correction direction is specified in step S31. If the correction direction is specified, step S33.
Then, the display 90 or 91 displays the correction in that direction. If it is determined in step S32 that there is no correction direction, the flow advances to step S34 to display a good composition.

【0071】図26は構図修正方向検出処理の詳細を示
すものである。この処理では、主要被写体の上端と撮影
画面の上端との間隔を適正に保つために必要な修正方向
を検出する。以下の説明において、撮影画面のX軸方
向、Y軸方向や測光装置4の素子PSの配置に関する表
現は第2実施例と共通である。
FIG. 26 shows details of the composition correction direction detection processing. In this process, the correction direction necessary for properly maintaining the distance between the upper end of the main subject and the upper end of the shooting screen is detected. In the following description, the expressions regarding the X-axis direction and the Y-axis direction of the shooting screen and the arrangement of the elements PS of the photometric device 4 are common to the second embodiment.

【0072】図示の処理では、まずステップS301に
おいて、測光装置4が検出する測光値の分布に基づい
て、撮影画面内での主要被写体の上端のY座標YLを求
める。この処理は図17のステップS241〜ステップ
S250までと同じである。すなわち、ステップS30
1では図17のステップS250における境界座標YL
を求める。座標YLを求めた後はステップS302へ進
み、図17のステップS251と同じく座標YLが適正
範囲にあるか否か判断する。座標YLが適正範囲にない
ときはステップS303へ進み、座標YLが適正範囲の
下限(K・n)未満か否か判断する。下限(K・n)未
満であればステップS304へ進み、修正方向を「下」
とする。一方、座標YLが下限(K・n)未満でなけれ
ばステップS305へ進み、修正方向を「上」とする。
ステップS302で座標YLが適正範囲のときはステッ
プS306へ進み、「修正方向なし」とする。ステップ
S304〜ステップS306の終了後は図25の処理に
戻る。なお、ステップS301の座標YLの検出処理に
おいて、図17のステップS248,ステップS249
に対応する条件が否定された場合はステップS306に
進む。
In the illustrated process, first, in step S301, the Y coordinate YL of the upper end of the main subject in the photographic screen is obtained based on the distribution of photometric values detected by the photometric device 4. This process is the same as steps S241 to S250 in FIG. That is, step S30
1, the boundary coordinate YL in step S250 of FIG.
Ask for. After obtaining the coordinate YL, the process proceeds to step S302, and it is determined whether the coordinate YL is within the proper range as in step S251 of FIG. When the coordinate YL is not in the proper range, the process proceeds to step S303, and it is determined whether the coordinate YL is less than the lower limit (K · n) of the proper range. If it is less than the lower limit (K · n), the process proceeds to step S304, and the correction direction is “down”.
And On the other hand, if the coordinate YL is not less than the lower limit (K · n), the process proceeds to step S305 and the correction direction is set to “up”.
If the coordinate YL is within the proper range in step S302, the process proceeds to step S306 and "no correction direction" is set. After completion of steps S304 to S306, the process returns to the process of FIG. Note that in the detection process of the coordinate YL in step S301, steps S248 and S249 in FIG.
If the condition corresponding to is denied, the process proceeds to step S306.

【0073】以上の処理によれば、主要被写体の上端位
置が適正範囲よりも下側に外れているときに修正方向
「下」が表示器90または91で表示され、反対に上側
に外れているときは修正方向「上」が表示器90または
91で表示される。例えば図27(a)の構図では、主
要被写体X2が撮影画面Pの下側に偏っているので、修
正方向「下」と判断されて表示器90の表示灯90Lが
点灯する。表示器91側は中心灯91Cが点灯する。表
示器90の指示にしたがってカメラを下側へ振ると、撮
影画面内で主要被写体X2が上側へ相対移動する。図2
7(b)に示すように主要被写体X2が適正範囲に入っ
た状態で構図修正方向の検出が繰り返されると、修正方
向なしと判断されて表示器90の中心灯90Cが点灯す
る。
According to the above processing, when the upper end position of the main subject is out of the proper range, the correction direction "down" is displayed on the display device 90 or 91, and on the contrary, it is out of the upper range. At this time, the correction direction “up” is displayed on the display 90 or 91. For example, in the composition of FIG. 27A, since the main subject X2 is biased to the lower side of the shooting screen P, it is determined that the correction direction is “down”, and the indicator lamp 90L of the display 90 is turned on. The center lamp 91C lights on the display 91 side. When the camera is swung downward according to the instruction of the display device 90, the main subject X2 moves relatively upward in the shooting screen. Figure 2
If the composition correction direction is repeatedly detected with the main subject X2 within the proper range as shown in 7 (b), it is determined that there is no correction direction, and the center lamp 90C of the display 90 is turned on.

【0074】本実施例のように構図の修正方向を指示す
る場合には、撮影者が構図不良の典型例を知らないとき
でも、カメラの表示にしたがうだけで構図が良好な写真
を撮影できる。なお、表示器90,91のいずれを用い
るかはカメラの姿勢により決定する。すなわち、カメラ
の横位置では表示器90を用いて上下の修正を指示し、
縦位置では表示器91により上下の修正を指示する。
In the case of instructing the composition correction direction as in the present embodiment, even if the photographer does not know a typical example of poor composition, a photograph with a good composition can be taken only by following the display on the camera. Which of the display devices 90 and 91 is used is determined by the attitude of the camera. That is, in the horizontal position of the camera, the display 90 is used to instruct up / down correction,
In the vertical position, the display 91 gives an instruction to correct up and down.

【0075】以上の例では主要被写体の位置に関する修
正方向のみを検出したが、上述した第2実施例における
指数G1,G3の演算を応用すれば図14に示す柱状物X
1や図21に示す水平エッジX3の傾きの修正方向も検出
できる。それらの例を図28,図29により説明する。
In the above example, only the correction direction relating to the position of the main subject is detected, but if the calculation of the indexes G1 and G3 in the second embodiment is applied, the columnar object X shown in FIG.
The correction direction of the inclination of the horizontal edge X3 shown in 1 or FIG. 21 can also be detected. Examples of these will be described with reference to FIGS. 28 and 29.

【0076】図28は柱状物の修正方向検出手順を示す
ものである。この例では、まずステップS311で、測
光装置4が検出する測光値の分布に基づいて、撮影画面
内の柱状物の傾きを検出する。この処理は、図12,図
13に示す柱状物不良指数G1の演算手順におけるステ
ップS211〜ステップS223までの処理と同じであ
る。すなわち、ステップS311では図13のステップ
S223におけるずれ量ΔXL,ΔXRを演算する。
FIG. 28 shows a procedure for detecting the correction direction of a columnar object. In this example, first, in step S311, the tilt of the columnar object in the photographing screen is detected based on the distribution of the photometric values detected by the photometric device 4. This processing is the same as the processing from step S211 to step S223 in the calculation procedure of the columnar object defect index G1 shown in FIGS. That is, in step S311, the shift amounts ΔXL and ΔXR in step S223 of FIG. 13 are calculated.

【0077】ずれ量ΔXL,ΔXRが求められると、続く
ステップS312で両者の正負符号が一致するか否かを
判断する。正負が一致していないと柱状物の左右の傾き
方向が相違し、修正方向を特定できないからである。ス
テップS312で正負が一致すると判断したときはステ
ップS313へ進み、ずれ量ΔXR(ΔXLに代えてもよ
い)が正の値か否か判断する。正の値であればステップ
S314へ進み、修正方向を時計方向とする。ずれ量Δ
XRが負の値であれば修正方向を反時計方向とする。ス
テップS312で正負が一致していないときはステップ
S316へ進み、「修正方向なし」とする。ステップS
311において、図12のステップS218,219に
対応する条件が否定されたときもステップS316へ進
む。
When the deviation amounts ΔXL and ΔXR are obtained, it is determined in a succeeding step S312 whether or not the positive and negative signs of the both agree with each other. This is because if the positive and negative signs do not match, the left and right inclination directions of the columnar object are different, and the correction direction cannot be specified. When it is determined in step S312 that the positive and negative values match, the process proceeds to step S313, and it is determined whether the deviation amount ΔXR (which may be replaced by ΔXL) is a positive value. If it is a positive value, the process proceeds to step S314 and the correction direction is set to the clockwise direction. Deviation amount Δ
If XR is negative, the correction direction is counterclockwise. When the positive and negative signs do not match in step S312, the process proceeds to step S316 and "no correction direction" is set. Step S
When the condition corresponding to steps S218 and 219 of FIG. 12 is denied in 311, the process also proceeds to step S316.

【0078】図16から明らかなように、柱状物X1が
撮影画面の左側へ傾くときはXc<Xaのためにずれ量
ΔXRが負の値となり、反対に撮影画面の右側へ傾くと
きはXc>Xaでずれ量ΔXRが正の値となる。柱状物
X1が左側に傾くときは撮影画面の中心部を軸としてカ
メラを反時計方向に回せば傾きが小さくなり、傾きが反
対のときはカメラを時計方向に回せばよい。図28の処
理では、ステップS313にてずれ量ΔXRが負のとき
は反時計方向に、正のときは時計方向に修正方向を定め
るので、柱状物X1の傾きを修正する方向を撮影者に対
して正確に指示できる。
As is clear from FIG. 16, when the columnar object X1 is tilted to the left side of the photographing screen, Xc <Xa is a negative value because of Xa, and when it is tilted to the right side of the photographing screen, Xc>. The shift amount ΔXR becomes a positive value at Xa. When the pillar X1 tilts to the left, the tilt can be reduced by rotating the camera counterclockwise around the center of the photographing screen, and when the tilt is opposite, the camera can be rotated clockwise. In the process of FIG. 28, the correction direction is set to the counterclockwise direction when the deviation amount ΔXR is negative and to the clockwise direction when the deviation amount is positive in step S313. Therefore, the direction for correcting the inclination of the columnar object X1 is set for the photographer. Can be specified accurately.

【0079】図29は水平エッジの修正方向検出手順を
示すものである。この例では、まずステップS321
で、測光装置4が検出する測光値の分布に基づいて撮影
画面内の水平エッジの位置を検出する。この処理は、図
19に示す水平エッジ不良指数G3の演算手順における
ステップS271〜ステップS279までの処理と同じ
である。すなわち、ステップS321では、図19のス
テップS279における水平エッジX3の左右端のY座
標Yx1,Yxmを演算する。
FIG. 29 shows the procedure for detecting the correction direction of the horizontal edge. In this example, first, step S321.
Then, the position of the horizontal edge in the photographing screen is detected based on the distribution of the photometric values detected by the photometric device 4. This processing is the same as the processing from step S271 to step S279 in the calculation procedure of the horizontal edge defect index G3 shown in FIG. That is, in step S321, the Y coordinates Yx1 and Yxm of the left and right ends of the horizontal edge X3 in step S279 of FIG. 19 are calculated.

【0080】続くステップS322では、図20のステ
ップS280と同じく水平エッジX3の傾きに対応した
ずれ量ΔYが許容値H0以下か否かを判断する。許容値
H0を越えると判断したときはステップS323へ進
み、水平エッジX3の左端のY座標Yx1が、右端のY座
標Yxmよりも小さいか否か判断する。小さければステッ
プS324へ進み、修正方向を反時計方向とする。座標
Yx1が座標Yxm未満でないときはステップS325へ進
み、修正方向を時計方向とする。ステップS322で傾
きが許容値H0以下のときはステップS326へ進み、
修正方向なしとする。ステップS321において、図1
9のステップS272,S274,S275,S278
に対応する条件が否定されたときもステップS326へ
進む。
In the following step S322, it is determined whether the deviation amount ΔY corresponding to the inclination of the horizontal edge X3 is equal to or less than the allowable value H0, as in step S280 of FIG. When it is determined that the allowable value H0 is exceeded, the process proceeds to step S323, and it is determined whether the Y coordinate Yx1 at the left end of the horizontal edge X3 is smaller than the Y coordinate Yxm at the right end. If it is smaller, the process proceeds to step S324, and the correction direction is set to the counterclockwise direction. If the coordinate Yx1 is not less than the coordinate Yxm, the process proceeds to step S325 and the correction direction is set to the clockwise direction. When the inclination is equal to or less than the allowable value H0 in step S322, the process proceeds to step S326,
There is no correction direction. In step S321, FIG.
9 Steps S272, S274, S275, S278
Also when the condition corresponding to is denied, the process proceeds to step S326.

【0081】図22(b)に示すように水平エッジX3
が右下がりに傾くときはYx1>Yxmとなるためにステッ
プS323が否定され、ステップS325で構図修正方
向が時計方向となる。反対に水平エッジX3が左下がり
に傾くときはYx1<YxmのためにステップS323が肯
定され、ステップS324で構図修正方向が反時計方向
となる。水平エッジX3が右下がりに傾くときはカメラ
を撮影画面の中心部を軸として時計方向に回せば傾きが
小さくなり、傾きが反対のときはカメラを反時計方向に
回せばよい。したがって、図29の処理によれば水平エ
ッジX3の傾きを修正する方向を撮影者に対して正確に
指示できる。なお、ステップS322が肯定されたとき
に図20のステップS281を実行し、水平エッジX3
が撮影画面の中央を横切る場合にはその旨を別に警告し
てもよい。
As shown in FIG. 22B, the horizontal edge X3
Is tilted downward to the right, Yx1> Yxm is satisfied, and thus step S323 is denied, and the composition correction direction is clockwise in step S325. On the contrary, when the horizontal edge X3 tilts to the lower left, Yx1 <Yxm is satisfied, and thus step S323 is positive, and in step S324, the composition correction direction is the counterclockwise direction. When the horizontal edge X3 tilts downward to the right, the tilt can be reduced by turning the camera clockwise around the center of the photographing screen, and when the tilt is opposite, the camera can be turned counterclockwise. Therefore, according to the processing of FIG. 29, it is possible to accurately instruct the photographer of the direction for correcting the inclination of the horizontal edge X3. When step S322 is affirmed, step S281 of FIG. 20 is executed, and the horizontal edge X3
If is crossing the center of the shooting screen, a separate warning may be issued to that effect.

【0082】上述した図28,図29の処理は、図26
の処理に代え、あるいは図26の処理に追加して行うこ
とができる。ただし、複数の処理を実行する場合、例え
ば柱状物X1に対応する修正方向が時計方向で水平エッ
ジX3に対応する修正方向が反時計方向の場合等、各処
理で検出した修正方向が相互に矛盾することがあり得
る。このような場合には、例えば修正方向なしとするな
どの対応が必要である。修正方向として回転方向を指示
するためには、図30に示す表示器92,93を用いる
とよい。
The processing of FIGS. 28 and 29 described above is the same as that of FIG.
It is possible to perform the processing in place of or in addition to the processing in FIG. However, when a plurality of processes are executed, for example, when the correction direction corresponding to the columnar object X1 is clockwise and the correction direction corresponding to the horizontal edge X3 is counterclockwise, the correction directions detected in the respective processes conflict with each other. It is possible that In such a case, it is necessary to take measures such as no correction direction. In order to indicate the rotation direction as the correction direction, it is preferable to use the indicators 92 and 93 shown in FIG.

【0083】図30の例では、カメラのファインダ視野
FSの左右に一対の表示器92,93が設けられる。表
示器92,93は、撮影画面の短辺方向上側を向く矢印
状の方向指示灯92U,93Uと、下側を向く矢印状の
方向指示灯92L,93Lと、撮影画面の長辺方向外側
を向く方向指示灯92SR、93SLを備える。これら
の指示灯には、LEDなどカメラのファインダ内表示に
用いられる周知の発光手段を用いてよい。
In the example of FIG. 30, a pair of indicators 92 and 93 are provided on the left and right of the viewfinder field FS of the camera. The display devices 92 and 93 include arrow-shaped direction indicator lights 92U and 93U facing upward in the short side direction of the photographing screen, arrow-shaped direction indicator lights 92L and 93L facing downward, and the outside in the long side direction of the photographing screen. Equipped with turn indicators 92SR and 93SL. For these indicator lights, well-known light emitting means used for display in the viewfinder of the camera such as LEDs may be used.

【0084】以上の表示器92,93によれば、方向指
示灯92U,93Uの点灯で上側への修正を、方向指示
灯92L,93Lの点灯で下側への修正を、方向指示灯
92SRの点灯で右側への修正を、方向指示灯92SL
の点灯で左側への修正を指示できる。また、方向指示灯
92U,93Lの同時点灯で反時計方向への修正を、方
向指示灯92L,93Uの同時点灯で時計方向への修正
を指示できる。
According to the above indicators 92 and 93, when the direction indicator lights 92U and 93U are lit, upward correction is performed, and when the direction indicators 92L and 93L are lit, downward correction is performed. Illumination corrects to the right, direction indicator light 92SL
You can instruct the correction to the left by illuminating. Further, it is possible to instruct the counterclockwise correction by simultaneously turning on the direction indicator lights 92U and 93L, and the clockwise correction by simultaneously turning on the direction indicator lights 92L and 93U.

【0085】例えば図31(a)の構図では、柱状物X
1が撮影画面Pの左側へ傾くので方向指示灯92Uと9
3Lとを同時に点灯させる。これらの指示にしたがって
カメラを反時計方向へ回転させれば、同図(b)に示す
ように柱状物X1の傾きが修正される。図32(a)の
構図では水平エッジX3が撮影画面P内で右下がりに傾
くので、方向指示灯93Uと92Lとを同時に点灯させ
る。これらの指示にしたがってカメラを時計方向へ回転
させれば、同図(b)に示すように水平エッジX3の傾
きが修正される。
For example, in the composition of FIG.
Since 1 tilts to the left of the shooting screen P, the direction indicator lights 92U and 9
Simultaneously turn on 3L. When the camera is rotated counterclockwise according to these instructions, the inclination of the columnar object X1 is corrected as shown in FIG. In the composition of FIG. 32 (a), the horizontal edge X3 is tilted downward to the right in the photographing screen P, so that the direction indicators 93U and 92L are turned on at the same time. When the camera is rotated clockwise according to these instructions, the inclination of the horizontal edge X3 is corrected as shown in FIG.

【0086】なお、構図修正の必要がないときは全ての
指示灯を消灯する。ブレ警告を行うときは全ての指示灯
を点滅させる。離散指数Eに基づく構図確認の催促を行
うときは全ての指示灯を点灯させればよい。
When it is not necessary to correct the composition, all the indicator lights are turned off. Blink all indicator lights when giving a shake warning. When urging the composition confirmation based on the discrete index E, all the indicator lights may be turned on.

【0087】−第4実施例−図33および図34により
本発明の第4実施例を説明する。なお、本実施例は、C
PU1により上述した各実施例とは異なる構図推定処理
を行うものである。したがって、以下では構図推定処理
の特徴部分を中心に説明する。
Fourth Embodiment A fourth embodiment of the present invention will be described with reference to FIGS. 33 and 34. In this example, C
PU1 performs composition estimation processing different from the above-described embodiments. Therefore, the characteristic part of the composition estimation processing will be mainly described below.

【0088】図33は本実施例の構図推定処理手順を示
すものである。図4に示す第1実施例と対比すると、ス
テップS41はステップS1に、ステップS42はステ
ップS3に、ステップS43はステップS4に、ステッ
プS44はステップS6に、ステップS45はステップ
S7に対応する。そして、ステップS45でブレ量が適
正範囲にないと判断したときにはステップS52へ進
み、手ブレ警告を行う。
FIG. 33 shows the composition estimation processing procedure of this embodiment. In comparison with the first embodiment shown in FIG. 4, step S41 corresponds to step S1, step S42 corresponds to step S3, step S43 corresponds to step S4, step S44 corresponds to step S6, and step S45 corresponds to step S7. Then, when it is determined in step S45 that the blurring amount is not within the proper range, the process proceeds to step S52, and a camera shake warning is issued.

【0089】ステップS45でブレ量が適正範囲と判断
したときはステップS46へ進み、視線検出装置2が検
出する視線に基づいて撮影者の注視点分布を求める。こ
の処理は、図6のステップS101〜ステップS108
までに相当する。すなわち、図3(c)に示す領域W毎
の注視点存在時間t(i,j)を求めるものである。注
視点分布を求めた後はステップS47へ進み、注視点存
在時間t(i,j)が最も大きい領域W(i,j)を主
要被写体の位置として特定する。例えば人物を主要被写
体とする撮影では、人物の顔に注視点が集中するので、
上記の処理により主要被写体位置をほぼ正確に特定でき
る。主要被写体が人物以外の場合でもそこに注視点が集
中することは同じであり、上記の処理がそのまま適用で
きる。
When it is determined in step S45 that the blurring amount is within the proper range, the process proceeds to step S46, and the gazing point distribution of the photographer is obtained based on the line of sight detected by the line-of-sight detecting device 2. This process is performed by steps S101 to S108 of FIG.
Equivalent to. That is, the gazing point existence time t (i, j) for each area W shown in FIG. 3C is obtained. After obtaining the gazing point distribution, the process proceeds to step S47, and the region W (i, j) having the largest gazing point existence time t (i, j) is specified as the position of the main subject. For example, when shooting a person as the main subject, the gazing point concentrates on the person's face, so
With the above processing, the position of the main subject can be specified almost accurately. Even if the main subject is not a person, the gaze point concentrates on it, and the above processing can be applied as it is.

【0090】主要被写体位置を定めた後は、ステップS
48にて撮影画面内でのエッジ位置を検出する。この処
理は、第2実施例で説明した柱状物X1の左右端の座標
Xa,Xb,Xc,Xd(図16参照)や、水平エッジ
X3の左右端の座標Ya,Yb,Yc,Yd(図22参
照)を求めるものである。エッジ位置を求めた後はステ
ップS49へ進み、主要被写体位置とエッジ位置との相
対関係が構図不良とされる典型例に該当しないか否かを
判断する。例えば図34(a)に示すように主要被写体
X2の顔部分に対して水平エッジX3が大きく離れている
ときは構図良好とする。反対に、図34(b)に示すよ
うに主要被写体X2の顔部分のすぐ近くを水 平エッジX
3が横切るときは構図不良と判断する。また、図14に
示す柱状物X1が主要被写体X2と重なるような場合も構
図不良と判断する。
After the main subject position is determined, step S
At 48, the edge position in the photographing screen is detected. This processing is performed by the coordinates Xa, Xb, Xc, Xd at the left and right ends of the columnar object X1 described in the second embodiment (see FIG. 16) and the coordinates Ya, Yb, Yc, Yd at the left and right ends of the horizontal edge X3 (see FIG. 22)). After obtaining the edge position, the process proceeds to step S49, and it is determined whether or not the relative relationship between the main subject position and the edge position does not correspond to a typical example in which the composition is poor. For example, as shown in FIG. 34A, when the horizontal edge X3 is far away from the face portion of the main subject X2, the composition is good. On the contrary, as shown in FIG. 34 (b), the horizontal edge X near the face of the main subject X2 is displayed.
When 3 crosses, it is judged that the composition is bad. Also, if the columnar object X1 shown in FIG. 14 overlaps with the main subject X2, the composition is determined to be defective.

【0091】ステップS49にて構図不良と判断したと
きはステップS50へ進み、構図不良であることを撮影
者に警告した上でステップS44へ戻る。一方、構図良
好と判断したときはステップS51へ進み、構図良好で
ある旨を表示する。このように、本実施例では撮影者の
注視点の分布に基づいて主要被写体位置を特定し、その
位置とエッジの位置との相対関係により構図の良否を推
定するので、主要被写体が撮影画面の中央部から外れて
いても正確に構図不良の典型例を検出できる。
When the composition is judged to be defective in step S49, the process proceeds to step S50, the photographer is warned that the composition is defective, and then the process returns to step S44. On the other hand, when it is determined that the composition is good, the process proceeds to step S51, and the fact that the composition is good is displayed. As described above, in this embodiment, the position of the main subject is specified based on the distribution of the gaze points of the photographer, and the quality of the composition is estimated by the relative relationship between the position and the position of the edge. A typical example of poor composition can be accurately detected even if it is off the center.

【0092】なお、図3(a)に示す撮影画面の分割領
域Wの個数(u,vの値)によっては人物の顔部分に対
応する領域Wが複数存在することがある。このため、人
物の顔部分が領域Wの何個分に相当するかを予め算出
し、注視点が集中する位置を中心とした一定範囲を人物
の顔部分として定めるとよい。また、撮影倍率βに応じ
ても主要被写体の大きさが変化するので、図4に示すス
テップS8〜ステップS10を追加して撮影倍率βを演
算し、その値に応じて主要被写体と見做す範囲を変化さ
せるとよい。
Depending on the number of divided areas W (values of u and v) of the photographing screen shown in FIG. 3A, there may be a plurality of areas W corresponding to the face portion of a person. For this reason, it is preferable to calculate in advance how many of the person's face part corresponds to the area W, and to set a certain range around the position where the gazing point is concentrated as the person's face part. Further, since the size of the main subject also changes depending on the shooting magnification β, steps S8 to S10 shown in FIG. 4 are added to calculate the shooting magnification β, and the main subject is considered according to the value. Change the range.

【0093】本実施例では上述した第2実施例の指数G
1〜G3の演算手順を応用してエッジ位置を求めたが、本
発明はこれに限るものではない。例えば、撮影画面内で
コントラストが最も大きく変化するエッジを優先して検
出することで水平線や地平線、あるいは主要被写体や柱
状物と背景との境界のエッジを特定してもよい。測光装
置4で検出した測光値分布に微分フィルタをかけてエッ
ジ強調を行うなど、画像処理分野において周知のエッジ
検出方法を用いてエッジの位置およびその種類を特定し
てもよい。
In this embodiment, the index G of the second embodiment described above is used.
Although the edge position is obtained by applying the calculation procedure of 1 to G3, the present invention is not limited to this. For example, the edge of the horizontal line or the horizon, or the edge of the boundary between the main subject or the pillar and the background may be specified by preferentially detecting the edge where the contrast changes the most in the shooting screen. The position and type of the edge may be specified by using an edge detection method well known in the image processing field, such as performing edge enhancement by applying a differential filter to the photometric value distribution detected by the photometric device 4.

【0094】図35および図36は上述した各実施例で
用いることができる警告表示の例を示すものである。図
35(a)は、ファインダ視野FSの下側に設けたシャ
ッタ速度や露出情報等の表示器100の表示色または輝
度を変化させて警告する例、同図(b)はファインダ視
野FSの表示色または輝度を変化させて警告する例、同
図(c)はファインダ視野FSのコーナの外側にドット
状の警告マーク101を点灯または点滅させて警告する
例、同図(d)はファインダ視野FSのコーナの内側に
ドット状の警告マーク102を点灯または点滅させて警
告する例、図36(a)はファインダ視野FSの外側に
枠状の警告マーク103を点灯または点滅させて警告す
る例、同図(b)はファインダ視野FSの内側に枠状の
警告マーク104を点灯または点滅させて警告する例、
同図(c)はファインダ視野FS内に警告メッセージ1
05を点灯または点滅させて警告する例、同図(d)は
表示器100内に警告メッセージ106を点灯または点
滅させて警告する例である。これらの警告は、離散指数
Eに基づく構図確認の催促、構図不良指数Gに基づく構
図不良の警告、手ブレ警告など適宜使い分けてよい。
FIG. 35 and FIG. 36 show examples of warning displays that can be used in the above-mentioned respective embodiments. FIG. 35 (a) shows an example of changing the display color or brightness of the display 100 such as shutter speed and exposure information provided below the viewfinder field FS to give a warning, and FIG. 35 (b) shows the viewfinder field FS display. An example of changing the color or the brightness to give a warning, the same figure (c) shows an example of giving a warning by lighting or blinking a dot-shaped warning mark 101 outside the corner of the viewfinder field FS, and the same figure (d) shows the viewfinder field FS. 36A shows an example of lighting or blinking a dot-shaped warning mark 102 inside the corner of FIG. 36A, and FIG. 36A shows an example of lighting or blinking a frame-shaped warning mark 103 outside the viewfinder field FS. FIG. 6B shows an example of warning by lighting or blinking a frame-shaped warning mark 104 inside the viewfinder field FS.
The same figure (c) shows a warning message 1 in the viewfinder field FS.
An example in which 05 is turned on or blinks to give a warning, and FIG. 7D is an example in which the warning message 106 is turned on or blinked in the display 100 to give a warning. These warnings may be properly used, such as a reminder for composition confirmation based on the discrete index E, a warning for composition failure based on the composition failure index G, and a camera shake warning.

【0095】上述した各実施例において、撮影レンズの
焦点距離に応じて構図不良の判定基準を変更してもよ
い。例えば広角レンズの場合には背景となる山の稜線や
建造物の稜線が写し込まれる可能性が高く、かつレンズ
のパースペクティブの関係から斜めのエッジが写し込ま
れがちなので、柱状物や水平エッジの傾きに対する許容
範囲を大きく設定する。反対に、望遠レンズの場合には
背景が単調なことが多いので、エッジの傾きに対する許
容範囲を小さく設定するとよい。
In each of the above-described embodiments, the criteria for determining composition failure may be changed according to the focal length of the taking lens. For example, in the case of a wide-angle lens, there is a high possibility that the ridgeline of a mountain or the ridgeline of a building that is the background will be photographed, and the oblique edge tends to be photographed due to the perspective of the lens, so that a columnar object or horizontal edge Set a large allowable range for inclination. On the contrary, in the case of a telephoto lens, the background is often monotonous, so it is advisable to set a small allowable range for the edge inclination.

【0096】以上の各実施例では、撮影モードの設定機
能を備えたカメラを説明したが、そのような機能を有し
ないカメラでは、最適と思われる判定撮影倍率aやエリ
ア係数α、各種の構図不良条件を定めてCPU1に与え
ておく。第2実施例や第3実施例で説明した水平エッジ
X3の検出処理は、X軸方向とY軸方向とを入れ替える
ことにより撮影画面を左右に二分するエッジにも適用で
きる。
In each of the above embodiments, the camera having the photographing mode setting function has been described. However, in the case of a camera having no such function, it is considered that the determination photographing magnification a, the area coefficient α, and various compositions which are considered to be optimal. A defect condition is determined and given to the CPU 1. The horizontal edge X3 detection processing described in the second and third embodiments can also be applied to an edge that divides the photographing screen into left and right by switching the X-axis direction and the Y-axis direction.

【0097】以上の実施例において、測光装置4および
CPU1が輝度情報検出手段を、CPU1が構図良否推
定手段、エッジ検出手段、修正方向判定手段、手ブレ状
態判別手段を、視線検出装置2およびCPU1が注視点
情報検出手段を、表示装置9が警告手段、表示手段およ
び手ブレ警告手段をそれぞれ構成する。
In the above embodiment, the photometric device 4 and the CPU 1 are the brightness information detecting means, the CPU 1 is the composition quality estimating means, the edge detecting means, the correction direction determining means, the camera shake state determining means, the visual axis detecting device 2 and the CPU 1. Denotes a gazing point information detecting means, and the display device 9 constitutes a warning means, a display means, and a camera shake warning means.

【0098】[0098]

【発明の効果】請求項1の発明では、主要被写体の上端
に対応するエッジの位置が検出されるので、特に主要被
写体の上端が構図不良を引き起こすような範囲にあると
き、それを確実に警告できる。請求項2の発明では、撮
影画面の対向する二辺の間に延びるエッジの傾きが検出
されるので、例えば水平線など撮影画面を二分するよう
なエッジの傾きが構図不良を引き起こすような範囲にあ
るとき、それを確実に警告できる。請求項3の発明で
は、検出されたエッジの種類および位置と、構図不良条
件とに基づいて構図の修正方向が判定されるので、構図
の修正方向が判らない撮影者であってもカメラの表示に
したがうだけで構図の良好な写真を撮影できる。請求項
4の発明では、撮影者の注視点の分布に関連した情報と
撮影画面内の輝度分布に関連した情報とに基づいて構図
の良否が判定されるので、輝度分布のみで構図良否を判
定する場合よりも多彩かつ正確に構図の良否を判定でき
る。請求項5の発明では、構図の良否の判定精度を向上
させるべく、撮影者に対してカメラの安定した保持を要
求できる。
According to the first aspect of the present invention, the position of the edge corresponding to the upper end of the main subject is detected. Therefore, when the upper end of the main subject is in a range that causes poor composition, the warning is surely given. it can. According to the second aspect of the present invention, since the inclination of the edge extending between the two opposite sides of the photographing screen is detected, the inclination of the edge that divides the photographing screen into two parts, such as a horizontal line, is in a range that causes poor composition. Sometimes you can be sure of that. According to the third aspect of the present invention, since the composition correction direction is determined based on the detected edge type and position and the composition defect condition, even if the photographer does not know the composition correction direction, the camera display You can take pictures with good composition just by following the steps below. According to the invention of claim 4, the quality of the composition is determined based on the information related to the distribution of the gazing point of the photographer and the information related to the brightness distribution in the shooting screen. Therefore, the quality of the composition is determined only by the brightness distribution. The quality of the composition can be judged more versatilely and more accurately than the case of performing. According to the fifth aspect of the invention, in order to improve the accuracy of determining the quality of the composition, the photographer can be required to hold the camera stably.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例に係る制御系のブロック
図。
FIG. 1 is a block diagram of a control system according to a first embodiment of the present invention.

【図2】図1の測光装置4の配列を示す図。FIG. 2 is a diagram showing an arrangement of photometric devices 4 in FIG.

【図3】図1のCPU1による離散指数Eの演算処理を
説明するための図。
FIG. 3 is a diagram for explaining a calculation process of a discrete exponent E by the CPU 1 of FIG.

【図4】図1のCPU1における構図推定手順の一部を
示すフローチャート。
4 is a flowchart showing a part of a composition estimation procedure in CPU 1 of FIG.

【図5】図4に続くフローチャート。FIG. 5 is a flowchart following FIG. 4;

【図6】図5の離散指数Eの演算手順の詳細を示すフロ
ーチャート。
FIG. 6 is a flowchart showing details of the calculation procedure of the discrete exponent E of FIG.

【図7】図1の変形例に係る制御系のブロック図。7 is a block diagram of a control system according to a modified example of FIG.

【図8】図7の例における構図推定手順の特徴部分を示
すフローチャート。
8 is a flowchart showing a characteristic part of a composition estimation procedure in the example of FIG.

【図9】撮影画面内に複数の焦点検出領域が設けられる
例を示す図。
FIG. 9 is a diagram showing an example in which a plurality of focus detection areas are provided in a shooting screen.

【図10】本発明の第2実施例における構図推定手順の
特徴部分を示すフローチャート。
FIG. 10 is a flowchart showing a characteristic part of a composition estimation procedure according to the second embodiment of the present invention.

【図11】図10の構図不良指数Gの演算手順の詳細を
示すフローチャート。
11 is a flowchart showing details of a calculation procedure of a composition failure index G in FIG.

【図12】図11の柱状物不良指数G1の演算手順の詳
細を示すフローチャート。
12 is a flowchart showing details of a calculation procedure of a columnar object defect index G1 in FIG.

【図13】図12に続くフローチャート。FIG. 13 is a flowchart following FIG. 12;

【図14】撮影画面内に存在する柱状物の位置が適切な
例(a)と不適切な例(b)を示す図。
FIG. 14 is a diagram showing an example (a) in which the position of the columnar object existing in the photographing screen is appropriate and an example (b) in which the position is inappropriate.

【図15】測光装置4の素子の配列の一例を示す図。FIG. 15 is a diagram showing an example of an array of elements of the photometric device 4.

【図16】図14(b)の構図と図15に示す素子の配
列との対応を示す図。
16 is a diagram showing the correspondence between the composition of FIG. 14B and the arrangement of the elements shown in FIG.

【図17】図11の主要被写体不良指数G2の演算手順
の詳細を示すフローチャート。
FIG. 17 is a flowchart showing details of a procedure for calculating a main subject defect index G2 in FIG. 11.

【図18】撮影画面内の主要被写体の位置が適切な例
(a)と不適切な例(b)を示す図。
FIG. 18 is a diagram showing an example (a) in which the position of the main subject in the shooting screen is appropriate and an example (b) in which the position is inappropriate.

【図19】図11の水平エッジ不良指数G3の演算手順
の詳細を示すフローチャート。
FIG. 19 is a flowchart showing details of the calculation procedure of the horizontal edge defect index G3 in FIG.

【図20】図19に続くフローチャート。FIG. 20 is a flowchart following FIG. 19;

【図21】水平線や地平線が写し込まれた構図の例を示
す図。
FIG. 21 is a diagram showing an example of a composition in which a horizontal line and a horizon are imprinted.

【図22】図21に示すエッジと図15に示す素子の配
列との対応を示す図。
22 is a diagram showing the correspondence between the edges shown in FIG. 21 and the array of elements shown in FIG.

【図23】本発明の第3実施例に係る制御系のブロック
図。
FIG. 23 is a block diagram of a control system according to a third embodiment of the present invention.

【図24】図23の表示装置9によるファインダ内の表
示の一例を示す図。
24 is a diagram showing an example of a display in the finder by the display device 9 of FIG.

【図25】本発明の第3実施例における構図推定手順の
特徴部分を示すフローチャート。
FIG. 25 is a flowchart showing the characteristic part of the composition estimation procedure in the third embodiment of the present invention.

【図26】図25の構図修正方向検出処理の一例を示す
フローチャート。
FIG. 26 is a flowchart showing an example of the composition correction direction detection process of FIG. 25.

【図27】図26の処理を実行したときの構図修正方向
の表示例を示す図。
27 is a view showing a display example of the composition correction direction when the processing of FIG. 26 is executed.

【図28】図25の構図修正方向検出処理の他の例を示
すフローチャート。
28 is a flowchart showing another example of the composition correction direction detection process of FIG. 25.

【図29】図25の構図修正方向検出処理のさらに他の
例を示すフローチャート。
FIG. 29 is a flowchart showing still another example of the composition correction direction detection process of FIG. 25.

【図30】図24の変形例を示す図。FIG. 30 is a diagram showing a modification of FIG. 24.

【図31】図28の処理を実行したときの構図修正方向
の表示例を示す図。
31 is a diagram showing a display example of the composition correction direction when the processing of FIG. 28 is executed.

【図32】図29の処理を実行したときの構図修正方向
の表示例を示す図。
32 is a diagram showing a display example of the composition correction direction when the processing of FIG. 29 is executed.

【図33】本発明の第4実施例における構図推定手順を
示すフローチャート。
FIG. 33 is a flowchart showing the composition estimation procedure in the fourth embodiment of the present invention.

【図34】第4実施例にて構図良好と推定される例
(a)および構図不良と推定される例(b)を示す。
FIG. 34 shows an example (a) in which it is estimated that the composition is good and an example (b) in which it is estimated that the composition is bad in the fourth example.

【図35】構図修正等の警告の変形例を示す図。FIG. 35 is a view showing a modified example of a warning such as composition correction.

【図36】構図修正等の警告の変形例を示す図。FIG. 36 is a view showing a modified example of a warning such as composition correction.

【符号の説明】[Explanation of symbols]

1 CPU 2 視線検出装置 3 ブレ検出装置 4 測光装置 5 測距装置 6 焦点距離検出装置 9 表示装置 9A 構図警告装置 9B ブレ警告装置 9C 構図修正指示表示装置 90,91,92,93 表示器 1 CPU 2 line-of-sight detection device 3 Blur detection device 4 Photometric device 5 Distance measuring device 6 Focal length detector 9 Display device 9A Composition warning device 9B shake warning device 9C Composition correction instruction display device 90,91,92,93 Display

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) // H04N 101:00 H04N 101:00 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) // H04N 101: 00 H04N 101: 00

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 撮影画面内の輝度分布に関連する情報を
検出する輝度情報検出手段と、 検出された輝度分布に関連する情報に基づいて、撮影画
面内から主要被写体の上端に対応するエッジを抽出して
その位置を検出するエッジ検出手段と、 検出されたエッジの位置を予め定められた適正範囲と対
比して構図の良否を判定する構図良否判定手段と、 構図不良が判定されたときに警告を出力する警告手段
と、を具備することを特徴とする構図アドバイス機能を
備えたカメラ。
1. A brightness information detecting means for detecting information related to a brightness distribution in a shooting screen, and an edge corresponding to an upper end of a main subject in the shooting screen based on the information related to the detected brightness distribution. An edge detection unit that extracts and detects the position, a composition quality determination unit that determines the quality of the composition by comparing the position of the detected edge with a predetermined appropriate range, and when a composition failure is determined. A camera having a composition advice function, comprising: a warning unit that outputs a warning.
【請求項2】 撮影画面内の輝度分布に関連する情報を
検出する輝度情報検出手段と、 検出された輝度分布に関連する情報に基づいて、撮影画
面の対向する二辺の間に延びるエッジを抽出してその傾
きを検出するエッジ検出手段と、 検出されたエッジの傾きを予め定められた適正範囲と対
比して構図の良否を判定する構図良否判定手段と、 構図不良が判定されたときに警告を出力する警告手段
と、を具備することを特徴とする構図アドバイス機能を
備えたカメラ。
2. A brightness information detection means for detecting information related to a brightness distribution in a shooting screen, and an edge extending between two facing sides of the shooting screen based on the detected information related to the brightness distribution. An edge detection unit that extracts and detects the inclination, a composition quality determination unit that determines the quality of the composition by comparing the detected edge inclination with a predetermined appropriate range, and a composition failure determination unit A camera having a composition advice function, comprising: a warning unit that outputs a warning.
【請求項3】 請求項2記載の構図アドバイス機能を備
えたカメラにおいて、 前記検出されたエッジの傾きと、前記適正範囲とに基づ
いて構図の修正方向を判定する修正方向判定手段と、 判定された修正方向を表示する表示手段と、を備えるこ
とを特徴とする構図アドバイス機能を備えたカメラ。
3. A camera provided with the composition advice function according to claim 2, wherein a correction direction determining means for determining a correction direction of the composition based on the detected inclination of the edge and the proper range is determined. And a display unit for displaying the correction direction, and a camera having a composition advice function.
【請求項4】 撮影画面内での撮影者の注視点の分布に
関連する情報を検出する注視点情報検出手段と、 前記検出された注視点の分布に関連する情報に基づいて
撮影画面内の主要被写体の位置を検出する主要被写体検
出手段と、 撮影画面内の輝度分布に関連する情報を検出する輝度情
報検出手段と、 検出された輝度分布に関連する情報に基づいて撮影画面
内から特定種類のエッジを抽出してその位置を検出する
エッジ検出手段と、 検出された主要被写体の位置と、検出されたエッジの種
類および位置とに基づいて構図の良否を判定する判定手
段と、 構図不良が判定されたときに警告を出力する警告手段
と、を具備することを特徴とする構図アドバイス機能を
備えたカメラ。
4. A gazing point information detecting means for detecting information related to a distribution of gazing points of a photographer on the photographing screen, and a gazing point within the photographing screen based on the information related to the distribution of the detected gazing points. A main subject detection unit that detects the position of the main subject, a brightness information detection unit that detects information related to the brightness distribution in the shooting screen, and a specific type from the shooting screen based on the information related to the detected brightness distribution. Edge detection means for extracting the edge of the image and detecting its position, a determination means for determining the quality of the composition based on the detected position of the main subject, the type and position of the detected edge, and a composition failure. A camera having a composition advice function, comprising: a warning unit that outputs a warning when it is determined.
【請求項5】 請求項1〜4のいずれかに記載の構図ア
ドバイス機能を備えたカメラにおいて、 カメラの手ブレ状態に対応する情報を検出する手ブレ情
報検出手段と、 検出された手ブレ状態が構図良否の判定に適当な範囲内
か否かを判別する手ブレ状態判別手段と、 前記手ブレ状態が構図良否の判定に不適当な範囲にある
と判別したとき警告を出力する手ブレ警告手段と、を備
えることを特徴とする構図アドバイス機能を備えたカメ
ラ。
5. A camera provided with a composition advice function according to claim 1, wherein the camera shake information detecting means detects information corresponding to the camera shake state of the camera, and the detected camera shake state. A camera shake state determination means for determining whether or not is within an appropriate range for the determination of composition quality, and a camera shake warning that outputs a warning when it is determined that the camera shake state is in an inappropriate range for determination of composition quality. A camera having a composition advice function, characterized by comprising:
JP2002379688A 1993-03-31 2002-12-27 Camera with composition advice function Expired - Lifetime JP4165216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002379688A JP4165216B2 (en) 1993-03-31 2002-12-27 Camera with composition advice function

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7377493 1993-03-31
JP5-73774 1993-03-31
JP2002379688A JP4165216B2 (en) 1993-03-31 2002-12-27 Camera with composition advice function

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP05181494A Division JP3412238B2 (en) 1993-03-31 1994-03-23 Camera with composition advice function

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007128052A Division JP4029174B2 (en) 1993-03-31 2007-05-14 Camera with composition advice function

Publications (2)

Publication Number Publication Date
JP2003274226A true JP2003274226A (en) 2003-09-26
JP4165216B2 JP4165216B2 (en) 2008-10-15

Family

ID=29217475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002379688A Expired - Lifetime JP4165216B2 (en) 1993-03-31 2002-12-27 Camera with composition advice function

Country Status (1)

Country Link
JP (1) JP4165216B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110090080A (en) * 2010-02-02 2011-08-10 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to execute the method
JP2013029991A (en) * 2011-07-28 2013-02-07 Toa Corp Image processing device, and electronic camera and image reproducing device including the image processing device
US8872954B2 (en) 2009-06-22 2014-10-28 Canon Kabushiki Kaisha Image processing apparatus having feature extraction and stored image selection capability, method of controlling the apparatus, program thereof, and storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8872954B2 (en) 2009-06-22 2014-10-28 Canon Kabushiki Kaisha Image processing apparatus having feature extraction and stored image selection capability, method of controlling the apparatus, program thereof, and storage medium
KR20110090080A (en) * 2010-02-02 2011-08-10 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to execute the method
KR101720771B1 (en) * 2010-02-02 2017-03-28 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to execute the method
JP2013029991A (en) * 2011-07-28 2013-02-07 Toa Corp Image processing device, and electronic camera and image reproducing device including the image processing device

Also Published As

Publication number Publication date
JP4165216B2 (en) 2008-10-15

Similar Documents

Publication Publication Date Title
JPH06337467A (en) Camera incorporating composition advice function
JP4029174B2 (en) Camera with composition advice function
JP2007068147A (en) Image processing method, imaging apparatus, and control program of image processing method executable by computer
JP2006211139A (en) Imaging apparatus
CN105812790B (en) Method for evaluating verticality between photosensitive surface and optical axis of image sensor and optical test card
US20010008423A1 (en) Distance measuring device and a camera provided with the distance measuring device
JPH073385Y2 (en) Photometric device
JP2008292622A (en) Focal state display device and method
JP4165216B2 (en) Camera with composition advice function
JP4536248B2 (en) Imaging device
JP2008216719A (en) Focus detecting device, focus adjusting device and imaging apparatus
JP2006318151A (en) Digital image display device and digital image display method
JP3170722B2 (en) Exposure calculation device
JP2005196252A (en) Object region detecting device, photographing device, target region detecting method and computer program
JP2002006203A (en) Focusing device and image pickup device
JP3214117B2 (en) Interchangeable lens and camera with focus detection
JPH05215958A (en) Main object detecting device for camera
JP3630792B2 (en) Gaze detection device and optical device
JP2024003949A (en) Electronic device, control method for electronic device, program, and storage medium
JP2005345501A (en) Electronic camera
JP2006106617A (en) Photometric device of camera
JP3456231B2 (en) Subject tracking device
JP3106613B2 (en) Camera exposure calculation device
JPH04310930A (en) Exposure arithmetic device for camera
JPH05204021A (en) Camera

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080721

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140808

Year of fee payment: 6

EXPY Cancellation because of completion of term