JP4165216B2 - Camera with composition advice function - Google Patents

Camera with composition advice function Download PDF

Info

Publication number
JP4165216B2
JP4165216B2 JP2002379688A JP2002379688A JP4165216B2 JP 4165216 B2 JP4165216 B2 JP 4165216B2 JP 2002379688 A JP2002379688 A JP 2002379688A JP 2002379688 A JP2002379688 A JP 2002379688A JP 4165216 B2 JP4165216 B2 JP 4165216B2
Authority
JP
Japan
Prior art keywords
composition
camera
main subject
photometric
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002379688A
Other languages
Japanese (ja)
Other versions
JP2003274226A (en
Inventor
鈴木  博文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2002379688A priority Critical patent/JP4165216B2/en
Publication of JP2003274226A publication Critical patent/JP2003274226A/en
Application granted granted Critical
Publication of JP4165216B2 publication Critical patent/JP4165216B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、構図アドバイス機能を備えたカメラに関する。
【0002】
【従来の技術】
写真を見る人に不快感を与えるために構図不良とされる幾つかの典型例が従来から経験的に知られている。そして、そのような典型例に該当するか否かを判別して構図不良写真の撮影を防止するカメラが提案されている。例えば、撮影画面の中央から上下方向および左右方向へ一定範囲の輝度分布を測定し、この範囲内でのコントラスト変化が所定値より大きいときに構図不良として撮影者に警告を発するカメラが記載ある(例えば、特許文献1)。水平線や地平線のように撮影画面を二分するエッジが人物の首を横切る構図や、電柱、樹木等等の構造物が人物の頭から上方へ突き出る構図は上述した構図不良の典型例であり、上記のカメラによれば、撮影画面の中央に人物の顔が捉えられている限りそのような典型例をほぼ正確に判別できる。
【0003】
【特許文献1】
特開平4−67133号公報
【0004】
【発明が解決しようとする課題】
しかしながら、物を撮影画面の中央から外して撮影する場合、上記公報のカメラでは水平線や電柱等が人物の頭と重なっていてもそれを構図不良として検出できない
【0005】
本発明の目的は、従来とは異なる観点から構図不良写真の発生を防止できるカメラ、および構図不良の典型例を従来よりも多彩かつ正確に判別できるカメラを提供することにある。
【0006】
【課題を解決するための手段】
請求項1の発明に係る構図アドバイス機能を備えたカメラは、撮影画面内における主要被写体の顔を認識して該主要被写体の位置を検出する位置検出手段と、検出された主要被写体の位置を予め定められた適正範囲と対比して構図不良を判定する構図不良判定手段と、構図不良が判定されたときに警告を出力する警告手段と、構図不良が判定されたときにカメラを動かすべき構図修正方向を表示する表示手段とを具備する。
請求項1の発明において、撮影画面内の輝度分布に関連する情報を検出する輝度情報検出手段と、検出された輝度分布に関連する情報に基づいて撮影画面内から主要被写体以外の特定種類のエッジを抽出してその位置を検出するエッジ検出手段とを備え、位置検出手段で検出された主要被写体の位置と、エッジ検出手段で検出されたエッジの種類および位置とに基づいて構図の良否を判定するようにしてもよい。
【0007】
【実施例】
−第1実施例−
以下、図1〜図6を参照して本発明の第1実施例を説明する。
図1は本実施例に係るカメラの制御系のブロック図である。図中符号1はカメラの動作を制御するCPUであり、このCPU1には、視線検出装置2、ブレ検出装置3、測光装置4、測距装置5、焦点距離検出装置6、姿勢検出装置7、撮影モード入力装置8および表示装置9が接続されている。
【0008】
視線検出装置2は、カメラのファインダ(不図示)を覗き込む撮影者の瞳に向けて赤外光を照射し、角膜からの反射光および眼球像とから眼球の回転角度を求めて撮影画面内での撮影者の注視点を特定する。視線検出装置2が検出した注視点に関する情報はCPU1に送出される。ブレ検出装置3は例えばカメラボディの加速度や角速度により手ブレの大小を検出し、検出したブレの大きさに応じた信号をCPU1に出力する。測光装置4は、図2に示すようにn行×m列のマトリクス状に配置された受光素子PSにより撮影画面を分割測光する二次元電荷蓄積型イメージセンサである。測光装置4の素子PSの位置は、図2にも示したように撮影画面の水平方向をx軸、垂直方向をy軸方向とする二次元直交座標系の座標値により表される。なお、図2は、撮影画面が横長となるカメラの横位置の状態を示す。撮影画面が縦長となるカメラの縦位置では、撮影画面の短辺方向がx軸方向、長辺方向がy軸方向である。
【0009】
測距装置5は、撮影距離(カメラのフィルム面から主要被写体までの距離)を検出し、その検出結果に応じた信号をCPU1に出力する。撮影距離の検出は、例えば撮影レンズの距離リングの回転位置に基づいて演算し、あるいは被写体に赤外光を照射して検出する。焦点距離検出装置6は、撮影レンズの焦点距離に関する情報を撮影レンズに内蔵されたROMから読み取ってCPU1に出力する。撮影レンズの交換が不可能なカメラでは、焦点距離検出装置6を省略して予めCPU1に焦点距離情報を与えてもよい。
【0010】
姿勢検出装置7はカメラが横位置にあるか縦位置にあるかを検出してCPU1に出力する。既述のように、横位置とは撮影画面の長辺方向と水平方向とが一致する位置を、縦位置とは撮影画面の短辺方向と水平方向とが一致する位置をいう。撮影モード入力装置8は、例えば人物撮影を目的とするポートレートモード、風景撮影を目的とする風景モードなど、撮影目的に応じた撮影モードを撮影者が入力するためのものである。表示装置9は、露出値などの撮影情報をカメラボディ上面やファインダ内に表示する機能を備えるとともに、ブザーや合成音声、振動等による警告機能を備える。
【0011】
CPU1は、各装置2〜8からの信号を必要に応じて読み込んで不図示のシャッタおよび絞りを制御し、撮影レンズを合焦位置へ駆動する。また、撮影動作に先立ってCPU1は図4および図5に示す手順により構図推定処理を行なう。以下、この構図推定処理を説明する。なお、構図推定処理は、例えばレリーズ釦の半押し操作に応答して実行するとよい。
【0012】
図4に示すように、構図推定処理では、ステップS1にて撮影モード入力装置8から入力される撮影モードを読み込む。ついでステップS2では、撮影モードに応じた「判定撮影倍率a」を設定する。「判定撮影倍率a」については後述する。ステップS3では姿勢検出装置7の出力からカメラの姿勢を検出し、続くステップS4では視線検出装置2からの信号処理に必要な撮影画面の分割パターンをカメラの姿勢に応じて選択する。例えばカメラの横位置では、図3(a)に示すように撮影画面Pをv行×u列のマトリクス状の領域Wに分割したパターンが選択される。この分割パターンの分割個数(u,vの値)は上述した測光装置4の分割個数(m,nの値)と同一でも、異なってもよい。なお、以下では領域Wの位置を、測光装置4よる分割領域と同じく、撮影画面の水平方向をx軸、垂直方向をy軸方向とする二次元直交座標系の座標値により表し、任意の位置の領域をW(i,j)とする。カメラボディが縦位置に構えられたときの分割パターンは図示を省略する。
【0013】
ステップS4で分割パターンを選択した後は、ステップS5にて分割パターンに対応するエリア係数αを設定する。例えば図3(a)に示す分割パターンが選択されたときには、図3(b)に示すように領域W(1,1)〜W(i,j)〜W(u,v)毎にエリア係数α(1,1)〜α(i,j)〜α(u,v)が与えられる。エリア係数α(i,j)は、撮影画面の中央から離れるほど大きく設定される。なお、エリア係数α(i,j)は、撮影画面中央からの距離に比例して増加させ、あるいは距離に対して2次以上の増加関数となるように変化させてもよい。
【0014】
エリア係数αを設定した後は、ステップS6でブレ検出装置3からの信号を読み込み、続くステップS7で検出したブレ量が適正範囲か否かを判別する。ブレ量が適正範囲であればステップS8へ進み、適正範囲を越えるときはステップS17へ進む。なお、ブレ量を判定するのは、カメラブレが大きくなると構図が定まらず、撮影画面が不安定となって注視点の検出精度が悪化するからである。
【0015】
ステップS8では焦点距離検出装置6からの信号により撮影レンズの焦点距離fを検出し、続くステップS9では測距装置5からの信号により撮影距離Dを求める。ステップS10では、撮影倍率βを式β=f/(D−f)によって求める。簡単のためβ=f/Dとしてもよい。
【0016】
続くステップS11(図5)では、算出された撮影倍率βがステップS2で設定した判定撮影倍率a以上か否か判断する。判定撮影倍率a以上であればステップS12へ、判定撮影倍率a未満であればステップS13へ進む。ステップS12またはステップS13では、視線検出装置2が検出する注視点とステップS4,S5にて設定した分割パターン、エリア係数とに基づいて、一定時間内における撮影者の注視点の散らばり程度を表す指数(以下、離散指数と呼ぶ。)Eを演算する。以下、この離散指数Eの演算処理を図6により説明する。
【0017】
図6の処理では、まずステップS101にて離散指数Eの演算周期を設定するタイマを起動する。続くステップS102では視線検出装置2が検出する注視点の位置を読み込み、その位置が図3(a)の領域W(1,1)〜W(u,v)のいずれに属するかを識別する。次のステップS103では注視点が存在する領域W(i,j)に関してのみ注視点の存在時間t(i,j)を積算する。この後、ステップS104にて視線検出装置2からの信号により注視点の位置を確認する。続くステップS105では、ステップS104で確認した注視点の属する領域W(i,j)がそれまでの領域から変化しているか否かを判別する。領域W(i,j)が変化していれば、ステップS106にて存在時間t(i,j)を積算する領域を新たな領域に変更してステップS107へ進む。領域W(i,j)に変化がなければステップS106を省略してステップS107へ進む。
【0018】
ステップS107ではステップS101で起動したタイマの積算時間が所定秒時に達したか否か判別し、達していなければステップS103に戻って上述の処理を繰り返す。ステップS107でタイムアップと判断したときはステップS108ですべての領域W(i,j)に関する存在時間t(i,j)の積算を終了し、続くステップS109で下式により離散指数Eを演算する。
【数1】
E=Σ(α(i,j)×t(i,j)) ……(i=1〜u,j=1〜v)この式から明らかなように、離散指数Eは図3(c)に示す領域W(1,1)〜W(u,v)毎の注視点の存在時間t(1,1)〜t(u,v)に、図3(b)に示す領域W(i,j)毎のエリア係数α(i,j)を乗算した値の総和である。ステップS109の終了後は図5に示す処理へ復帰する。
【0019】
再び図5に戻って説明する。離散指数Eの演算後はステップS14またはステップS15に進み、演算された離散指数Eが基準値b,c以上か否か判断する。基準値b,c以上であればステップS16へ進み、表示装置9により構図が良好である旨を撮影者に知らしめる。一方、ステップS14,S15にて離散指数Eが基準値b,c未満のときはステップS17へ進み、表示装置9のブザー等により撮影者に対して警告を発する。なお、基準値b,cはb<cの関係にある。
【0020】
以上の処理によれば、撮影画面の中央から離れるほどエリア係数α(i,j)が大きくなるので、撮影者が撮影画面の中央部を集中的に注視したときはステップS12またはステップS13で演算される離散指数Eが小さくなり、ステップS14またはステップS15で基準値b,c未満と判定されてステップS17で警告が発せられる可能性が高まる。反対に、撮影者が撮影画面の周辺も満遍なく注視すれば離散指数Eが大きくなり、ステップS14またはステップS15で基準値b,c以上と判定されてステップS16で構図良好表示がなされる可能性が高くなる。撮影者の注視点が撮影画面の中央部に集中する場合は、撮影者が主要被写体のみを注視し、背景に考慮を払っていないので、構図不良が生じる可能性が高い。したがってステップS17での警告は、撮影者に対して構図確認を催促する情報として有効に機能する。なお、構図判定ができないほどカメラブレが大きいときもステップS17にて警告が発せられる。
【0021】
本実施例では、撮影者の注視点分布に基づいて構図不良を推定するので、撮影画面内の水平線等の検出が困難な低輝度時やローコントラスト時でも機能が損われない。なお、本実施例では撮影画面の周辺のみを注視したときも離散指数Eが高くなって警告が発せられない可能性が高くなる。しかしながら、撮影者が意識して撮影画面の周辺を注視するときは、構図の決定に何等かの意図が含まれていると考えて差し支えなく、警告を与えなくとも不都合はない。
【0022】
実施例では撮影倍率βと判定撮影倍率aとの大小関係に応じて基準値b,cが変更され、しかもb<cである。このため、注視点の散らばり程度が同程度であっても、撮影倍率βが小さいとき、すなわちβ<aの場合(ステップS13,15側)がβ≧aの場合(ステップS12,14側)よりも警告が発せられる可能性が高くなる。これは、撮影倍率βが小さくなるほど主要被写体が撮影画面内に占める大きさが減少し、撮影画面の周辺を注視して構図の良否を確認する必要性が高まるためである。
【0023】
判定撮影倍率aを撮影モードに応じて変更するのも撮影画面周辺の注視の必要度を考慮したためである。例えばポートレートモードでは主要被写体たる人物が大きく捕えられかつ背景がぼけるので背景を注視する必要が薄れて判定撮影倍率aを小さく設定しても差し支えないのに対し、風景モードでは撮影画面の隅々まで注視する必要が高まるので判定撮影倍率aも高く設定する必要がある。なお、撮影画面の中央部のエリア係数が、風景モードよりもポートレートモードで大きくなるように変化させてもよい。
【0024】
図7に示すように表示装置9に構図警告装置9Aとブレ警告装置9Bとを設け、図8に示すように、ステップS14またはステップS15で構図不良と推定したときにはステップS17に進んで構図警告装置9Aで構図確認の催促を、ステップS7でブレ大と判定したときはステップS18へ進んでブレ警告装置9Bによりブレの警告を与えてもよい。
【0025】
撮影画面内で一定時間内に注視点が最も集中する領域を主要被写体の位置として特定し、かかる位置から離れるほどエリア係数α(i,j)が大きくなるように設定することで、主要被写体からの注視点の散らばりの程度に応じて離散指数Eを増減させることも可能である。図9に示すように撮影画面Pに複数の焦点検出領域AFを設定し、いずれか一つの領域を選択可能としたカメラでは、選択された焦点検出領域AFから注視点が離れるほどエリア係数α(i,j)が大きくなるようにしてもよい。この場合、焦点検出領域AFの選択は、撮影者が指示するものでも、カメラ側が自動的に選択するものでもよい。撮影者の視線に基づいて焦点検出領域AFを選択するカメラであっても、選択された焦点検出領域AFから離れるほどエリア係数α(i,j)が大きくなるように設定すればよい。また、焦点検出領域AFの位置に係わりなく撮影画面の中央から離れるほどエリア係数α(i,j)を大きく設定した場合において、撮影者の視線により焦点検出領域AFを選択する場合には、選択される焦点検出領域AFに一時的に視線が集中するので、その間の注視点分布情報を離散指数Eの演算データに取り込まないようにすればよい。
【0026】
−第2の実施例−
図10〜図22により本発明の第2実施例を説明する。なお、本実施例は、上述した第1実施例に対してCPU1での構図推定処理を変更したものである。したがって、第1実施例との共通部分には同一符号を付してその説明を省略し、構図推定処理の特徴部分を説明する。
【0027】
図10は本実施例の構図推定処理の一部を示すものである。図中のステップS11は上述した第1実施例のステップS11と共通し、ステップS11よりも前段階では図4に示すステップS1〜ステップS10が実行される。ステップS11にて撮影倍率βが判定撮影倍率aよりも大きいときはステップS21へ進み、現在の撮影画面の構図が予め定められた構図不良条件に該当する程度を表す指数(以下、構図不良指数と呼ぶ。)Gを、測光装置4の素子PS(図2参照)毎の測光値Bvに基づいて演算する。この構図不良指数Gの演算の詳細は後述する。
【0028】
ステップS11で判定撮影倍率a未満のときはステップS22へ進み、離散指数Eを演算する。この離散指数Eの演算処理は図6に示すものと同一である。離散指数Eの演算後はステップS23へ進み、離散指数Eが基準値h以上か否か判断する。基準値h以上であればステップS24へ進んで構図不良指数Gを演算し、基準値h未満であればステップS25へ進んで表示装置9のブザー等により撮影者に対して警告を発する。このときの警告は、第1実施例と同様に撮影者が撮影画面の周辺の構図を確認していないことに対するものである。判定撮影倍率aおよび基準値hは、第1実施例の判定撮影倍率a、基準値b,cと一致するとは限らない。
【0029】
図11は構図不良指数Gの演算処理を示すものである。この処理では、まずステップS201にて姿勢検出装置7からの出力によりカメラが横位置か否かを判断する。横位置でなければステップS202へ進み、図2に示す測光装置4の素子数mを以降の処理で用いる定数n、素子数nを以降の処理で用いる定数mとして定義する。横位置のときは素子数mが定数m、素子数nが定数nとしてそのまま使用される。このような操作を行うのは、CPU1がカメラの縦位置および横位置に拘らず撮影画面の水平方向をX軸方向、垂直方向をY軸方向として扱うため、縦位置と横位置とで測光装置4のX軸方向、Y軸方向の素子数が入れ替わるためである。
【0030】
素子数m,nをカメラの姿勢に応じて定義した後は、ステップS203で、電柱や立木等の柱状物が構図不良を引き起こす程度を表す指数(以下、柱状物不良指数と呼ぶ。)G1を演算する。ステップS204では主要被写体の位置が構図 不良を引き起こす程度を表す指数(以下、主要被写体不良指数と呼ぶ。)G2を 演算する。ステップS205では、水平線や地平線等、撮影画面を二分するような水平エッジが構図不良を引き起こす程度を表す指数(以下、水平エッジ不良指数と呼ぶ。)G3を演算する。なお、これらの指数G1〜G3は構図不良を引き起 こす程度が高いほど大きくなるように設定される。各指数G1〜G3の演算手順の詳細は後述する。
【0031】
指数G1〜G3の演算後はステップS206へ進み、構図不良指数Gとして各指数G1〜G3の総和(G1+G2+G3)を求める。構図不良指数Gの演算後は図1 0に示すステップS26またはステップS27に進み、演算された構図不良指数Gが基準値p,q以上か否か判断する。基準値p,q未満であればステップS28へ進み、表示装置9により構図が良好であることを撮影者に知らせる。一方、ステップS26,S27にて構図不良指数Gが基準値p,q以上のときはステップS25へ進み、表示装置9のブザー等により撮影者に対して警告を発する。なお、基準値p,qはp>qの関係にある。カメラボディのブレが大きいときにも第1実施例と同様にステップS25の処理が実行されて警告が発せられる。
【0032】
図12〜図22により各指数G1〜G3の演算手順を説明する。
(1)柱状物不良指数G1の演算処理
図12,図13は柱状物不良指数G1の演算手順を示すものである。図14(a)に示すように、撮影画面Pの垂直方向に真っ直ぐ延びた状態で撮影されるべき柱状物(樹木、電柱、支柱等)X1が同図(b)に示すように傾いて撮影される と構図不良を引き起こす。このような要素を構図不良の推定に反映させるべく、図12,図13の処理では測光装置4が検出する測光値分布に基づいて撮影画面中の柱状物X1を検出し、柱状物X1のエッジ(背景との境界)eL,eRの傾きの程度を指数化する。なお、以下の説明では、図15に示すように測光装置4の素子PSのうちX座標を同じくする素子の列をy列とし、Y軸方向最下端から上側へj番目のy列をyj列と表現する。図15はカメラが横位置で、素子PSの個 数がm=30,n=20の例である。
【0033】
図12に示すように、指数G1の演算では、ステップS211で走査列を指定 する変数jを初期値1に設定し、ステップS212でyj列の素子PS(1,j)〜PS(m,j)の測光値の走査を開始する。次のステップS213では、yj 列において同一測光値Bvの素子PSが所定個数A以上連続するか否か判断する。連続するときはステップS214に進み、ステップS213の条件に該当する測光値Bvおよび素子の組の位置を記憶する。条件に該当する素子の組が存在しないときはステップS214を省略してステップS215へ進む。
【0034】
ステップS215ではyj列の走査が終了したか否かを判断し、走査途中であ ればステップS213へ戻る。yj列の走査が終了したときはステップS216 へ進み、変数jがY軸方向の素子数nに一致するか否かを判断する。一致しなければステップS217で変数jに1を加算してステップS212へ戻る。変数jが素子数nに一致するときはステップS218へ進む。
【0035】
ステップS218では、ステップS214で記憶した測光値Bvのうち、すべてのy列(y1列〜yn列)に共通するものがあるか否か判断する。なお、ステップS213およびステップS218にて、各素子PSの測光値Bvが等しいか否かを判断する際には、測光値Bvの差が一定の許容範囲内にあれば同一として扱ってよい。
【0036】
すべてのy列に共通する測光値Bvが存在するときはステップS219へ進み、すべてのy列間で測光値Bvの素子が所定個数C以上接しているか否か判断する。この条件が満たされているときはステップS220へ進み、複数の測光値Bvについて上記の条件が満たされたか否か判断する。複数の測光値について満たされているときはステップS221へ進み、最も低い測光値の素子の組を以降の処理対象として選択する。例えば、ステップS214にて2つの測光値Bv1,Bv2(Bv1<Bv2)の素子の組が記憶され、測光値Bv1,Bv2の素子の組いずれもがステップS218,S219の条件を満たすときは、ステップS214で記憶した測光値Bv1の素子の組を処理対象として選択される。なお、ステップS 220が否定されたときはステップS221が省略され、ステップS214で記憶された測光値Bvの素子の組がそのまま処理対象に選択される。
【0037】
測光値Bvの素子の組を選択した後はステップS222(図13)へ進む。ステップS222では、選択された測光値Bvの素子のうち、y1列およびyn列で最も左側に位置する素子のX座標をそれぞれXa,Xc、y1列およびyn列で最も右側に位置する素子のX座標をそれぞれXb,Xdとして定義する。なお、y1列は撮影画面の下端、yn列は撮影画面の上端に位置する素子列である。次のステップS223では、下式によりy1列,yn列における測光値Bvの素子の左右端のずれ量ΔXL,ΔXRを求める。
【数2】
ΔXL=Xc−Xa
ΔXR=Xd−Xb
【0038】
ステップS224では、ΔXL,ΔXRの正負符号が一致するか否かを判断する。一致していればステップS225へ進み、ΔXLの絶対値がΔXRの絶対値よりも小さいか否か判断する。小さければステップS226へ進み、ΔXRの絶対値に 応じて指数G1を設定する。ΔXLの絶対値がΔXRの絶対値よりも大きいときは ステップS227に進み、ΔXLの絶対値に応じて指数G1を設定する。なお、ΔXL,ΔXRが大きいほど指数G1も大きく設定するが、ΔXL,ΔXRに比例して 指数G1を増加させ、あるいはΔXL,ΔXRに対して二次以上の増加関数で指数 G1を増加させてもよい。
【0039】
ステップS218、ステップS219およびステップS224が否定判断されたときはステップS228へ進み、指数G1=0とする。ステップS226〜2 28の終了後は図11に示す処理へ復帰する。
【0040】
次に、図12,図13の処理の具体例を図16に基づいて説明する。なお、測光装置4の素子の配列は図15に示す通りとし、ステップS213での所定個数A=5、ステップS219での所定個数C=4とする。
図16は、図14(b)に示す撮影画面Pと測光装置4の素子PSの配列との対応を示すものである。一般に、柱状物X1の輝度は背景部分よりも低いため、 柱状物X1上に位置する素子が背景部分よりも低い一様な測光値Bv1を検出し、背景上に位置する素子が測光値Bv1よりも一様に明るい測光値Bv2を検出するものとした。柱状物X1に対する撮影距離が短く、そこに撮影レンズのピントが 合っている状態では、背景部分が被写界深度から外れてボケるため、背景が一様に明るいと見做して差し支えない。
【0041】
図16に示す撮影画面に対して図12,13の処理を適用した場合、ステップS211〜ステップS215により、y1列に関して素子PS(1,1)〜PS (7,1)が同一測光値Bv2の組として記憶され、素子PS(9,1)〜PS (14,1)が同一測光値Bv1の組として記憶され、素子PS(16,1)〜 PS(30,1)が同一測光値Bv2の組として記憶される。以下、同様の処理 がy2列〜y20列について繰り返され、y20列では素子PS(1,20)〜PS (4,20)が同一測光値Bv2の組として記憶され、素子PS(6,20)〜 PS(11,20)が同一測光値Bv1の組として記憶され、素子PS(13, 20)〜PS(20,20)が同一測光値Bv2の組として記憶される。
【0042】
y1列〜y20列に共通する測光値Bv1,Bv2が存在し、測光値Bv1の素子がy列間で接する数、測光値Bv2の素子がy列間で接する数がy1列〜y20列まですべてC(=4)個以上であるため、ステップS218,ステップS219はいずれも肯定される。そして、測光値Bv1<Bv2より、ステップS220で測光値Bv1の素子の組が処理対象に選択される。ステップS221では、y1列およびy20列における測光値Bv1の素子の左右端のX座標が選ばれてXa=9,X b=14,Xc=6,Xd=11となり、ステップS223ではΔXL=6−9 =−3、ΔXR=11−14=−3となる。ΔXL,ΔXRの正負符号はともに負 であるからステップS224が肯定される。ΔXL、ΔXRの絶対値が等しいのでステップS225が肯定され、ステップS226にてΔXLの絶対値(=3)に 応じて指数G1が設定される。
【0043】
以上から明らかなように、図12,図13の処理では同一測光値Bvの素子が撮影画面の水平方向へ所定個数A以上連続するか否か、および同一測光値Bvの素子が各y列間で所定個数C以上接するか否かにより、撮影画面を左右に二分する柱状物X1が存在するか否か判断される。柱状物X1が存在するときは、撮影画面の上下端における柱状物X1のエッジeL,eR(図14参照)のずれ量ΔXL、ΔXRが求められ、いずれか大きい方の値に応じて指数G1が設定される。したがって、指数G1は、柱状物の傾きが構図不良に与える影響の大小を示している。 なお、円錐体のように高さに応じて幅が変化する構造物では、撮影画面の垂直方向と平行であってもそのエッジが傾くので、単一のエッジのみを評価した場合は構図不良と誤って判断されるおそれがある。ところが、図12,図13の処理ではステップS224にて柱状物の両側のエッジの傾き方向が一致するか否かを判別するので、そのようなおそれがない。
【0044】
(2)主要被写体不良指数G2の演算処理
図17および図18により主要被写体不良指数G2の演算処理(図11のステ ップS204)を説明する。図18(a)に示すように、撮影画面Pの主要被写体(この例では人物)X2が、同図(b)に示すように撮影画面Pの上端から大 きく離れ、あるいはその逆に撮影画面Pの上端に過度に接近すると構図不良を引き起こす。このような要素を構図不良の推定に反映させるべく、図17の処理では、測光装置4が検出する測光値分布に基づいて主要被写体の上端位置を検出し、その適正範囲からのずれ量を指数化する。なお、以下の説明でも、上記と同様に測光装置4の素子PSのうちX座標を同じくする素子の列をy列と呼び、Y軸方向最下端から上側へj番目のy列をyj列と表現する。
【0045】
図17に示すように、指数G2の演算では、まずステップS241で走査列を 指定する変数jを初期値1に設定し、ステップS242でyj列の素子PS(1,j)〜PS(m,j)の測光値を走査する。次のステップS243では、yj列 において同一測光値Bvの素子PSがyj列の全素子数mのF%以上存在するか 否か判断する。存在するときはステップS244に進み、yj列を素子列yz1と定義してステップS246へ進む。ステップS243の条件が満たされないときはステップS245へ進み、yj列を素子列yz0と定義してステップS246へ進む。同一測光値Bvか否かの判断に際しては、図12,13の例と同様に一定の許容範囲を設けてよい。
【0046】
ステップS246では変数jがY軸方向の素子数nに一致するか否か判断する。一致しなければステップS247で変数jに1を加算してステップS242へ戻る。一致するときはステップS248へ進む。ステップS248では、素子列yz0とyz1との境界が撮影画面内に存在するか否かを判断する。存在していればステップS249へ進み、境界が単数か否か判断する。単数であればステップS250へ進み、境界位置を挟んで隣接する2つのy列のいずれか一方のY座標を境界座標YLとして定義する。なお、本実施例では境界の下側のy列のY座標を 界座標とした。続くステップS251では、下式により境界座標YLが適正範囲 内か否か判断する。
【数3】
K・n≦YL≦L・n
【0047】
上式を満たすときはステップS252へ進み、指数G2=0とする。一方、上 式を満たさないときはステップS253へ進み、座標YLに応じて指数G2を設定する。この場合、座標YLが上式に示す適正範囲から外れる量が大きいほど指数 G2も大きくする。ステップS252,253の後は図11に示す処理に復帰す る。なお、F%は、測光装置4のX軸方向の素子数に応じて定めるが、なるべく100%に近い値が好ましい。係数K,Lは、撮影画面の上端から主要被写体の上端までの間隔の適正範囲を与えるもので、一般的なポートレート撮影ではK=0.8,L=0.9程度が好適である。
【0048】
図18(b)を参照して図17の処理の具体例を説明する。図18(b)は、カメラが縦位置で、測光装置4の素子PSの個数がn=30,m=20の場合における素子PSと撮影画面Pとの対応関係を示したもので、図中の斜線部分が主要被写体X2である。なお、縦位置での素子数の取り扱いは図11のステップS 202の部分で既に説明した通りである。主要被写体X2以外の背景部分は被写 界深度から外れてボケるため、背景部分に対応する素子は、主要被写体X2に対 応する素子よりも明るい一定の測光値Bv1を検出すると見做す。また、F=1 00とした。
【0049】
図18(b)に示す撮影画面に対して図17の処理を適用した場合、y1列〜 y19列に関しては、主要被写体X2と背景が混在するために同一測光値Bv1の素子PSがF(=100)%存在することはなく、ステップS243が否定される。このため、y1列〜y19列はステップS245で素子列yz0として定義される。y20列〜y30列には背景のみが存在するため同一測光値Bv1の素子がF%以上 存在し、ステップS243が肯定される。このため、ステップS244でy20列〜y30列は素子列yz1として定義される。そして、素子列yz0とyz1との境 界が一箇所だけ存在するからステップS248,S249が肯定され、ステップS250で素子列yz0の上限であるy19列のY座標「19」が境界座標YLとして定義される。
【0050】
次のステップS251にてK=0.8、L=0.9とすれば、K・n=24、L・n=27であるからYL<K・nとなり、境界座標YLが適正範囲にないと判断される。したがって、ステップS253で境界座標YLとK・nとの差に応じ た指数G2が設定される。
【0051】
以上から明らかなように、図17の処理では単一のy列中に同一測光値BvがF%以上存在するか否かによってそのy列中に主要被写体と背景とが混在するか否かが判別され、混在する素子列yz0と混在しない素子列yz1との境界が主要被写体の上端と見做される。そして、主要被写体の上端が適正範囲にないときは、適正範囲からのずれ量に応じて指数G2が設定される。したがって、指数G2は、主要被写体位置の不適切な程度をよく示している。なお、人物の上半身等を撮影するときは主要被写体よりも下側で背景に対応する素子が100%近くを占めることはあり得ない。このため、ステップS249により主要被写体か否かの誤判断が防止される。
【0052】
(3)水平エッジ不良指数G3の演算処理
図19〜図22により水平エッジ不良指数G3の演算処理(図11のステップ S205)を説明する。図21に示すように、撮影画面Pを上下に二分するエッジX3が同図に二点鎖線L1で示すように撮影画面Pの中央を横切り、あるいは二点鎖線L2で示すように撮影画面の水平方向から傾くと構図不良を引き起こす。 このような要素を構図不良の推定に反映させるべく、図19,図20の処理では、測光装置4の検出する測光値分布に基づいて撮影画面中の水平エッジX3を検出 し、その位置や傾きの不適切な程度を指数化する。なお、以下の説明では、測光装置4の素子PSのうちY座標を同じくする素子の列をx列と呼び、X軸方向左端から右側へi番目のx列をxi列と表現する。
【0053】
図19に示すように、水平エッジ不良指数G3の演算では、まずステップS2 71でx1列およびxm列を走査してそれぞれの測光値分布を検出する。x1列は 撮影画面の水平方向左端の素子列であり、xm列は右端の素子列である。次のス テップS272では、同一測光値Bvの素子がT個以上連続するか否かをx1列、xm列について判断する。x1列、xm列の双方がステップS272の条件を満た すときはステップS273へ進み、上記の条件に該当する測光値Bvおよび素子の位置を記憶する。x1列、xm列のいずれか一方でもステップS272の条件を満たさないときはステップS284(図20)へ進む。
【0054】
ステップS274では、x1列、xm列に共通する二種類の測光値Bv1、Bv2がステップS273で記憶されたか否かを判断する。記憶されていればステップS275へ進み、そうでなければステップS284へ進む。ステップS275では測光値Bv1の素子と測光値Bv2の素子とがx1列、xm列中で接しているか否かを判断する。接していればステップS276へ進み、そうでなければステップS284へ進む。ステップS276では、x1列における測光値Bv1,Bv2の 素子の接点のY座標をYa,Yb、xm列における測光値Bv1,Bv2の素子の 接点のY座標をYc,Ydとして定義する。続くステップS277では、x1列、xm列の測光値Bv1,Bv2の素子の上下関係を判別する判定値J1,Jmを下式 により演算する。
【数4】
J1=Ya−Yb
Jm=Yc−Yd
【0055】
次のステップS278では、判定値J1,Jmの正負符号が一致するか否かを判断する。一致していればステップS279へ進み、そうでなければステップS274へ進む。ステップS279では、Ya,Ybの小さい方をx1列における境 界座標Yx1、Yc,Ydの小さい方をxm列における境界座標Yxmとして定義す る。続くステップS280(図20)では、下式により撮影画面の左右端でのエッジのずれ量ΔYを演算し、その値が許容値H0以下か否かを判断する。
【数5】
ΔY=|Yx1−Yxm|
【0056】
ずれ量ΔYが許容値H0以下であればステップS281へ進み、下式により境 界座標Yx1(Yxmに代えてもよい)が不適切な範囲にあるか否かを判断する。
【数6】
P・n≦Yx1≦Q・n
係数P,Qは水平エッジX3が撮影画面の中央部を横切るか否かを判別するた めのもので、P=0.4、Q=0.6程度が好適である。
【0057】
ステップS281の条件が満たされるときはステップS282へ進み、指数G3を最大値に設定する。ステップS280が否定されたときはステップS283 へ進み、ずれ量ΔYに応じて指数G3を設定する。この場合、ずれ量ΔYが大き いほど指数G3も大きくする。その増加の程度は、ずれ量ΔYに比例して増加さ せ、あるいはずれ量ΔYに対して二次以上の増加関数で増加させてもよい。ステップS281が否定されたときはステップS284へ進む。ステップS284では指数G3=0に設定する。ステップS282,S283,S284の終了後は 図11に示す処理へ復帰する。
【0058】
図22を参照して図19,図20の処理の具体例を説明する。図22(a)は水平エッジX3が撮影画面の中央を横切る構図、同図(b)は水平エッジX3が傾く構図を測光装置4の素子PSの配列と対応させて示すものである。素子PSの配列は図15に示す通りである。ステップS272での所定個数T=4とした。簡単のため、水平エッジX3よりも上側の領域、下側の領域では測光値が均一で あると見做した。実際の撮影画面では様々な測光値が検出されるが、水平線や地平線が存在する場合にはその上下で測光値に明確な差が表われる。したがって、図19,図20の処理に際して同一測光値Bvか否かを判断する許容幅を適当に設定し、あるいは測光装置4の測光値を適当な閾値で二値化すれば、撮影画面を図22のように見做すことができる。
【0059】
図22(a)の撮影画面に図19,図20の処理を適用した場合、ステップS271〜S273により、x1列に関して素子PS(1,1)〜PS(1,10)が測光値Bv1の組として、素子PS(1,11)〜PS(1,20)が測光値 Bv2の組として記憶される。x30列に関しては、素子PS(30,1)〜PS (30,10)が測光値Bv1の組として、素子PS(30,11)〜PS(3 0,20)が測光値Bv2の組として記憶される。このようにx1列、x30列に共通する二種類の測光値Bv1,Bv2が記憶され、測光値Bv1の素子と測光値B v2の素子とがx1列,x30列でそれぞれ接しているから、ステップS274,275が肯定される。このため、ステップS276では、x1列の素子PS(1, 10)、PS(1,11)のY座標「10」,「11」がYa,Ybとして定義され、x30列の素子PS(30,10)、PS(30,11)のY座標「10」,「11」がYc,Ydとして定義される。これにより、ステップS277ではJ1=J30=−1となり、いずれも負の値であるからステップS278が肯定され、ステップS279でYx1=Ya=10、Yxm=Yc=10となる。
【0060】
以上のYx1、Yxmに対して、ステップS280ではΔY=0となり、この値は許容値H0以内であるからステップS280が肯定される。ステップS281で は、P=0.4、Q=0.6とすれば、n=20よりP・n=8、Q・n=12であり、Yx1=10だから水平エッジG3が撮影画面の中央部を横切ることが判 明する。そして、ステップS282により指数G3が最大値に設定される。
【0061】
図22(b)の撮影画面に対しては、ステップS271〜S273によりx1 列に関して素子PS(1,1)〜PS(1,10)が測光値Bv1の組として、 素子PS(1,11)〜PS(1,20)が測光値Bv2の組として記憶される。x30列に関しては、素子PS(30,1)〜PS(30,4)が測光値Bv1の 組として、素子PS(30,5)〜PS(30,20)が測光値Bv2の組とし て記憶される。この場合も、x1列、x30列に共通する二種類の測光値Bv1,Bv2が存在し、測光値Bv1,Bv2の素子の組がx1列,x30列でそれぞれ接するからステップS274,275が肯定され、ステップS276ではx1列のPS (1,10)、PS(1,11)のY座標「10」,「11」がYa,Ybとして定義され、x30列のPS(30,4)、PS(30,5)のY座標「4」,「5」がYc,Ydとして定義される。これにより、J1=J30=−1となりい ずれも負の値であるからステップS278が肯定され、ステップS279でYx1=Ya=10、Yxm=Yc=4となる。このようなYx1、Yxmに対して、ステップS280ではΔY=6となり、例えば許容値H0=3であればステップS28 0は否定される。このため、ステップS283でずれ量ΔYに応じた指数G3が 設定される。
【0062】
以上から明らかなように、図19,図20の処理では撮影画面の水平方向両端のx1列,xm列に、これらの素子列を上下に二分するエッジが存在するか否かがステップS271〜ステップS275により判断され、そのようなエッジが存在するときには、x1列,xm列の測光値の上下関係によりx1列,xm列のエッジを同一の水平エッジX3と見做してよいか否かがステップS276〜ステップS2 78で判断される。同一の水平エッジX3と判断されたときはステップS279 でその両端のY座標がYx1、Yxmとして定義される。そして、水平エッジX3の 傾きがY座標Yx1、Yxmのずれ量ΔYとして演算され、ずれ量ΔYが許容値H0 を越えるときはずれが大きいほど指数G3が大きく設定される。水平エッジX3の傾きが許容範囲であっても、それが撮影画面の中央部を横切るときにはステップS281,ステップS282により指数G3が最大値に設定される。したがって、指数G3は、水平エッジX3の位置や傾きが構図不良に与える影響の大きさをよく示している。
【0063】
以上説明したように、本実施例によれば、柱状物の傾き、主要被写体の位置、水平エッジの位置および傾きが構図不良条件に該当する程度が高くなるほど構図不良指数Gが大きくなり、図10に示すステップS26またはステップS27で構図不良指数Gが基準値p,q以上となってステップS25により警告が発せられる可能性が高まる。撮影画面内に存在するエッジの種類毎に固有の構図不良条件が設定され、それらとの対比でエッジ毎に指数G1〜G3が演算されるので、従来例よりも多彩かつ正確に構図不良を推定できる。
【0064】
本実施例では、基準値p>qのため撮影倍率βが判定撮影倍率a以上のときに構図良好と判断される可能性が高くなる。これは、撮影倍率βが大きくなると主要被写体が大きくなって背景中のエッジが構図の良否に与える影響が減少するためである。β≧aのとき離散指数Eの演算を省略するのは、撮影倍率βが大きくなると撮影画面の周辺を注視する必要性が低下するため、離散指数Eの演算に要する時間を省略して無駄時間の発生を防止したためである。ただし、β≧aのときでも離散指数Eを演算し、その大小に応じて警告を与えるようにしてもよい。β<aの場合、第1実施例のように離散指数Eを演算するルートを撮影倍率βに応じて2以上に分割してもよい。反対にβ<aの場合でも離散指数Eの演算を省略してもよい。撮影モードに応じて構図不良条件(例えば水平エッジX3の傾き の許容範囲)を変更することにより、撮影モード毎により正確な構図良否の推定が可能となる。指数G1〜G3と基準値p,qとの関係は、指数G1〜G3の最大値よりも基準値p,qを小さく設定し、あるいは指数G1〜G3の最大値よりも基準値p,qを大きく設定してもよい。
【0065】
上述した指数G1〜G3の演算は、1または2種類を選択的に実行してもよい。例えば撮影倍率βが大きいときはポートレート撮影の可能性が大きくて背景に考慮を払う必要性が薄れるのに対して、撮影倍率βが小さいときは背景の影響が大きいので、図10のステップS11が肯定されたときには主要被写体不良指数G2のみを演算し、ステップS11が否定されたときには水平エッジ不良指数G3のみを演算してもよい。撮影モードがポートレートモードのときに主要被写体不良指数G2を、風景モードのときに水平エッジ不良指数G3を、記念撮影モードのときに柱状物不良指数G1を演算するなど、撮影モードに応じて演算手順を使い分 けてもよい。
【0066】
−第3実施例−
図23〜図27を参照して本発明の第3実施例を説明する。上述した第1実施例、第2実施例との共通部分には同一符号を付し、説明を省略する。
【0067】
図23に示すように、本実施例では表示装置9にブレ警告装置9Bと構図修正指示表示装置9Cとが設けられる。CPU1は撮影に先立って後述する修正方向検出処理を実行し、測光装置4が検出する測光値の分布に基づいて構図の修正方向を検出する。その結果が構図修正指示表示装置9Cにより表示される。
【0068】
ブレ警告装置9Bおよび構図修正指示表示装置9Cを図24に示す。図24の装置では、カメラのファインダ視野FSの左側および上側に表示器90,91が設けられる。表示器90は三角形状の方向指示灯90U,90Lと、これらの間に配置された円形の中心灯90Cとを備える。カメラを撮影画面の短辺方向(図の上下方向)に振って構図を修正すべきときは、修正方向に対応する側の方向指示灯90Uまたは方向指示灯90Lが点灯する。短辺方向へカメラを動かす必要がないときは中心灯90Cが点灯する。表示器91は三角形状の方向指示灯91R,91Lと、これらの間に配置された円形の中心灯91Cとを備える。カメラを撮影画面の長辺方向(図の左右方向)に振って構図を修正すべきときは、修正方向に対応する側の方向指示灯91Rまたは方向指示灯91Lが点灯する。撮影画面の長辺方向にカメラを動かす必要がないときは中心灯91Cが点灯する。ブレ警告を行なうときは、表示器90,91の全灯が点滅する。構図確認を催促するときは表示器90,91の全灯が点灯したままとなる。
【0069】
図25は本実施例のCPU1による構図推定手順の一部を示すものである。図中のステップS11、ステップS22、ステップS23は図10中の同一ステップと共通し、図中のステップS17,18は図8中の同一ステップと共通するので説明を省略する。ステップS11よりも前段階では図4に示すステップS1〜ステップS10が実行される。
【0070】
本実施例では、ステップS11で撮影倍率βが判定撮影倍率a以上と判断したとき、およびステップS23で離散指数Eが基準値h以上と判断したときステップS31へ進んで構図修正方向の検出処理を行う。この処理の詳細は後述する。ステップS32では、ステップS31で構図の修正方向が特定されたか否かを判断する。修正方向が特定されているときはステップS33へ進み、その方向への修正を表示器90または91で表示する。ステップS32で修正方向がないと判断したときはステップS34へ進み、構図良好表示を行う。
【0071】
図26は構図修正方向検出処理の詳細を示すものである。この処理では、主要被写体の上端と撮影画面の上端との間隔を適正に保つために必要な修正方向を検出する。以下の説明において、撮影画面のX軸方向、Y軸方向や測光装置4の素子PSの配置に関する表現は第2実施例と共通である。
【0072】
図示の処理では、まずステップS301において、測光装置4が検出する測光値の分布に基づいて、撮影画面内での主要被写体の上端のY座標YLを求める。 この処理は図17のステップS241〜ステップS250までと同じである。すなわち、ステップS301では図17のステップS250における境界座標YL を求める。座標YLを求めた後はステップS302へ進み、図17のステップS 251と同じく座標YLが適正範囲にあるか否か判断する。座標YLが適正範囲にないときはステップS303へ進み、座標YLが適正範囲の下限(K・n)未満 か否か判断する。下限(K・n)未満であればステップS304へ進み、修正方向を「下」とする。一方、座標YLが下限(K・n)未満でなければステップS 305へ進み、修正方向を「上」とする。ステップS302で座標YLが適正範 囲のときはステップS306へ進み、「修正方向なし」とする。ステップS304〜ステップS306の終了後は図25の処理に戻る。なお、ステップS301の座標YLの検出処理において、図17のステップS248,ステップS249 に対応する条件が否定された場合はステップS306に進む。
【0073】
以上の処理によれば、主要被写体の上端位置が適正範囲よりも下側に外れているときに修正方向「下」が表示器90または91で表示され、反対に上側に外れているときは修正方向「上」が表示器90または91で表示される。例えば図27(a)の構図では、主要被写体X2が撮影画面Pの下側に偏っているので、修 正方向「下」と判断されて表示器90の表示灯90Lが点灯する。表示器91側は中心灯91Cが点灯する。表示器90の指示にしたがってカメラを下側へ振ると、撮影画面内で主要被写体X2が上側へ相対移動する。図27(b)に示すよ うに主要被写体X2が適正範囲に入った状態で構図修正方向の検出が繰り返され ると、修正方向なしと判断されて表示器90の中心灯90Cが点灯する。
【0074】
本実施例のように構図の修正方向を指示する場合には、撮影者が構図不良の典型例を知らないときでも、カメラの表示にしたがうだけで構図が良好な写真を撮影できる。なお、表示器90,91のいずれを用いるかはカメラの姿勢により決定する。すなわち、カメラの横位置では表示器90を用いて上下の修正を指示し、縦位置では表示器91により上下の修正を指示する。
【0075】
以上の例では主要被写体の位置に関する修正方向のみを検出したが、上述した第2実施例における指数G1,G3の演算を応用すれば図14に示す柱状物X1や 図21に示す水平エッジX3の傾きの修正方向も検出できる。それらの例を図2 8,図29により説明する。
【0076】
図28は柱状物の修正方向検出手順を示すものである。この例では、まずステップS311で、測光装置4が検出する測光値の分布に基づいて、撮影画面内の柱状物の傾きを検出する。この処理は、図12,図13に示す柱状物不良指数G1の演算手順におけるステップS211〜ステップS223までの処理と同じで ある。すなわち、ステップS311では図13のステップS223におけるずれ量ΔXL,ΔXRを演算する。
【0077】
ずれ量ΔXL,ΔXRが求められると、続くステップS312で両者の正負符号が一致するか否かを判断する。正負が一致していないと柱状物の左右の傾き方向が相違し、修正方向を特定できないからである。ステップS312で正負が一致すると判断したときはステップS313へ進み、ずれ量ΔXR(ΔXLに代えてもよい)が正の値か否か判断する。正の値であればステップS314へ進み、修正方向を時計方向とする。ずれ量ΔXRが負の値であれば修正方向を反時計方向と する。ステップS312で正負が一致していないときはステップS316へ進み、「修正方向なし」とする。ステップS311において、図12のステップS218,219に対応する条件が否定されたときもステップS316へ進む。
【0078】
図16から明らかなように、柱状物X1が撮影画面の左側へ傾くときはXc< Xaのためにずれ量ΔXRが負の値となり、反対に撮影画面の右側へ傾くときは Xc>Xaでずれ量ΔXRが正の値となる。柱状物X1が左側に傾くときは撮影画面の中心部を軸としてカメラを反時計方向に回せば傾きが小さくなり、傾きが反対のときはカメラを時計方向に回せばよい。図28の処理では、ステップS313にてずれ量ΔXRが負のときは反時計方向に、正のときは時計方向に修正方向 を定めるので、柱状物X1の傾きを修正する方向を撮影者に対して正確に指示で きる。
【0079】
図29は水平エッジの修正方向検出手順を示すものである。この例では、まずステップS321で、測光装置4が検出する測光値の分布に基づいて撮影画面内の水平エッジの位置を検出する。この処理は、図19に示す水平エッジ不良指数G3の演算手順におけるステップS271〜ステップS279までの処理と同じ である。すなわち、ステップS321では、図19のステップS279における水平エッジX3の左右端のY座標Yx1,Yxmを演算する。
【0080】
続くステップS322では、図20のステップS280と同じく水平エッジX3の傾きに対応したずれ量ΔYが許容値H0以下か否かを判断する。許容値H0を 越えると判断したときはステップS323へ進み、水平エッジX3の左端のY座 標Yx1が、右端のY座標Yxmよりも小さいか否か判断する。小さければステップS324へ進み、修正方向を反時計方向とする。座標Yx1が座標Yxm未満でないときはステップS325へ進み、修正方向を時計方向とする。ステップS322で傾きが許容値H0以下のときはステップS326へ進み、修正方向なしとする。ステップS321において、図19のステップS272,S274,S275,S278に対応する条件が否定されたときもステップS326へ進む。
【0081】
図22(b)に示すように水平エッジX3が右下がりに傾くときはYx1>Yxm となるためにステップS323が否定され、ステップS325で構図修正方向が時計方向となる。反対に水平エッジX3が左下がりに傾くときはYx1<Yxmのた めにステップS323が肯定され、ステップS324で構図修正方向が反時計方向となる。水平エッジX3が右下がりに傾くときはカメラを撮影画面の中心部を 軸として時計方向に回せば傾きが小さくなり、傾きが反対のときはカメラを反時計方向に回せばよい。したがって、図29の処理によれば水平エッジX3の傾き を修正する方向を撮影者に対して正確に指示できる。なお、ステップS322が肯定されたときに図20のステップS281を実行し、水平エッジX3が撮影画 面の中央を横切る場合にはその旨を別に警告してもよい。
【0082】
上述した図28,図29の処理は、図26の処理に代え、あるいは図26の処理に追加して行うことができる。ただし、複数の処理を実行する場合、例えば柱状物X1に対応する修正方向が時計方向で水平エッジX3に対応する修正方向が反時計方向の場合等、各処理で検出した修正方向が相互に矛盾することがあり得る。このような場合には、例えば修正方向なしとするなどの対応が必要である。修正方向として回転方向を指示するためには、図30に示す表示器92,93を用いるとよい。
【0083】
図30の例では、カメラのファインダ視野FSの左右に一対の表示器92,93が設けられる。表示器92,93は、撮影画面の短辺方向上側を向く矢印状の方向指示灯92U,93Uと、下側を向く矢印状の方向指示灯92L,93Lと、撮影画面の長辺方向外側を向く方向指示灯92SR、93SLを備える。これらの指示灯には、LEDなどカメラのファインダ内表示に用いられる周知の発光手段を用いてよい。
【0084】
以上の表示器92,93によれば、方向指示灯92U,93Uの点灯で上側への修正を、方向指示灯92L,93Lの点灯で下側への修正を、方向指示灯92SRの点灯で右側への修正を、方向指示灯92SLの点灯で左側への修正を指示できる。また、方向指示灯92U,93Lの同時点灯で反時計方向への修正を、方向指示灯92L,93Uの同時点灯で時計方向への修正を指示できる。
【0085】
例えば図31(a)の構図では、柱状物X1が撮影画面Pの左側へ傾くので方 向指示灯92Uと93Lとを同時に点灯させる。これらの指示にしたがってカメラを反時計方向へ回転させれば、同図(b)に示すように柱状物X1の傾きが修 正される。図32(a)の構図では水平エッジX3が撮影画面P内で右下がりに 傾くので、方向指示灯93Uと92Lとを同時に点灯させる。これらの指示にしたがってカメラを時計方向へ回転させれば、同図(b)に示すように水平エッジX3の傾きが修正される。
【0086】
なお、構図修正の必要がないときは全ての指示灯を消灯する。ブレ警告を行うときは全ての指示灯を点滅させる。離散指数Eに基づく構図確認の催促を行うときは全ての指示灯を点灯させればよい。
【0087】
−第4実施例−
図33および図34により本発明の第4実施例を説明する。なお、本実施例は、CPU1により上述した各実施例とは異なる構図推定処理を行うものである。したがって、以下では構図推定処理の特徴部分を中心に説明する。
【0088】
図33は本実施例の構図推定処理手順を示すものである。図4に示す第1実施例と対比すると、ステップS41はステップS1に、ステップS42はステップS3に、ステップS43はステップS4に、ステップS44はステップS6に、ステップS45はステップS7に対応する。そして、ステップS45でブレ量が適正範囲にないと判断したときにはステップS52へ進み、手ブレ警告を行う。
【0089】
ステップS45でブレ量が適正範囲と判断したときはステップS46へ進み、視線検出装置2が検出する視線に基づいて撮影者の注視点分布を求める。この処理は、図6のステップS101〜ステップS108までに相当する。すなわち、図3(c)に示す領域W毎の注視点存在時間t(i,j)を求めるものである。注視点分布を求めた後はステップS47へ進み、注視点存在時間t(i,j)が最も大きい領域W(i,j)を主要被写体の位置として特定する。例えば人物を主要被写体とする撮影では、人物の顔に注視点が集中するので、上記の処理により主要被写体位置をほぼ正確に特定できる。主要被写体が人物以外の場合でもそこに注視点が集中することは同じであり、上記の処理がそのまま適用できる。
【0090】
主要被写体位置を定めた後は、ステップS48にて撮影画面内でのエッジ位置を検出する。この処理は、第2実施例で説明した柱状物X1の左右端の座標Xa,Xb,Xc,Xd(図16参照)や、水平エッジX3の左右端の座標Ya,Yb,Yc,Yd(図22参照)を求めるものである。エッジ位置を求めた後はステップS49へ進み、主要被写体位置とエッジ位置との相対関係が構図不良とされる典型例に該当しないか否かを判断する。例えば図34(a)に示すように主要被写体X2の顔部分に対して水平エッジX3が大きく離れているときは構図良好とする。反対に、図34(b)に示すように主要被写体X2の顔部分のすぐ近くを水 平エッジX3が横切るときは構図不良と判断する。また、図14に示す柱状物X1が主要被写体X2と重なるような場合も構図不良と判断する。
【0091】
ステップS49にて構図不良と判断したときはステップS50へ進み、構図不良であることを撮影者に警告した上でステップS44へ戻る。一方、構図良好と判断したときはステップS51へ進み、構図良好である旨を表示する。このように、本実施例では撮影者の注視点の分布に基づいて主要被写体位置を特定し、その位置とエッジの位置との相対関係により構図の良否を推定するので、主要被写体が撮影画面の中央部から外れていても正確に構図不良の典型例を検出できる。
【0092】
なお、図3(a)に示す撮影画面の分割領域Wの個数(u,vの値)によっては人物の顔部分に対応する領域Wが複数存在することがある。このため、人物の顔部分が領域Wの何個分に相当するかを予め算出し、注視点が集中する位置を中心とした一定範囲を人物の顔部分として定めるとよい。また、撮影倍率βに応じても主要被写体の大きさが変化するので、図4に示すステップS8〜ステップS10を追加して撮影倍率βを演算し、その値に応じて主要被写体と見做す範囲を変化させるとよい。
【0093】
本実施例では上述した第2実施例の指数G1〜G3の演算手順を応用してエッジ位置を求めたが、本発明はこれに限るものではない。例えば、撮影画面内でコントラストが最も大きく変化するエッジを優先して検出することで水平線や地平線、あるいは主要被写体や柱状物と背景との境界のエッジを特定してもよい。測光装置4で検出した測光値分布に微分フィルタをかけてエッジ強調を行うなど、画像処理分野において周知のエッジ検出方法を用いてエッジの位置およびその種類を特定してもよい。
【0094】
図35および図36は上述した各実施例で用いることができる警告表示の例を示すものである。図35(a)は、ファインダ視野FSの下側に設けたシャッタ速度や露出情報等の表示器100の表示色または輝度を変化させて警告する例、同図(b)はファインダ視野FSの表示色または輝度を変化させて警告する例、同図(c)はファインダ視野FSのコーナの外側にドット状の警告マーク101を点灯または点滅させて警告する例、同図(d)はファインダ視野FSのコーナの内側にドット状の警告マーク102を点灯または点滅させて警告する例、図36(a)はファインダ視野FSの外側に枠状の警告マーク103を点灯または点滅させて警告する例、同図(b)はファインダ視野FSの内側に枠状の警告マーク104を点灯または点滅させて警告する例、同図(c)はファインダ視野FS内に警告メッセージ105を点灯または点滅させて警告する例、同図(d)は表示器100内に警告メッセージ106を点灯または点滅させて警告する例である。これらの警告は、離散指数Eに基づく構図確認の催促、構図不良指数Gに基づく構図不良の警告、手ブレ警告など適宜使い分けてよい。
【0095】
上述した各実施例において、撮影レンズの焦点距離に応じて構図不良の判定基準を変更してもよい。例えば広角レンズの場合には背景となる山の稜線や建造物の稜線が写し込まれる可能性が高く、かつレンズのパースペクティブの関係から斜めのエッジが写し込まれがちなので、柱状物や水平エッジの傾きに対する許容範囲を大きく設定する。反対に、望遠レンズの場合には背景が単調なことが多いので、エッジの傾きに対する許容範囲を小さく設定するとよい。
【0096】
以上の各実施例では、撮影モードの設定機能を備えたカメラを説明したが、そのような機能を有しないカメラでは、最適と思われる判定撮影倍率aやエリア係数α、各種の構図不良条件を定めてCPU1に与えておく。第2実施例や第3実施例で説明した水平エッジX3の検出処理は、X軸方向とY軸方向とを入れ替え ることにより撮影画面を左右に二分するエッジにも適用できる。
【0097】
以上の実施例において、測光装置4およびCPU1が輝度情報検出手段を、CPU1が構図良否推定手段、エッジ検出手段、修正方向判定手段、手ブレ状態判別手段を、視線検出装置2およびCPU1が注視点情報検出手段を、表示装置9が警告手段、表示手段および手ブレ警告手段をそれぞれ構成する。
【0098】
【発明の効果】
本発明では、主要被写体の顔から主要被写体位置を特定するので、主要被写体が撮影画面の中央部から外れていても正確に構図不良の典型例を検出できる。
【図面の簡単な説明】
【図1】本発明の第1実施例に係る制御系のブロック図。
【図2】図1の測光装置4の配列を示す図。
【図3】図1のCPU1による離散指数Eの演算処理を説明するための図。
【図4】図1のCPU1における構図推定手順の一部を示すフローチャート。
【図5】図4に続くフローチャート。
【図6】図5の離散指数Eの演算手順の詳細を示すフローチャート。
【図7】図1の変形例に係る制御系のブロック図。
【図8】図7の例における構図推定手順の特徴部分を示すフローチャート。
【図9】撮影画面内に複数の焦点検出領域が設けられる例を示す図。
【図10】本発明の第2実施例における構図推定手順の特徴部分を示すフローチャート。
【図11】図10の構図不良指数Gの演算手順の詳細を示すフローチャート。
【図12】図11の柱状物不良指数G1の演算手順の詳細を示すフローチャート。
【図13】図12に続くフローチャート。
【図14】撮影画面内に存在する柱状物の位置が適切な例(a)と不適切な例(b)を示す図。
【図15】測光装置4の素子の配列の一例を示す図。
【図16】図14(b)の構図と図15に示す素子の配列との対応を示す図。
【図17】図11の主要被写体不良指数G2の演算手順の詳細を示すフローチャート。
【図18】撮影画面内の主要被写体の位置が適切な例(a)と不適切な例(b)を示す図。
【図19】図11の水平エッジ不良指数G3の演算手順の詳細を示すフローチャート。
【図20】図19に続くフローチャート。
【図21】水平線や地平線が写し込まれた構図の例を示す図。
【図22】図21に示すエッジと図15に示す素子の配列との対応を示す図。
【図23】本発明の第3実施例に係る制御系のブロック図。
【図24】図23の表示装置9によるファインダ内の表示の一例を示す図。
【図25】本発明の第3実施例における構図推定手順の特徴部分を示すフローチャート。
【図26】図25の構図修正方向検出処理の一例を示すフローチャート。
【図27】図26の処理を実行したときの構図修正方向の表示例を示す図。
【図28】図25の構図修正方向検出処理の他の例を示すフローチャート。
【図29】図25の構図修正方向検出処理のさらに他の例を示すフローチャート。
【図30】図24の変形例を示す図。
【図31】図28の処理を実行したときの構図修正方向の表示例を示す図。
【図32】図29の処理を実行したときの構図修正方向の表示例を示す図。
【図33】本発明の第4実施例における構図推定手順を示すフローチャート。
【図34】第4実施例にて構図良好と推定される例(a)および構図不良と推定される例(b)を示す。
【図35】構図修正等の警告の変形例を示す図。
【図36】構図修正等の警告の変形例を示す図。
【符号の説明】
1 CPU
2 視線検出装置
3 ブレ検出装置
4 測光装置
5 測距装置
6 焦点距離検出装置
9 表示装置
9A 構図警告装置
9B ブレ警告装置
9C 構図修正指示表示装置
90,91,92,93 表示器
[0001]
[Industrial application fields]
The present invention relates to a camera having a composition advice function.
[0002]
[Prior art]
Some typical examples of poor composition in order to give an unpleasant feeling to a photographer are known from experience. There has been proposed a camera that discriminates whether or not this is a typical example and prevents photographing of poor composition. For example, there is a camera that measures a luminance distribution in a certain range from the center of the shooting screen in the vertical direction and the horizontal direction, and issues a warning to the photographer as a composition failure when the contrast change within this range is larger than a predetermined value ( For example, Patent Document 1). A composition in which the edge that bisects the shooting screen such as the horizon or the horizon crosses the person's neck, or a structure in which a structure such as a utility pole or tree protrudes upward from the head of the person is a typical example of the above-mentioned composition failure. According to this camera, such a typical example can be determined almost accurately as long as a human face is captured in the center of the shooting screen.
[0003]
[Patent Document 1]
JP-A-4-67133
[0004]
[Problems to be solved by the invention]
  However,ManWhen shooting an object off the center of the shooting screen, the camera described in the above publication cannot detect it as a poor composition even if the horizontal line or utility pole overlaps the person's head..
[0005]
An object of the present invention is to provide a camera capable of preventing the occurrence of a composition failure photograph from a viewpoint different from the conventional one, and a camera capable of distinguishing typical examples of composition failure more variously and accurately than conventional ones.
[0006]
[Means for Solving the Problems]
  The camera having the composition advice function according to the invention of claim 1 recognizes the face of the main subject in the photographing screen and detects the position of the main subject, and the detected position of the main subject in advance. A composition failure determination means for determining a composition failure in comparison with a predetermined appropriate range; and a warning means for outputting a warning when a composition failure is determined.Display means for displaying a composition correction direction in which the camera should be moved when a composition failure is determined;It comprises.
  In the invention of claim 1, a luminance information detecting means for detecting information related to the luminance distribution in the shooting screen, and a specific type of edge other than the main subject from the shooting screen based on the information related to the detected luminance distribution Edge detection means for extracting the position and detecting its position, and determining the quality of the composition based on the position of the main subject detected by the position detection means and the type and position of the edge detected by the edge detection means You may make it do.
[0007]
【Example】
-1st Example-
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
FIG. 1 is a block diagram of a camera control system according to the present embodiment. Reference numeral 1 in the figure denotes a CPU that controls the operation of the camera. The CPU 1 includes a line-of-sight detection device 2, a shake detection device 3, a photometry device 4, a distance measurement device 5, a focal length detection device 6, an attitude detection device 7, A photographing mode input device 8 and a display device 9 are connected.
[0008]
The line-of-sight detection device 2 irradiates infrared rays toward the photographer's pupil looking into a camera finder (not shown), and obtains the rotation angle of the eyeball from the reflected light from the cornea and the eyeball image. Identify the point of interest of the photographer at Information regarding the gazing point detected by the line-of-sight detection device 2 is sent to the CPU 1. The shake detection device 3 detects the magnitude of camera shake based on, for example, the acceleration or angular velocity of the camera body, and outputs a signal corresponding to the detected shake magnitude to the CPU 1. The photometric device 4 is a two-dimensional charge storage type image sensor that performs photometry on a photographing screen by light receiving elements PS arranged in a matrix of n rows × m columns as shown in FIG. The position of the element PS of the photometric device 4 is represented by coordinate values of a two-dimensional orthogonal coordinate system in which the horizontal direction of the photographing screen is the x axis and the vertical direction is the y axis direction as shown in FIG. FIG. 2 shows a state of the horizontal position of the camera in which the shooting screen is horizontally long. In the vertical position of the camera where the shooting screen is vertically long, the short side direction of the shooting screen is the x-axis direction and the long side direction is the y-axis direction.
[0009]
The distance measuring device 5 detects the shooting distance (the distance from the film surface of the camera to the main subject), and outputs a signal corresponding to the detection result to the CPU 1. The detection of the photographing distance is calculated based on, for example, the rotational position of the distance ring of the photographing lens, or is detected by irradiating the subject with infrared light. The focal length detection device 6 reads information related to the focal length of the photographic lens from a ROM built in the photographic lens and outputs it to the CPU 1. In a camera in which the taking lens cannot be replaced, the focal length detection device 6 may be omitted and focal length information may be given to the CPU 1 in advance.
[0010]
The posture detection device 7 detects whether the camera is in the horizontal position or the vertical position and outputs it to the CPU 1. As described above, the horizontal position means a position where the long side direction of the shooting screen matches the horizontal direction, and the vertical position means a position where the short side direction of the shooting screen matches the horizontal direction. The shooting mode input device 8 is for the photographer to input a shooting mode according to the shooting purpose, such as a portrait mode for shooting a person or a landscape mode for shooting a landscape. The display device 9 has a function of displaying shooting information such as an exposure value on the upper surface of the camera body or in the viewfinder, and also has a warning function by a buzzer, synthesized voice, vibration, or the like.
[0011]
The CPU 1 reads signals from the devices 2 to 8 as necessary, controls a shutter and a diaphragm (not shown), and drives the photographing lens to the in-focus position. Prior to the photographing operation, the CPU 1 performs composition estimation processing according to the procedure shown in FIGS. Hereinafter, the composition estimation process will be described. The composition estimation process may be executed in response to a half-press operation of the release button, for example.
[0012]
As shown in FIG. 4, in the composition estimation process, the photographing mode input from the photographing mode input device 8 is read in step S1. In step S2, “determination shooting magnification a” corresponding to the shooting mode is set. The “determination shooting magnification a” will be described later. In step S3, the posture of the camera is detected from the output of the posture detection device 7, and in a subsequent step S4, a division pattern of the photographing screen necessary for signal processing from the line-of-sight detection device 2 is selected according to the posture of the camera. For example, in the horizontal position of the camera, a pattern obtained by dividing the shooting screen P into a matrix region W of v rows × u columns is selected as shown in FIG. The number of divisions (values of u and v) of the division pattern may be the same as or different from the number of divisions (values of m and n) of the photometric device 4 described above. In the following, the position of the area W is represented by a coordinate value of a two-dimensional orthogonal coordinate system in which the horizontal direction of the photographing screen is the x-axis and the vertical direction is the y-axis direction, as in the divided area by the photometry device 4. Is W (i, j). Illustration of the division pattern when the camera body is held in the vertical position is omitted.
[0013]
After the division pattern is selected in step S4, the area coefficient α corresponding to the division pattern is set in step S5. For example, when the division pattern shown in FIG. 3A is selected, as shown in FIG. 3B, the area coefficient for each of the regions W (1, 1) to W (i, j) to W (u, v) is selected. α (1,1) to α (i, j) to α (u, v) are given. The area coefficient α (i, j) is set to increase as the distance from the center of the shooting screen increases. The area coefficient α (i, j) may be increased in proportion to the distance from the center of the shooting screen, or may be changed so as to be a quadratic or higher increasing function with respect to the distance.
[0014]
After the area coefficient α is set, a signal from the shake detection device 3 is read in step S6, and it is determined whether or not the shake amount detected in the subsequent step S7 is within an appropriate range. If the blur amount is in the proper range, the process proceeds to step S8, and if it exceeds the proper range, the process proceeds to step S17. Note that the amount of blur is determined because the composition is not determined when the camera blur increases, the photographing screen becomes unstable, and the gaze point detection accuracy deteriorates.
[0015]
In step S8, the focal length f of the photographing lens is detected from the signal from the focal length detection device 6, and in the subsequent step S9, the photographing distance D is obtained from the signal from the distance measuring device 5. In step S10, the photographing magnification β is obtained by the equation β = f / (D−f). For simplicity, β = f / D may be set.
[0016]
In subsequent step S11 (FIG. 5), it is determined whether or not the calculated photographing magnification β is equal to or larger than the determination photographing magnification a set in step S2. If it is not less than the determination photographing magnification a, the process proceeds to step S12, and if it is less than the determination photographing magnification a, the process proceeds to step S13. In step S12 or step S13, an index representing the degree of dispersion of the gazing point of the photographer within a predetermined time based on the gazing point detected by the line-of-sight detection device 2, the division pattern set in steps S4 and S5, and the area coefficient. (Hereinafter referred to as a discrete index.) E is calculated. Hereinafter, the calculation processing of the discrete index E will be described with reference to FIG.
[0017]
In the process of FIG. 6, first, a timer for setting the calculation cycle of the discrete exponent E is started in step S101. In the subsequent step S102, the position of the gazing point detected by the line-of-sight detection device 2 is read, and it is identified which of the regions W (1, 1) to W (u, v) in FIG. In the next step S103, the gazing point existence time t (i, j) is integrated only for the region W (i, j) where the gazing point exists. Thereafter, in step S104, the position of the gazing point is confirmed by a signal from the line-of-sight detection device 2. In subsequent step S105, it is determined whether or not the region W (i, j) to which the gazing point confirmed in step S104 belongs has changed from the previous region. If the area W (i, j) has changed, the area for integrating the existence time t (i, j) is changed to a new area in step S106, and the process proceeds to step S107. If there is no change in the area W (i, j), step S106 is omitted and the process proceeds to step S107.
[0018]
In step S107, it is determined whether or not the accumulated time of the timer activated in step S101 has reached a predetermined time, and if not, the process returns to step S103 and the above processing is repeated. When it is determined in step S107 that the time is up, in step S108, the integration of the existence time t (i, j) for all the regions W (i, j) is terminated, and in step S109, the discrete index E is calculated by the following equation. .
[Expression 1]
E = Σ (α (i, j) × t (i, j)) (i = 1 to u, j = 1 to v) As is apparent from this equation, the discrete index E is shown in FIG. 3 (b), the region W (i, 1) to T (u, v) of the gazing point for each region W (1,1) to W (u, v) shown in FIG. j) The sum of values obtained by multiplying the area coefficient α (i, j) for each. After the end of step S109, the process returns to the process shown in FIG.
[0019]
Returning again to FIG. After the calculation of the discrete index E, the process proceeds to step S14 or step S15, and it is determined whether or not the calculated discrete index E is greater than or equal to the reference values b and c. If it is equal to or larger than the reference values b and c, the process proceeds to step S16, and the photographer is informed that the composition is good by the display device 9. On the other hand, when the discrete index E is less than the reference values b and c in steps S14 and S15, the process proceeds to step S17, and a warning is issued to the photographer by a buzzer or the like of the display device 9. The reference values b and c are in a relationship of b <c.
[0020]
According to the above processing, the area coefficient α (i, j) increases as the distance from the center of the shooting screen increases. Therefore, when the photographer concentrates on the center of the shooting screen, the calculation is performed in step S12 or step S13. The discrete index E is reduced, and the possibility that a warning is issued in step S17 when it is determined that it is less than the reference values b and c in step S14 or step S15 increases. On the other hand, if the photographer pays close attention to the periphery of the photographing screen, the discrete index E increases, and it may be determined that the reference values b and c are greater than or equal to step S14 or step S15, and a good composition display may be performed in step S16. Get higher. When the photographer's gazing point is concentrated in the center of the photographing screen, the photographer pays attention only to the main subject and does not pay attention to the background, so there is a high possibility that composition failure will occur. Accordingly, the warning in step S17 effectively functions as information for prompting the photographer to confirm the composition. Even when the camera shake is so large that composition determination cannot be performed, a warning is issued in step S17.
[0021]
In this embodiment, composition failure is estimated based on the gazing point distribution of the photographer, so that the function is not impaired even at low luminance or low contrast where it is difficult to detect a horizontal line or the like in the photographing screen. In this embodiment, even when only the periphery of the shooting screen is watched, there is a high possibility that the discrete index E becomes high and no warning is issued. However, when the photographer is aware of the periphery of the photographing screen, it may be considered that the intention of composition includes some intention, and there is no inconvenience even if a warning is not given.
[0022]
In the embodiment, the reference values b and c are changed according to the magnitude relationship between the shooting magnification β and the determination shooting magnification a, and b <c. For this reason, even if the degree of scatter of the gazing point is the same, when the imaging magnification β is small, that is, when β <a (step S13, 15 side), β ≧ a (step S12, 14 side). Will be more likely to be warned. This is because as the shooting magnification β decreases, the size of the main subject in the shooting screen decreases, and it becomes more necessary to check the composition on the periphery of the shooting screen.
[0023]
The reason why the determination photographing magnification a is changed according to the photographing mode is because the necessity of gaze around the photographing screen is taken into consideration. For example, in the portrait mode, the person who is the main subject is captured large and the background is blurred, so it is not necessary to watch the background, and the judgment shooting magnification a can be set small. Therefore, the determination photographing magnification a needs to be set high. Note that the area coefficient at the center of the shooting screen may be changed to be larger in the portrait mode than in the landscape mode.
[0024]
As shown in FIG. 7, the display device 9 is provided with a composition warning device 9A and a shake warning device 9B. As shown in FIG. 8, when it is estimated that the composition is bad in step S14 or step S15, the process proceeds to step S17. If it is determined in 9A that composition confirmation is to be urged and in step S7 it is determined that shake is large, the process may proceed to step S18 to give a shake warning by the shake warning device 9B.
[0025]
By identifying the area where the gazing point is most concentrated within a certain time in the shooting screen as the position of the main subject and setting the area coefficient α (i, j) to be larger as the distance from the position increases, It is also possible to increase or decrease the discrete index E according to the degree of dispersion of the gazing point. As shown in FIG. 9, in a camera in which a plurality of focus detection areas AF are set on the shooting screen P and any one area can be selected, the area coefficient α ( i, j) may be increased. In this case, the focus detection area AF may be selected by the photographer or automatically by the camera. Even a camera that selects the focus detection area AF based on the photographer's line of sight may be set so that the area coefficient α (i, j) increases as the distance from the selected focus detection area AF increases. In addition, when the area coefficient α (i, j) is set larger as the distance from the center of the shooting screen is set regardless of the position of the focus detection area AF, the selection is performed when the focus detection area AF is selected by the photographer's line of sight. Since the line of sight temporarily concentrates on the focus detection area AF, the gazing point distribution information during that time may not be taken into the calculation data of the discrete index E.
[0026]
-Second embodiment-
A second embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the composition estimation process in the CPU 1 is changed from the first embodiment described above. Therefore, common parts with the first embodiment are denoted by the same reference numerals, description thereof is omitted, and characteristic parts of the composition estimation process will be described.
[0027]
FIG. 10 shows a part of the composition estimation processing of this embodiment. Step S11 in the figure is common to step S11 of the first embodiment described above, and steps S1 to S10 shown in FIG. 4 are executed at a stage prior to step S11. If the shooting magnification β is larger than the determined shooting magnification a in step S11, the process proceeds to step S21, and an index indicating the degree that the composition of the current shooting screen meets a predetermined composition failure condition (hereinafter referred to as composition failure index). G) is calculated based on the photometric value Bv for each element PS (see FIG. 2) of the photometric device 4. Details of the calculation of the composition defect index G will be described later.
[0028]
When it is less than the determined photographing magnification a in step S11, the process proceeds to step S22, and the discrete index E is calculated. The calculation processing of the discrete index E is the same as that shown in FIG. After the calculation of the discrete index E, the process proceeds to step S23, and it is determined whether or not the discrete index E is greater than or equal to the reference value h. If it is greater than or equal to the reference value h, the process proceeds to step S24, where the composition failure index G is calculated. If it is less than the reference value h, the process proceeds to step S25, and a warning is issued to the photographer by a buzzer or the like of the display device 9. The warning at this time is for the fact that the photographer has not confirmed the composition around the photographing screen as in the first embodiment. The determination photographing magnification a and the reference value h do not always coincide with the determination photographing magnification a and the reference values b and c of the first embodiment.
[0029]
FIG. 11 shows a calculation process of the composition defect index G. In this process, first, in step S201, it is determined whether or not the camera is in the horizontal position based on the output from the attitude detection device 7. If it is not the horizontal position, the process proceeds to step S202, where the number of elements m of the photometric device 4 shown in FIG. 2 is defined as a constant n used in the subsequent processing, and the number of elements n is defined as a constant m used in the subsequent processing. In the horizontal position, the number of elements m is used as a constant m, and the number of elements n is used as a constant n. This operation is performed because the CPU 1 handles the horizontal direction of the shooting screen as the X-axis direction and the vertical direction as the Y-axis direction regardless of the vertical position and the horizontal position of the camera. This is because the number of elements in the X-axis direction and the Y-axis direction of 4 are interchanged.
[0030]
After defining the number of elements m and n in accordance with the posture of the camera, in step S203, an index (hereinafter referred to as a columnar object defect index) G1 indicating the degree to which a columnar object such as a utility pole or standing tree causes a composition failure. Calculate. In step S204, an index G2 representing the degree to which the position of the main subject causes a composition failure (hereinafter referred to as a main subject failure index) G2 is calculated. In step S205, an index G3 (hereinafter referred to as a horizontal edge defect index) G3 representing the degree of composition failure caused by a horizontal edge that bisects the photographic screen, such as a horizontal line or a horizon line, is calculated. These indexes G1 to G3 are set so as to increase as the degree of composition failure increases. Details of the calculation procedure of each of the indices G1 to G3 will be described later.
[0031]
After calculating the indices G1 to G3, the process proceeds to step S206, and the sum (G1 + G2 + G3) of the indices G1 to G3 is obtained as the composition failure index G. After the composition failure index G is calculated, the process proceeds to step S26 or step S27 shown in FIG. 10, and it is determined whether the calculated composition defect index G is equal to or more than the reference values p and q. If it is less than the reference values p and q, the process proceeds to step S28, and the display device 9 informs the photographer that the composition is good. On the other hand, when the composition failure index G is greater than or equal to the reference values p and q in steps S26 and S27, the process proceeds to step S25, and a warning is issued to the photographer by a buzzer or the like of the display device 9. The reference values p and q are in a relationship of p> q. Even when the camera body is largely shaken, the process of step S25 is executed and a warning is issued as in the first embodiment.
[0032]
The procedure for calculating the indices G1 to G3 will be described with reference to FIGS.
(1) Calculation of columnar defect index G1
12 and 13 show the calculation procedure of the columnar object defect index G1. As shown in FIG. 14 (a), a columnar object (tree, telephone pole, pole, etc.) X1 to be photographed in a state of extending straight in the vertical direction of the photographing screen P is tilted and photographed as shown in FIG. 14 (b). If it is done, it will cause poor composition. In order to reflect such elements in the estimation of composition failure, in the processing of FIGS. 12 and 13, the columnar object X1 in the photographing screen is detected based on the photometric value distribution detected by the photometric device 4, and the edge of the columnar object X1 is detected. (Boundary with background) The degree of inclination of eL and eR is indexed. In the following description, as shown in FIG. 15, among the elements PS of the photometric device 4, the element row having the same X coordinate is defined as the y column, and the j-th y column from the lowest end in the Y-axis direction to the upper side is the yj column. It expresses. FIG. 15 shows an example in which the camera is in the horizontal position and the number of elements PS is m = 30 and n = 20.
[0033]
As shown in FIG. 12, in the calculation of the index G1, in step S211, a variable j for designating a scan column is set to an initial value 1, and in step S212, elements PS (1, j) to PS (m, j in the yj column are set. ) To start scanning the photometric value. In the next step S213, it is determined whether or not the elements PS having the same photometric value Bv continue in the yj column for a predetermined number A or more. When it continues, the process proceeds to step S214, and the photometric value Bv and the element set position corresponding to the condition of step S213 are stored. If there is no element set that satisfies the condition, step S214 is omitted and the process proceeds to step S215.
[0034]
In step S215, it is determined whether or not scanning of the yj column has been completed. If scanning is in progress, the process returns to step S213. When the scanning of the yj column is completed, the process proceeds to step S216, and it is determined whether or not the variable j matches the number n of elements in the Y-axis direction. If they do not match, 1 is added to the variable j in step S217, and the process returns to step S212. When the variable j matches the number of elements n, the process proceeds to step S218.
[0035]
In step S218, it is determined whether there is a common photometric value Bv stored in step S214 in all y columns (y1 column to yn column). In step S213 and step S218, when it is determined whether or not the photometric values Bv of the respective elements PS are equal, they may be treated as the same if the difference between the photometric values Bv is within a certain allowable range.
[0036]
When a photometric value Bv common to all y columns exists, the process proceeds to step S219, and it is determined whether or not a predetermined number C or more of elements of the photometric value Bv are in contact with all y columns. When this condition is satisfied, the process proceeds to step S220, and it is determined whether or not the above condition is satisfied for a plurality of photometric values Bv. When a plurality of photometric values are satisfied, the process proceeds to step S221, and a set of elements having the lowest photometric value is selected as a subsequent processing target. For example, when a set of two photometric values Bv1, Bv2 (Bv1 <Bv2) is stored in step S214 and both sets of photometric values Bv1, Bv2 satisfy the conditions of steps S218, S219, step S214 is performed. The set of elements having the photometric value Bv1 stored in S214 is selected as a processing target. If step S220 is negative, step S221 is omitted, and the element set of the photometric value Bv stored in step S214 is selected as the processing target.
[0037]
After selecting the element set of the photometric value Bv, the process proceeds to step S222 (FIG. 13). In step S222, among the elements of the selected photometric value Bv, the X coordinate of the element located on the leftmost side in the y1 column and the yn column is set to the X coordinate of the element located on the rightmost side in the Xa, Xc, y1 column, and yn column, respectively. The coordinates are defined as Xb and Xd, respectively. The y1 column is a lower end of the shooting screen, and the yn column is an element row positioned at the upper end of the shooting screen. In the next step S223, the deviation amounts ΔXL and ΔXR of the left and right ends of the elements of the photometric value Bv in the y1 and yn columns are obtained by the following equations.
[Expression 2]
ΔXL = Xc−Xa
ΔXR = Xd-Xb
[0038]
In step S224, it is determined whether the signs of ΔXL and ΔXR match. If they match, the process proceeds to step S225 to determine whether the absolute value of ΔXL is smaller than the absolute value of ΔXR. If it is smaller, the process proceeds to step S226, and the index G1 is set according to the absolute value of ΔXR. When the absolute value of ΔXL is larger than the absolute value of ΔXR, the process proceeds to step S227, and the index G1 is set according to the absolute value of ΔXL. Note that the larger the ΔXL and ΔXR, the larger the exponent G1 is set. However, even if the exponent G1 is increased in proportion to ΔXL and ΔXR, or the exponent G1 is increased by a quadratic or higher increasing function with respect to ΔXL and ΔXR. Good.
[0039]
If negative determinations are made in step S218, step S219, and step S224, the process proceeds to step S228, and the index G1 = 0 is set. After completion of steps S226 to 228, the process returns to the process shown in FIG.
[0040]
Next, a specific example of the processing of FIGS. 12 and 13 will be described with reference to FIG. The arrangement of the elements of the photometric device 4 is as shown in FIG. 15, and the predetermined number A = 5 in step S213 and the predetermined number C = 4 in step S219.
FIG. 16 shows the correspondence between the photographing screen P shown in FIG. 14B and the arrangement of the elements PS of the photometric device 4. In general, since the brightness of the columnar object X1 is lower than that of the background part, the element located on the columnar object X1 detects a uniform photometric value Bv1 lower than that of the background part, and the element located on the background is detected from the photometric value Bv1. In addition, a uniformly bright photometric value Bv2 is detected. When the shooting distance to the columnar object X1 is short and the shooting lens is in focus, the background part is out of the depth of field, so it can be assumed that the background is uniformly bright.
[0041]
When the processing of FIGS. 12 and 13 is applied to the photographing screen shown in FIG. 16, the elements PS (1, 1) to PS (7, 1) have the same photometric value Bv2 with respect to the y1 column in steps S211 to S215. The elements PS (9,1) to PS (14,1) are stored as a set of the same photometric value Bv1, and the elements PS (16,1) to PS (30,1) are stored as the same photometric value Bv2. Stored as a pair. Thereafter, the same processing is repeated for the y2 column to the y20 column, and in the y20 column, the elements PS (1, 20) to PS (4, 20) are stored as a set of the same photometric value Bv2, and the element PS (6, 20) is stored. PS (11, 20) is stored as a set of identical photometric values Bv1, and elements PS (13, 20) to PS (20, 20) are stored as a set of identical photometric values Bv2.
[0042]
There are common photometric values Bv1 and Bv2 in the y1 to y20 columns, the number of elements of the photometric value Bv1 touching between the y columns, and the number of the elements of the photometric value Bv2 touching between the y columns all from the y1 column to the y20 column Since there are C (= 4) or more, both step S218 and step S219 are affirmed. Then, from the photometric value Bv1 <Bv2, a set of elements having the photometric value Bv1 is selected as a processing target in step S220. In step S221, the X coordinates of the left and right ends of the elements of the photometric value Bv1 in the y1 and y20 columns are selected to be Xa = 9, Xb = 14, Xc = 6, Xd = 11. In step S223, ΔXL = 6− 9 = −3, ΔXR = 11−14 = −3. Since the signs of ΔXL and ΔXR are both negative, step S224 is affirmed. Since the absolute values of ΔXL and ΔXR are equal, step S225 is affirmed, and in step S226, the index G1 is set according to the absolute value of ΔXL (= 3).
[0043]
As is apparent from the above, in the processing of FIGS. 12 and 13, whether or not the elements having the same photometric value Bv continue in the horizontal direction of the shooting screen by a predetermined number A or more, and the elements having the same photometric value Bv are between the y columns. It is determined whether or not there is a columnar object X1 that bisects the shooting screen left and right depending on whether or not the predetermined number C is touched. When the columnar object X1 exists, the shift amounts ΔXL and ΔXR of the edges eL and eR (see FIG. 14) of the columnar object X1 at the upper and lower ends of the photographing screen are obtained, and the index G1 is determined according to the larger value. Is set. Therefore, the index G1 indicates the magnitude of the influence of the inclination of the columnar object on the composition failure. In addition, in a structure such as a cone whose width changes according to the height, the edge is inclined even if it is parallel to the vertical direction of the shooting screen. There is a risk of misjudgment. However, in the processing of FIGS. 12 and 13, since it is determined whether or not the inclination directions of the edges on both sides of the columnar object coincide with each other in step S224, there is no such possibility.
[0044]
(2) Calculation of main subject defect index G2
The main subject defect index G2 calculation process (step S204 in FIG. 11) will be described with reference to FIGS. As shown in FIG. 18A, the main subject (a person in this example) X2 on the shooting screen P is far away from the upper end of the shooting screen P as shown in FIG. 18B, or vice versa. Too close to the upper end of P causes poor composition. In order to reflect such elements in the estimation of composition failure, in the process of FIG. 17, the upper end position of the main subject is detected based on the photometric value distribution detected by the photometric device 4, and the deviation amount from the appropriate range is indexed. Turn into. In the following description, the element row having the same X coordinate among the elements PS of the photometry device 4 is referred to as the y column, and the j-th y column from the lower end in the Y-axis direction to the upper side is referred to as the yj column. Express.
[0045]
As shown in FIG. 17, in the calculation of the index G2, first, in step S241, a variable j that designates a scan column is set to an initial value 1, and in step S242, elements PS (1, j) to PS (m, Scan the photometric value of j). In the next step S243, it is determined whether or not the elements PS having the same photometric value Bv in the yj column are present at least F% of the total number m of elements in the yj column. If it exists, the process proceeds to step S244, the yj column is defined as the element string yz1, and the process proceeds to step S246. When the condition of step S243 is not satisfied, the process proceeds to step S245, the yj column is defined as the element string yz0, and the process proceeds to step S246. When determining whether or not they are the same photometric value Bv, a certain allowable range may be provided as in the examples of FIGS.
[0046]
In step S246, it is determined whether or not the variable j matches the number of elements n in the Y-axis direction. If they do not match, 1 is added to the variable j in step S247, and the process returns to step S242. If they match, the process proceeds to step S248. In step S248, it is determined whether or not the boundary between the element arrays yz0 and yz1 exists in the shooting screen. If it exists, the process proceeds to step S249 to determine whether the boundary is singular. If the number is singular, the process proceeds to step S250, and one of the two y columns adjacent to each other with the boundary position interposed therebetween is defined as the boundary coordinate YL. In this embodiment, the Y coordinate in the y column below the boundary is used as the field coordinate. In the subsequent step S251, it is determined whether or not the boundary coordinate YL is within an appropriate range by the following equation.
[Equation 3]
K ・ n ≦ YL ≦ L ・ n
[0047]
When the above equation is satisfied, the process proceeds to step S252, where the index G2 = 0. On the other hand, when the above equation is not satisfied, the process proceeds to step S253, and the index G2 is set according to the coordinate YL. In this case, the index G2 increases as the amount by which the coordinate YL deviates from the appropriate range shown in the above equation increases. After steps S252 and 253, the process returns to the process shown in FIG. Note that F% is determined according to the number of elements in the X-axis direction of the photometric device 4, but is preferably as close to 100% as possible. The coefficients K and L give an appropriate range of the interval from the upper end of the shooting screen to the upper end of the main subject. In general portrait shooting, K = 0.8 and L = 0.9 are preferable.
[0048]
A specific example of the processing of FIG. 17 will be described with reference to FIG. FIG. 18B shows the correspondence between the elements PS and the shooting screen P when the camera is in the vertical position and the number of elements PS of the photometric device 4 is n = 30 and m = 20. The shaded portion of is the main subject X2. The handling of the number of elements in the vertical position is as already described in the step S202 of FIG. Since the background portion other than the main subject X2 is out of the depth of field, the element corresponding to the background portion is assumed to detect a constant photometric value Bv1 brighter than the element corresponding to the main subject X2. Also, F = 100.
[0049]
When the process of FIG. 17 is applied to the shooting screen shown in FIG. 18B, since the main subject X2 and the background are mixed in the y1 column to the y19 column, the element PS having the same photometric value Bv1 is F (= 100)% does not exist, and step S243 is denied. For this reason, the columns y1 to y19 are defined as element columns yz0 in step S245. Since only the background exists in the y20 to y30 columns, there are F% or more elements having the same photometric value Bv1, and step S243 is affirmed. For this reason, the columns y20 to y30 are defined as element columns yz1 in step S244. Since there is only one boundary between the element rows yz0 and yz1, steps S248 and S249 are affirmed. In step S250, the Y coordinate “19” in the y19 column, which is the upper limit of the element row yz0, is defined as the boundary coordinate YL. Is done.
[0050]
If K = 0.8 and L = 0.9 in the next step S251, then K · n = 24 and L · n = 27, so YL <K · n, and the boundary coordinate YL is not in the proper range. It is judged. Accordingly, an index G2 corresponding to the difference between the boundary coordinates YL and K · n is set in step S253.
[0051]
As is clear from the above, in the process of FIG. 17, whether or not the main subject and the background are mixed in the y column depends on whether or not the same photometric value Bv exists in the single y column. The boundary between the mixed element row yz0 and the non-mixed element row yz1 is regarded as the upper end of the main subject. When the upper end of the main subject is not within the proper range, the index G2 is set according to the amount of deviation from the proper range. Therefore, the index G2 well indicates an inappropriate degree of the main subject position. It should be noted that when photographing the upper body of a person, the element corresponding to the background below the main subject cannot occupy nearly 100%. For this reason, erroneous determination as to whether or not the subject is the main subject is prevented in step S249.
[0052]
(3) Calculation of horizontal edge defect index G3
The horizontal edge defect index G3 calculation process (step S205 in FIG. 11) will be described with reference to FIGS. As shown in FIG. 21, an edge X3 that bisects the photographic screen P vertically crosses the center of the photographic screen P as indicated by a two-dot chain line L1 in the drawing, or the horizontal direction of the photographic screen as indicated by a two-dot chain line L2. Inclining from the direction causes poor composition. In order to reflect such elements in the estimation of composition failure, in the processing of FIGS. 19 and 20, the horizontal edge X3 in the photographing screen is detected based on the photometric value distribution detected by the photometric device 4, and the position and inclination thereof are detected. Index the inappropriate degree of. In the following description, a column of elements having the same Y coordinate among the elements PS of the photometric device 4 is referred to as an x column, and an i-th x column from the left end in the X-axis direction to the right is expressed as an xi column.
[0053]
As shown in FIG. 19, in the calculation of the horizontal edge defect index G3, first, in step S271, the x1 column and the xm column are scanned to detect respective photometric value distributions. The x1 column is the element row at the left end in the horizontal direction of the photographing screen, and the xm column is the element row at the right end. In the next step S272, it is determined for the x1 column and the xm column whether T or more elements having the same photometric value Bv are continuous. When both the x1 column and the xm column satisfy the condition of step S272, the process proceeds to step S273, and the photometric value Bv and the element position corresponding to the above condition are stored. When either one of the x1 column and the xm column does not satisfy the condition of step S272, the process proceeds to step S284 (FIG. 20).
[0054]
In step S274, it is determined whether or not two types of photometric values Bv1 and Bv2 common to the x1 column and xm column are stored in step S273. If stored, the process proceeds to step S275, and if not, the process proceeds to step S284. In step S275, it is determined whether or not the element of the photometric value Bv1 and the element of the photometric value Bv2 are in contact in the x1 column and the xm column. If so, the process proceeds to step S276; otherwise, the process proceeds to step S284. In step S276, the Y coordinates of the contacts of the photometric values Bv1 and Bv2 in the x1 column are defined as Ya and Yb, and the Y coordinates of the contacts of the photometric values Bv1 and Bv2 in the xm column are defined as Yc and Yd. In the subsequent step S277, determination values J1 and Jm for determining the vertical relationship between the elements of the photometric values Bv1 and Bv2 in the x1 and xm columns are calculated according to the following equations.
[Expression 4]
J1 = Ya-Yb
Jm = Yc-Yd
[0055]
In the next step S278, it is determined whether or not the positive and negative signs of the determination values J1 and Jm match. If they match, the process proceeds to step S279, and if not, the process proceeds to step S274. In step S279, the smaller of Ya and Yb is defined as the boundary coordinate Yx1 in the x1 column, and the smaller of Yc and Yd is defined as the boundary coordinate Yxm in the xm column. In the subsequent step S280 (FIG. 20), an edge shift amount ΔY at the left and right ends of the photographing screen is calculated by the following equation, and it is determined whether or not the value is equal to or less than an allowable value H0.
[Equation 5]
ΔY = | Yx1-Yxm |
[0056]
If the deviation amount ΔY is less than or equal to the allowable value H0, the process proceeds to step S281, where it is determined whether or not the boundary coordinates Yx1 (which may be replaced with Yxm) are in an inappropriate range by the following equation.
[Formula 6]
P ・ n ≦ Yx1 ≦ Q ・ n
The coefficients P and Q are for determining whether or not the horizontal edge X3 crosses the center of the photographing screen, and P = 0.4 and Q = 0.6 are preferable.
[0057]
When the condition of step S281 is satisfied, the process proceeds to step S282, and the index G3 is set to the maximum value. If step S280 is negative, the process proceeds to step S283, and the index G3 is set according to the deviation amount ΔY. In this case, the larger the deviation amount ΔY, the larger the index G3. The degree of the increase may be increased in proportion to the shift amount ΔY, or may be increased by a quadratic or higher increase function with respect to the shift amount ΔY. If step S281 is negative, the process proceeds to step S284. In step S284, the index G3 = 0 is set. After completion of steps S282, S283, and S284, the process returns to the process shown in FIG.
[0058]
A specific example of the processing of FIGS. 19 and 20 will be described with reference to FIG. FIG. 22A shows a composition in which the horizontal edge X3 crosses the center of the photographing screen, and FIG. 22B shows a composition in which the horizontal edge X3 is inclined in correspondence with the arrangement of the elements PS of the photometry device 4. The arrangement of the elements PS is as shown in FIG. The predetermined number T = 4 in step S272. For simplicity, it was assumed that the photometric values were uniform in the area above and below the horizontal edge X3. Various photometric values are detected on an actual photographing screen. When a horizontal line or a horizon exists, a clear difference appears between the photometric values above and below the photometric value. Therefore, if the allowable range for determining whether or not the same photometric value Bv is set in the processing of FIGS. 19 and 20, or if the photometric value of the photometric device 4 is binarized with an appropriate threshold value, the photographing screen is displayed. 22 can be considered.
[0059]
When the processing of FIGS. 19 and 20 is applied to the shooting screen of FIG. 22A, the elements PS (1, 1) to PS (1, 10) are set to the photometric value Bv1 with respect to the x1 column in steps S271 to S273. As a result, the elements PS (1, 11) to PS (1, 20) are stored as a set of photometric values Bv2. For the x30 column, the elements PS (30, 1) to PS (30, 10) are stored as a set of photometric values Bv1, and the elements PS (30, 11) to PS (30, 20) are stored as a set of photometric values Bv2. Is done. Thus, two types of photometric values Bv1 and Bv2 common to the x1 and x30 columns are stored, and the elements of the photometric values Bv1 and Bv2 are in contact with each other at the x1 and x30 columns, respectively. S274,275 is affirmed. Therefore, in step S276, the Y coordinates “10” and “11” of the elements PS (1, 10) and PS (1, 11) in the x1 column are defined as Ya and Yb, and the elements PS (30, 10) Y coordinates “10” and “11” of PS (30, 11) are defined as Yc and Yd. As a result, J1 = J30 = -1 in step S277, and since both are negative values, step S278 is affirmed. In step S279, Yx1 = Ya = 10 and Yxm = Yc = 10.
[0060]
For the above Yx1 and Yxm, ΔY = 0 in step S280, and since this value is within the allowable value H0, step S280 is affirmed. In step S281, if P = 0.4 and Q = 0.6, since n = 20, P · n = 8, Q · n = 12, and Yx1 = 10, so the horizontal edge G3 is the center of the shooting screen. It is clear that it crosses the department. In step S282, the index G3 is set to the maximum value.
[0061]
For the shooting screen of FIG. 22B, the elements PS (1, 1) to PS (1, 10) are set as the set of photometric values Bv1 for the x1 column in steps S271 to S273, and the element PS (1, 11). ~ PS (1,20) is stored as a set of photometric values Bv2. For the x30 column, the elements PS (30, 1) to PS (30, 4) are stored as a set of photometric values Bv1, and the elements PS (30, 5) to PS (30, 20) are stored as a set of photometric values Bv2. Is done. Also in this case, there are two types of photometric values Bv1 and Bv2 common to the x1 and x30 columns, and the sets of elements of the photometric values Bv1 and Bv2 touch each other at the x1 and x30 columns, so steps S274 and 275 are affirmed. In step S276, the Y coordinates “10” and “11” of PS (1, 10) and PS (1, 11) in the x1 column are defined as Ya and Yb, and PS (30, 4) and PS (in the x30 column are defined. 30, 5) Y coordinates “4” and “5” are defined as Yc and Yd. As a result, J1 = J30 = −1 and both are negative values, so step S278 is affirmed, and in step S279, Yx1 = Ya = 10 and Yxm = Yc = 4. For such Yx1 and Yxm, ΔY = 6 in step S280, and for example, if the allowable value H0 = 3, step S280 is denied. For this reason, an index G3 corresponding to the deviation amount ΔY is set in step S283.
[0062]
As is apparent from the above, in the processing of FIGS. 19 and 20, it is determined whether or not there are edges that bisect these element rows in the x1 and xm rows at both ends in the horizontal direction of the shooting screen. If it is determined in S275 that such an edge exists, whether or not the edges of the x1 and xm columns may be regarded as the same horizontal edge X3 depending on the vertical relationship of the photometric values of the x1 and xm columns is a step. The determination is made in steps S276 to S278. When it is determined that they are the same horizontal edge X3, the Y coordinates at both ends thereof are defined as Yx1 and Yxm in step S279. Then, the inclination of the horizontal edge X3 is calculated as a deviation amount ΔY between the Y coordinates Yx1 and Yxm. When the deviation amount ΔY exceeds the allowable value H0, the index G3 is set larger as the deviation is larger. Even if the inclination of the horizontal edge X3 is within an allowable range, the index G3 is set to the maximum value in steps S281 and S282 when it crosses the center of the shooting screen. Therefore, the index G3 well shows the magnitude of the influence of the position and inclination of the horizontal edge X3 on the composition failure.
[0063]
As described above, according to the present embodiment, the composition failure index G increases as the inclination of the columnar object, the position of the main subject, the position of the horizontal edge, and the inclination correspond to the composition failure conditions increase. In step S26 or step S27, the composition failure index G becomes equal to or higher than the reference values p and q, and the possibility that a warning is issued in step S25 increases. Inherent composition failure conditions are set for each type of edge existing in the shooting screen, and the index G1 to G3 is calculated for each edge in comparison with them. it can.
[0064]
In this embodiment, since the reference value p> q, there is a high possibility that the composition is determined to be good when the photographing magnification β is equal to or greater than the determination photographing magnification a. This is because as the photographing magnification β increases, the main subject becomes larger and the influence of the edge in the background on the composition is reduced. The reason for omitting the calculation of the discrete index E when β ≧ a is that the time required for calculating the discrete index E is omitted because the necessity of gazing around the shooting screen decreases as the shooting magnification β increases. This is because the occurrence of the above is prevented. However, the discrete index E may be calculated even when β ≧ a, and a warning may be given according to the magnitude. When β <a, the route for calculating the discrete index E may be divided into two or more according to the imaging magnification β as in the first embodiment. Conversely, even when β <a, the calculation of the discrete index E may be omitted. By changing the composition failure condition (for example, the allowable range of the inclination of the horizontal edge X3) according to the shooting mode, it is possible to estimate the composition quality more accurately for each shooting mode. The relationship between the indices G1 to G3 and the reference values p and q is such that the reference values p and q are set smaller than the maximum values of the indices G1 to G3, or the reference values p and q are set smaller than the maximum values of the indices G1 to G3. You may set large.
[0065]
The calculation of the above-described indices G1 to G3 may be selectively executed in one or two types. For example, when the shooting magnification β is large, the possibility of portrait shooting is high and the need to pay attention to the background is reduced. On the other hand, when the shooting magnification β is small, the influence of the background is large, so step S11 in FIG. If the affirmative determination is made, only the main subject defect index G2 may be calculated, and if step S11 is negative, only the horizontal edge defect index G3 may be calculated. Calculate according to the shooting mode, such as calculating the main subject defect index G2 when the shooting mode is portrait mode, the horizontal edge defect index G3 when landscape mode, and the columnar defect index G1 when commemorative shooting mode. You can use the procedure properly.
[0066]
-Third Example-
A third embodiment of the present invention will be described with reference to FIGS. Portions common to the first embodiment and the second embodiment described above are denoted by the same reference numerals and description thereof is omitted.
[0067]
As shown in FIG. 23, in this embodiment, the display device 9 is provided with a shake warning device 9B and a composition correction instruction display device 9C. Prior to shooting, the CPU 1 executes a correction direction detection process, which will be described later, and detects the correction direction of the composition based on the distribution of photometric values detected by the photometric device 4. The result is displayed by the composition correction instruction display device 9C.
[0068]
FIG. 24 shows the shake warning device 9B and the composition correction instruction display device 9C. In the apparatus of FIG. 24, displays 90 and 91 are provided on the left side and the upper side of the viewfinder field FS of the camera. The indicator 90 includes triangular direction indicator lamps 90U and 90L, and a circular center lamp 90C disposed therebetween. When the composition is to be corrected by shaking the camera in the short side direction (vertical direction in the figure) of the shooting screen, the direction indicating lamp 90U or the direction indicating lamp 90L on the side corresponding to the correction direction is turned on. When there is no need to move the camera in the short side direction, the center lamp 90C is lit. The indicator 91 includes triangular direction indicator lamps 91R and 91L, and a circular center lamp 91C disposed therebetween. When the composition is to be corrected by shaking the camera in the long side direction (left-right direction in the figure) of the shooting screen, the direction indicating lamp 91R or the direction indicating lamp 91L on the side corresponding to the correction direction is turned on. When there is no need to move the camera in the long side direction of the shooting screen, the center lamp 91C is turned on. When a shake warning is given, all the lights on the indicators 90 and 91 flash. When prompting for composition confirmation, all the lights of the indicators 90 and 91 remain lit.
[0069]
FIG. 25 shows a part of the composition estimation procedure by the CPU 1 of this embodiment. Steps S11, S22, and S23 in the figure are common to the same steps in FIG. 10, and steps S17 and 18 in the figure are common to the same steps in FIG. Prior to step S11, steps S1 to S10 shown in FIG. 4 are executed.
[0070]
In this embodiment, when it is determined in step S11 that the shooting magnification β is greater than or equal to the determined shooting magnification a, and in step S23, when the discrete index E is determined to be greater than or equal to the reference value h, the process proceeds to step S31 and the composition correction direction detection process is performed. Do. Details of this processing will be described later. In step S32, it is determined whether or not the composition correction direction is specified in step S31. When the correction direction is specified, the process proceeds to step S33, and the correction in that direction is displayed on the display 90 or 91. If it is determined in step S32 that there is no correction direction, the process proceeds to step S34, where a composition good display is performed.
[0071]
FIG. 26 shows details of the composition correction direction detection process. In this process, a correction direction necessary to maintain an appropriate distance between the upper end of the main subject and the upper end of the shooting screen is detected. In the following description, expressions relating to the X-axis direction and Y-axis direction of the photographing screen and the arrangement of the elements PS of the photometric device 4 are common to the second embodiment.
[0072]
In the illustrated process, first, in step S301, the Y coordinate YL of the upper end of the main subject in the photographing screen is obtained based on the distribution of the photometric values detected by the photometric device 4. This process is the same as steps S241 to S250 in FIG. That is, in step S301, the boundary coordinate YL in step S250 of FIG. 17 is obtained. After obtaining the coordinate YL, the process proceeds to step S302, and it is determined whether or not the coordinate YL is within the appropriate range, similar to step S251 in FIG. If the coordinate YL is not within the proper range, the process proceeds to step S303, and it is determined whether the coordinate YL is less than the lower limit (K · n) of the proper range. If it is less than the lower limit (K · n), the process proceeds to step S304, and the correction direction is set to “down”. On the other hand, if the coordinate YL is not less than the lower limit (K · n), the process proceeds to step S305, and the correction direction is set to “up”. When the coordinate YL is within the proper range in step S302, the process proceeds to step S306, and “No correction direction” is set. After completion of step S304 to step S306, the process returns to the process of FIG. In the process of detecting the coordinate YL in step S301, if the conditions corresponding to steps S248 and S249 in FIG. 17 are denied, the process proceeds to step S306.
[0073]
According to the above processing, the correction direction “down” is displayed on the display 90 or 91 when the upper end position of the main subject is below the appropriate range, and on the contrary, the correction is corrected when it is out of the upper side. The direction “up” is displayed on the display 90 or 91. For example, in the composition of FIG. 27A, since the main subject X2 is biased to the lower side of the shooting screen P, it is determined that the correction direction is “down” and the indicator lamp 90L of the display 90 is turned on. A central lamp 91C is lit on the display 91 side. When the camera is shaken downward in accordance with the instruction of the display 90, the main subject X2 is relatively moved upward in the shooting screen. As shown in FIG. 27B, when detection of the composition correction direction is repeated with the main subject X2 within the appropriate range, it is determined that there is no correction direction, and the center lamp 90C of the display 90 is turned on.
[0074]
When the composition correction direction is instructed as in the present embodiment, even when the photographer does not know a typical example of a composition failure, a photograph with a good composition can be taken simply by following the display on the camera. Note that which of the displays 90 and 91 is used is determined by the posture of the camera. That is, in the horizontal position of the camera, the display 90 is used to instruct the vertical correction, and in the vertical position, the display 91 is used to instruct the vertical correction.
[0075]
In the above example, only the correction direction relating to the position of the main subject is detected, but if the calculation of the indices G1, G3 in the second embodiment is applied, the columnar object X1 shown in FIG. 14 and the horizontal edge X3 shown in FIG. The direction of inclination correction can also be detected. Examples of these will be described with reference to FIGS.
[0076]
FIG. 28 shows a procedure for detecting the correction direction of a columnar object. In this example, first, in step S311, the inclination of the columnar object in the photographing screen is detected based on the distribution of photometric values detected by the photometric device 4. This process is the same as the process from step S211 to step S223 in the calculation procedure of the columnar object defect index G1 shown in FIGS. That is, in step S311, the shift amounts ΔXL and ΔXR in step S223 of FIG. 13 are calculated.
[0077]
When the deviation amounts ΔXL and ΔXR are obtained, it is determined in subsequent step S312 whether or not the signs of the two coincide. This is because if the sign does not match, the right and left tilt directions of the columnar object are different, and the correction direction cannot be specified. When it is determined in step S312 that the positive and negative values match, the process proceeds to step S313, and it is determined whether or not the deviation amount ΔXR (may be replaced with ΔXL) is a positive value. If it is a positive value, the process proceeds to step S314, and the correction direction is set to the clockwise direction. If the deviation amount ΔXR is a negative value, the correction direction is counterclockwise. If the sign does not match in step S312, the process proceeds to step S316, and “No correction direction” is set. If the condition corresponding to steps S218 and 219 in FIG. 12 is denied in step S311, the process also proceeds to step S316.
[0078]
As is apparent from FIG. 16, when the columnar object X1 tilts to the left of the shooting screen, the shift amount ΔXR becomes a negative value because of Xc <Xa, and conversely, when the columnar object X1 tilts to the right of the shooting screen, the shift is Xc> Xa. The quantity ΔXR is a positive value. When the columnar object X1 is tilted to the left, the tilt is reduced by turning the camera counterclockwise around the center of the shooting screen, and when the tilt is opposite, the camera is rotated clockwise. In the process of FIG. 28, the correction direction is determined in the counterclockwise direction when the deviation amount ΔXR is negative in step S313 and clockwise when it is positive, so the direction of correcting the inclination of the columnar object X1 is determined to the photographer. Can be instructed accurately.
[0079]
FIG. 29 shows a procedure for detecting the correction direction of a horizontal edge. In this example, first, in step S321, the position of the horizontal edge in the photographing screen is detected based on the distribution of the photometric values detected by the photometric device 4. This processing is the same as the processing from step S271 to step S279 in the calculation procedure of the horizontal edge defect index G3 shown in FIG. That is, in step S321, the Y coordinates Yx1 and Yxm of the left and right ends of the horizontal edge X3 in step S279 of FIG. 19 are calculated.
[0080]
In the subsequent step S322, it is determined whether or not the deviation amount ΔY corresponding to the inclination of the horizontal edge X3 is equal to or less than the allowable value H0, as in step S280 of FIG. If it is determined that the allowable value H0 is exceeded, the process advances to step S323 to determine whether the left end Y coordinate Yx1 of the horizontal edge X3 is smaller than the right end Y coordinate Yxm. If smaller, the process proceeds to step S324, and the correction direction is set to the counterclockwise direction. If the coordinate Yx1 is not less than the coordinate Yxm, the process proceeds to step S325, and the correction direction is the clockwise direction. When the inclination is equal to or smaller than the allowable value H0 in step S322, the process proceeds to step S326, and no correction direction is set. If the conditions corresponding to steps S272, S274, S275, and S278 in FIG. 19 are denied in step S321, the process also proceeds to step S326.
[0081]
As shown in FIG. 22B, when the horizontal edge X3 is tilted downward, Yx1> Yxm, so step S323 is denied and the composition correction direction is clockwise in step S325. On the other hand, when the horizontal edge X3 is tilted to the left, Yx1 <Yxm, so step S323 is affirmed, and the composition correction direction is counterclockwise in step S324. When the horizontal edge X3 tilts downward, turning the camera clockwise around the center of the shooting screen reduces the tilt, and when the tilt is opposite, the camera can be turned counterclockwise. Therefore, according to the processing of FIG. 29, the direction in which the inclination of the horizontal edge X3 is corrected can be accurately instructed to the photographer. Note that when step S322 is affirmed, step S281 in FIG. 20 may be executed, and if the horizontal edge X3 crosses the center of the photographic screen, a separate warning may be given.
[0082]
The processes of FIGS. 28 and 29 described above can be performed instead of the process of FIG. 26 or in addition to the process of FIG. However, when a plurality of processes are executed, for example, when the correction direction corresponding to the columnar object X1 is clockwise and the correction direction corresponding to the horizontal edge X3 is counterclockwise, the correction directions detected in each process are mutually contradictory. Can be. In such a case, it is necessary to take a measure such as no correction direction. In order to indicate the rotation direction as the correction direction, it is preferable to use the indicators 92 and 93 shown in FIG.
[0083]
In the example of FIG. 30, a pair of indicators 92 and 93 are provided on the left and right of the finder field FS of the camera. Indicators 92 and 93 are arrow-shaped direction indicating lamps 92U and 93U facing upward in the short side direction of the photographing screen, arrow-shaped direction indicating lights 92L and 93L facing downward, and the outer side in the long-side direction of the photographing screen. Direction indicator lamps 92SR and 93SL to face are provided. For these indicator lights, well-known light emitting means such as LEDs used for display in the viewfinder of the camera may be used.
[0084]
According to the above-mentioned indicators 92 and 93, when the direction indicating lamps 92U and 93U are lit, the correction is made upward, when the direction indicating lamps 92L and 93L are lit, the correction is made downward, and when the direction indicating lamp 92SR is lit, the right side is corrected. The correction to the left can be instructed to the left by turning on the direction indicator lamp 92SL. Further, it is possible to instruct the correction in the counterclockwise direction by turning on the direction indicating lamps 92U and 93L simultaneously, and the correction in the clockwise direction by simultaneously turning on the direction indicating lamps 92L and 93U.
[0085]
For example, in the composition shown in FIG. 31A, the columnar object X1 is tilted to the left side of the photographing screen P, so that the direction indicating lamps 92U and 93L are turned on simultaneously. If the camera is rotated counterclockwise according to these instructions, the inclination of the columnar object X1 is corrected as shown in FIG. In the composition of FIG. 32 (a), the horizontal edge X3 is inclined downward in the photographing screen P, so that the direction indicating lamps 93U and 92L are turned on simultaneously. If the camera is rotated clockwise according to these instructions, the inclination of the horizontal edge X3 is corrected as shown in FIG.
[0086]
When there is no need to correct the composition, all indicator lights are turned off. When performing a shake warning, flash all indicator lights. When prompting composition confirmation based on the discrete index E, all the indicator lights may be turned on.
[0087]
-Fourth embodiment-
A fourth embodiment of the present invention will be described with reference to FIGS. In the present embodiment, composition estimation processing different from that of each embodiment described above is performed by the CPU 1. Therefore, the following description will focus on the characteristic part of the composition estimation process.
[0088]
FIG. 33 shows the composition estimation processing procedure of the present embodiment. Compared with the first embodiment shown in FIG. 4, step S41 corresponds to step S1, step S42 corresponds to step S3, step S43 corresponds to step S4, step S44 corresponds to step S6, and step S45 corresponds to step S7. If it is determined in step S45 that the amount of shake is not in the proper range, the process proceeds to step S52, and a camera shake warning is given.
[0089]
When it is determined in step S45 that the blur amount is within the appropriate range, the process proceeds to step S46, and the gaze point distribution of the photographer is obtained based on the line of sight detected by the line-of-sight detection device 2. This process corresponds to steps S101 to S108 in FIG. That is, the gazing point existence time t (i, j) for each region W shown in FIG. After obtaining the gaze point distribution, the process proceeds to step S47, and the region W (i, j) having the longest gaze point existence time t (i, j) is specified as the position of the main subject. For example, in shooting with a person as the main subject, the point of interest concentrates on the face of the person, so that the position of the main subject can be specified almost accurately by the above processing. Even when the main subject is other than a person, it is the same that the gazing point concentrates there, and the above processing can be applied as it is.
[0090]
After the main subject position is determined, the edge position in the shooting screen is detected in step S48. This processing is performed by the coordinates Xa, Xb, Xc, Xd (see FIG. 16) of the left and right ends of the columnar object X1 described in the second embodiment and the coordinates Ya, Yb, Yc, Yd of the left and right ends of the horizontal edge X3 (see FIG. 16). 22). After obtaining the edge position, the process proceeds to step S49, and it is determined whether or not the relative relationship between the main subject position and the edge position does not correspond to a typical example of composition failure. For example, as shown in FIG. 34A, when the horizontal edge X3 is far away from the face portion of the main subject X2, the composition is good. On the contrary, as shown in FIG. 34 (b), when the horizontal edge X3 crosses the immediate vicinity of the face portion of the main subject X2, it is determined that the composition is poor. Also, it is determined that the composition is poor when the columnar object X1 shown in FIG. 14 overlaps the main subject X2.
[0091]
If it is determined in step S49 that the composition is defective, the process proceeds to step S50, the photographer is warned that the composition is defective, and the process returns to step S44. On the other hand, when it is determined that the composition is good, the process proceeds to step S51 to display that the composition is good. In this way, in this embodiment, the main subject position is specified based on the distribution of the gaze point of the photographer, and the quality of the composition is estimated by the relative relationship between the position and the edge position. A typical example of a composition failure can be accurately detected even if it is off the center.
[0092]
Depending on the number of divided areas W (values of u and v) in the shooting screen shown in FIG. For this reason, it is preferable to calculate in advance how many portions of the face portion of the person correspond to the region W and to determine a certain range centering on the position where the gazing point is concentrated as the face portion of the person. Further, since the size of the main subject also changes depending on the shooting magnification β, steps S8 to S10 shown in FIG. 4 are added to calculate the shooting magnification β, and the main subject is regarded as the value according to the value. It is good to change the range.
[0093]
In this embodiment, the edge position is obtained by applying the calculation procedure of the indexes G1 to G3 of the second embodiment described above, but the present invention is not limited to this. For example, it is possible to identify the edge of the boundary between the horizontal line, the horizon line, or the main subject or columnar object and the background by preferentially detecting the edge where the contrast changes most greatly in the shooting screen. The edge position and its type may be specified using an edge detection method known in the image processing field, such as performing edge enhancement by applying a differential filter to the photometric value distribution detected by the photometric device 4.
[0094]
FIG. 35 and FIG. 36 show examples of warning displays that can be used in the above-described embodiments. FIG. 35A shows an example of warning by changing the display color or brightness of the display 100 such as the shutter speed and exposure information provided below the finder field FS, and FIG. 35B shows the display of the finder field FS. An example of warning by changing the color or brightness, FIG. 6C shows an example of warning by lighting or blinking a dot-shaped warning mark 101 outside the corner of the viewfinder field FS, and FIG. FIG. 36A shows an example of warning by lighting or blinking a frame-shaped warning mark 103 outside the finder field of view FS. Fig. (B) shows an example of warning by lighting or blinking a frame-shaped warning mark 104 inside the viewfinder field FS, and Fig. (C) shows a warning message 105 in the viewfinder field FS. Examples of warning by blinking, FIG (d) is an example of warning lights or flashes a warning message 106 on the display unit 100. These warnings may be properly used, such as a composition confirmation prompt based on the discrete index E, a composition failure warning based on the composition failure index G, and a camera shake warning.
[0095]
In each of the above-described embodiments, the composition defect determination criterion may be changed according to the focal length of the photographing lens. For example, in the case of a wide-angle lens, there is a high possibility that the background ridgeline of the mountain and the ridgeline of the building will be captured, and oblique edges tend to be captured due to the perspective of the lens. Set a large tolerance for the tilt. On the contrary, in the case of a telephoto lens, since the background is often monotonous, it is preferable to set a small allowable range for the inclination of the edge.
[0096]
In each of the above embodiments, a camera having a shooting mode setting function has been described. However, in a camera that does not have such a function, a determination shooting magnification a, an area coefficient α, and various composition failure conditions that are considered to be optimal are described. It is determined and given to the CPU 1. The detection processing of the horizontal edge X3 described in the second and third embodiments can be applied to an edge that bisects the photographing screen left and right by switching the X axis direction and the Y axis direction.
[0097]
In the above embodiment, the photometric device 4 and the CPU 1 are luminance information detection means, the CPU 1 is a composition quality estimation means, an edge detection means, a correction direction determination means, and a camera shake state determination means, and the line-of-sight detection device 2 and the CPU 1 are gazing points. As the information detection means, the display device 9 constitutes warning means, display means, and camera shake warning means.
[0098]
【The invention's effect】
  In the present invention, since the position of the main subject is specified from the face of the main subject, it is possible to accurately detect a typical example of a composition failure even if the main subject deviates from the center of the shooting screen.
[Brief description of the drawings]
FIG. 1 is a block diagram of a control system according to a first embodiment of the present invention.
FIG. 2 is a view showing an arrangement of the photometric devices 4 in FIG.
FIG. 3 is a diagram for explaining a calculation process of a discrete index E by the CPU 1 in FIG. 1;
FIG. 4 is a flowchart showing a part of a composition estimation procedure in the CPU 1 of FIG. 1;
FIG. 5 is a flowchart following FIG. 4;
6 is a flowchart showing details of a procedure for calculating a discrete index E in FIG. 5;
FIG. 7 is a block diagram of a control system according to a modification of FIG.
FIG. 8 is a flowchart showing a characteristic part of a composition estimation procedure in the example of FIG. 7;
FIG. 9 is a diagram showing an example in which a plurality of focus detection areas are provided in a shooting screen.
FIG. 10 is a flowchart showing a characteristic portion of a composition estimation procedure in the second embodiment of the present invention.
11 is a flowchart showing details of a procedure for calculating a composition failure index G in FIG. 10;
12 is a flowchart showing details of a calculation procedure of the columnar object defect index G1 in FIG. 11;
FIG. 13 is a flowchart following FIG.
FIG. 14 is a diagram illustrating an example (a) in which the position of a columnar object existing in a photographing screen is appropriate and an example (b) inadequate.
FIG. 15 is a diagram showing an example of the arrangement of elements of the photometric device 4;
16 is a diagram showing a correspondence between the composition of FIG. 14B and the arrangement of elements shown in FIG. 15;
17 is a flowchart showing details of a procedure for calculating a main subject defect index G2 in FIG. 11;
FIG. 18 is a diagram illustrating an example (a) in which the position of the main subject in the shooting screen is appropriate and an example (b) in which the main subject is inappropriate.
FIG. 19 is a flowchart showing details of a calculation procedure of the horizontal edge defect index G3 in FIG. 11;
FIG. 20 is a flowchart following FIG. 19;
FIG. 21 is a diagram showing an example of a composition in which a horizon line and a horizon line are imprinted.
22 is a diagram showing a correspondence between the edge shown in FIG. 21 and the arrangement of elements shown in FIG.
FIG. 23 is a block diagram of a control system according to a third embodiment of the present invention.
24 is a diagram showing an example of display in the finder by the display device 9 of FIG.
FIG. 25 is a flowchart showing a characteristic part of a composition estimation procedure in the third embodiment of the present invention.
FIG. 26 is a flowchart showing an example of the composition correction direction detection process in FIG. 25;
FIG. 27 is a diagram showing a display example of a composition correction direction when the process of FIG. 26 is executed.
FIG. 28 is a flowchart showing another example of the composition correction direction detection process in FIG. 25;
FIG. 29 is a flowchart showing still another example of the composition correction direction detection process in FIG. 25;
30 is a view showing a modification of FIG. 24. FIG.
FIG. 31 is a view showing a display example of a composition correction direction when the processing of FIG. 28 is executed.
32 is a diagram showing a display example of a composition correction direction when the processing of FIG. 29 is executed.
FIG. 33 is a flowchart showing a composition estimation procedure in the fourth embodiment of the present invention;
FIG. 34 shows an example (a) in which the composition is estimated to be good in the fourth embodiment and an example (b) in which it is estimated that the composition is bad.
FIG. 35 is a view showing a modified example of warning for composition correction or the like.
FIG. 36 is a diagram showing a modified example of warning for composition correction or the like.
[Explanation of symbols]
1 CPU
2 Line-of-sight detection device
3 Shake detection device
4 Photometric device
5 ranging device
6 Focal length detection device
9 Display device
9A Composition warning device
9B shake warning device
9C Composition correction instruction display device
90, 91, 92, 93 Display

Claims (2)

主要被写体の顔から主要被写体の位置を検出する位置検出手段と、
検出された主要被写体の位置を予め定められた適正範囲と対比して構図不良を判定する構図不良判定手段と、
構図不良が判定されたときに警告を出力する警告手段と、
構図不良が判定されたときにカメラを動かすべき構図修正方向を表示する表示手段と、を具備することを特徴とする構図アドバイス機能を備えたカメラ。
Position detecting means for detecting the position of the main subject from the face of the main subject;
Composition failure determination means for determining composition failure by comparing the position of the detected main subject with a predetermined appropriate range;
Warning means for outputting a warning when a composition failure is determined;
And a display means for displaying a composition correction direction in which the camera is to be moved when a composition failure is determined, and a camera having a composition advice function.
請求項1に記載の構図アドバイス機能を備えたカメラにおいて、
撮影画面内の輝度分布に関連する情報を検出する輝度情報検出手段と、
検出された輝度分布に関連する情報に基づいて撮影画面内から前記主要被写体以外の特定種類のエッジを抽出してその位置を検出するエッジ検出手段とを備え、
前記構図不良判定手段は、前記位置検出手段で検出された主要被写体の位置と、前記エッジ検出手段で検出されたエッジの種類および位置とに基づいて構図の良否を判定することを特徴とする構図アドバイス機能を備えたカメラ。
A camera having the composition advice function according to claim 1,
Luminance information detecting means for detecting information related to the luminance distribution in the photographing screen;
Edge detection means for extracting a specific type of edge other than the main subject from the shooting screen based on information related to the detected luminance distribution and detecting the position thereof,
The composition failure determination means determines composition quality based on the position of the main subject detected by the position detection means and the type and position of the edge detected by the edge detection means. Camera with advice function.
JP2002379688A 1993-03-31 2002-12-27 Camera with composition advice function Expired - Lifetime JP4165216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002379688A JP4165216B2 (en) 1993-03-31 2002-12-27 Camera with composition advice function

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP7377493 1993-03-31
JP5-73774 1993-03-31
JP2002379688A JP4165216B2 (en) 1993-03-31 2002-12-27 Camera with composition advice function

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP05181494A Division JP3412238B2 (en) 1993-03-31 1994-03-23 Camera with composition advice function

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007128052A Division JP4029174B2 (en) 1993-03-31 2007-05-14 Camera with composition advice function

Publications (2)

Publication Number Publication Date
JP2003274226A JP2003274226A (en) 2003-09-26
JP4165216B2 true JP4165216B2 (en) 2008-10-15

Family

ID=29217475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002379688A Expired - Lifetime JP4165216B2 (en) 1993-03-31 2002-12-27 Camera with composition advice function

Country Status (1)

Country Link
JP (1) JP4165216B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5366676B2 (en) 2009-06-22 2013-12-11 キヤノン株式会社 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
KR101720771B1 (en) * 2010-02-02 2017-03-28 삼성전자주식회사 Digital photographing apparatus, method for controlling the same, and recording medium storing program to execute the method
JP5707268B2 (en) * 2011-07-28 2015-04-22 Toa株式会社 Image processing apparatus and electronic camera and image reproducing apparatus provided with the image processing apparatus

Also Published As

Publication number Publication date
JP2003274226A (en) 2003-09-26

Similar Documents

Publication Publication Date Title
US5831670A (en) Camera capable of issuing composition information
JP4029174B2 (en) Camera with composition advice function
JP2605282B2 (en) Automatic focusing device
JP5003281B2 (en) Focus state display device and focus state display method
US20010008423A1 (en) Distance measuring device and a camera provided with the distance measuring device
JP4165216B2 (en) Camera with composition advice function
EP0444685B1 (en) Camera having learning function
JPH073385Y2 (en) Photometric device
JP3170722B2 (en) Exposure calculation device
JP3214117B2 (en) Interchangeable lens and camera with focus detection
JP4512173B2 (en) Ranging device
JPH0581832U (en) Camera with display device
JP3019458B2 (en) Camera with photometric device
JP3456231B2 (en) Subject tracking device
JP3912853B2 (en) camera
JP3630792B2 (en) Gaze detection device and optical device
JPH05215958A (en) Main object detecting device for camera
JP3106613B2 (en) Camera exposure calculation device
JPH055925A (en) Exposure arithmetic unit for camera with gaze detector
JP3116358B2 (en) Focus detection photometer
JP3164447B2 (en) Automatic focusing device
JP2024003949A (en) Electronic device, control method for electronic device, program, and storage medium
JP3457973B2 (en) Camera focus detection device
JPH0478831A (en) Photometry device for camera
JP3123064B2 (en) Camera photometer

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080708

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080721

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140808

Year of fee payment: 6

EXPY Cancellation because of completion of term