JP2000347278A - Camera and photographing method - Google Patents

Camera and photographing method

Info

Publication number
JP2000347278A
JP2000347278A JP11158666A JP15866699A JP2000347278A JP 2000347278 A JP2000347278 A JP 2000347278A JP 11158666 A JP11158666 A JP 11158666A JP 15866699 A JP15866699 A JP 15866699A JP 2000347278 A JP2000347278 A JP 2000347278A
Authority
JP
Japan
Prior art keywords
image
condition
photographing
timing signal
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11158666A
Other languages
Japanese (ja)
Inventor
Shuji Ono
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP11158666A priority Critical patent/JP2000347278A/en
Priority to US09/586,600 priority patent/US7248300B1/en
Publication of JP2000347278A publication Critical patent/JP2000347278A/en
Priority to US10/798,375 priority patent/US20040170397A1/en
Pending legal-status Critical Current

Links

Landscapes

  • Details Of Cameras Including Film Mechanisms (AREA)
  • Cameras In General (AREA)

Abstract

PROBLEM TO BE SOLVED: To execute photographing when a subject satisfies a specified photographing condition by making a timing signal generation part output a photographing timing signal when the subject satisfies the specified photographing condition. SOLUTION: In a control unit 50, an extraction part receives a parallax image picked up by a parallax image input means 22 and a sub-image picked up by an image input means 24 from a memory 40, extracts a main subject from the sub-image based on information included in the parallax image and the sub-image, and detects a notable part for judging whether the main subject satisfies the specified photographing condition. A condition storage part stores as a photographing condition that the main subject included in the sub-image obtained by picking up a subject image is photographed nice. The timing signal generation part outputs the photographing timing signal. Namely, when the notable part extracted by the extraction part satisfies the specified photographing condition stored in the condition storage part, the timing signal generation part outputs the timing signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラに関し、特
に被写体が所定の撮影条件を満たしたときに自動撮影す
るカメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a camera, and more particularly to a camera that automatically shoots when a subject satisfies predetermined shooting conditions.

【0002】[0002]

【従来の技術】従来、人物を被写体として撮影する場
合、撮影した写真を良好にするために写真を修正する技
術が知られている。しかし、写真の修正は高度な技術を
要し、しかも、例えば人が瞬きしている瞬間の写真を瞬
きしていない写真に修正することや、笑っていない人の
写真を笑っているように修正することは難しい。
2. Description of the Related Art Conventionally, when a person is photographed as a subject, a technique for modifying the photograph in order to improve the photographed photograph is known. However, modifying photos requires advanced techniques, and for example, modifying a person's blinking moment to a non-blinking photograph or laughing a person's non-laughing photograph Difficult to do.

【0003】一方、従来、複数の写真を連続的に撮影し
ておき、撮影した複数の画像をまとめて画面表示させ
て、その中から満足する画像を人間に選択させる技術が
知られている(特開平9−212620、特開平10−
191216)。
[0003] On the other hand, conventionally, there is known a technique in which a plurality of photographs are continuously photographed, a plurality of photographed images are collectively displayed on a screen, and a satisfactory image is selected from among the photographed images ( JP-A-9-212620, JP-A-10-210
191216).

【0004】[0004]

【発明が解決しようとする課題】しかし従来は、撮影し
た複数の写真のうち選択しなかった残りの写真は廃棄さ
れるので、例えば高価なフイルムを使用する銀塩写真に
は上記従来技術を適用しにくい。その上、撮影後に最適
な画像を選択する必要があったので手間がかかってい
た。また従来は、被写体を見栄えよく撮影したい場合、
最適な撮影のタイミングを判断するのはあくまで撮影者
であり、人間の判断を介さなければ最適な撮影タイミン
グを計れなかったので面倒であった。さらに、被写体が
複数の人物である場合、それら人物のうちの多くが満足
できる写真を撮影するのは困難であった。
Conventionally, however, the above-mentioned prior art is applied to a silver halide photograph using an expensive film, for example, because the remaining unselected photograph among a plurality of photographed photographs is discarded. Hard to do. In addition, it is necessary to select an optimal image after shooting, which is troublesome. Conventionally, when you want to take a good-looking subject,
It is up to the photographer to determine the optimum shooting timing, and it was troublesome because the optimum shooting timing could not be measured without human intervention. Further, when the subject is a plurality of persons, it has been difficult for many of the persons to take satisfactory photographs.

【0005】そこで本発明は、上記の課題を解決するこ
とのできるカメラを提供することを目的とする。この目
的は特許請求の範囲における独立項に記載の特徴の組み
合わせにより達成される。また従属項は本発明のさらな
る有利な具体例を規定する。
Therefore, an object of the present invention is to provide a camera which can solve the above-mentioned problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous embodiments of the present invention.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するため
に、本発明の第1の形態においては、被写体を結像した
画像を撮像する画像入力部と、前記被写体に関する所定
の撮影条件を記憶する条件記憶部と、前記被写体が前記
撮影条件を満たしたときに撮影タイミング信号を出力す
るタイミング信号発生部とを備える。
In order to solve the above-mentioned problems, according to a first embodiment of the present invention, an image input section for capturing an image of a subject and a predetermined photographing condition relating to the subject are stored. And a timing signal generator that outputs a shooting timing signal when the subject satisfies the shooting condition.

【0007】前記画像から第一の抽出条件に基づいて主
要被写体を抽出する抽出部をさらに備え、前記撮影条件
は、前記主要被写体に関する所定の撮影条件を含み、前
記タイミング信号発生部は、前記主要被写体が前記撮影
条件を満たしたときに前記撮影タイミング信号を出力す
る手段を有してもよい。前記第一の抽出条件は、前記被
写体の各部までの距離を示す奥行き分布情報に基づく所
定の抽出条件を含んでもよい。前記抽出部は、前記画像
から複数体の前記主要被写体を抽出する手段をさらに有
し、前記タイミング信号発生部は、複数体の前記主要被
写体が前記撮影条件を満たしたときに前記撮影タイミン
グ信号を出力する手段をさらに有してもよい。前記タイ
ミング信号発生部は、複数体の前記主要被写体のうち、
所定の比率以上の前記主要被写体が前記撮影条件を満た
したときに前記撮影タイミング信号を出力する手段をさ
らに有してもよい。
The image processing apparatus further includes an extraction unit for extracting a main subject from the image based on a first extraction condition, wherein the shooting condition includes a predetermined shooting condition for the main subject, and the timing signal generating unit includes There may be provided a means for outputting the photographing timing signal when the subject satisfies the photographing condition. The first extraction condition may include a predetermined extraction condition based on depth distribution information indicating a distance to each part of the subject. The extraction unit further includes a unit that extracts a plurality of the main subjects from the image, and the timing signal generation unit outputs the shooting timing signal when the plurality of the main subjects satisfy the shooting condition. It may further have a means for outputting. The timing signal generator is configured to include, among a plurality of the main subjects,
The image forming apparatus may further include a unit that outputs the photographing timing signal when the main subject having a predetermined ratio or more satisfies the photographing condition.

【0008】前記抽出部は、前記主要被写体の注目部位
を前記第一の抽出条件と異なる第二の抽出条件に基づい
て前記主要被写体から検出する手段をさらに有し、前記
撮影条件は、前記注目部位に関する所定の撮影条件を含
み、前記タイミング信号発生部は、前記注目部位が前記
撮影条件を満たしたときに前記撮影タイミング信号を出
力する手段をさらに有してもよい。前記抽出部は、前記
画像から複数体の前記主要被写体を抽出する場合に、複
数体の前記主要被写体の各々の前記注目部位を検出する
手段をさらに有し、前記タイミング信号発生部は、複数
の前記注目部位が前記撮影条件を満たしたときに前記撮
影タイミング信号を出力することを特徴とする手段をさ
らに有してもよい。前記タイミング信号発生部は、複数
体の前記主要被写体の前記注目部位のうち、所定の比率
以上の前記注目部位が前記撮影条件を満たしたときに前
記撮影タイミング信号を出力することを特徴とする手段
をさらに有してもよい。
[0008] The extraction unit may further include means for detecting a region of interest of the main subject from the main subject based on a second extraction condition different from the first extraction condition. The timing signal generator may include a predetermined imaging condition related to a part, and the timing signal generation unit may further include a unit that outputs the imaging timing signal when the target part satisfies the imaging condition. The extraction unit, when extracting a plurality of the main subjects from the image, further includes a unit configured to detect the attention site of each of the plurality of the main subjects, the timing signal generation unit, The apparatus may further include means for outputting the photographing timing signal when the region of interest satisfies the photographing condition. The timing signal generating unit outputs the photographing timing signal when the target part of a predetermined ratio or more satisfies the photographing condition among the plural target parts of the main subject. May be further provided.

【0009】前記入力部に対し、前記撮影タイミング信
号に基づいて前記画像を撮像させる撮像制御部をさらに
備えてもよい。前記抽出部により検出された前記注目部
位に関する情報に基づいて所定の画像入力条件を決定す
る入力条件決定部と、前記入力部に対し、前記画像入力
条件に基づいて前記被写体を結像させる結像制御部とを
さらに備えてもよい。前記撮影タイミング信号に基づい
て前記画像を交換可能な不揮発性の記録媒体に記録する
記録部をさらに備えてもよい。前記抽出部より検出され
た前記注目部位に関する情報に基づいて前記画像に対し
画像処理をする画像処理部をさらに備えてもよい。前記
被写体が前記撮影条件を満たしたかどうかを撮影者に知
らせる通知信号を出力する通知部をさらに備えてもよ
い。前記条件記憶部は、複数の前記撮影条件を記憶し、
さらに、複数の前記撮影条件の中から所望の条件を少な
くとも一つ選択して予め設定する手段を有してもよい。
[0009] An imaging control unit for causing the input unit to capture the image based on the imaging timing signal may be further provided. An input condition determining unit that determines a predetermined image input condition based on the information about the region of interest detected by the extracting unit; and an image forming unit that forms an image of the subject on the input unit based on the image input condition. A control unit may be further provided. The image processing apparatus may further include a recording unit that records the image on an exchangeable non-volatile recording medium based on the photographing timing signal. The image processing apparatus may further include an image processing unit that performs image processing on the image based on the information on the target region detected by the extraction unit. The image processing apparatus may further include a notification unit that outputs a notification signal that notifies a photographer whether the subject has satisfied the imaging conditions. The condition storage unit stores a plurality of the shooting conditions,
Further, there may be provided a means for selecting at least one desired condition from among the plurality of photographing conditions and presetting the selected condition.

【0010】本発明の第2の実施形態においては、被写
体が所定の撮影条件を満たしたときに撮影タイミング信
号を出力するタイミング信号発生段階を備える。前記被
写体を撮像した画像から第一の条件に基づいて主要被写
体を抽出する抽出段階をさらに備え、前記撮影条件は、
前記主要被写体に関する所定の撮影条件を含み、前記タ
イミング信号発生段階は、前記主要被写体が前記撮影条
件を満たしたときに前記撮影タイミング信号を出力する
段階を有してもよい。前記抽出段階は、前記主要被写体
の注目部位を前記第一の条件と異なる第二の条件に基づ
いて前記画像から検出する段階をさらに有し、前記撮影
条件は、前記注目部位に関する所定の撮影条件を含み、
前記タイミング信号発生段階は、前記注目部位が前記撮
影条件を満たしたときに前記撮影タイミング信号を出力
する段階をさらに有してもよい。
The second embodiment of the present invention includes a timing signal generating step of outputting a photographing timing signal when a subject satisfies a predetermined photographing condition. An extraction step of extracting a main subject from an image obtained by capturing the subject based on a first condition, further comprising:
The method may include a predetermined photographing condition for the main subject, and the timing signal generating step may include outputting the photographing timing signal when the main subject satisfies the photographing condition. The extracting step further includes a step of detecting a target region of the main subject from the image based on a second condition different from the first condition, wherein the photographing condition includes a predetermined photographing condition relating to the target region. Including
The timing signal generating step may further include outputting the imaging timing signal when the target part satisfies the imaging condition.

【0011】前記被写体を前記撮影タイミング信号に基
づいて撮像させる段階をさらに備えてもよい。前記抽出
段階により検出された前記注目部位に関する情報に基づ
いて所定の画像入力条件を決定する段階と、前記被写体
を前記画像入力条件に基づいて結像させる段階とをさら
に備えてもよい。前記被写体を撮像した画像を前記撮影
タイミング信号に基づいて不揮発性の記録媒体に記録す
る段階をさらに備えてもよい。前記抽出段階より検出さ
れた前記注目部位に関する情報に基づいて前記画像に対
し画像処理をする段階をさらに備えてもよい。
[0011] The method may further include the step of imaging the subject based on the imaging timing signal. The method may further include a step of determining a predetermined image input condition based on the information on the target part detected in the extraction step, and a step of forming an image of the subject based on the image input condition. The method may further include a step of recording an image of the subject on a nonvolatile recording medium based on the photographing timing signal. The method may further include a step of performing image processing on the image based on the information on the region of interest detected in the extracting step.

【0012】なお上記の発明の概要は、本発明の必要な
特徴の全てを列挙したものではなく、これらの特徴群の
サブコンビネーションもまた発明となりうる。
The above summary of the present invention does not list all of the necessary features of the present invention, and a sub-combination of these features may also be an invention.

【0013】[0013]

【発明の実施の形態】以下、発明の実施の形態を通じて
本発明を説明するが、以下の実施形態は特許請求の範囲
に係る発明を限定するものではなく、また実施形態の中
で説明されている特徴の組み合わせの全てが発明の解決
手段に必須であるとは限らない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described through embodiments of the present invention. However, the following embodiments do not limit the invention according to the claims and are described in the embodiments. Not all combinations of features are essential to the solution of the invention.

【0014】図1は、本発明の第1実施形態におけるデ
ジタルカメラの構成図である。本実施形態のカメラは、
被写体の画像を予備撮影し、予備撮影した画像(副画
像)が所定の撮像条件を満たしたときに所定の画像入力
条件に基づいて本撮影をする。そして、本撮影で得られ
た画像(主画像)は所定の画像処理条件に基づいて画像
処理される。なお、自動的に撮影タイミングを判断させ
ずに、撮影者の所望のタイミングで通常の撮影をするこ
ともでき、自動撮影モードと通常撮影モードとをユーザ
が所定の方法で切り換えることができる。
FIG. 1 is a configuration diagram of a digital camera according to a first embodiment of the present invention. The camera of this embodiment is
An image of a subject is preliminarily photographed, and when the preliminarily photographed image (sub image) satisfies a predetermined imaging condition, main imaging is performed based on a predetermined image input condition. Then, the image (main image) obtained by the actual shooting is subjected to image processing based on predetermined image processing conditions. It is to be noted that normal photographing can be performed at a timing desired by the photographer without automatically determining the photographing timing, and the user can switch between the automatic photographing mode and the normal photographing mode by a predetermined method.

【0015】本実施形態のカメラは、入力部20とA/
D変換部30とメモリ40と制御ユニット50とレリー
ズスイッチ52と通知部54と記録部90と出力部92
とを備える。本実施形態のカメラには、例えばデジタル
スチールカメラや静止画を撮影可能なデジタルビデオカ
メラ等が含まれる。
The camera of the present embodiment has an input unit 20 and an A /
D conversion unit 30, memory 40, control unit 50, release switch 52, notification unit 54, recording unit 90, and output unit 92
And The camera of the present embodiment includes, for example, a digital still camera, a digital video camera capable of capturing a still image, and the like.

【0016】入力部20は、視差画像入力手段22と画
像入力手段24とを有する。視差画像入力手段22は、
被写体を異なる視点から撮像する視差画像を入力する。
視差画像入力手段22は、視差用レンズ32と視差用シ
ャッター34と視差用CCD(Charge coupled device:
電荷結合素子)36とを含む。視差用レンズ32は、被
写体を結像する。視差用シャッター34は、視点となる
開閉自在な複数の開閉部を含み、いずれかの開閉部が開
く。視差用CCD36は、視差用レンズ32により結像
された被写体の画像を受光して電気信号に変換する。
The input unit 20 includes a parallax image input unit 22 and an image input unit 24. The parallax image input unit 22 includes:
A parallax image for capturing an object from a different viewpoint is input.
The parallax image input unit 22 includes a parallax lens 32, a parallax shutter 34, and a parallax CCD (Charge coupled device:
Charge-coupled device) 36. The parallax lens 32 forms an image of a subject. The parallax shutter 34 includes a plurality of openable and closable opening / closing portions serving as viewpoints, and one of the opening / closing portions is opened. The parallax CCD 36 receives the image of the subject formed by the parallax lens 32 and converts the image into an electric signal.

【0017】視差用シャッター34に含まれる複数の開
閉部のうちいずれかの開閉部を開けることにより、視差
用レンズ32と開いているいずれかの開閉部とを介し
て、被写体の像が視差用CCD36に結ばれる。次い
で、他の開閉部を開けることにより、視差用レンズ32
と開いている開閉部とを介して、被写体の像が視差用C
CD36に結ばれる。このようにして撮像された画像は
異なる視点から被写体を撮像した視差画像となる。
By opening one of the plurality of opening / closing portions included in the parallax shutter 34, the image of the subject is transmitted through the parallax lens 32 and one of the open / closed portions. It is connected to the CCD 36. Next, by opening another opening / closing part, the parallax lens 32 is opened.
And the opening / closing part which is open, the image of the subject
It is tied to CD36. The image captured in this manner is a parallax image obtained by capturing an object from a different viewpoint.

【0018】画像入力手段24は、被写体を一つの視点
から撮像する画像を入力する。画像入力手段24は、レ
ンズ25と絞り26とシャッター27とカラーフィルタ
28とCCD29とを含む。レンズ25は被写体を結像
し、絞り26は絞り量を調整し、シャッター27は露光
時間を調整する。カラーフィルタ28はレンズ25を通
して受光される光のRGB成分を分解する。CCD29
はレンズ25によって結像された被写体の画像を受光し
て電気信号に変換する。
The image input means 24 inputs an image of a subject taken from one viewpoint. The image input means 24 includes a lens 25, an aperture 26, a shutter 27, a color filter 28, and a CCD 29. The lens 25 forms an image of the subject, the aperture 26 adjusts the aperture amount, and the shutter 27 adjusts the exposure time. The color filter 28 decomposes the RGB components of the light received through the lens 25. CCD29
Receives the image of the subject formed by the lens 25 and converts it into an electric signal.

【0019】A/D変換部30は、視差画像入力手段2
2と画像入力手段24とから受け取ったアナログ信号を
デジタル信号に変換し、メモリ40に出力する。メモリ
40は入力されたデジタル信号を格納する。即ち、メモ
リ40は、視差画像入力手段22が撮像した被写体の視
差画像、及び、画像入力手段24が撮像した画像を記憶
する。
The A / D conversion section 30 is a parallax image input unit 2
2 and converts the analog signal received from the image input means 24 into a digital signal, and outputs the digital signal to the memory 40. The memory 40 stores the input digital signal. That is, the memory 40 stores the parallax image of the subject captured by the parallax image input unit 22 and the image captured by the image input unit 24.

【0020】制御ユニット50は、被写体が所定の撮影
条件を満たしたときに撮影タイミング信号を発生させ、
撮影タイミング信号に基づいて撮影動作を制御する。ま
た、制御ユニット50は、撮影した被写体の画像を画像
処理して出力する。制御ユニット50は、レンズ25の
フォーカス、絞り26の絞り量、シャッター27の露光
時間、CCD29の信号出力、視差用シャッター34の
開閉及び視差用CCD36の信号出力のうち少なくとも
一つを制御する。
The control unit 50 generates a photographing timing signal when the subject satisfies predetermined photographing conditions,
The photographing operation is controlled based on the photographing timing signal. Further, the control unit 50 performs image processing on the captured image of the subject and outputs the processed image. The control unit 50 controls at least one of the focus of the lens 25, the aperture amount of the aperture 26, the exposure time of the shutter 27, the signal output of the CCD 29, the opening and closing of the parallax shutter 34, and the signal output of the parallax CCD 36.

【0021】レリーズスイッチ52は、制御ユニット5
0に撮影動作の制御を開始させる信号を出力する。即
ち、撮影者がレリーズスイッチ52をオンにすると、制
御ユニット50が入力部20を制御して被写体を撮影す
る。通知部54は、制御ユニット50から受け取る信号
に基づいて、被写体が所定の撮影条件を満たしたかどう
かを撮影者に知らせる通知信号を出力する。通知部54
としては、例えばアラーム音発生器やランプ等が考えら
れる。
The release switch 52 is connected to the control unit 5
A signal for starting the control of the photographing operation is output to 0. That is, when the photographer turns on the release switch 52, the control unit 50 controls the input unit 20 to photograph the subject. The notifying unit 54 outputs a notification signal for notifying the photographer whether or not the subject satisfies predetermined photographing conditions, based on the signal received from the control unit 50. Notification unit 54
For example, an alarm sound generator or a lamp may be considered.

【0022】記録部90は、制御ユニット50から受け
取った画像を記録媒体に記録する。記録部90が画像を
記録する記録媒体は、例えばフロッピーディスク等の磁
気記録媒体やフラッシュメモリ等の交換可能な不揮発性
メモリであってもよい。出力部92は、記録部90に記
録された画像を外部に出力する。出力方法としては、プ
リンタによるプリント出力やモニタによる画像出力等が
ある。例えば、カメラが液晶小型モニタを内蔵する場
合、ユーザは制御ユニット50により画像処理された処
理結果の画像を直ちに確認することができる。
The recording section 90 records the image received from the control unit 50 on a recording medium. The recording medium on which the recording unit 90 records the image may be, for example, a magnetic recording medium such as a floppy disk or an exchangeable nonvolatile memory such as a flash memory. The output unit 92 outputs the image recorded on the recording unit 90 to the outside. As an output method, there are a print output by a printer, an image output by a monitor, and the like. For example, when the camera has a built-in small-sized liquid crystal monitor, the user can immediately confirm the image of the processing result of the image processing by the control unit 50.

【0023】図2は、本実施形態の制御ユニット50を
詳細に示すブロック図である。本実施形態の制御ユニッ
ト50は、撮像制御部56と結像制御部58と抽出部6
0と条件記憶部70とタイミング信号発生部80と入力
条件決定部82と画像処理部84とを備える。
FIG. 2 is a block diagram showing the control unit 50 of this embodiment in detail. The control unit 50 of the present embodiment includes an imaging control unit 56, an imaging control unit 58, and an extraction unit 6
0, a condition storage unit 70, a timing signal generation unit 80, an input condition determination unit 82, and an image processing unit 84.

【0024】抽出部60は、視差画像入力手段22によ
り撮像された視差画像、及び、画像入力手段24により
撮像された副画像をメモリ40から受け取る。抽出部6
0は、視差画像及び副画像に含められた情報に基づい
て、副画像から主要被写体を抽出する。ここでいう主要
被写体とは、撮影する被写体のうち、撮影者が意識的に
撮影する独立した対象物である。例えば、部屋の中の人
物を撮影するときの当該人物、水槽の中を泳ぐ魚を撮影
するときの当該魚、木の枝に止まった鳥を撮影するとき
の当該鳥等が主要被写体である。本実施形態では、特に
人物を被写体にして撮影する場合に抽出部60がその人
物の顔部分を主要被写体として抽出する。
The extraction unit 60 receives from the memory 40 the parallax image captured by the parallax image input unit 22 and the sub-image captured by the image input unit 24. Extraction unit 6
0 extracts the main subject from the sub-image based on the information included in the parallax image and the sub-image. The main subject referred to here is an independent target object that the photographer intentionally photographs, among the subjects to be photographed. For example, the main subjects are the person when photographing a person in a room, the fish when photographing a fish swimming in an aquarium, and the bird when photographing a bird perching on a tree branch. In the present embodiment, especially when a person is photographed with a subject as the subject, the extraction unit 60 extracts the face portion of the person as the main subject.

【0025】抽出部60は顔部分の情報に基づいて注目
部位を検出する。ここでいう注目部位とは、撮影する主
要被写体に含まれる部位のうち、主要被写体が所定の撮
影条件を満たすかどうかを判断するときに特に注目する
部分であり、判断の条件が割り振られた部位である。例
えば、人物を撮影するときの当該人物の目、鳥を撮影す
るときの当該鳥の羽根等が注目部位である。本実施形態
では、特に人物を被写体にして撮影する場合に抽出部6
0がその人物の目や口の形や色を検出する。注目部位に
関する情報は、タイミング信号発生部80と入力条件決
定部82と画像処理部84とに出力される。
The extraction unit 60 detects a target part based on information on a face part. The part of interest referred to here is a part that is particularly noticed when judging whether or not the main subject satisfies a predetermined imaging condition among the parts included in the main subject to be imaged, and the part to which the judgment condition is assigned. It is. For example, the eyes of the person when photographing a person, the feathers of the bird when photographing a bird, and the like are the target parts. In the present embodiment, the extraction unit 6 is particularly used when shooting with a person as a subject.
0 detects the shape and color of the eyes and mouth of the person. Information about the target region is output to the timing signal generator 80, the input condition determiner 82, and the image processor 84.

【0026】条件記憶部70は、被写体を撮像した副画
像に含まれる主要被写体に関する所定の撮影条件を記憶
する。本実施形態においては、副画像中に主要被写体が
見栄えよく写っていることを撮影条件とする。条件記憶
部70は、複数の撮影条件を記憶してもよい。複数の撮
影条件の中から所望の条件を少なくとも一つユーザに選
択させて、条件記憶部70に設定させてもよい。
The condition storage unit 70 stores predetermined photographing conditions relating to the main subject included in the sub-image of the subject. In the present embodiment, the photographing condition is that the main subject is well-viewed in the sub-image. The condition storage unit 70 may store a plurality of shooting conditions. The user may select at least one desired condition from among a plurality of photographing conditions and set the condition in the condition storage unit 70.

【0027】タイミング信号発生部80は撮影タイミン
グ信号を出力する。即ち、抽出部60により抽出された
注目部位が条件記憶部70に記憶された所定の撮影条件
を満たしたときに、タイミング信号発生部80が撮影タ
イミング信号を出力する。
The timing signal generator 80 outputs a photographing timing signal. That is, when the region of interest extracted by the extraction unit 60 satisfies a predetermined imaging condition stored in the condition storage unit 70, the timing signal generation unit 80 outputs an imaging timing signal.

【0028】入力条件決定部82は、抽出部60から受
け取る主要被写体又は注目部位に関する情報に基づい
て、画像入力条件を決定する。画像入力条件は結像制御
部58へ出力される。画像入力条件としては、例えば、
注目部位である目が検出された被写体にフォーカスを合
わせる等の条件が考えられる。このように、入力条件決
定部82がフォーカス等の画像入力条件を決定し、決定
された画像入力条件に基づいて入力部20が画像を入力
するので、見栄えのよい画像を撮影することができる。
The input condition determining unit 82 determines an image input condition based on the information on the main subject or the attention site received from the extracting unit 60. The image input condition is output to the imaging control unit 58. As the image input condition, for example,
Conditions such as focusing on the subject in which the eye, which is the attention site, is detected are conceivable. As described above, the input condition determination unit 82 determines image input conditions such as focus, and the input unit 20 inputs an image based on the determined image input conditions, so that a good-looking image can be captured.

【0029】結像制御部58は、入力部20に画像入力
条件に基づいて被写体を結像させる。即ち、結像制御部
58は、レンズ25のフォーカス、絞り26の絞り量、
シャッター27の露光時間、及び、視差用シャッター3
4の開閉のうち少なくとも一つを画像入力条件に基づい
て制御する。
The image forming control section 58 causes the input section 20 to form an image of a subject based on image input conditions. That is, the imaging control unit 58 determines the focus of the lens 25, the aperture amount of the aperture 26,
Exposure time of shutter 27 and shutter 3 for parallax
At least one of the four open / close operations is controlled based on image input conditions.

【0030】撮像制御部56は、入力部20に画像を撮
像させる。即ち、撮像制御部56は、CCD29の信号
出力、視差用CCD36の信号出力のうち少なくともい
ずれかを制御する。また、撮像制御部56は、撮影タイ
ミング信号に基づいて入力部20に主画像を撮像させ、
画像処理部84に主画像の画像処理をさせる。
The imaging control section 56 causes the input section 20 to capture an image. That is, the imaging control unit 56 controls at least one of the signal output of the CCD 29 and the signal output of the parallax CCD 36. Further, the imaging control unit 56 causes the input unit 20 to capture the main image based on the capturing timing signal,
The image processing unit 84 performs image processing of the main image.

【0031】画像処理部84は、画像入力手段24によ
り撮像された主画像をメモリ40から受け取る。そし
て、画像処理部84は、抽出部60により抽出された主
要被写体又は注目部位に関する情報に基づいて主画像を
画像処理する。
The image processing section 84 receives the main image captured by the image input means 24 from the memory 40. Then, the image processing unit 84 performs image processing on the main image based on the information on the main subject or the attention site extracted by the extraction unit 60.

【0032】画像処理方法としては、以下の方法が考え
られる。例えば、画像処理部84は、主画像のうち顔部
分と顔以外の部分とで著しく階調が異なるためにそのま
までは全体として良好な画像とならない場合、顔部分と
顔以外の部分とをそれぞれ最適な階調に処理して合成し
てもよい。また、顔部分の画質を劣化させずに主画像全
体の画像データサイズを圧縮したい場合に、画像処理部
84は、顔部分と顔以外の部分とで異なる減色(色圧
縮)をして合成してもよい。さらに、画像処理部84
は、顔部分の画像を拡大して強調した画像を顔以外の部
分と合成させたり、顔部分の画像を任意の背景画像と合
成してもよい。また、注目部位が検出された主要被写体
とそれ以外の被写体とで別々に上記のような画像処理を
してもよい。このように、抽出部60が主要被写体と注
目部位とを抽出するので、主要被写体とそれ以外の被写
体とで別々に画像処理することができる。
The following methods are conceivable as image processing methods. For example, the image processing unit 84 optimizes the face part and the part other than the face when the image part is not good as a whole because the gradation is significantly different between the face part and the part other than the face in the main image. The image may be processed after being processed to an appropriate gradation. Further, when it is desired to compress the image data size of the entire main image without deteriorating the image quality of the face part, the image processing unit 84 performs different color reduction (color compression) for the face part and the part other than the face and combines them. You may. Further, the image processing unit 84
The image of the face portion may be enlarged and emphasized to be combined with a portion other than the face, or the image of the face portion may be combined with an arbitrary background image. Further, the above-described image processing may be separately performed on the main subject in which the attention site is detected and the other subjects. As described above, since the extraction unit 60 extracts the main subject and the attention site, image processing can be separately performed on the main subject and other subjects.

【0033】図3は、抽出部60の機能ブロック図であ
る。カメラで撮影される被写体の大半は人物であると言
われている。従って、良好な画像を撮影するということ
は、多くの場合において被写体となる人物が見栄えよく
写っているかが撮影タイミングの判断基準となる。本実
施形態においては、人物を被写体にした場合に人物が見
栄えよく写った瞬間に撮影する。人物が見栄えよく写る
条件としては、例えば、「瞬きをしていない」、「視線
がカメラ方向を向いている」、「微笑んでいる」等が考
えられる。
FIG. 3 is a functional block diagram of the extraction unit 60. It is said that most subjects photographed by the camera are people. Therefore, photographing a good image often determines whether or not a person who is a subject is well-looking as a criterion for photographing timing. In the present embodiment, when a person is set as a subject, an image is captured at the moment when the person is captured with good appearance. The conditions under which the person looks good are, for example, "not blinking", "the line of sight is facing the camera", "smiling", and the like.

【0034】抽出部60は、奥行き情報抽出手段62と
画像情報抽出手段64と主要被写体抽出手段66と注目
部位検出手段68とを含む。
The extracting section 60 includes a depth information extracting means 62, an image information extracting means 64, a main subject extracting means 66, and a target part detecting means 68.

【0035】奥行き情報抽出手段62は、メモリ40か
ら受け取る視差画像に基づいて、被写体の各部までの距
離を示す奥行き分布情報を抽出する。即ち、奥行き情報
抽出手段62は、視差画像に基づいて、所定の被写体に
ついて対応点決定処理を行うことにより視差量を求め、
求めた視差量に基づいて奥行き分布情報を抽出する。対
応点決定処理は、従来から知られている技術であるので
説明を省略する。また、視差量に基づいて奥行き分布情
報を抽出する処理は、従来から知られている三角測量の
原理に基づいて行うことができるのでここでは説明を省
略する。
The depth information extracting means 62 extracts depth distribution information indicating the distance to each part of the subject based on the parallax image received from the memory 40. That is, the depth information extracting unit 62 obtains a parallax amount by performing a corresponding point determination process on a predetermined subject based on the parallax image,
The depth distribution information is extracted based on the obtained amount of parallax. The corresponding point determination processing is a conventionally known technique, and a description thereof will be omitted. The process of extracting the depth distribution information based on the amount of parallax can be performed based on a conventionally known principle of triangulation, and a description thereof will not be repeated.

【0036】画像情報抽出手段64は、メモリ40から
受け取る副画像に基づいて、画像の画像情報、例えば輝
度分布情報、色分布情報、テクスチュア分布情報、動き
の分布情報等を抽出する。
The image information extracting means 64 extracts image information of the image, for example, luminance distribution information, color distribution information, texture distribution information, motion distribution information, etc., based on the sub-image received from the memory 40.

【0037】主要被写体抽出手段66は、奥行き分布情
報と画像情報とに基づいて副画像から顔部分を主要被写
体として抽出する。ここで、主要被写体の抽出条件は、
奥行き分布情報と画像情報との単純な多数決や平均のみ
でなく、他の計算方法で抽出してもよい。例えば、奥行
き分布情報に基づいて画像に含まれる複数の被写体を抽
出した上で、以下の判断要素に基づいて複数の被写体か
ら主要被写体を選択する。
The main subject extracting means 66 extracts a face portion from the sub-image as a main subject based on the depth distribution information and the image information. Here, the extraction condition of the main subject is
In addition to a simple majority or average of the depth distribution information and the image information, the information may be extracted by another calculation method. For example, after extracting a plurality of subjects included in the image based on the depth distribution information, a main subject is selected from the plurality of subjects based on the following determination factors.

【0038】主要被写体を選択するための判断要素とし
ては、例えば被写体が、カメラの近くに位置するか、画
像の中央近くに位置するか、画像に写った被写体の高さ
が画像縦幅に対し所定の範囲の比率であるか等がある。
この場合、各被写体からカメラまでの距離を奥行き分布
情報に基づいて数値化し、さらに各被写体の画像中央か
らの距離、各被写体の高さの画像縦幅に対する比率を画
像情報に基づいて数値化する。数値化した各判断要素に
異なる重み付けをした数値の和を算出し、算出した和を
各被写体の加重平均値とする。そして、算出した加重平
均値のうち最大の加重平均値を有する被写体を主要被写
体とする。
As a determining factor for selecting a main subject, for example, whether the subject is located near the camera, near the center of the image, or the height of the subject in the image is determined by the height of the image relative to the vertical width of the image. For example, the ratio is within a predetermined range.
In this case, the distance from each subject to the camera is quantified based on the depth distribution information, and the distance of each subject from the center of the image and the ratio of the height of each subject to the image vertical width are quantified based on the image information. . A sum of numerical values obtained by giving different weights to the respective quantified judgment elements is calculated, and the calculated sum is used as a weighted average value of each subject. Then, the subject having the largest weighted average value among the calculated weighted average values is set as the main subject.

【0039】各判断要素の中で特に重視する判断要素が
ある場合、その判断要素の数値に対する重み付けを大き
くしてもよい。人物を被写体とする本実施形態において
は、主要被写体抽出手段66が被写体となる人物の顔部
分を主要被写体として抽出する。顔部分を抽出する場
合、肌色の部分があるか等をさらに判断要素としてもよ
い。この場合、肌色量を画像情報に基づいて数値化し、
かかる肌色量の重み付けを特に大きくしてもよい。画像
の中に複数の人物が含まれる場合、複数の人物全員の顔
部分を抽出する。
When there is a judgment element which is particularly important among the judgment elements, the weight of the numerical value of the judgment element may be increased. In the present embodiment in which a person is the subject, the main subject extracting means 66 extracts the face of the person as the subject as the main subject. When extracting a face portion, whether or not there is a skin color portion may be used as a further determining factor. In this case, the amount of skin color is quantified based on the image information,
The weight of the skin color amount may be particularly increased. When a plurality of persons are included in the image, the faces of all the plurality of persons are extracted.

【0040】主要被写体抽出手段66は、奥行き分布情
報と画像情報とに基づいて主要被写体を抽出する。これ
により、例えば、複数の人物の顔画像が前後に一部重な
っていても、画像情報だけに基づいて抽出する場合と異
なり、奥行き分布情報に基づいて高い精度で前の人の顔
と後ろの人の顔を抽出することができる。
The main subject extracting means 66 extracts a main subject based on depth distribution information and image information. Thereby, for example, even when face images of a plurality of persons partially overlap in front and behind, unlike the case where extraction is performed based only on image information, the face of the front person and the back of the front person are accurately determined based on the depth distribution information. A human face can be extracted.

【0041】注目部位検出手段68は、主要被写体抽出
手段66により抽出された顔部分から、副画像に含まれ
る画像情報に基づいて注目部位を検出する。本実施形態
においては、主要被写体抽出手段66における抽出条件
とは異なる条件で、顔部分から目や口を検出する。以
下、注目部位検出手段68における目や口を検出する条
件を説明する。
The attention site detection means 68 detects the attention site from the face portion extracted by the main subject extraction means 66 based on the image information included in the sub-image. In the present embodiment, the eyes and the mouth are detected from the face part under conditions different from the extraction conditions of the main subject extracting means 66. Hereinafter, conditions for detecting the eyes and the mouth in the attention site detecting means 68 will be described.

【0042】人間の目は、その色、形、顔に対する相対
位置に個人差が少ない。従って、予め目の色、形、相対
位置等をパターン化しておき、その目のパターンに近似
する形状を顔部分から認識する。人間の口の色、形、顔
に対する相対位置も個人差が少なく、目と同様に予めパ
ターン化しておくことにより口の形状を顔部分から認識
する。抽出部60は、まず顔部分を抽出し、抽出した顔
部分から目や口等の顔の一部品を検出するので、背景等
の画像から誤って目や口に近似した模様を検出してしま
うのを防ぐことができる。
Human eyes have little individual difference in color, shape, and relative position with respect to the face. Therefore, the eye color, shape, relative position, and the like are patterned in advance, and a shape similar to the eye pattern is recognized from the face portion. The color, shape, and relative position of the human mouth with respect to the face have little individual difference, and the shape of the mouth is recognized from the face portion by patterning in advance similarly to the eyes. The extraction unit 60 first extracts a face part, and detects one part of the face such as eyes and mouth from the extracted face part. Therefore, the extraction unit 60 erroneously detects a pattern similar to the eyes and mouth from an image such as a background. Can be prevented.

【0043】画像に複数の人物が含まれる場合、注目部
位検出手段68は、各人物ごとの注目部位を各顔部分か
ら検出する。そして、注目部位検出手段68は、注目部
位に関する情報をタイミング信号発生部80に出力す
る。
When a plurality of persons are included in the image, the target part detecting means 68 detects a target part for each person from each face part. Then, the attention site detection unit 68 outputs information on the attention site to the timing signal generation unit 80.

【0044】次に、撮影タイミングの判断方法及び撮影
条件について説明する。人物が見栄えよく写る撮影条件
としては、例えば注目部位が「瞬きしていない」、「視
線がカメラ方向を向いている」、「微笑んでいる」等の
条件が考えられる。注目部位が撮影条件を満たすかどう
かの判断手法は、撮影条件により異なる。以下、撮影条
件ごとの判断手法について説明する。
Next, the method of determining the photographing timing and the photographing conditions will be described. Examples of the photographing conditions under which a person is well-appeared include, for example, conditions such as “the part of interest is not blinking”, “the line of sight is facing the camera”, and “smile”. The method of determining whether or not the target site satisfies the imaging conditions differs depending on the imaging conditions. Hereinafter, a determination method for each shooting condition will be described.

【0045】「瞬きしていない」、「視線がカメラ方向
を向いている」という撮影条件の場合、目の色、形、大
きさ等を判断材料とする。「微笑んでいる」という撮影
条件の場合、目の大きさ、口の形、口の大きさ等を判断
材料とする。これらの判断材料が撮影条件を満たすかど
うかは、撮影条件ごとの経験則に基づいた所定のアルゴ
リズムにより判断する。
In the case of the photographing conditions of "not blinking" and "the line of sight is facing the camera", the color, shape, size, and the like of the eyes are used as judgment materials. In the case of the shooting condition of “smiling”, the size of the eyes, the shape of the mouth, the size of the mouth, and the like are used as the judgment material. Whether these determination materials satisfy the photographing conditions is determined by a predetermined algorithm based on an empirical rule for each photographing condition.

【0046】目が「瞬きしていない」ことを撮影条件と
する場合、以下のように判断する。人は瞬きをすると眼
球が瞼で隠される。また、瞬き動作の途中で目が半分だ
け閉じた状態であっても、眼球表面のうち特に白目の部
分が外部から見えにくくなる。そこで、注目部位検出手
段68が検出した目の白色部分の面積を画像情報に基づ
いて算出し、その面積が所定の基準面積を超えたときに
撮影条件を満たすこととする。目の横方向長さは目を開
いても閉じても一定であるため、基準面積は目の横方向
長さに対する相対的な値とする。なお、瞬きは通常両目
で同時に行うので、片目についてだけ判断すればよい。
但し、両目について判断することにより判断の精度をよ
り高くしてもよい。
When the photographing condition is that the eyes are not "blinking", the following judgment is made. When a person blinks, the eyeball is hidden by the eyelids. In addition, even when the eyes are half closed during the blinking operation, the white eye portion of the eyeball surface is particularly difficult to see from the outside. Therefore, the area of the white part of the eye detected by the attention site detecting means 68 is calculated based on the image information, and the imaging condition is satisfied when the area exceeds a predetermined reference area. Since the lateral length of the eye is constant whether the eye is opened or closed, the reference area is a value relative to the lateral length of the eye. In addition, since blinking is usually performed simultaneously with both eyes, it is sufficient to judge only one eye.
However, the accuracy of the determination may be further improved by performing the determination for both eyes.

【0047】「視線がカメラ方向を向いている」ことを
撮影条件とする場合、以下のように判断する。視線がカ
メラ方向を向いている場合、カメラと虹彩とを結ぶ線
と、虹彩の法線ベクトルとがほぼ一致した状態になる。
そこで、注目部位検出手段68が検出した目の中に少な
くとも円周付近が茶褐色等である略円形又は略楕円形の
部分を虹彩として認識した後、虹彩の中心点を画像情報
に基づいて検出する。そして、奥行き分布情報に基づい
て虹彩の中心点の法線ベクトルを求める。虹彩の法線ベ
クトルの角度が、カメラと虹彩とを結ぶ線の角度とほぼ
一致したときに注目部位が撮影条件を満たすこととす
る。
When the photographing condition is that "the line of sight is facing the camera", the following judgment is made. When the line of sight is facing the camera, the line connecting the camera and the iris substantially coincides with the normal vector of the iris.
Therefore, after recognizing, as an iris, a substantially circular or substantially elliptical portion in which at least the periphery of the eye detected by the attention site detecting means 68 is brown or the like, the center point of the iris is detected based on the image information. . Then, a normal vector of the center point of the iris is obtained based on the depth distribution information. When the angle of the normal vector of the iris substantially coincides with the angle of the line connecting the camera and the iris, the target site satisfies the imaging condition.

【0048】虹彩の法線ベクトルは、カメラと顔との相
対位置関係、顔と目との相対位置関係、及び、目全体と
虹彩との相対位置関係からも求めることができる。これ
により求めた虹彩の法線ベクトルの角度が、カメラと虹
彩とを結ぶ線の角度とほぼ一致したときに注目部位が撮
影条件を満たすこととする。なお、両目について判断す
れば、判断の精度をより高くできる。
The normal vector of the iris can also be obtained from the relative positional relationship between the camera and the face, the relative positional relationship between the face and the eyes, and the relative positional relationship between the entire eyes and the iris. When the angle of the normal vector of the iris obtained in this way substantially coincides with the angle of the line connecting the camera and the iris, the target part satisfies the imaging condition. If the judgment is made for both eyes, the accuracy of the judgment can be increased.

【0049】「微笑んでいる」ことを撮影条件とする場
合、以下のように判断する。人が微笑んだときの口は、
個人差はあるものの一般的には左右両端位置が横方向に
広がり、口の中に歯が見える場合が多い。また、微笑ん
だときの目は、個人差はあるものの通常時よりも細くな
っている場合が多い。そこで、注目部位検出手段68が
検出した目の中の白色部分の面積、口の横方向の長さ、
及び、口の中の白色部分の面積を画像情報に基づいて算
出する。
When "smiling" is set as the photographing condition, the following judgment is made. When a person smiles,
Although there are individual differences, generally the right and left ends are spread in the horizontal direction, and teeth are often visible in the mouth. In addition, the eyes when smiling are often narrower than usual, although there are individual differences. Therefore, the area of the white part in the eyes detected by the attention part detecting means 68, the lateral length of the mouth,
And the area of the white part in the mouth is calculated based on the image information.

【0050】目の中の白色部分の面積が所定の基準面積
より小さいもの、口の横方向の長さが所定の基準長さよ
り長いもの、及び、口の中の白色部分の面積が所定の基
準面積より大きいもの、という各条件を満たしたときに
撮影条件を満たすこととなる。目の白色部分の基準面積
は、目の横方向の長さに対する相対的な値である。口の
横方向の長さの基準長さは、顔の横方向の長さに対する
相対的な値である。口の白色部分の基準面積は、顔面積
に対する相対的な値である。
A white area in the eye is smaller than a predetermined reference area, a lateral length of the mouth is longer than a predetermined reference length, and a white area in the mouth is smaller than a predetermined reference area. When each condition of being larger than the area is satisfied, the photographing condition is satisfied. The reference area of the white part of the eye is a value relative to the lateral length of the eye. The reference length of the lateral length of the mouth is a value relative to the lateral length of the face. The reference area of the white part of the mouth is a value relative to the face area.

【0051】以上のような判断により注目部位が撮影条
件を満たしたときに、タイミング信号発生部80が撮影
タイミング信号を出力する。このように、本実施形態に
おいては、制御ユニット50が副画像及び副画像に関す
る情報に基づいて顔部分を抽出し、抽出した顔部分から
注目部位を検出する。そして、検出された注目部位が撮
影条件を満たしたときに撮影することとしたので、人間
による判断を介さずに自動的に良好な画像を撮影するこ
とができる。
When the target part satisfies the imaging conditions by the above determination, the timing signal generator 80 outputs an imaging timing signal. As described above, in the present embodiment, the control unit 50 extracts a face portion based on the sub-image and the information on the sub-image, and detects a target portion from the extracted face portion. Then, since the photographing is performed when the detected part of interest satisfies the photographing conditions, it is possible to automatically photograph a good image without any human judgment.

【0052】複数の人物を被写体とする場合、タイミン
グ信号発生部80は各人物の注目部位が撮影条件を満た
しているかどうか判断する。また、複数の人物のうち、
所定の比率の人数以上の人物に含まれる注目部位が撮影
条件を満たしたときに、撮影タイミング信号をタイミン
グ信号発生部80に出力させてもよい。この場合、複数
の人物のうちの多くが見栄えよく写る画像を自動的に撮
影することができる。
When a plurality of persons are set as subjects, the timing signal generation section 80 determines whether or not the attention site of each person satisfies the photographing conditions. Also, among multiple people,
The imaging timing signal may be output to the timing signal generation section 80 when the target portion included in the predetermined number of persons or more satisfies the imaging condition. In this case, it is possible to automatically capture an image in which many of the plurality of persons are clearly displayed.

【0053】図4は、本実施形態における撮影方法を示
すフローチャートである。まず、レリーズスイッチ52
を操作することにより撮影動作が開始される(S10
0)。撮影動作が開始されると、視差画像入力手段22
により視差画像が入力され(S102)、また、画像入
力手段24により副画像が連続的に入力される(S10
4)。次に、主要被写体抽出手段66が、被写体である
人物の顔部分を主要被写体として抽出する(S10
6)。次に、注目部位検出手段68が、顔部分に関する
情報に基づいて注目部位を検出する(S108)。次
に、タイミング信号発生部80は、注目部位が撮影条件
を満たしたしたときに撮影タイミング信号を出力する
(S110)。撮影タイミング信号を受け取った撮像制
御部56は、入力部20に本撮影させる(S112)。
FIG. 4 is a flowchart showing a photographing method according to this embodiment. First, the release switch 52
The photographing operation is started by operating (S10).
0). When the photographing operation is started, the parallax image input unit 22
(S102), and the sub-images are continuously input by the image input unit 24 (S10).
4). Next, the main subject extracting means 66 extracts the face portion of the person who is the subject as the main subject (S10).
6). Next, the attention part detecting means 68 detects the attention part based on the information on the face part (S108). Next, the timing signal generation section 80 outputs an imaging timing signal when the target part satisfies the imaging conditions (S110). The imaging control unit 56 that has received the imaging timing signal causes the input unit 20 to perform actual imaging (S112).

【0054】次に、画像処理部84が、本撮影により得
られた主画像に対し、合成等の画像処理を施す(S11
4)。画像処理がなされた処理結果画像は、記録部90
により記録媒体に記録される(S116)。出力部92
が処理結果画像を出力し(S118)、撮影動作が終了
する(S120)。
Next, the image processing section 84 performs image processing such as synthesis on the main image obtained by the main photographing (S11).
4). The processing result image subjected to the image processing is stored in the recording unit 90.
Is recorded on the recording medium (S116). Output unit 92
Outputs a processing result image (S118), and the photographing operation ends (S120).

【0055】図5は、図4における顔部分の抽出段階
(S106)の詳細な動作を示すフローチャートであ
る。まず、奥行き情報抽出手段62が、視差画像に基づ
いて奥行き分布情報を抽出し(S130)、また、画像
情報抽出手段64が、副画像に基づいて画像情報を抽出
する(S132)。次に、主要被写体抽出手段66が、
奥行き分布情報と画像情報とに基づいて顔部分を抽出す
る。複数の人物を被写体とする場合には、複数の人物全
員の顔部分が抽出されるまで、主要被写体抽出手段66
が顔部分の抽出(S134)を繰り返す(S136)。
FIG. 5 is a flowchart showing the detailed operation of the face portion extraction step (S106) in FIG. First, the depth information extracting unit 62 extracts depth distribution information based on a parallax image (S130), and the image information extracting unit 64 extracts image information based on a sub-image (S132). Next, the main subject extracting means 66
A face portion is extracted based on the depth distribution information and the image information. When a plurality of persons are set as subjects, the main subject extracting means 66 is used until the faces of all the plurality of persons are extracted.
Repeats the extraction of the face part (S134) (S136).

【0056】図6は、図4における注目部位の検出段階
(S108)の詳細な動作を示すフローチャートであ
る。まず、顔部分に関する情報に基づいて注目部位検出
手段68が注目部位を検出する(S150)。複数の人
物を被写体とする場合には、注目部位検出手段68は複
数の人物全員の顔部分から注目部位を検出する(S15
2、S150)。次に、注目部位に関する情報に基づい
て、入力条件決定部82が画像入力条件を決定する(S
154)。
FIG. 6 is a flowchart showing a detailed operation of the step of detecting a target part (S108) in FIG. First, the attention site detecting means 68 detects the attention site based on the information on the face portion (S150). In the case where a plurality of persons are used as subjects, the attention site detection means 68 detects the attention site from the face portions of all the plurality of persons (S15).
2, S150). Next, the input condition determination unit 82 determines an image input condition based on the information on the target part (S
154).

【0057】図7は、図4における撮影タイミング信号
発生段階(S110)の詳細な動作を示すフローチャー
トである。まず、タイミング信号発生部80は、注目部
位検出手段68により検出された注目部位が撮影条件を
満たすかを判断する(S160)。撮影動作開始から少
なくとも所定の時間を経過するまで、タイミング信号発
生部80は、注目部位が撮影条件を満たすかどうかの判
断を繰り返す(S164、S160)。タイミング信号
発生部80は、注目部位が撮影条件を満たすと判断した
場合、撮影タイミング信号を出力する(S162)。撮
影動作開始から所定の時間を経過しても、注目部位が撮
影条件を満たさない場合、撮像制御部56が入力部20
による画像の撮像を停止させる(S164、S16
6)。
FIG. 7 is a flowchart showing the detailed operation of the photographing timing signal generation step (S110) in FIG. First, the timing signal generator 80 determines whether or not the target site detected by the target site detector 68 satisfies the imaging conditions (S160). Until at least a predetermined time has elapsed from the start of the imaging operation, the timing signal generation unit 80 repeats the determination as to whether or not the target part satisfies the imaging conditions (S164, S160). If the timing signal generator 80 determines that the target site satisfies the imaging conditions, it outputs an imaging timing signal (S162). If the target region does not satisfy the imaging condition even after a predetermined time has elapsed from the start of the imaging operation, the imaging control unit 56 sets the input unit 20
To stop the imaging of the image (S164, S16
6).

【0058】図8は、図4における本撮影段階(S11
2)の詳細な動作を示すフローチャートである。撮影タ
イミング信号発生段階(S110)において出力された
撮影タイミング信号に基づいて、撮像制御部56は入力
部20に主画像を撮像させて自動撮影する(S17
0)。そして、入力部20により主画像が入力される
(S172)。
FIG. 8 shows the main photographing step (S11) in FIG.
It is a flowchart which shows the detailed operation | movement of 2). Based on the photographing timing signal output in the photographing timing signal generation step (S110), the photographing control unit 56 causes the input unit 20 to photograph the main image and perform automatic photographing (S17).
0). Then, the main image is input by the input unit 20 (S172).

【0059】次に、本発明の第2実施形態について説明
する。本実施形態は、通知部54が撮影タイミング信号
に基づいてアラーム音やランプの点灯等の通知信号を出
力する点で第1実施形態と異なる。通知信号を感知した
撮影者は、手動でレリーズスイッチ52をオンにする。
本実施形態におけるデジタルカメラの構成は第1実施形
態と同様なので構成の説明を省略する。
Next, a second embodiment of the present invention will be described. The present embodiment is different from the first embodiment in that the notification unit 54 outputs a notification signal such as an alarm sound or lighting of a lamp based on a shooting timing signal. The photographer who senses the notification signal manually turns on the release switch 52.
The configuration of the digital camera according to the present embodiment is the same as that of the first embodiment, and a description of the configuration will be omitted.

【0060】本実施形態における撮影方法は、第1実施
形態における撮影方法とほぼ同様であり、詳細な動作を
除いては図4に示すフローチャートの通りである。図9
は、図4における本撮影段階(S112)の詳細な動作
を示すフローチャートである。撮影タイミング信号発生
段階(S110)において出力された撮影タイミング信
号に基づいて、通知部54がアラーム音やランプの点灯
等の通知信号を出力する(S190)。通知信号を感知
した撮影者が手動でレリーズスイッチ52をオンにして
撮影すると(S192)、主画像が入力される(S19
4)。
The photographing method according to the present embodiment is almost the same as the photographing method according to the first embodiment, and is the same as the flowchart shown in FIG. 4 except for detailed operations. FIG.
5 is a flowchart showing a detailed operation of a main photographing step (S112) in FIG. Based on the shooting timing signal output in the shooting timing signal generation step (S110), the notification unit 54 outputs a notification signal such as an alarm sound or lighting of a lamp (S190). When the photographer who senses the notification signal manually turns on the release switch 52 and shoots (S192), the main image is input (S19).
4).

【0061】本実施形態によれば、通知部54が撮影タ
イミング信号に基づいてアラーム音やランプの点灯等の
通知信号を出力するので、撮影者は最適な撮影タイミン
グを判断せずに撮影することができる。また、被写体と
なる人物も撮影タイミングを音や光で確認することがで
きる。
According to the present embodiment, the notifying section 54 outputs a notification signal such as an alarm sound or lamp lighting based on the photographing timing signal, so that the photographer can photograph without determining the optimal photographing timing. Can be. Also, the person who is the subject can confirm the shooting timing by sound or light.

【0062】次に、本発明の第3実施形態について説明
する。本実施形態は、通知部54が撮影開始から所定の
時間内に撮影タイミング信号を受け取らなかったときに
アラーム音やランプの点灯等の通知信号を出力する点で
第1及び第2実施形態と異なる。本実施形態におけるデ
ジタルカメラの構成は第1及び第2実施形態と同様なの
で構成の説明を省略する。
Next, a third embodiment of the present invention will be described. This embodiment is different from the first and second embodiments in that when the notifying unit 54 does not receive a shooting timing signal within a predetermined time from the start of shooting, it outputs a notification signal such as an alarm sound or lighting of a lamp. . The configuration of the digital camera according to this embodiment is the same as that of the first and second embodiments, and a description of the configuration will be omitted.

【0063】図10は、図4における本実施形態の撮影
タイミング信号発生段階(S110)の詳細な動作を示
すフローチャートである。まず、タイミング信号発生部
80は、注目部位検出手段68により検出された注目部
位が撮影条件を満たすかを判断する(S180)。タイ
ミング信号発生部80の動作開始から少なくとも所定の
時間が経過するまで、タイミング信号発生部80は、注
目部位が撮影条件を満たすかどうかの判断を繰り返す
(S184、S180)。タイミング信号発生部80
は、注目部位が撮影条件を満たすと判断した場合、撮影
タイミング信号を出力する(S182)。タイミング信
号発生部80の動作開始から所定の時間を経過しても、
注目部位が撮影条件を満たさない場合、通知部54がア
ラーム音やランプの点灯等の通知信号を出力する(S1
84、S186)。そして、撮像制御部56が入力部2
0による画像の撮像を停止させる(S188)。
FIG. 10 is a flowchart showing the detailed operation of the photographing timing signal generation step (S110) of this embodiment in FIG. First, the timing signal generator 80 determines whether or not the target site detected by the target site detector 68 satisfies the imaging condition (S180). Until at least a predetermined time elapses from the start of the operation of the timing signal generation unit 80, the timing signal generation unit 80 repeatedly determines whether or not the target part satisfies the imaging condition (S184, S180). Timing signal generator 80
Outputs an imaging timing signal when it is determined that the attention site satisfies the imaging conditions (S182). Even if a predetermined time has elapsed from the start of the operation of the timing signal generator 80,
If the target region does not satisfy the imaging conditions, the notification unit 54 outputs a notification signal such as an alarm sound or lighting of a lamp (S1).
84, S186). Then, the imaging control unit 56 sets the input unit 2
The photographing of the image by 0 is stopped (S188).

【0064】本実施形態においては、通知部54が撮影
開始から所定の時間内に撮影タイミング信号を受け取ら
なかったときにアラーム音やランプの点灯等の通知信号
を出力するので、被写体が撮影条件を満たさなかったこ
とを撮影者及び被写体の双方が音や光で確認することが
できる。
In the present embodiment, when the notifying section 54 does not receive a shooting timing signal within a predetermined time from the start of shooting, it outputs a notification signal such as an alarm sound or lighting of a lamp. Both the photographer and the subject can confirm that the condition is not satisfied by sound or light.

【0065】次に、本発明の第4実施形態について説明
する。図11は、本実施形態における銀塩カメラの構成
図である。本実施形態のカメラは、被写体の画像を予備
撮影し、予備撮影した画像(副画像)が所定の撮像条件
を満たしたときに所定の画像入力条件に基づいて本撮影
をする。図11の銀塩カメラは、入力部20とA/D変
換部30とメモリ40と制御ユニット50とレリーズス
イッチ52と通知部54とを備える。A/D変換部3
0、メモリ40、制御ユニット50、レリーズスイッチ
52及び通知部54は、第1実施形態とほぼ同様の構成
であるため説明を省略する。
Next, a fourth embodiment of the present invention will be described. FIG. 11 is a configuration diagram of the silver halide camera according to the present embodiment. The camera according to the present embodiment preliminarily captures an image of a subject, and when the preliminarily captured image (sub image) satisfies a predetermined imaging condition, performs a main imaging based on a predetermined image input condition. The silver halide camera of FIG. 11 includes an input unit 20, an A / D converter 30, a memory 40, a control unit 50, a release switch 52, and a notification unit 54. A / D converter 3
0, the memory 40, the control unit 50, the release switch 52, and the notification unit 54 have substantially the same configuration as those in the first embodiment, and thus description thereof is omitted.

【0066】入力部20は、視差画像入力手段122と
副画像入力手段124と主画像入力手段130とを有す
る。視差画像入力手段122及び副画像入力手段124
は、第1実施形態の視差画像入力手段22及び画像入力
手段24とそれぞれ同様の構成である。主画像入力手段
130は、レンズ132と絞り134とシャッター13
6と撮影部138とを含む。レンズ132と絞り134
とシャッター136とは図1におけるレンズ25と絞り
26とシャッター27とそれぞれ同様の構成である。撮
影部138は、被写体の画像を光化学反応によって銀塩
感光フイルム等に撮像させる。
The input unit 20 includes a parallax image input unit 122, a sub image input unit 124, and a main image input unit 130. Parallax image input means 122 and sub-image input means 124
Has the same configuration as the parallax image input unit 22 and the image input unit 24 of the first embodiment. The main image input unit 130 includes a lens 132, an aperture 134, and a shutter 13.
6 and a photographing unit 138. Lens 132 and aperture 134
The shutter 136 has the same configuration as the lens 25, the aperture 26, and the shutter 27 in FIG. The imaging unit 138 causes a silver halide photosensitive film or the like to capture an image of a subject by a photochemical reaction.

【0067】第1実施形態のデジタルカメラでは、予備
撮影と本撮影との双方を画像入力手段24が行うが、本
実施形態の銀塩カメラでは、予備撮影は副画像入力手段
124が行い、本撮影は主画像入力手段130が行う点
で異なる。副画像入力手段124は、第1実施形態のデ
ジタルカメラの画像入力手段24と同様に撮像体として
CCDを有し、被写体を撮像した画像を電気信号で出力
する。
In the digital camera of the first embodiment, both the preliminary photographing and the actual photographing are performed by the image input means 24. In the silver halide camera of the present embodiment, the preliminary photographing is performed by the sub-image input means 124, The photographing is different in that the main image input means 130 performs the photographing. The sub-image input unit 124 has a CCD as an image pickup body similarly to the image input unit 24 of the digital camera of the first embodiment, and outputs an image of a subject as an electric signal.

【0068】図12は、本実施形態の制御ユニット50
を詳細に示すブロック図である。本実施形態の制御ユニ
ット50は、撮像制御部56と結像制御部58と抽出部
60と条件記憶部70とタイミング信号発生部80と入
力条件決定部82とを備える。本実施形態の抽出部60
と条件記憶部70とタイミング信号発生部80と入力条
件決定部82とは第1実施形態と同様の構成なので説明
を省略する。
FIG. 12 shows a control unit 50 according to this embodiment.
It is a block diagram which shows in detail. The control unit 50 of the present embodiment includes an imaging control unit 56, an imaging control unit 58, an extraction unit 60, a condition storage unit 70, a timing signal generation unit 80, and an input condition determination unit 82. Extraction unit 60 of the present embodiment
The configuration of the condition storage unit 70, the timing signal generation unit 80, and the input condition determination unit 82 are the same as those of the first embodiment, and thus description thereof is omitted.

【0069】結像制御部58は、入力部20に被写体を
結像させる。また、結像制御部58は、画像入力条件に
基づいてレンズ132のフォーカス、絞り134の絞り
量、シャッター136の露光時間のうち少なくとも一つ
を画像入力条件に基づいて制御する。撮像制御部56
は、入力部20に画像を撮像させる。また、撮像制御部
56は、画像入力条件に基づいて撮影部138に主画像
を撮像させる。
The image forming control section 58 causes the input section 20 to form an image of a subject. Further, the imaging control unit 58 controls at least one of the focus of the lens 132, the aperture amount of the aperture 134, and the exposure time of the shutter 136 based on the image input conditions. Imaging control unit 56
Causes the input unit 20 to capture an image. Further, the imaging control unit 56 causes the imaging unit 138 to capture the main image based on the image input condition.

【0070】本実施形態においては、本撮影における画
像入力手段にだけ銀塩式の撮像部を用い、予備撮影には
CCD内蔵の画像入力手段を用いている。これにより、
高価なフイルムを使用する銀塩写真を多数枚撮影せず
に、最適な写真を撮影することができる。
In this embodiment, a silver halide type image pickup section is used only for image input means in the main photographing, and an image input means with a built-in CCD is used for preliminary photographing. This allows
An optimum photograph can be taken without taking many silver halide photographs using expensive films.

【0071】以上のように、第1実施形態によれば、主
要被写体抽出手段66が奥行き分布情報と画像情報とに
基づいて主要被写体を抽出する。これにより、例えば、
複数の人物の顔画像が前後に一部重なっていても、画像
情報だけに基づいて抽出する場合と異なり、奥行き分布
情報に基づいて高い精度で前の人の顔と後ろの人の顔を
抽出することができる。
As described above, according to the first embodiment, the main subject extracting means 66 extracts a main subject based on the depth distribution information and the image information. This allows, for example,
Even if face images of multiple people partially overlap in front and behind, unlike the case of extracting based on image information only, the front face and the back face are extracted with high accuracy based on depth distribution information can do.

【0072】また、第1実施形態によれば、抽出部60
が、まず顔部分を抽出し、抽出した顔部分から目や口等
の顔の一部品を検出するので、背景等の画像から誤って
目や口に近似した模様を検出してしまうのを防ぐことが
できる。
According to the first embodiment, the extraction unit 60
However, since the face part is extracted first and one part of the face such as eyes and mouth is detected from the extracted face part, it is possible to prevent a pattern similar to the eyes and mouth from being erroneously detected from the image such as the background. be able to.

【0073】また、第1実施形態によれば、制御ユニッ
ト50が副画像及び副画像に関する情報に基づいて顔部
分を抽出し、抽出した顔部分から注目部位を検出する。
そして、検出された注目部位が撮影条件を満たしたとき
に撮影することとしたので、人間による判断を介さずに
自動的に良好な画像を撮影することができる。
Further, according to the first embodiment, the control unit 50 extracts a face portion based on the sub-image and the information on the sub-image, and detects a target portion from the extracted face portion.
Then, since the photographing is performed when the detected part of interest satisfies the photographing conditions, it is possible to automatically photograph a good image without any human judgment.

【0074】また、第1実施形態によれば、複数の人物
を被写体とする場合に、複数の人物のうち、所定の比率
の人数以上の人物に含まれる注目部位が撮影条件を満た
したときに、撮影タイミング信号をタイミング信号発生
部80に出力させる。これにより、複数の人物のうちの
多くが見栄えよく写る画像を自動的に撮影することがで
きる。
Further, according to the first embodiment, when a plurality of persons are to be taken as subjects, when a portion of interest included in a plurality of persons of a predetermined ratio or more satisfies the photographing condition. , And causes the timing signal generator 80 to output a shooting timing signal. As a result, it is possible to automatically shoot an image in which many of the plurality of persons are clearly displayed.

【0075】また、第1実施形態によれば、入力条件決
定部82がフォーカス等の画像入力条件を決定し、決定
された画像入力条件に基づいて入力部20が画像を入力
するので、見栄えのよい画像を撮影することができる。
According to the first embodiment, the input condition determination unit 82 determines image input conditions such as focus, and the input unit 20 inputs an image based on the determined image input conditions. Good images can be taken.

【0076】また、第1実施形態によれば、抽出部60
により抽出された主要被写体に基づいて画像処理部84
が画像処理するので、主要被写体とそれ以外の被写体と
で別々に画像処理することができる。
According to the first embodiment, the extraction unit 60
Processing unit 84 based on the main subject extracted by
Performs image processing, so that the main subject and other subjects can be separately image-processed.

【0077】また、第2実施形態によれば、通知部54
が撮影タイミング信号に基づいてアラーム音やランプの
点灯等の通知信号を出力するので、撮影者は最適な撮影
タイミングを通知信号だけで判断して撮影することがで
きる。また、被写体となる人物も撮影タイミングを音や
光で確認することができる。
According to the second embodiment, the notification unit 54
Outputs a notification signal such as an alarm sound or lighting of a lamp based on the shooting timing signal, so that the photographer can determine the optimum shooting timing only by the notification signal and shoot. Also, the person who is the subject can confirm the shooting timing by sound or light.

【0078】また、第3実施形態によれば、通知部54
が撮影開始から所定の時間内に撮影タイミング信号を受
け取らなかったときにアラーム音やランプの点灯等の通
知信号を出力するので、被写体が撮影条件を満たさなか
ったことを撮影者及び被写体の双方が音や光で確認する
ことができる。
According to the third embodiment, the notification unit 54
Outputs a notification signal such as an alarm sound or lighting of a lamp when a shooting timing signal is not received within a predetermined time from the start of shooting, so that both the photographer and the subject can be notified that the shooting condition has not been satisfied. It can be confirmed by sound or light.

【0079】また、第4実施形態によれば、本撮影にお
ける画像入力手段にだけ銀塩式の撮像部を用いている。
これにより、高価なフイルムを使用する銀塩写真を多数
枚撮影せずに、最適な写真を撮影することができる。
Further, according to the fourth embodiment, the silver halide type image pickup section is used only for the image input means in the main photographing.
Thus, an optimum photograph can be taken without photographing many silver halide photographs using an expensive film.

【0080】以上、本発明を実施の形態を用いて説明し
たが、本発明の技術的範囲は上記実施の形態に記載の範
囲には限定されない。上記実施の形態に、多様な変更又
は改良を加えることができることが当業者に明らかであ
る。その様な変更又は改良を加えた形態も本発明の技術
的範囲に含まれ得ることが、特許請求の範囲の記載から
明らかである。
Although the present invention has been described with reference to the embodiment, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is apparent to those skilled in the art that various changes or improvements can be added to the above embodiment. It is apparent from the description of the appended claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

【発明の効果】上記説明から明らかなように、本発明に
よれば被写体が所定の撮影条件を満たしたときに撮影す
ることができる。
As is apparent from the above description, according to the present invention, it is possible to take a picture when the subject satisfies predetermined photographing conditions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】デジタルカメラの構成図である。FIG. 1 is a configuration diagram of a digital camera.

【図2】制御ユニット50のブロック図である。FIG. 2 is a block diagram of a control unit 50.

【図3】抽出部60の機能ブロック図である。FIG. 3 is a functional block diagram of an extraction unit 60.

【図4】撮影方法を示すフローチャートである。FIG. 4 is a flowchart illustrating a photographing method.

【図5】図4における顔部分の抽出段階(S106)の
詳細な動作を示すフローチャートである。
FIG. 5 is a flowchart showing a detailed operation of a face part extraction step (S106) in FIG. 4;

【図6】図4における注目部位の検出段階(S108)
の詳細な動作を示すフローチャートである。
FIG. 6 is a step of detecting a target part in FIG. 4 (S108).
5 is a flowchart showing a detailed operation of the embodiment.

【図7】図4における撮影タイミング信号発生段階(S
110)の詳細な動作を示すフローチャートである。
FIG. 7 shows a photographing timing signal generation step (S
It is a flowchart which shows the detailed operation of 110).

【図8】図4における本撮影段階(S112)の詳細な
動作を示すフローチャートである。
FIG. 8 is a flowchart showing a detailed operation of a main photographing step (S112) in FIG. 4;

【図9】図4における本撮影段階(S112)の詳細な
動作を示すフローチャートである。
FIG. 9 is a flowchart showing a detailed operation of a main photographing step (S112) in FIG. 4;

【図10】図4における本実施形態の撮影タイミング信
号発生段階(S110)の詳細な動作を示すフローチャ
ートである。
FIG. 10 is a flowchart showing a detailed operation of a shooting timing signal generation step (S110) of the embodiment in FIG. 4;

【図11】銀塩カメラの構成図である。FIG. 11 is a configuration diagram of a silver halide camera.

【図12】制御ユニット50を詳細に示すブロック図で
ある。
FIG. 12 is a block diagram showing a control unit 50 in detail.

【符号の説明】[Explanation of symbols]

20 入力部 22 視差画像入力手段 24 画像入力手段 25 レンズ 26 絞り 27 シャッター 28 カラーフィルタ 29 CCD 30 A/D変換部 32 視差用レンズ 34 視差用シャッター 36 視差用CCD 40 メモリ 50 制御ユニット 52 レリーズスイッチ 54 通知部 56 撮像制御部 58 結像制御部 60 抽出部 62 奥行き情報抽出手段 64 画像情報抽出手段 66 主要被写体抽出手段 68 注目部位検出手段 70 条件記憶部 80 タイミング信号発生部 82 入力条件決定部 84 画像処理部 85 検出開始手段 86 変化検出手段 88 判定手段 90 記録部 92 出力部 122 視差画像入力手段 124 副画像入力手段 130 主画像入力手段 132 レンズ 134 絞り 136 シャッター 138 撮影部 Reference Signs List 20 input unit 22 parallax image input unit 24 image input unit 25 lens 26 aperture 27 shutter 28 color filter 29 CCD 30 A / D conversion unit 32 parallax lens 34 parallax shutter 36 parallax CCD 40 memory 50 control unit 52 release switch 54 Notification unit 56 Imaging control unit 58 Imaging control unit 60 Extraction unit 62 Depth information extraction unit 64 Image information extraction unit 66 Main subject extraction unit 68 Attention site detection unit 70 Condition storage unit 80 Timing signal generation unit 82 Input condition determination unit 84 Image Processing unit 85 Detection start unit 86 Change detection unit 88 Judgment unit 90 Recording unit 92 Output unit 122 Parallax image input unit 124 Sub-image input unit 130 Main image input unit 132 Lens 134 Aperture 136 Shutter 138 Imaging unit

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 被写体を結像した画像を撮像する画像入
力部と、 前記被写体に関する所定の撮影条件を記憶する条件記憶
部と、 前記被写体が前記撮影条件を満たしたときに撮影タイミ
ング信号を出力するタイミング信号発生部とを備えるこ
とを特徴とするカメラ。
An image input unit configured to capture an image obtained by forming an image of a subject; a condition storage unit configured to store predetermined shooting conditions related to the subject; and a shooting timing signal output when the subject satisfies the shooting condition. A camera comprising:
【請求項2】 前記画像から第一の条件に基づいて主要
被写体を抽出する抽出部をさらに備え、 前記撮影条件は、前記主要被写体に関する所定の撮影条
件を含み、 前記タイミング信号発生部は、前記主要被写体が前記撮
影条件を満たしたときに前記撮影タイミング信号を出力
する手段を有することを特徴とする請求項1に記載のカ
メラ。
2. The image processing apparatus according to claim 1, further comprising an extraction unit configured to extract a main subject from the image based on a first condition, wherein the shooting condition includes a predetermined shooting condition regarding the main subject, and the timing signal generating unit includes: 2. The camera according to claim 1, further comprising: means for outputting the photographing timing signal when a main subject satisfies the photographing condition.
【請求項3】 前記第一の条件は、前記被写体の各部ま
での距離を示す奥行き分布情報に基づく所定の抽出条件
を含むことを特徴とする請求項2に記載のカメラ。
3. The camera according to claim 2, wherein the first condition includes a predetermined extraction condition based on depth distribution information indicating a distance to each part of the subject.
【請求項4】 前記抽出部は、前記画像から複数体の前
記主要被写体を抽出する手段をさらに有し、 前記タイミング信号発生部は、複数体の前記主要被写体
が前記撮影条件を満たしたときに前記撮影タイミング信
号を出力する手段をさらに有することを特徴とする請求
項1乃至3のいずれかに記載のカメラ。
4. The method according to claim 1, wherein the extracting unit further includes a unit configured to extract a plurality of the main subjects from the image, wherein the timing signal generating unit is configured to execute the processing when the plurality of the main subjects satisfy the photographing condition. 4. The camera according to claim 1, further comprising a unit that outputs the photographing timing signal.
【請求項5】 前記タイミング信号発生部は、複数体の
前記主要被写体のうち、所定の比率以上の前記主要被写
体が前記撮影条件を満たしたときに前記撮影タイミング
信号を出力する手段をさらに有することを特徴とする請
求項4に記載のカメラ。
5. The apparatus according to claim 1, wherein the timing signal generator further includes: a unit configured to output the photographing timing signal when a predetermined ratio or more of the main subjects among the plurality of main subjects satisfy the photographing condition. The camera according to claim 4, wherein:
【請求項6】 前記抽出部は、前記主要被写体の注目部
位を前記第一の条件と異なる第二の条件に基づいて前記
主要被写体から検出する手段をさらに有し、 前記撮影条件は、前記注目部位に関する所定の撮影条件
を含み、 前記タイミング信号発生部は、前記注目部位が前記撮影
条件を満たしたときに前記撮影タイミング信号を出力す
る手段をさらに有することを特徴とする請求項2乃至5
のいずれかに記載のカメラ。
6. The extraction unit further includes means for detecting a region of interest of the main subject from the main subject based on a second condition different from the first condition. 6. The imaging apparatus according to claim 2, further comprising a predetermined imaging condition relating to a part, wherein the timing signal generator further includes a unit configured to output the imaging timing signal when the target part satisfies the imaging condition.
The camera according to any one of the above.
【請求項7】 前記抽出部は、前記画像から複数体の前
記主要被写体を抽出する場合に、複数体の前記主要被写
体の各々の前記注目部位を検出する手段をさらに有し、 前記タイミング信号発生部は、複数の前記注目部位が前
記撮影条件を満たしたときに前記撮影タイミング信号を
出力することを特徴とする手段をさらに有することを特
徴とする請求項6に記載のカメラ。
7. The method according to claim 7, wherein the extracting unit further includes: a unit configured to detect the target part of each of the plurality of main subjects when extracting the plurality of main subjects from the image; 7. The camera according to claim 6, further comprising: a unit that outputs the photographing timing signal when a plurality of the target parts satisfy the photographing condition.
【請求項8】 前記タイミング信号発生部は、複数体の
前記主要被写体の前記注目部位のうち、所定の比率以上
の前記注目部位が前記撮影条件を満たしたときに前記撮
影タイミング信号を出力することを特徴とする手段をさ
らに有することを特徴とする請求項7に記載のカメラ。
8. The timing signal generating section outputs the photographing timing signal when a target ratio of a predetermined ratio or more satisfies the photographing condition among a plurality of target regions of the main subject. 8. The camera according to claim 7, further comprising: means.
【請求項9】 前記入力部に対し、前記撮影タイミング
信号に基づいて前記画像を撮像させる撮像制御部をさら
に備えることを特徴とする請求項1乃至8のいずれかに
記載のカメラ。
9. The camera according to claim 1, further comprising an imaging control unit configured to cause the input unit to capture the image based on the timing signal.
【請求項10】 前記抽出部により検出された前記注目
部位に関する情報に基づいて画像入力条件を決定する入
力条件決定部と、 前記入力部に対し、前記画像入力条件に基づいて前記被
写体を結像させる結像制御部とをさらに備えることを特
徴とする請求項2乃至9のいずれかに記載のカメラ。
10. An input condition deciding unit for deciding an image input condition based on information on the target part detected by the extraction unit; and forming an image of the subject on the input unit based on the image input condition. The camera according to any one of claims 2 to 9, further comprising: an imaging control unit configured to perform the operation.
【請求項11】 前記撮影タイミング信号に基づいて前
記画像を交換可能な不揮発性の記録媒体に記録する記録
部をさらに備えることを特徴とする請求項1乃至10の
いずれかに記載のカメラ。
11. The camera according to claim 1, further comprising a recording unit that records the image on an exchangeable non-volatile recording medium based on the photographing timing signal.
【請求項12】 前記抽出部より検出された前記注目部
位に関する情報に基づいて前記画像に対し画像処理をす
る画像処理部をさらに備えることを特徴とする請求項2
乃至11のいずれかに記載のカメラ。
12. The image processing apparatus according to claim 2, further comprising: an image processing unit configured to perform image processing on the image based on information on the target region detected by the extraction unit.
12. The camera according to any one of claims 11 to 11.
【請求項13】 前記被写体が前記撮影条件を満たした
かどうかを撮影者に知らせる通知信号を出力する通知部
をさらに備えることを特徴とする請求項1乃至12のい
ずれかに記載のカメラ。
13. The camera according to claim 1, further comprising: a notifying unit that outputs a notifying signal to notify a photographer whether the subject has satisfied the photographing condition.
【請求項14】 前記条件記憶部は、複数の前記撮影条
件を記憶し、さらに、複数の前記撮影条件の中から所望
の条件を少なくとも一つ選択して予め設定する手段を有
することを特徴とする請求項1乃至13のいずれかに記
載のカメラ。
14. The apparatus according to claim 1, wherein the condition storage unit stores a plurality of the photographing conditions, and further includes means for selecting and presetting at least one desired condition from the plurality of the photographing conditions. The camera according to any one of claims 1 to 13.
【請求項15】 被写体が所定の撮影条件を満たしたと
きに撮影タイミング信号を出力するタイミング信号発生
段階を備えることを特徴とする撮影方法。
15. A photographing method comprising a timing signal generating step of outputting a photographing timing signal when a subject satisfies predetermined photographing conditions.
【請求項16】 前記被写体を撮像した画像から第一の
条件に基づいて主要被写体を抽出する抽出段階をさらに
備え、 前記撮影条件は、前記主要被写体に関する所定の撮影条
件を含み、 前記タイミング信号発生段階は、前記主要被写体が前記
撮影条件を満たしたときに前記撮影タイミング信号を出
力する段階を有することを特徴とする請求項15に記載
の撮影方法。
16. The method according to claim 16, further comprising: extracting a main subject from an image obtained by capturing the subject based on a first condition, wherein the shooting condition includes a predetermined shooting condition related to the main subject, 16. The method according to claim 15, wherein the step includes outputting the photographing timing signal when the main subject satisfies the photographing condition.
【請求項17】 前記抽出段階は、前記主要被写体の注
目部位を前記第一の条件と異なる第二の条件に基づいて
前記画像から検出する段階をさらに有し、 前記撮影条件は、前記注目部位に関する所定の撮影条件
を含み、 前記タイミング信号発生段階は、前記注目部位が前記撮
影条件を満たしたときに前記撮影タイミング信号を出力
する段階をさらに有することを特徴とする請求項16に
記載の撮影方法。
17. The method according to claim 17, wherein the extracting step further comprises a step of detecting a target part of the main subject from the image based on a second condition different from the first condition. 17. The photographing method according to claim 16, further comprising a step of outputting the photographing timing signal when the region of interest satisfies the photographing condition. Method.
【請求項18】 前記被写体を前記撮影タイミング信号
に基づいて撮像させる段階をさらに備えることを特徴と
する請求項15乃至17のいずれかに記載の撮影方法。
18. The imaging method according to claim 15, further comprising a step of imaging the subject based on the imaging timing signal.
【請求項19】 前記抽出段階により検出された前記注
目部位に関する情報に基づいて画像入力条件を決定する
段階と、 前記被写体を前記画像入力条件に基づいて結像させる段
階とをさらに備えることを特徴とする請求項16乃至1
8のいずれかに記載の撮影方法。
19. The method according to claim 19, further comprising: determining an image input condition based on the information on the target part detected in the extracting step; and forming an image of the subject based on the image input condition. Claims 16 to 1
8. The imaging method according to any one of 8.
【請求項20】 前記被写体を撮像した画像を前記撮影
タイミング信号に基づいて不揮発性の記録媒体に記録す
る段階をさらに備えることを特徴とする請求項15乃至
19のいずれかに記載の撮影方法。
20. The photographing method according to claim 15, further comprising a step of recording an image of the photographed object on a nonvolatile recording medium based on the photographing timing signal.
【請求項21】 前記抽出段階より検出された前記注目
部位に関する情報に基づいて前記画像に対し画像処理を
する段階をさらに備えることを特徴とする請求項16乃
至20のいずれかに記載の撮影方法。
21. The imaging method according to claim 16, further comprising a step of performing image processing on the image based on information on the target part detected in the extraction step. .
JP11158666A 1999-06-03 1999-06-04 Camera and photographing method Pending JP2000347278A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP11158666A JP2000347278A (en) 1999-06-04 1999-06-04 Camera and photographing method
US09/586,600 US7248300B1 (en) 1999-06-03 2000-06-02 Camera and method of photographing good image
US10/798,375 US20040170397A1 (en) 1999-06-03 2004-03-12 Camera and method of photographing good image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11158666A JP2000347278A (en) 1999-06-04 1999-06-04 Camera and photographing method

Publications (1)

Publication Number Publication Date
JP2000347278A true JP2000347278A (en) 2000-12-15

Family

ID=15676709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11158666A Pending JP2000347278A (en) 1999-06-03 1999-06-04 Camera and photographing method

Country Status (1)

Country Link
JP (1) JP2000347278A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011618A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP2006011619A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP2006163496A (en) * 2004-12-02 2006-06-22 Fuji Photo Film Co Ltd Apparatus, method and program for image recording
JP2008004003A (en) * 2006-06-26 2008-01-10 Glory Ltd Face-collating device
JP2009010776A (en) * 2007-06-28 2009-01-15 Sony Corp Imaging device, photography control method, and program
JP2010016878A (en) * 2009-09-29 2010-01-21 Sony Corp Image processing apparatus and image processing method, and computer program
US7787762B2 (en) 2007-06-25 2010-08-31 Sony Corporation Image photographing apparatus, image photographing method, and computer program
US7787025B2 (en) 2001-09-18 2010-08-31 Ricoh Company, Limited Image pickup device that cuts out a face image from subject image data
JP2010531074A (en) * 2007-05-21 2010-09-16 ソニー エリクソン モバイル コミュニケーションズ, エービー Imaging system and method using desired facial expression recognition
JP2011018362A (en) * 2003-07-18 2011-01-27 Canon Inc Image processing apparatus, imaging apparatus and image processing method
JP2011160219A (en) * 2010-02-01 2011-08-18 Olympus Imaging Corp Imaging apparatus, and imaging method of the same
US8045013B2 (en) 2007-06-13 2011-10-25 Sony Corporation Imaging device, imaging method and computer program
US8467581B2 (en) 2008-06-06 2013-06-18 Sony Corporation Image capturing apparatus, image capturing method, and computer program
US8477207B2 (en) 2008-06-06 2013-07-02 Sony Corporation Image capturing apparatus, image capturing method, and computer program
US8515136B2 (en) 2003-07-18 2013-08-20 Canon Kabushiki Kaisha Image processing device, image device, image processing method
US8542885B2 (en) 2007-06-13 2013-09-24 Sony Corporation Imaging device, imaging method and computer program
WO2023053556A1 (en) * 2021-09-30 2023-04-06 富士フイルム株式会社 Information processing device, information processing method, and program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8421899B2 (en) 2001-09-18 2013-04-16 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US7978261B2 (en) 2001-09-18 2011-07-12 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US7973853B2 (en) 2001-09-18 2011-07-05 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method calculating an exposure based on a detected face
US7920187B2 (en) 2001-09-18 2011-04-05 Ricoh Company, Limited Image pickup device that identifies portions of a face
US7787025B2 (en) 2001-09-18 2010-08-31 Ricoh Company, Limited Image pickup device that cuts out a face image from subject image data
US7903163B2 (en) 2001-09-18 2011-03-08 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP2011018362A (en) * 2003-07-18 2011-01-27 Canon Inc Image processing apparatus, imaging apparatus and image processing method
US8942436B2 (en) 2003-07-18 2015-01-27 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP2013178816A (en) * 2003-07-18 2013-09-09 Canon Inc Image processing apparatus, imaging apparatus and image processing method
US8515136B2 (en) 2003-07-18 2013-08-20 Canon Kabushiki Kaisha Image processing device, image device, image processing method
JP4496856B2 (en) * 2004-06-23 2010-07-07 ノーリツ鋼機株式会社 Photographic image processing method and apparatus
JP2006011618A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP2006011619A (en) * 2004-06-23 2006-01-12 Noritsu Koki Co Ltd Photographic image processing method and its device
JP2006163496A (en) * 2004-12-02 2006-06-22 Fuji Photo Film Co Ltd Apparatus, method and program for image recording
JP2008004003A (en) * 2006-06-26 2008-01-10 Glory Ltd Face-collating device
JP2010531074A (en) * 2007-05-21 2010-09-16 ソニー エリクソン モバイル コミュニケーションズ, エービー Imaging system and method using desired facial expression recognition
US8542885B2 (en) 2007-06-13 2013-09-24 Sony Corporation Imaging device, imaging method and computer program
US8045013B2 (en) 2007-06-13 2011-10-25 Sony Corporation Imaging device, imaging method and computer program
US7787762B2 (en) 2007-06-25 2010-08-31 Sony Corporation Image photographing apparatus, image photographing method, and computer program
JP2009010776A (en) * 2007-06-28 2009-01-15 Sony Corp Imaging device, photography control method, and program
US8624988B2 (en) 2007-06-28 2014-01-07 Sony Corporation Image pickup apparatus, image pickup method, and program thereof
US8477207B2 (en) 2008-06-06 2013-07-02 Sony Corporation Image capturing apparatus, image capturing method, and computer program
US8467581B2 (en) 2008-06-06 2013-06-18 Sony Corporation Image capturing apparatus, image capturing method, and computer program
JP2010016878A (en) * 2009-09-29 2010-01-21 Sony Corp Image processing apparatus and image processing method, and computer program
JP2011160219A (en) * 2010-02-01 2011-08-18 Olympus Imaging Corp Imaging apparatus, and imaging method of the same
WO2023053556A1 (en) * 2021-09-30 2023-04-06 富士フイルム株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP2000350123A (en) Picture selection device, camera, picture selection method and recording medium
US7248300B1 (en) Camera and method of photographing good image
JP4196714B2 (en) Digital camera
JP2000347278A (en) Camera and photographing method
JP5547854B2 (en) Portrait image synthesis from multiple images captured by a portable device
KR100924685B1 (en) Imaging apparatus and control method thereof
JP4970469B2 (en) Method and apparatus for selectively disqualifying digital images
US9147106B2 (en) Digital camera system
US7634109B2 (en) Digital image processing using face detection information
JP2004320286A (en) Digital camera
US20160065861A1 (en) Modification of post-viewing parameters for digital images using image region or feature information
JP2004317699A (en) Digital camera
US20070201726A1 (en) Method and Apparatus for Selective Rejection of Digital Images
TW201102938A (en) Image capturing apparatus, face area detecting method and program recording medium
JP2000347277A (en) Camera and method of pick up
JP2011182252A (en) Imaging device, and image imaging method
JP3971240B2 (en) Camera with advice function
JP2004320285A (en) Digital camera
CN108093170B (en) User photographing method, device and equipment
JP2004320284A (en) Digital camera
JP6033006B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
JP2004318205A (en) Image processing device, image processing method, and photographing device
JP4611412B2 (en) Camera and image input method
JP4611413B2 (en) Image output apparatus and image output method
JP5423284B2 (en) Imaging device