JP2001352440A - Image processing unit - Google Patents

Image processing unit

Info

Publication number
JP2001352440A
JP2001352440A JP2000169878A JP2000169878A JP2001352440A JP 2001352440 A JP2001352440 A JP 2001352440A JP 2000169878 A JP2000169878 A JP 2000169878A JP 2000169878 A JP2000169878 A JP 2000169878A JP 2001352440 A JP2001352440 A JP 2001352440A
Authority
JP
Japan
Prior art keywords
image
pixel
image processing
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000169878A
Other languages
Japanese (ja)
Other versions
JP2001352440A5 (en
Inventor
Taketo Tsukioka
健人 月岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2000169878A priority Critical patent/JP2001352440A/en
Publication of JP2001352440A publication Critical patent/JP2001352440A/en
Publication of JP2001352440A5 publication Critical patent/JP2001352440A5/ja
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing unit that can cut out an area, even if the background color is equal to the color of the cutout area. SOLUTION: The image processing unit comprises an image pickup means, consisting of an image pickup control section 103 and a CCD 104 that conduct consecutive shots by changing image pickup conditions; a discrimination means consisting of a focal distance estimate section 108, that calculates the feature quantity with respect to an object from the pixel values of images in each of two image areas and discriminates whether the two image areas belong to the same object on the basis of the feature quantity, a strobe image generating section 107, a refractive index estimate section 109, a strobe distance estimate section 110, and an area extension section 112; an area generating means consisting of an area extension section 112 that generates an area consisting of pixels, belonging to the same object on the basis of the discrimination of the discrimination means, and a selection means consisting of a foreground extract section 111 that selects the area-generating result, corresponding to the object satisfying a prescribed condition.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は画像処理装置に関
し、特に画像から特定被写体に属する画像領域を抽出す
る領域切り抜き手段を備えた画像処理装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus having an area cutout unit for extracting an image area belonging to a specific subject from an image.

【0002】[0002]

【従来の技術】デジタルカメラの普及に従って、撮像画
像に対する種々の画像加工処理へのニーズが高まってお
り、その中には撮像画像を別の画像と合成する処理など
も含まれる。例えばポートレートを撮影し、人物はその
ままで背景を別画像にすることなどが例としてあげられ
る。このような合成処理の場合、各々の画像のどの部分
を組み合わせて合成画像とするかを領域指定する必要が
生じる。従来、この領域指定には、いわゆるブルーバッ
クを用いて自動で背景を除去する方法や、オペレータが
介在してレタッチツールで切り抜き範囲を指定する方法
などがとられてきた。
2. Description of the Related Art With the spread of digital cameras, there is an increasing need for various types of image processing for captured images, including a process of combining a captured image with another image. For example, taking a portrait and leaving the background of the person as it is as another image is an example. In the case of such a combining process, it is necessary to specify an area to be combined with each other to form a combined image. Conventionally, the area is specified by a method of automatically removing the background using a so-called blue background, or a method of specifying a cutout range by a retouch tool with an operator.

【0003】これら従来技術のほとんどは、切り抜きた
い領域の色情報と背景の色情報の違いのみに頼って切り
出しを行うものである。例えば、特開平4−13317
9号公報では、画像内の色数をクラスタリングにより量
子化して低減した後、エッジの無い点から開始してエッ
ジ画素に遭遇するまで領域拡張法により領域を広げて画
像を領域分割した後、ユーザーに必要な部分だけを選択
してもらう画像切り抜き手法が開示されている。また、
色情報に頼らないものとしては、特開平10−2103
40号公報に照明変化を用いた領域抽出手法が開示され
ている。この手法は、照明を当てた画像と当てない画像
間で変化する領域を抽出することによって、照明変化の
少ない背景と大きく変化する前景を分離するものであ
る。
[0003] Most of these prior arts perform clipping by relying only on the difference between the color information of the region to be clipped and the color information of the background. For example, Japanese Patent Application Laid-Open No. 4-13317
In Japanese Patent Application Publication No. 9-29, after the number of colors in an image is quantized and reduced by clustering, the image is divided into regions by expanding a region by a region expansion method until a pixel is encountered starting from a point without an edge, There is disclosed an image clipping method in which only a necessary part is selected. Also,
Japanese Unexamined Patent Application Publication No. 10-2103, which does not rely on color information
No. 40 discloses an area extraction method using a change in illumination. This method separates a background with a small change in illumination and a foreground that changes greatly by extracting a region that changes between an image with illumination and an image without illumination.

【0004】[0004]

【発明が解決しようとする課題】しかし、これらの従来
技術には以下のような問題があった。まず、色情報のみ
に頼る切り抜き技術では、第1に、切り出したい領域と
そうでない領域とは色が異なっていなければならず、違
いが小さい場合は切り抜きのアルゴリズムに関連する種
々のパラメータを頻繁に調整しなければならなかった。
第2に、自動切り抜きの場合、背景を明示的に指定する
ために背景は特定色でなければならず、特別な環境を準
備しなければならないという問題があった。第3に、人
間が介入する場合、画像によっては切り抜きたい部分が
非常に多数の色からなっていたり、先行技術で処理した
結果細分化された領域が生じたりして、結果的に人間が
非常に多数の小領域をピックアップする必要が生じ、煩
わしいという問題があった。また、照明変化のみに基づ
く従来技術では、切り抜きたい被写体が黒いズボン等反
射率の低い服を着ていたり、被写体自身の凹凸が激しく
て影ができたりすると、抽出される領域が前景の被写体
と一致する保証がないという問題があった。
However, these conventional techniques have the following problems. First, in the clipping technique relying solely on color information, first, the color of the region to be clipped and the region not to be clipped must be different, and if the difference is small, various parameters related to the clipping algorithm are frequently changed. Had to adjust.
Second, in the case of automatic clipping, there is a problem that the background must be a specific color in order to explicitly specify the background, and a special environment must be prepared. Third, when a human intervenes, depending on the image, a portion to be clipped may be made up of a very large number of colors, or a region that is fragmented as a result of processing according to the prior art may result in a human being. However, there is a problem that it is necessary to pick up a large number of small areas, which is troublesome. Further, in the conventional technology based on only the illumination change, if the subject to be cut out wears clothes with low reflectivity such as black pants, or if the subject itself has severe irregularities and a shadow is formed, the area to be extracted is the subject in the foreground. There was a problem that there was no consistent guarantee.

【0005】本発明は、従来の領域切り抜き技術におけ
る上記問題点を解消するためになされたもので、背景色
と切り出し領域の色とが一致してしまっていても切り抜
きが可能な画像処理装置を提供することを目的とする。
また、背景が種々の色から構成されている場合でも自動
的に背景以外の部分を切り出すことが可能な画像処理装
置を提供することを目的とする。また、人間が介入する
場合に細分化されないまとまった領域が選択できるよう
にし、煩わしさを緩和することが可能な画像処理装置を
提供することを目的とする。更に、被写体の表面の状態
(色、形状)に依存することのない安定な切り抜きが行
えるようにした画像処理装置を提供することを目的とす
る。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems in the conventional region clipping technique, and an image processing apparatus capable of clipping even if the background color and the color of the clipped region match. The purpose is to provide.
It is another object of the present invention to provide an image processing apparatus capable of automatically cutting out parts other than the background even when the background is composed of various colors. It is another object of the present invention to provide an image processing apparatus capable of selecting a coherent area that is not subdivided when a human intervenes, thereby reducing annoyance. Still another object of the present invention is to provide an image processing apparatus capable of performing stable clipping independent of the state (color, shape) of the surface of a subject.

【0006】[0006]

【課題を解決するための手段】上記の課題を解決するた
め、請求項1に係る発明は、撮像条件を変えて連写を行
うことにより複数枚の画像を得る撮像手段と、二つの画
像領域各々において前記複数枚画像の画素値から被写体
に関連する特徴量を算出し、該特徴量に基づいて二つの
画像領域が同一被写体に属するか否かの判断を行う判別
関数を生成する判別手段と、該判別手段の判断に基づい
て同一被写体に属する画素からなる領域を生成する領域
生成手段と、所定の条件を満足する被写体に対応する前
記領域生成手段の生成結果を選択する領域選択手段とで
画像処理装置を構成するものである。
According to a first aspect of the present invention, there is provided an image pickup means for obtaining a plurality of images by performing continuous shooting while changing image pickup conditions, and two image areas. Determining means for calculating a feature amount related to a subject from pixel values of the plurality of images in each of the plurality of images, and determining whether two image areas belong to the same subject based on the feature amounts; Area generating means for generating an area consisting of pixels belonging to the same subject based on the determination by the determining means; and area selecting means for selecting a generation result of the area generating means corresponding to a subject satisfying a predetermined condition. It constitutes an image processing apparatus.

【0007】この請求項1に係る発明には、次に述べる
第1及び第2の実施の形態が対応するもので、撮像手段
には第1の実施の形態の撮像制御部103 ,CCD104 ,
及び第2の実施の形態の撮像制御部206 ,CCD203 が
対応し、判別手段には第1の実施の形態のフォーカス距
離推定部108 ,ストロボ画像生成部107 ,反射率推定部
109 ,ストロボ距離推定部110 ,領域拡張部112 ,及び
第2の実施の形態のストロボ画像生成部107 ,反射率推
定部109 ,ストロボ距離推定部110 ,パソコン208 が対
応し、領域生成手段には第1の実施の形態の領域拡張部
112 ,及び第2の実施の形態のパソコン208 が対応し、
選択手段は第1の実施の形態の前景抽出部111 ,及び第
2の実施の形態のパソコン208 が対応している。
The first and second embodiments described below correspond to the invention according to claim 1, and the image pickup means includes the image pickup control unit 103, CCD 104, and CCD of the first embodiment.
The imaging control unit 206 and the CCD 203 of the second embodiment correspond to each other, and the discriminating means includes a focus distance estimating unit 108, a strobe image generating unit 107, and a reflectance estimating unit of the first embodiment.
109, a strobe distance estimating unit 110, an area expanding unit 112, and a strobe image generating unit 107, a reflectance estimating unit 109, a strobe distance estimating unit 110, and a personal computer 208 according to the second embodiment. Area expansion unit according to the first embodiment
112, and the personal computer 208 of the second embodiment corresponds to
The selection means corresponds to the foreground extraction unit 111 of the first embodiment and the personal computer 208 of the second embodiment.

【0008】このように構成した請求項1に係る発明に
おいては、撮像手段が連写撮像により複数枚画像を得
て、判別手段がその複数枚画像の情報から画像領域の特
徴量を算出し、それに基づいて二つの画像領域間の類似
性を判定する判別関数を生成する。領域生成手段は判別
関数に基づいて同一被写体に属する画素からなる領域を
生成し、選択手段がその中から所定の条件を満足する被
写体に対応する領域を抽出する。あるいは、選択手段が
所定の条件を満足する被写体に対応する画素ないし領域
を指定し、領域生成手段が判別関数に基づいて指定され
た画素ないし領域と同一被写体に属する領域を生成す
る。
[0010] In the invention according to claim 1 configured as described above, the imaging means obtains a plurality of images by continuous shooting, and the determination means calculates the feature amount of the image area from the information of the plurality of images. A discriminant function for determining the similarity between the two image regions is generated based on the discrimination function. The area generating means generates an area composed of pixels belonging to the same object based on the discriminant function, and the selecting means extracts an area corresponding to the object satisfying a predetermined condition from the area. Alternatively, the selection unit specifies a pixel or a region corresponding to a subject satisfying a predetermined condition, and the region generation unit generates a region belonging to the same subject as the specified pixel or region based on a discriminant function.

【0009】このように請求項1に係る発明において
は、連写撮像により得られた複数画像に基づいて二つの
画像領域が同一被写体に属するかどうかを判断する判別
関数を生成することで、一枚しか画像を使わない場合よ
り精度の高い判別関数を作成でき、しかも撮影時に使用
者にかかる負担は少ない。そして、その判別関数に基づ
い各被写体に対応する領域が精度よく生成され、その領
域を条件をつけて選択することにより、特定被写体の切
り抜きが実現できる。
As described above, according to the first aspect of the present invention, a discriminant function for judging whether two image areas belong to the same subject is generated based on a plurality of images obtained by continuous photographing, thereby providing one function. A more accurate discriminant function can be created than when only images are used, and the burden on the user at the time of shooting is small. Then, a region corresponding to each subject is generated with high accuracy based on the discriminant function, and by selecting the region with conditions, clipping of the specific subject can be realized.

【0010】請求項2に係る発明は、撮像条件を変えて
連写を行うことにより複数枚の画像を得る撮像手段と、
前記複数枚の画像に基づいて、各画素において被写体ま
での距離に関連する推定値を得る距離推定手段と、二つ
の画像領域に対して各々の内部の距離推定値分布及び画
素値分布に関する統計量を特徴量として算出し、該特徴
量に基づいて二つの画像領域が同一被写体に属するか否
かの判断を行う判別関数を生成する判別手段と、該判別
手段の判断に基づいて同一被写体に属する画素からなる
領域を生成する領域生成手段と、所定の条件を満足する
被写体に対応する前記領域生成手段の生成結果を選択す
る領域選択手段とで画像処理装置を構成するものであ
る。
According to a second aspect of the present invention, there is provided an imaging means for obtaining a plurality of images by performing continuous shooting while changing imaging conditions;
A distance estimating means for obtaining an estimated value related to a distance to a subject at each pixel based on the plurality of images; and a statistic regarding a distance estimated value distribution and a pixel value distribution inside each of the two image regions. Is calculated as a feature value, and a discriminating means for generating a discriminant function for determining whether two image areas belong to the same subject based on the feature value, and belonging to the same subject based on the discrimination of the discriminating means. An image processing apparatus comprises an area generating means for generating an area composed of pixels, and an area selecting means for selecting a generation result of the area generating means corresponding to a subject satisfying a predetermined condition.

【0011】この請求項2に係る発明には、同じく次に
述べる第1及び第2の実施の形態が対応するもので、撮
像手段には第1の実施の形態の撮像制御部103 ,CCD
104,及び第2の実施の形態の撮像制御部206 ,CCD2
03 が対応し、距離推定手段には第1の実施の形態のフ
ォーカス距離推定部108 ,ストロボ画像生成部107 ,反
射率推定部109 ,ストロボ距離推定部110 ,及び第2の
実施の形態のストロボ画像生成部107 ,反射率推定部10
9 ,ストロボ距離推定部110 が対応し、判別手段には第
1の実施の形態の領域拡張部112 ,及び第2の実施の形
態のパソコン208 が対応し、領域生成手段には第1の実
施の形態の領域拡張部112 ,及び第2の実施の形態のパ
ソコン208 が対応し、選択手段は第1の実施の形態の前
景抽出部111 ,及び第2の実施の形態のパソコン208 が
対応している。
The invention according to claim 2 corresponds to the first and second embodiments also described below. The image pickup means includes the image pickup control section 103 of the first embodiment and a CCD.
104, the imaging control unit 206 of the second embodiment, the CCD 2
03, the distance estimating means includes a focus distance estimating unit 108, a strobe image generating unit 107, a reflectance estimating unit 109, a strobe distance estimating unit 110 according to the first embodiment, and a strobe according to the second embodiment. Image generator 107, reflectance estimator 10
9, the strobe distance estimating unit 110, the discriminating unit corresponds to the area expanding unit 112 of the first embodiment, and the personal computer 208 of the second embodiment corresponds to the discriminating unit. The area expansion unit 112 of the second embodiment corresponds to the personal computer 208 of the second embodiment, and the selection means corresponds to the foreground extraction unit 111 of the first embodiment and the personal computer 208 of the second embodiment. ing.

【0012】このように構成した請求項2に係る発明に
おいては、距離推定手段が撮像手段により得られた複数
枚画像から距離推定値を算出し、判別手段は画像領域内
の距離推定値と複数枚画像の画素値各々について分布の
統計量を特徴量として求める。そして、この特徴量をも
とに二つの画像領域が同一被写体からなるか否かを判断
する判別関数を生成する。領域生成手段は判別関数に基
づいて同一被写体に属する画素からなる領域を生成し、
選択手段がその中から所定の条件を満足する被写体に対
応する領域を抽出する。あるいは、選択手段が所定の条
件を満足する被写体に対応する画素ないし領域を指定
し、領域生成手段が判別関数に基づいて指定された画素
ないし領域と同一被写体に属する領域を生成する。
According to the second aspect of the present invention, the distance estimating means calculates the distance estimation value from the plurality of images obtained by the imaging means, and the discriminating means calculates the distance estimation value in the image area and the plurality of distance estimation values. The statistic of the distribution is determined as the feature value for each pixel value of the sheet image. Then, a discriminant function for judging whether or not the two image areas are composed of the same subject is generated based on the feature amount. The area generating means generates an area including pixels belonging to the same subject based on the discriminant function,
The selection unit extracts a region corresponding to a subject satisfying a predetermined condition from the selection unit. Alternatively, the selection unit specifies a pixel or a region corresponding to a subject satisfying a predetermined condition, and the region generation unit generates a region belonging to the same subject as the specified pixel or region based on a discriminant function.

【0013】このように請求項2に係る発明において
は、距離情報を用いることにより被写体に属しているか
否かを物理的知識を背景に扱うことができ、更に色、輝
度情報と組み合わせることで、高い精度の判別関数を構
成することができる。
As described above, according to the second aspect of the present invention, it is possible to use the distance information to determine whether or not the object belongs to the subject with the background of physical knowledge. A highly accurate discriminant function can be configured.

【0014】請求項3に係る発明は、請求項1に係る画
像処理装置において、前記判別手段は、前記特徴量の信
頼度を評価する信頼度評価手段を有し、該信頼度評価手
段の評価に応じて同一被写体が否かの判断に用いる前記
特徴量の優先度を決定するように構成されていることを
特徴とするものであり、また請求項4に係る発明は、請
求項2に係る画像処理装置において、前記判別手段は、
前記特徴量の信頼度を評価する信頼度評価手段を有し、
該信頼度評価手段の評価に応じて同一被写体が否かの判
断に用いる前記特徴量の優先度を決定するように構成さ
れていることを特徴とするものである。
According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the discriminating means has a reliability evaluation means for evaluating the reliability of the feature quantity, And the priority of the feature amount used for determining whether or not the same subject is present is determined in accordance with the first and second aspects of the present invention. In the image processing apparatus, the determination unit includes:
It has a reliability evaluation means for evaluating the reliability of the feature amount,
According to another aspect of the present invention, the priority of the feature amount used to determine whether or not the same subject exists is determined in accordance with the evaluation of the reliability evaluation means.

【0015】この請求項3及び4に係る発明には、次に
述べる第1の実施の形態が対応するもので、信頼度評価
手段には第1の実施の形態のフォーカス距離推定部108
及び領域拡張部112 が対応し、請求項4における特徴量
は、各画素での距離推定値そのものである。
The invention according to claims 3 and 4 corresponds to the first embodiment described below, and the reliability evaluation means includes a focus distance estimating unit 108 according to the first embodiment.
And the area extension unit 112. The feature quantity in claim 4 is the distance estimation value of each pixel itself.

【0016】このように構成した請求項3及び4に係る
発明においては、信頼度評価手段の評価に応じて、信頼
できる特徴量を優先的に判別手段における判断の根拠と
するものであり、したがって、算出した特徴量にエラー
がある場合でも、信頼度評価手段でエラーの程度を評価
してエラーのありそうな特徴量は使用しないため、判別
手段の誤判定が少なくなり、安定した判別が行える。
In the third and fourth aspects of the present invention, a reliable feature quantity is preferentially used as a basis for the determination by the determining means in accordance with the evaluation by the reliability evaluating means. Even when there is an error in the calculated feature amount, since the degree of error is evaluated by the reliability evaluation unit and the feature amount which is likely to have an error is not used, erroneous determination by the determination unit is reduced, and stable determination can be performed. .

【0017】請求項5に係る発明は、請求項1に係る画
像処理装置において、前記判別手段は、前記特徴量が被
写体に対応する画像領域でとりうる範囲を推定する被写
体特徴推定手段を有し、二つの画像領域各々の特徴量が
属する範囲が同一の場合に二つの画像領域が同一被写体
に属すると判断するように構成されていることを特徴と
するものであり、また請求項6に係る発明は、請求項2
に係る画像処理装置において、前記判別手段は、前記特
徴量が被写体に対応する画像領域でとりうる範囲を推定
する被写体特徴推定手段を有し、二つの画像領域各々の
特徴量が属する範囲が同一の場合に二つの画像領域が同
一被写体に属すると判断するように構成されていること
を特徴とするものである。
According to a fifth aspect of the present invention, in the image processing apparatus according to the first aspect, the discriminating means includes subject feature estimating means for estimating a range in which the feature amount can be taken in an image area corresponding to the subject. Wherein when the ranges to which the feature amounts of the two image regions belong are the same, it is determined that the two image regions belong to the same subject. The invention is claimed in claim 2
In the image processing apparatus according to the above, the discriminating means includes subject feature estimating means for estimating a range in which the feature amount can be taken in an image region corresponding to the subject, and the ranges to which the feature amounts of the two image regions belong are the same. In this case, the two image areas are determined to belong to the same subject.

【0018】この請求項5及び6に係る発明には、次に
述べる第1及び第2の実施の形態が対応するもので、被
写体特徴推定手段には第1の実施の形態における前景抽
出部111 と領域拡張部112 ,及び第2の実施の形態のパ
ソコン208 とスライダー211aが対応している。
The invention according to claims 5 and 6 corresponds to the first and second embodiments described below. The foreground extraction unit 111 according to the first embodiment includes a subject feature estimating unit. And the area expansion unit 112, and the personal computer 208 and the slider 211a of the second embodiment.

【0019】このように請求項5及び6に係る発明にお
いては、二つの画像領域を、特徴量が特定範囲に属する
か否かで判別するため、現実の被写体が物理的に一定範
囲の特徴量を有する傾向がある場合に、その性質を反映
でき、より信頼性の高い判別ができる。
As described above, according to the fifth and sixth aspects of the present invention, two image areas are determined based on whether or not the characteristic amount belongs to a specific range. , The characteristics can be reflected, and more reliable determination can be made.

【0020】請求項7に係る発明は、請求項6に係る画
像処理装置において、前記被写体特徴推定手段は、画像
の所定領域内の距離推定値のヒストグラムを所定数の基
本分布の和で近似し、各基本分布が所定の閾値以上の値
をもつ範囲を各被写体が占める距離推定値の範囲とする
ように構成されていることを特徴とするものである。
According to a seventh aspect of the present invention, in the image processing apparatus according to the sixth aspect, the subject feature estimating means approximates a histogram of distance estimation values within a predetermined area of the image by a sum of a predetermined number of basic distributions. , Wherein a range in which each basic distribution has a value equal to or greater than a predetermined threshold value is set as a range of the estimated distance value occupied by each subject.

【0021】この請求項7に係る発明には、次に述べる
第1の実施の形態が対応するもので、この発明において
は、距離分布ヒストグラムを複数の基本分布の和で近似
し、これに基づいて距離範囲を設定する方法をとると、
特に奥行き方向に離散的にしか被写体が存在しないシー
ンで、確実に各被写体の存在する距離範囲を推定するこ
とができ、結果的に切り抜き精度を高くすることができ
る。
The invention according to claim 7 corresponds to the first embodiment described below. In this invention, the distance distribution histogram is approximated by the sum of a plurality of basic distributions, and based on this, The method of setting the distance range by
In particular, in a scene in which a subject only exists discretely in the depth direction, the distance range in which each subject exists can be reliably estimated, and as a result, the cutting accuracy can be increased.

【0022】請求項8に係る発明は、請求項4に係る画
像処理装置において、前記距離推定手段を複数備え、前
記判別手段は各画素において複数の距離推定手段による
距離推定結果のうち前記信頼度評価手段に最も信頼でき
ると判断される距離推定値を優先して用いるように構成
されていることを特徴とするものである。
According to an eighth aspect of the present invention, in the image processing apparatus according to the fourth aspect, a plurality of the distance estimating means are provided, and the discriminating means includes a plurality of the distance estimating means for each pixel. It is characterized in that the evaluation means is configured to preferentially use a distance estimation value determined to be most reliable.

【0023】この請求項8に係る発明には、同じく次に
述べる第1の実施の形態が対応するもので、複数の距離
推定手段には第1の実施の形態におけるフォーカス距離
推定部108 ,ストロボ画像生成部107 ,反射率推定部10
9 ,ストロボ距離推定部110及びフォーカス距離推定部1
08 が対応し、信頼度評価手段には第1の実施の形態に
おける領域拡張部112 が対応している。
The invention according to claim 8 corresponds to a first embodiment also described below. A plurality of distance estimating means include the focus distance estimating unit 108 in the first embodiment, and a strobe light. Image generator 107, reflectance estimator 10
9. Strobe distance estimation unit 110 and focus distance estimation unit 1
08 corresponds to the reliability evaluation means, and the area expansion unit 112 in the first embodiment corresponds to the reliability evaluation means.

【0024】このように構成した請求項8に係る発明に
おいては、複数の距離推定手段により各画素で得られた
複数の推定値を信頼度評価手段が評価し、判別手段が最
も信頼できると判断される距離推定結果を用いて判別を
行う。
In the invention according to claim 8, the reliability estimating means evaluates a plurality of estimated values obtained for each pixel by the plurality of distance estimating means, and determines that the discriminating means is most reliable. The determination is performed using the distance estimation result obtained.

【0025】このように請求項8に係る発明において
は、距離推定手段を複数用意することで、ある距離推定
手段においては信頼度の低下する条件でも、その条件で
信頼性が低下しない他の距離推定手段の距離推定値を利
用でき、判別関数の精度を向上させることができる。
In this way, in the invention according to the eighth aspect, by providing a plurality of distance estimating means, even if the reliability of one distance estimating means is reduced, the other distance estimating means does not reduce the reliability under the condition. The distance estimation value of the estimating means can be used, and the accuracy of the discriminant function can be improved.

【0026】請求項9に係る発明は、請求項2に係る画
像処理装置において、前記撮像手段はストロボを発光す
る条件及び発光しない条件で連写を行うように構成さ
れ、前記距離推定手段は、二枚の連写画像の差分からス
トロボ光のみで照明された画像を得る差分手段と、前記
ストロボ光のみで照明された画像を補正して距離推定値
を得るストロボ距離推定手段とを有することを特徴とす
るものである。
According to a ninth aspect of the present invention, in the image processing apparatus according to the second aspect, the imaging means is configured to perform continuous shooting under a condition in which a strobe emits light and a condition in which the strobe does not emit light, and the distance estimating means includes: A difference means for obtaining an image illuminated only with strobe light from a difference between two continuous shot images; and a strobe distance estimating means for correcting an image illuminated with only the strobe light to obtain a distance estimation value. It is a feature.

【0027】この請求項9に係る発明には、同じく次に
述べる第1及び第2の実施の形態が対応するもので、差
分手段には第1及び第2の実施の形態におけるストロボ
画像生成部107 が対応し、ストロボ距離推定手段には第
1及び第2の実施の形態のストロボ距離推定部110 が対
応している。
The ninth aspect of the present invention corresponds to the first and second embodiments also described below. The difference means is provided by the strobe image generation unit in the first and second embodiments. 107 corresponds to the strobe distance estimating means, and corresponds to the strobe distance estimating unit 110 of the first and second embodiments.

【0028】このように構成した請求項9に係る発明に
おいては、撮像手段がストロボを発光する条件及び発光
しない条件で連写を行い、差分手段が二枚の連写画像の
差分からストロボ光のみで照明された画像を得て、スト
ロボ距離推定手段がストロボ光のみで照明された画像を
補正して距離推定値を得る。
According to the ninth aspect of the present invention, the imaging means performs continuous shooting under the condition that the strobe emits light and the condition that the strobe does not emit light, and the difference means determines only the strobe light from the difference between the two continuous shot images. And the strobe distance estimating means corrects the image illuminated only by the strobe light to obtain a distance estimation value.

【0029】このように請求項9に係る発明において
は、差分手段によりストロボ光のみで照明された画像が
得られるため、この画像からストロボ光が距離に応じて
減衰することを利用して、各画素毎の距離を推定でき、
簡便且つ特定の条件で画素を被写体毎に分別できるよう
になる。またストロボ距離推定手段では、この推定値に
更に補正を行うので、信頼性を向上させることができ
る。
As described above, according to the ninth aspect of the present invention, since an image illuminated only by the strobe light is obtained by the difference means, the fact that the strobe light is attenuated according to the distance from this image is used for each image. The distance for each pixel can be estimated,
Pixels can be easily classified for each subject under specific conditions. Further, the strobe distance estimating means further corrects the estimated value, so that the reliability can be improved.

【0030】請求項10に係る発明は、請求項9に係る画
像処理装置において、前記ストロボ距離推定手段は、前
記ストロボ光のみで照明された画像の輝度を、ストロボ
を発光しない条件で得られた画像の輝度に反比例する補
正係数を乗じて補正することにより距離推定値を得るよ
うに構成されていることを特徴とするものである。
According to a tenth aspect of the present invention, in the image processing apparatus according to the ninth aspect, the strobe distance estimating means obtains the brightness of an image illuminated only by the strobe light under the condition that no strobe light is emitted. The distance estimation value is obtained by performing a correction by multiplying by a correction coefficient that is inversely proportional to the luminance of the image.

【0031】この請求項10に係る発明には、同じく次に
述べる第1及び第2の実施の形態が対応するもので、こ
の発明においては、ストロボ距離推定手段は、ストロボ
光のみで照明された画像の輝度を、ストロボを発光しな
い条件で得られた画像の輝度に反比例する補正係数を乗
じて補正することにより、距離推定値を得るようになっ
ている。
The invention according to claim 10 corresponds to the following first and second embodiments. In this invention, the strobe distance estimating means is illuminated only by strobe light. The distance estimation value is obtained by correcting the luminance of the image by multiplying by a correction coefficient inversely proportional to the luminance of the image obtained under the condition that the strobe is not emitted.

【0032】このように請求項10に係る発明において
は、ストロボを発光しない条件の画像は、その照明が平
行光に近く照明むらがなければ反射率の大小の良い推定
値になり、これでストロボ光のみで照明された画像の輝
度を補正することで、例えば距離推定時に人物被写体の
服の色の影響を緩和することができる。
As described above, according to the tenth aspect of the present invention, the image under the condition that the strobe does not emit light is a good estimated value of the reflectance if the illumination is close to parallel light and there is no uneven illumination. By correcting the luminance of an image illuminated only with light, it is possible to mitigate the influence of the color of clothes of a human subject when estimating a distance, for example.

【0033】請求項11に係る発明は、請求項2に係る画
像処理装置において、前記撮像手段は合焦位置をずらし
て連写を行うように構成され、前記距離推定手段は、焦
点位置の異なる連写画像から距離推定値を得るフォーカ
ス距離推定手段を有することを特徴とするものである。
According to an eleventh aspect of the present invention, in the image processing apparatus according to the second aspect, the image pickup means is configured to perform continuous shooting while shifting a focus position, and the distance estimating means is provided with different focus positions. It is characterized in that it has a focus distance estimating means for obtaining a distance estimation value from the continuously shot images.

【0034】この請求項11に係る発明には、次に述べる
第1の実施の形態が対応するもので、フォーカス距離推
定手段には第1の実施の形態におけるフォーカス距離推
定部108 が対応している。
The invention according to claim 11 corresponds to the first embodiment described below, and the focus distance estimating means corresponds to the focus distance estimating unit 108 in the first embodiment. I have.

【0035】このように構成した請求項11に係る発明に
おいては、撮像手段が合焦位置をずらして連写を行い、
フォーカス距離推定手段が焦点位置の異なる連写画像か
ら距離推定値を得る。したがって、合焦位置を変えて撮
像する簡便な方法で、エッジ部分の距離推定が可能にな
り、ストロボ利用の場合と異なり照明むら等の影響を受
けないようにすることができる。
In the eleventh aspect of the present invention, the imaging means shifts the focus position to perform continuous shooting,
The focus distance estimating means obtains a distance estimation value from the continuous shot images having different focal positions. Therefore, it is possible to estimate the distance of the edge portion by a simple method of changing the focus position and taking an image, and unlike the case of using a strobe, it is possible to prevent the influence of uneven illumination or the like.

【0036】請求項12に係る発明は、請求項2に係る画
像処理装置において、前記判別手段は、二つの重複する
画像領域に対し、重複領域とその他の領域とで輝度及び
距離推定値の変化が連続的であり、且つ色相及び彩度の
変化量が所定の閾値内にある場合に限り、二つの画像領
域を同一被写体に属すると判断するように構成されてい
ることを特徴とするものである。
According to a twelfth aspect of the present invention, in the image processing apparatus according to the second aspect, the discriminating means changes the estimated luminance and the distance between two overlapping image areas between the overlapping area and the other area. Are continuous, and the two image areas are determined to belong to the same subject only when the change amounts of the hue and the saturation are within a predetermined threshold value. is there.

【0037】この請求項12に係る発明には、同じく次に
述べる第1及び第2の実施の形態が対応するもので、こ
の発明においては、判別手段は、二つの重複する画像領
域に対し、重複領域とその他の領域とで輝度及び距離推
定値の変化が連続的であり、且つ色相及び彩度の変化量
が所定の閾値内にある場合に限り、二つの画像領域を同
一被写体に属すると判断するようになっている。
The invention according to claim 12 corresponds to the following first and second embodiments. In this invention, the discriminating means is provided for two overlapping image areas. It is assumed that two image regions belong to the same subject only when the change of the luminance and the distance estimation value between the overlap region and the other region is continuous, and the change amount of the hue and the saturation is within a predetermined threshold. I am to judge.

【0038】一般の物体では、素材が同じ領域では色相
は比較的安定しているが、輝度は面の向きにより大きく
異なるため、輝度に関しては同一被写体内でも大きな変
動がある。この請求項12に係る発明においては、輝度に
関してのみその変化率にだけ制約を設けるようにしたた
め、同一被写体中の同一素材の二つの画像領域を別の被
写体に属すると判断する可能性を低減することができ
る。
In a general object, the hue is relatively stable in the same material region, but the luminance greatly varies depending on the direction of the surface. Therefore, the luminance varies greatly even within the same subject. According to the twelfth aspect of the present invention, since only the change rate is limited only with respect to the luminance, it is possible to reduce the possibility that two image areas of the same material in the same subject belong to another subject. be able to.

【0039】請求項13に係る発明は、請求項2に係る画
像処理装置において、前記領域生成手段は、前記判別手
段により互いに同一被写体に属すると判断された画素か
らなる連結領域を基本領域として生成する基本領域生成
手段と、前記判別手段により前記各連結領域の輪郭上の
複数個の画素と同一の被写体に属すると判断された画素
を抽出して前記基本領域に追加する領域拡張手段とを有
することを特徴とするものである。
According to a thirteenth aspect of the present invention, in the image processing apparatus according to the second aspect, the area generating means generates, as a basic area, a connected area consisting of pixels determined to belong to the same subject by the determining means. And a region expansion unit that extracts pixels determined to belong to the same subject as a plurality of pixels on the outline of each connected region by the determination unit and adds the extracted pixels to the basic region. It is characterized by the following.

【0040】この請求項13に係る発明には、次に述べる
第2の実施の形態が対応するもので、基本領域生成手段
には第2の実施の形態におけるパソコン208 及びスライ
ダー211aが対応し、領域拡張手段にはパソコン208 が対
応している。
The invention according to claim 13 corresponds to a second embodiment described below. The personal computer 208 and the slider 211a according to the second embodiment correspond to the basic area generating means. The personal computer 208 corresponds to the area expanding means.

【0041】このように構成した請求項13に係る発明に
おいては、まず、距離判別手段の判定結果を用いて基本
領域生成手段が同一被写体に属する画素からなる連結領
域を基本領域として生成する。次に、判別手段の判断に
基づいて、領域拡張手段は各基本領域の輪郭画素各々に
対し基本領域の外側で輪郭画素と同一被写体に属する画
素を探索する。全ての輪郭画素で探索が終了した後、領
域拡張手段は探索できた画素のうち所定個数以上の輪郭
画素と同一被写体であると判断された画素のみを選択
し、基本領域に追加する。この操作を繰り返して被写体
に対応する領域を得るようになっている。
In the invention according to the thirteenth aspect, first, the basic area generating means generates a connected area composed of pixels belonging to the same subject as the basic area using the determination result of the distance determining means. Next, based on the judgment of the discriminating means, the area expanding means searches each contour pixel of each basic area for a pixel belonging to the same subject as the contour pixel outside the basic area. After the search has been completed for all the contour pixels, the region expanding means selects only pixels determined to be the same subject as a predetermined number or more of the contour pixels from the searched pixels, and adds the selected pixels to the basic region. This operation is repeated to obtain a region corresponding to the subject.

【0042】このように請求項13に係る発明において
は、基本領域として距離情報のみに基づいた領域を形成
することで、被写体の表面色に依存せず細分化もしにく
い基本領域が生成される。そして、この領域を判別手段
の精度の高い判断に基づいて拡張していくため、距離情
報にエラーが含まれ基本領域の輪郭が被写体の輪郭と一
致しない場合にも対処できる。しかも拡張時に基本領域
の多くの輪郭画素と同一被写体と判断された外部画素の
みを用いて拡張するため、被写体の輪郭をはみ出して拡
張がおこる危険性が緩和される。
Thus, in the invention according to the thirteenth aspect, by forming an area based on only the distance information as the basic area, a basic area which does not depend on the surface color of the subject and is difficult to be subdivided is generated. Since this area is extended based on the high-precision determination of the determination means, it is possible to cope with a case where the distance information contains an error and the contour of the basic area does not match the contour of the subject. Moreover, since expansion is performed using only external pixels determined to be the same as many contour pixels in the basic area at the time of expansion, the risk of extending beyond the outline of the subject is reduced.

【0043】請求項14に係る発明は、請求項1又は2に
係る画像処理装置において、前記領域生成手段は、同一
被写体に属すると判断された画素からなる基本領域の外
部に隣接する外接画素を抽出する外接画素抽出手段と、
該外接画素抽出手段により抽出された各外接画素が基本
領域に属する確率を評価する内外判定手段を有し、該内
外判定手段により最も確率が高いと評価された外接画素
を新たに基本領域に付け加えるように構成されているこ
とを特徴とするものである。
According to a fourteenth aspect of the present invention, in the image processing apparatus according to the first or second aspect, the area generating means determines a circumscribed pixel adjacent to the outside of a basic area composed of pixels determined to belong to the same subject. Circumscribing pixel extracting means for extracting,
An inner / outer determination unit for evaluating a probability that each circumscribed pixel extracted by the circumscribed pixel extraction unit belongs to a basic region; and a circumscribed pixel evaluated as having the highest probability by the inner / outside determination unit is newly added to the basic region. It is characterized by having such a configuration.

【0044】この請求項14に係る発明には、次に述べる
第1の実施の形態が対応するもので、外接画素抽出手段
及び内外判定手段には、第1の実施の形態の領域拡張部
112が対応している。
The invention according to claim 14 corresponds to the first embodiment described below, wherein the circumscribed pixel extraction means and the inside / outside determination means are provided with the area extension unit of the first embodiment.
112 are supported.

【0045】このように構成した請求項14に係る発明に
おいては、外接画素抽出手段は指定された基本領域に外
接する画素集合を抽出し、内外判定手段は外接画素集合
の各画素が基本領域に属する確率を評価する。そして、
領域生成手段は内外判定手段により最も確率が高いと評
価された外接画素を新たに基本領域に付け加えて基本領
域を拡張していく。
In the invention according to claim 14, the circumscribing pixel extracting means extracts a pixel set circumscribing the designated basic area, and the inside / outside judging means sets each pixel of the circumscribing pixel set to the basic area. Evaluate the probability of belonging. And
The area generating means expands the basic area by newly adding the circumscribed pixel evaluated as having the highest probability by the inside / outside determining means to the basic area.

【0046】このように請求項14に係る発明において
は、基本領域の外接画素のうち基本領域に属する確率が
最も高い画素を新たに追加するようになっているため、
基本領域に同一被写体に属さない画素が追加されて、基
本領域がいきなり同一被写体に属する画素の領域から大
きくはみ出したりするなどの破綻の発生の可能性が小さ
くなる。
As described above, in the invention according to claim 14, a pixel having the highest probability of belonging to the basic region among the circumscribed pixels of the basic region is newly added.
Pixels that do not belong to the same subject are added to the basic region, and the possibility of occurrence of a breakdown such as the basic region suddenly protruding greatly from the region of pixels belonging to the same subject is reduced.

【0047】請求項15に係る発明は、請求項14に係る画
像処理装置において、前記内外判定手段は、外接画素近
傍で基本領域内部に属する画素集合と外接画素自身の二
領域に対する前記判別手段の判別結果、及び外接画素近
傍で基本領域外部に属する画素集合と外接画素自身の二
領域に対する前記判別手段の判別結果の双方に基づい
て、外接画素が基本領域に属する確率を算出するように
構成されていることを特徴とするものである。
According to a fifteenth aspect of the present invention, in the image processing apparatus according to the fourteenth aspect, the inside / outside determination means includes a pixel set belonging to a basic area in the vicinity of the circumscribed pixel and the circumscribed pixel itself. It is configured to calculate the probability that the circumscribing pixel belongs to the basic region based on both the determination result and the determination result of the determination unit for the two regions of the circumscribing pixel and the pixel set belonging to the outside of the basic region in the vicinity of the circumscribing pixel. It is characterized by having.

【0048】この請求項15に係る発明には、次に述べる
第1の実施の形態が対応するもので、この発明において
は、内外判定手段は、外接画素近傍で基本領域内部に属
する画素集合及び基本領域外部に属する画素集合を抽出
し、各々の領域に外接画素自身が属するか否か判断し、
二つの判断に基づいて外接画素が基本領域に属する確率
を計算する。
The invention according to claim 15 corresponds to the first embodiment described below. In this invention, the inside / outside determination means includes a pixel set belonging to the vicinity of the circumscribed pixel and belonging to the inside of the basic area. Extract a pixel set belonging to the outside of the basic region, determine whether the circumscribed pixel itself belongs to each region,
The probability that the circumscribed pixel belongs to the basic region is calculated based on the two determinations.

【0049】このように請求項15に係る発明において
は、外接画素が基本領域に含まれるか否かに加えて外接
画素が付近の基本領域外部に含まれるか否かも判断して
外接画素が基本領域に含まれる確率を算出するため、基
本領域の内と外で色や距離情報の違いが少なく判断の難
しい部分で、外接画素が基本領域に含まれる確率が過大
評価されることを防止し、精度のよい内外判定を可能に
する。
Thus, in the invention according to claim 15, it is determined whether or not the circumscribed pixel is included in the basic region in addition to whether the circumscribed pixel is included in the basic region. In order to calculate the probability of being included in the region, it is difficult to judge the difference in color and distance information between the inside and outside of the basic region, preventing the probability that the circumscribing pixel is included in the basic region from being overestimated, Enables accurate inside / outside judgment.

【0050】請求項16に係る発明は、請求項7に係る画
像処理装置において、前記領域選択手段は、前記領域生
成手段により生成される領域のうち、前記被写体特徴推
定手段により設定された距離推定値の範囲のうち最も近
い範囲に対応する被写体に対応した領域を選択するよう
に構成されていることを特徴とするものである。
According to a sixteenth aspect of the present invention, in the image processing apparatus according to the seventh aspect, the area selecting means includes a distance estimating unit which is set by the subject feature estimating means among the areas generated by the area generating means. It is characterized in that it is configured to select a region corresponding to a subject corresponding to the closest range among the value ranges.

【0051】この請求項16に係る発明には、次に述べる
第1の実施の形態が対応するもので、この発明において
は、領域選択手段は、被写体特徴推定手段により設定さ
れた距離推定値の範囲のうち最も近い範囲を特定し、こ
の範囲に対応する被写体を前景被写体とみなす。そし
て、領域生成手段により生成される領域のうち前景被写
体に対応する領域を選択する。したがって、このように
最前景の被写体を切り抜くように決めることにより、ポ
ートレートなど前景を切り抜く作業の自動化が可能とな
る。
The invention according to claim 16 corresponds to a first embodiment described below. In the present invention, the area selecting means determines the distance estimation value set by the subject feature estimating means. The closest range is specified, and a subject corresponding to this range is regarded as a foreground subject. Then, an area corresponding to the foreground subject is selected from the areas generated by the area generating means. Therefore, by deciding to cut out the foreground subject in this way, it becomes possible to automate the work of cutting out the foreground such as a portrait.

【0052】請求項17に係る発明は、請求項7に係る画
像処理装置において、前記領域選択手段は、選択した領
域を表すマスク画像を形成するマスク画像生成手段を有
し、前記撮像手段において得られた複数枚画像の中から
標準的な撮像条件で得られた画像を選択してマスク画像
と共に出力するように構成されていることを特徴とする
ものである。
According to a seventeenth aspect of the present invention, in the image processing apparatus according to the seventh aspect, the area selecting means has a mask image generating means for forming a mask image representing the selected area, and the image processing means obtains the mask image. An image obtained under a standard imaging condition is selected from the plurality of obtained images and output together with a mask image.

【0053】この請求項17に係る発明には、次に述べる
第1の実施の形態が対応するもので、選択手段には第1
の実施の形態における前景抽出部111 ,領域拡張部112
,マスクメモリ113 及び記録部114 が対応し、マスク
画像生成手段には領域拡張部112 及びマスクメモリ113
が対応している。
The invention according to claim 17 corresponds to a first embodiment described below.
Foreground extraction unit 111 and area expansion unit 112 in the embodiment
, A mask memory 113 and a recording unit 114, and the area expansion unit 112 and the mask memory 113
Is supported.

【0054】このように構成した請求項17に係る発明に
おいては、マスク画像生成手段が、選択された領域で画
素値1,その他の領域で画素値0をとるマスク画像を作
成する。選択手段は、連写により得られた画像から標準
的な撮像条件で得られた画像だけを取り出し、マスク画
像と共に出力する。
In the invention according to claim 17 configured as described above, the mask image generating means creates a mask image having a pixel value of 1 in a selected area and a pixel value of 0 in other areas. The selection unit extracts only an image obtained under standard imaging conditions from the images obtained by continuous shooting, and outputs the image together with the mask image.

【0055】このように請求項17に係る発明において
は、出力する画像を連写画像のうち一枚に制限し、処理
結果のマスク画像を付加することにより、必要十分なデ
ータのみを出力し、したがって出力先の記憶容量などの
浪費を避けることができる。
As described above, according to the seventeenth aspect of the present invention, the output image is limited to one of continuous shot images, and a mask image as a processing result is added, so that only necessary and sufficient data is output. Therefore, waste of the storage capacity of the output destination can be avoided.

【0056】[0056]

【発明の実施の形態】次に、実施の形態について説明す
る。図1は本発明に係る画像処理装置の第1の実施の形
態のデジタルカメラ100 を示すブロック構成図である。
図1に示すように、デジタルカメラ100 内では、フォー
カス制御のできる光学系101 ,ストロボ102 及びCCD
104 が、これらを制御する撮像制御部103 に接続され、
CCD104 は補間部105 を介して画像メモリ106 及び撮
像制御部103 に接続されている。画像メモリ106 には、
このほかストロボ画像生成部107 ,反射率推定部109 ,
フォーカス距離推定部108 ,領域拡張部112 及び記録部
114 が接続され、ストロボ画像生成部107 ,反射率推定
部109 は共にストロボ距離推定部110 に接続されてい
る。ストロボ距離推定部110 は前景抽出部111 及び領域
拡張部112 に接続し、前景抽出部111 及びフォーカス距
離推定部108 は共に領域拡張部112 に接続されており、
領域拡張部112 はマスクメモリ113 に接続し、マスクメ
モリ113 は記録部114 に接続されている。
Next, an embodiment will be described. FIG. 1 is a block diagram showing a digital camera 100 according to a first embodiment of the image processing apparatus according to the present invention.
As shown in FIG. 1, in a digital camera 100, an optical system 101, a strobe light 102, and a CCD capable of performing focus control are provided.
104 is connected to an imaging control unit 103 for controlling these,
The CCD 104 is connected to an image memory 106 and an imaging control unit 103 via an interpolation unit 105. In the image memory 106,
In addition, a strobe image generator 107, a reflectance estimator 109,
Focus distance estimating unit 108, area expanding unit 112, and recording unit
The strobe image generating unit 107 and the reflectance estimating unit 109 are both connected to a strobe distance estimating unit 110. The strobe distance estimating unit 110 is connected to the foreground extracting unit 111 and the region extending unit 112, and the foreground extracting unit 111 and the focus distance estimating unit 108 are both connected to the region extending unit 112.
The area extension unit 112 is connected to a mask memory 113, and the mask memory 113 is connected to a recording unit 114.

【0057】次に、このように構成されているデジタル
カメラ100 の動作を、信号の流れを中心にして説明す
る。ユーザーがポートレートモードで撮影を行うと、C
CD104 からの撮像信号に基づいて撮像制御部103 が合
焦位置及び適切なストロボ光量を算出する。そして、ス
トロボ102 及び光学系101 を制御して、ストロボ光を発
光して合焦した状態、ストロボ光を発光せず合焦した状
態、ストロボ光を発光せず焦点位置を少しずらした状
態、の3種類の撮像条件で撮像を行う。CCD104から
の撮像信号は、補間部105 でカラー画像に変換される。
以下、上記3種の条件で撮像されたカラー画像を順次画
像I1,画像I2,画像I3と呼ぶこととする。画像I
1〜I3は、順次画像メモリ106 に書き込まれる。
Next, the operation of the digital camera 100 configured as described above will be described focusing on the signal flow. When the user shoots in portrait mode, C
The imaging control unit 103 calculates an in-focus position and an appropriate amount of strobe light based on an imaging signal from the CD 104. Then, the strobe 102 and the optical system 101 are controlled so that the strobe light is emitted and focused, the strobe light is not emitted and the focus is achieved, and the strobe light is not emitted and the focal position is slightly shifted. Imaging is performed under three types of imaging conditions. An image pickup signal from the CCD 104 is converted into a color image by an interpolation unit 105.
Hereinafter, the color images captured under the above three conditions are sequentially referred to as an image I1, an image I2, and an image I3. Image I
1 to I3 are sequentially written to the image memory 106.

【0058】三枚の画像I1〜I3の撮像が終了する
と、ストロボ画像生成部107 は画像I1と画像I2を画
像メモリ106 から読み出し、照明光がストロボ光のみの
場合に得られるはずの画像I4を、ストロボ距離推定部
110 に出力する。画像I1と画像I2は各々適正露出で
撮像されるので、露光量が異なっている。そのため、露
光量の違いを補正した後、画像I2から画像I1を減算
して、照明がストロボ光のみの画像I4を合成する。こ
の処理は、画像I1と画像I2共に各色成分毎に行う。
ストロボ光のみの画像I4では、画素値は被写体距離と
被写体の面の向きの関数になる。例えば、図2のような
状況を考え、被写体301 の反射率をr,被写体301 の面
とカメラ302 の光軸303 とのなす角をα1とすると、ス
トロボ光304 の照射方向とカメラ光軸303 の方向がほぼ
一致するものとして、ストロボ光304 のみを照明とする
画像I4の画素値V4は、次式(1)で表される。 V4=r×cos(α1)×Ls /d2 ・・・・・・・・・・・・・(1) ここで、Ls はストロボ光の明るさ、dは被写体までの
距離である。
When the imaging of the three images I1 to I3 is completed, the flash image generating unit 107 reads out the images I1 and I2 from the image memory 106, and outputs the image I4 that would be obtained when the illumination light is only the strobe light. , Strobe distance estimation unit
Output to 110. Since the image I1 and the image I2 are captured with proper exposure, the exposure amounts are different. Therefore, after correcting the difference in the exposure amount, the image I1 is subtracted from the image I2, and the image I4 having only the strobe light is synthesized. This process is performed for each color component for both the image I1 and the image I2.
In the image I4 using only the strobe light, the pixel value is a function of the subject distance and the orientation of the subject surface. For example, considering the situation as shown in FIG. 2, if the reflectance of the subject 301 is r and the angle between the surface of the subject 301 and the optical axis 303 of the camera 302 is α1, the irradiation direction of the strobe light 304 and the camera optical axis 303 Are substantially the same, the pixel value V4 of the image I4 using only the strobe light 304 as illumination is expressed by the following equation (1). V4 = r × cos (α1) × Ls / d 2 (1) where Ls is the brightness of the strobe light and d is the distance to the subject.

【0059】一方、反射率推定部109 は、画像メモリ10
6 中の画像から被写体反射率を推定し、各画素の値が被
写体反射率と相関のある画像I5をストロボ距離推定部
110に出力する。本実施の形態では、画像I5は、画像
I2に対し画素値0の部分の画素値を1に置き換えたも
のである。再び図2の状況を考えると、画像I2の画素
値V2は、次式(2)で表され、面の向きを除いて被写
体反射率rに比例する。 V2=r×cos(α2)×La ・・・・・・・・・・・・・・・・(2) ここで、La はストロボ以外の光源305 の明るさであ
り、α2は被写体301 の面と他の光源305 とのなす角で
ある。
On the other hand, the reflectance estimating unit 109 is provided in the image memory 10
6 Estimate the object reflectance from the image in the middle, and calculate the image I5 in which the value of each pixel is correlated with the object reflectance by the strobe distance estimation unit.
Output to 110. In the present embodiment, the image I5 is obtained by replacing the pixel value of a portion having a pixel value of 0 with 1 in the image I2. Considering the situation of FIG. 2 again, the pixel value V2 of the image I2 is represented by the following equation (2), and is proportional to the subject reflectance r except for the direction of the surface. V2 = r × cos (α2) × La (2) where La is the brightness of the light source 305 other than the strobe, and α2 is the brightness of the subject 301. The angle between the surface and another light source 305.

【0060】ストロボ画像生成部107 からストロボ光の
みを照明とする画像I4が入力され、反射率推定部109
から被写体反射率に対応する画像I5が入力されると、
ストロボ距離推定部110 では各色成分毎に画像I4の画
素値V4を画像I5の画素値で割った値を求め、その色
成分間の平均値を画素値とする画像I6を計算する。式
(1),(2)から、次式(3)が得られ、このV4/
V2は面の向きの影響を除けば、距離dの二乗に反比例
する。 V4/V2=1/d2 ×cos(α1)/cos(α2)×Ls /La ・・・・・・・・・・(3) 以後、距離(又はその二乗)又はその逆数と単調な関係
にある量をまとめて距離推定値と呼ぶことにする。スト
ロボ距離推定部110 は、画像I6を前景抽出部111 及び
領域拡張部112 に出力する。
The image I 4 illuminated only by the strobe light is input from the strobe image generation unit 107, and the reflectance estimation unit 109
When the image I5 corresponding to the subject reflectance is input from
The strobe distance estimating unit 110 obtains a value obtained by dividing the pixel value V4 of the image I4 by the pixel value of the image I5 for each color component, and calculates an image I6 having an average value between the color components as a pixel value. From equations (1) and (2), the following equation (3) is obtained.
V2 is inversely proportional to the square of the distance d except for the influence of the surface orientation. V4 / V2 = 1 / d 2 × cos (α1) / cos (α2) × Ls / La (3) Hereinafter, the relationship is monotonic with the distance (or its square) or its reciprocal. Are collectively referred to as distance estimates. The strobe distance estimating unit 110 outputs the image I6 to the foreground extracting unit 111 and the area expanding unit 112.

【0061】ストロボ距離推定部110 から前景抽出部11
1 に画像I6が入力されると、前景抽出部111 は前景と
判断される画像領域を決定する。そのために、まず横軸
に距離推定値、縦軸にその距離推定値をもつ画素数をプ
ロットしたヒストグラムを作り、そのヒストグラムを二
つの正規分布の和で近似する。近似には最尤法など公知
のアルゴリズムを用いる。近似誤差が所定の値以上の場
合、前景と背景の分離がうまくできないと判断して全画
素が0の画像を生成する。
From the strobe distance estimating unit 110 to the foreground extracting unit 11
When the image I6 is input to 1, the foreground extraction unit 111 determines an image area determined to be a foreground. For this purpose, a histogram is created by plotting the distance estimation value on the horizontal axis and the number of pixels having the distance estimation value on the vertical axis, and the histogram is approximated by the sum of two normal distributions. A known algorithm such as the maximum likelihood method is used for the approximation. If the approximation error is equal to or greater than a predetermined value, it is determined that the foreground and the background cannot be properly separated, and an image having all pixels of 0 is generated.

【0062】一方、近似誤差が小さい場合、一般に前景
と背景の距離は離れていて、ヒストグラムは図3に示す
ように前景と背景に対応する二つの山をもち、図4に示
すように正規分布で前景、背景各々の距離推定値分布を
大まかに推定することができる。
On the other hand, when the approximation error is small, the distance between the foreground and the background is generally large, and the histogram has two peaks corresponding to the foreground and the background as shown in FIG. 3 and a normal distribution as shown in FIG. Thus, the distance estimation value distribution of each of the foreground and the background can be roughly estimated.

【0063】そこで、前景抽出部111 は各距離推定値分
布に基づいて、前景及び背景が位置している確率が高い
距離推定値の範囲を、各々以下の条件から算出する。 前景範囲:前景の距離推定値分布のピークに対応する距
離推定値の左右±m1σ1以下(σ1は前景距離推定値
分布の標準偏差)、且つ背景の距離推定値分布の値がピ
ーク値のβ1倍以下 背景範囲:背景の距離推定値分布のピークに対応する距
離推定値の左右±m2σ2以下(σ2は背景距離推定値
分布の標準偏差)、且つ前景の距離推定値分布の値がピ
ーク値のβ2倍以下 ここで、β1,β2,m1,m2は適切に設定された閾
値である。例えば、図4の場合には矢印で示した範囲
が、各々の条件を満たす距離推定値の範囲となる。そし
て、前景範囲に入る距離推定値をもつ画素で画素値1,
背景範囲に入る距離推定値を持つ画素で−1,その他の
画素で画素値0をとる画像I7を生成する。
Therefore, the foreground extraction unit 111 calculates the range of the distance estimation value having a high probability that the foreground and the background are located based on the respective distance estimation value distributions under the following conditions. Foreground range: left and right ± m1σ1 or less (σ1 is the standard deviation of the foreground distance estimation value distribution) of the distance estimation value corresponding to the peak of the foreground distance estimation value distribution, and the value of the background distance estimation value distribution is β1 times the peak value. Below background range: ± m2σ2 or less of the left and right of the distance estimation value corresponding to the peak of the background distance estimation value distribution (σ2 is the standard deviation of the background distance estimation value distribution), and the value of the distance estimation value distribution of the foreground is β2 of the peak value. Here, β1, β2, m1, and m2 are appropriately set thresholds. For example, in the case of FIG. 4, the range indicated by the arrow is the range of the distance estimation value satisfying each condition. Then, a pixel having a distance estimation value falling within the foreground range has a pixel value of 1,
An image I7 is generated in which a pixel having a distance estimation value falling within the background range is -1 and other pixels have a pixel value of 0.

【0064】以上の処理の後、生成された画像I7は領
域拡張部112 に出力される。この画像I7において、画
素値1の領域が前景に含まれると判断された領域に対応
する。
After the above processing, the generated image I7 is output to the area expanding section 112. In this image I7, the area of the pixel value 1 corresponds to the area determined to be included in the foreground.

【0065】ここまでの処理と並行して、フォーカス距
離推定部108 において画像メモリ106 内の画像の各画素
で相対的な距離が推定され、画素値が距離推定値である
画像I8が領域拡張部112 に出力される。画像メモリ10
6 内の画像I2とI3は、同一被写体を異なる焦点位置
で撮像したものである。公知の“Depth from defocus”
手法によれば二枚の焦点位置の異なる画像から被写体距
離を推定することができる。本実施の形態では、合焦画
像である画像I2を画像I3と同程度にガウシアンでぼ
かして画像I2′を計算し、三枚の画像各々に輝度成分
を算出した後ラプラシアンガウシアンフィルタを作用さ
せて、エッジ画像E2,E3,E2′を得て、次式
(4)により被写体距離と相関のある画像I8を算出す
る。 I8=(E3−E2)/(E3+E2)×(E2′+E2)/(E2′−E2) ・・・・・・・・・・(4)
In parallel with the processing up to this point, the relative distance of each pixel of the image in the image memory 106 is estimated in the focus distance estimating unit 108, and the image I8 whose pixel value is the estimated distance is used as the area expanding unit. Output to 112. Image memory 10
Images I2 and I3 in FIG. 6 are obtained by capturing the same subject at different focal positions. Known “Depth from defocus”
According to the method, the subject distance can be estimated from two images having different focal positions. In the present embodiment, the image I2 which is a focused image is blurred by Gaussian to the same extent as the image I3 to calculate an image I2 '. After calculating a luminance component for each of the three images, a Laplacian Gaussian filter is applied. , And an edge image E2, E3, E2 ', and an image I8 having a correlation with the subject distance is calculated by the following equation (4). I8 = (E3−E2) / (E3 + E2) × (E2 ′ + E2) / (E2′−E2) (4)

【0066】領域拡張部112 は、画像I6,I7,I8
及びI2が入力されると、前景の実際の輪郭と前景と推
定される領域の輪郭形状が近くなるように、前景と推定
される領域を拡張する。本実施の形態では、ストロボ利
用により得られた前景の候補領域を、色情報とストロボ
利用による距離情報に基づいて拡張していき、補足的に
フォーカス移動により得られた距離情報と画像I7の画
素値を用いて、拡張時のエラーを防止する。領域拡張部
112 における処理のフローを図5に示す。処理フローの
各段階(ステップS1〜S10)の動作は、以下のように
行われる。
The area extension unit 112 is used to generate images I6, I7, I8
And I2 are input, the foreground region is extended so that the actual contour of the foreground and the contour shape of the foreground region are close to each other. In the present embodiment, the foreground candidate area obtained by using the strobe is extended based on the color information and the distance information obtained by using the strobe, and the distance information obtained by the focus movement and the pixels of the image I7 are supplementarily added. Use values to prevent errors during expansion. Area extension
FIG. 5 shows the flow of the processing in 112. The operation of each stage (steps S1 to S10) of the processing flow is performed as follows.

【0067】S1:前景候補領域の輪郭の外側で輪郭に
隣接し、且つ画像I7における画素値が0の画素集合を
取り出しBとする。例えば、図6の(A)の灰色領域
(ドットパターン領域)が前景候補領域401 だとする
と、取り出す画素集合Bは斜線で示した部分402 とな
る。S2以下の処理フローで、画素集合B上でもっとも
前景に含まれる可能性が高い画素がS2〜S10の処理フ
ローで一つの決定され、S12で前景候補領域401 に追加
される。追加後の前景候補領域に対し、再びS1で輪郭
に隣接する画素集合が算出され、S2からの処理フロー
が繰り返される。開始時点では、前景候補領域は画像I
7で画素値1をとる領域(ストロボ利用により前景と判
断された領域)である。また、max という変数を0に初
期化する。変数max は、処理フローS2〜S10で前景に
属する確率が最も高い画素集合B上の画素を選択するの
に用いられる。
S1: A pixel set adjacent to the outline outside the outline of the foreground candidate area and having a pixel value of 0 in the image I7 is taken out as B. For example, if the gray area (dot pattern area) in FIG. 6A is a foreground candidate area 401, a pixel set B to be extracted is a shaded portion 402. In the processing flow of S2 and thereafter, one pixel having the highest possibility of being included in the foreground on the pixel set B is determined by the processing flow of S2 to S10, and is added to the foreground candidate area 401 in S12. For the foreground candidate area after the addition, a pixel set adjacent to the contour is calculated again in S1, and the processing flow from S2 is repeated. At the start, the foreground candidate area is the image I
7 is an area (pixel area determined to be foreground by using a strobe light) having a pixel value of 1. Also, a variable named max is initialized to 0. The variable max is used to select a pixel on the pixel set B having the highest probability of belonging to the foreground in the processing flows S2 to S10.

【0068】S2:画素集合B上の画素を一つづつ取り
出し、S3〜S10までの処理フローを繰り返す。
S2: Pixels on the pixel set B are taken out one by one, and the processing flow from S3 to S10 is repeated.

【0069】S3:画素集合Bから取り出した画素をP
とする。画素Pを中心とした所定サイズ、例えば5×5
の近傍領域403 内で、前景候補領域401 に含まれる画素
集合をIn 、含まれず且つPでない画素の集合をOut と
する。図6の(A)では、矢印で示した画素がP,その
周囲5×5が近傍領域403 である。
S3: The pixels extracted from the pixel set B are P
And A predetermined size centered on the pixel P, for example, 5 × 5
Is a pixel set included in the foreground candidate area 401 in the neighborhood area 403 of In, and a set of pixels not included and not P is Out. In FIG. 6A, the pixel indicated by the arrow is P, and the surrounding area 5 × 5 is the neighboring area 403.

【0070】S4:集合In ,Out 各々に対し、画像I
2上の平均値Avg-in(c) ,Avg-out(c)と、分散Var-in
(c) ,Var-out(c)を算出する。cは三色成分r,g,b
のいずれかを示す。更に、集合In ,Out 各々に対し、
画像I5上の平均値Avg-d-inとAvg-d-out を算出する。
S4: For each of the sets In and Out, the image I
2, the average values Avg-in (c) and Avg-out (c) and the variance Var-in
(c), Var-out (c) is calculated. c is a three-color component r, g, b
Indicates one of Further, for each of the sets In and Out,
The average values Avg-d-in and Avg-d-out on the image I5 are calculated.

【0071】S5:画素Pが集合In ,Out それぞれ属
する確率を算出する。画素Pの画素値を(pr,pg,pb)
とすると、集合In に属する確率Prob-in は、次式(5
a)で表される。 Prob-in =Π・1/{2πVar-in(c) }1/2 ・ exp[−{p(c)−Avg-in(c)}2 /2Var-in(c)] (c=r,g,b) ・・・・・・・・・・・・(5a) 集合Out に属する確率Prob-outは、次式(5b)で表さ
れる。 Prob-out=Π・1/{2πVar-out(c)}1/2 ・ exp[−{p(c)−Avg-out(c)}2 /2Var-out(c)](c=r,g,b) ・・・・・・・・・・・・(5b) 図6の(A)の例では、図6の(B)に集合In ,Out
それぞれのRGB空間での画素値分布を灰色で示し、画
素Pの画素値に対応する点を黒丸で表している。この場
合は、Prob-in >Prob-outであり、画素Pは集合In に
属する確率の方が高い。
S5: Calculate the probability that the pixel P belongs to each of the sets In and Out. The pixel value of pixel P is (pr, pg, pb)
Then, the probability Prob-in belonging to the set In is expressed by the following equation (5)
a). Prob-in = Π · 1 / {2πVar-in (c)} 1/2 · exp [− {p (c) −Avg-in (c)} 2 / 2Var-in (c)] (c = r, g, b) (5a) The probability Prob-out belonging to the set Out is represented by the following equation (5b). Prob-out = Π · 1 / {2πVar-out (c)} 1/2 · exp [− {p (c) −Avg-out (c)} 2 / 2Var-out (c)] (c = r, g, b) (5b) In the example of FIG. 6A, the sets In, Out are shown in FIG.
The pixel value distribution in each RGB space is shown in gray, and points corresponding to the pixel values of the pixels P are shown by black circles. In this case, Prob-in> Prob-out, and the probability that the pixel P belongs to the set In is higher.

【0072】S6:Prob-in >Prob-outなら、画素Pが
前景に属しうると判断してS7に進む。逆なら前景に属
し得ないとしてS2に進み、次の画素集合B上の画素が
取り出される。
S6: If Prob-in> Prob-out, it is determined that the pixel P can belong to the foreground, and the flow advances to S7. On the other hand, the process proceeds to S2 assuming that the pixel cannot belong to the foreground, and the next pixel on the pixel set B is extracted.

【0073】S7:画素Pが前景に属しうる場合、フォ
ーカス移動により得られた距離推定情報を利用して、判
断の信頼性を評価する。画素値が距離推定値である画像
18において、集合In に対応する領域内の画素値の平
均Dist-in ,画素Pに対応する画素の値Dist-Pを算出す
る。
S7: If the pixel P can belong to the foreground, the reliability of the judgment is evaluated using the distance estimation information obtained by the focus movement. In the image 18 whose pixel values are distance estimation values, the average Dist-in of the pixel values in the region corresponding to the set In and the value Dist-P of the pixel corresponding to the pixel P are calculated.

【0074】S8:Dist-in とDist-Pのいずれもが閾値
Td より大きい場合、Dist-in とDist-Pの差の絶対値を
dとする。そうでない場合、Avg-d-inとAvg-d-out の差
の絶対値をdとする。dが閾値Tf より小さい場合はS
9に進む。大きい場合、Pが前景に属するという判断は
間違っていると判断しS2に進む。
S8: If both Dist-in and Dist-P are larger than the threshold value Td, the absolute value of the difference between Dist-in and Dist-P is set to d. Otherwise, let the absolute value of the difference between Avg-d-in and Avg-d-out be d. If d is smaller than threshold value Tf, S
Go to 9. If it is larger, the determination that P belongs to the foreground is determined to be incorrect, and the process proceeds to S2.

【0075】S9:画素Pが前景に含まれる確率Prob-i
n が、画素集合B上でそれまでに調べられた画素が前景
に含まれる確率の最大値max より大きいか否か調べ、大
きければS10,小さければS2に進む。
S9: Probability Prob-i that pixel P is included in the foreground
It is checked whether or not n is larger than the maximum value max of the probability that the pixels examined so far in the pixel set B are included in the foreground. If larger, the process proceeds to S10, and if smaller, the process proceeds to S2.

【0076】S10:max をProb-in で更新し、最大値を
記録した画素を保持する変数maxpをPに更新する。
S10: Update max with Prob-in, and update the variable maxp holding the pixel in which the maximum value is recorded to P.

【0077】S11:画素集合B上の全画素を調べ終わっ
た後、前景に属する確率の最も高かった画素maxpの記録
した最大確率max を所定の閾値Tp と比較し、Tp より
小さい場合は、画素集合B上のどの画素も前景に属する
確率が十分にないとして終了する。大きい場合はS12に
進む。
S11: After examining all the pixels on the pixel set B, the maximum probability max recorded by the pixel maxp having the highest probability of belonging to the foreground is compared with a predetermined threshold value Tp. The process ends because there is not a sufficient probability that any pixel on the set B belongs to the foreground. If it is larger, the process proceeds to S12.

【0078】S12:画素集合B上で前景に属する確率の
最も高かったmaxpをもつ画素を前景候補領域に追加す
る。
S12: The pixel having the highest probability maxp belonging to the foreground in the pixel set B is added to the foreground candidate area.

【0079】この処理フローにより、ストロボ光利用に
より得られた距離推定値分布では前景に属するか背景に
属するか判断できなかった画素、つまり画像I7上で画
素値0を持つ画素が分類される。分類は色の情報と領域
の連続性、フォーカス移動による主にエッジ部の距離推
定値に基づいて行われるので、ストロボ光利用による距
離推定値のみを用いる場合より高い精度で前景領域を抽
出できる。また、フォーカス移動によって得られた距離
推定値は照明むらに影響されないので、照明むらに影響
を受けないで前景候補領域を拡張できる。
According to this processing flow, the pixels for which it cannot be determined whether they belong to the foreground or the background in the distance estimation value distribution obtained by using the strobe light, that is, the pixels having the pixel value 0 on the image I7 are classified. Since the classification is performed mainly based on the color information, the continuity of the area, and the distance estimation value of the edge part due to the focus movement, the foreground area can be extracted with higher accuracy than when only the distance estimation value using the strobe light is used. Further, since the distance estimation value obtained by the focus movement is not affected by the uneven lighting, the foreground candidate area can be expanded without being affected by the uneven lighting.

【0080】上記の処理フローで拡張された前景候補領
域は、領域拡張部112 により前景候補領域で値1,その
他の領域で値0をとるマスク画像として、マスクメモリ
113に書き込まれる。
The foreground candidate area extended in the above processing flow is converted into a mask image having a value of 1 in the foreground candidate area and a value of 0 in other areas by the area expansion unit 112 as a mask image.
Written to 113.

【0081】記録部114 は、マスクメモリ113 へのマス
ク画像の書き込みが完了すると、画像メモリ106 から合
焦位置でストロボなしで得られた画像I2のみを読み出
し、マスク画像と共に、内部の記録媒体に書き込む。
When the writing of the mask image to the mask memory 113 is completed, the recording unit 114 reads out only the image I2 obtained without the flash at the in-focus position from the image memory 106, and stores the image I2 together with the mask image in the internal recording medium. Write.

【0082】以上の動作により、ユーザーがシャッタを
押した段階で、撮像制御部103 により撮像条件を変えて
3枚の画像が画像メモリ106 に読み込まれ、そのうちの
ストロボの有無が異なる2枚の画像に基づいて前景抽出
部111 により前景と判断される前景候補領域が抽出され
る。次に合焦位置の異なる2枚の画像に基づいて、領域
拡張部112 が前景候補領域を拡張して、前景候補領域の
輪郭を実際の前景の輪郭に近づけ、その処理結果の領域
がマスク画像として記録部114 により記録される。3枚
の撮像は連続的に行われるので、ユーザーは前景を抽出
するための撮像を特に意識する必要がなく、記録時も3
枚の画像のうち1枚の画像だけが前景のマスク画像と共
に記録されるので記録媒体を浪費しない。切り抜き処理
においては、面の距離情報を荒く抽出できるストロボ利
用方式により前景に属する領域を大まかに求めた後拡張
していく方法をとっているが、照明むら等に左右されな
いフォーカス移動方式による距離情報によって、面の距
離情報の信頼度を判断しつつ色情報の類似性と組み合わ
せて領域を拡張していくので、各々の方式を単独で用い
た場合より領域抽出の精度が高くなる。しかも、背景と
前景の区別に距離情報を用いているので背景の色が限定
されることもなく、前景と背景の色がごく類似していて
も切り抜きが行える。
With the above operation, when the user presses the shutter, three images are read into the image memory 106 by changing the imaging conditions by the imaging control unit 103, and two images having different strobes are used. The foreground candidate area determined as the foreground is extracted by the foreground extraction unit 111 based on the foreground. Next, based on the two images having different in-focus positions, the area expanding unit 112 expands the foreground candidate area to bring the contour of the foreground candidate area closer to the actual foreground contour, and the processing result area is the mask image. Is recorded by the recording unit 114. Since the three images are taken continuously, the user does not need to be particularly conscious of the imaging for extracting the foreground.
Since only one of the images is recorded together with the foreground mask image, the recording medium is not wasted. In the clipping process, a method of using a strobe light method that can roughly extract the distance information of the surface is used to roughly determine the area belonging to the foreground and then expand it, but the distance information by the focus movement method that is not affected by uneven lighting etc. Thus, since the area is expanded in combination with the similarity of the color information while determining the reliability of the distance information of the surface, the accuracy of the area extraction is higher than when each method is used alone. Moreover, since the distance information is used to distinguish between the background and the foreground, the color of the background is not limited, and clipping can be performed even if the colors of the foreground and the background are very similar.

【0083】また、この実施の形態には様々な変形、変
更が可能である。例えば、領域拡張部112 の領域拡張ア
ルゴリズムは、図5に示した処理フローに特定される必
要はなく、領域拡張法に距離情報の連続性も加味した方
式であればよい。図5に示した処理フローに従う場合で
も、S3で抽出する近傍領域は固定した形ではなく、前
景候補領域の輪郭に沿った形でもよい。また、前景候補
領域の輪郭のみをSnake等の公知手法を用いて拡張して
いき、フォーカス移動方式により検出された距離のエッ
ジに収束するようにコントロールしてもよい。
Various modifications and changes can be made to this embodiment. For example, the area expansion algorithm of the area expansion unit 112 does not need to be specified in the processing flow shown in FIG. 5, and may be any method that takes into account the continuity of distance information in addition to the area expansion method. Even in the case of following the processing flow shown in FIG. 5, the neighboring area extracted in S3 is not limited to a fixed shape, but may be a shape along the contour of the foreground candidate area. Alternatively, only the contour of the foreground candidate area may be extended using a known technique such as Snake, and control may be performed so as to converge to the edge at the distance detected by the focus moving method.

【0084】次に、第2の実施の形態について説明す
る。図7は、第2の実施の形態の構成を示すブロック図
である。この実施の形態に係るデジタルカメラ200 は光
学系201 を備え、光学像はCCD203 に結像する。デジ
タルカメラ200 は他にストロボ202 を備え、光学系201
,ストロボ202 及びCCD203 は撮像制御部206 に制
御されるようになっている。CCD203 は補間部204 を
経て画像メモリ205 に出力する。画像メモリ205 からは
ストロボ画像生成部107 及び反射率推定部109 に出力さ
れる。ストロボ画像生成部107 及び反射率推定部109
は、ストロボ距離推定部110 に出力する。画像メモリ20
5 及びストロボ距離推定部110 は、共に出力端子207 を
経由してPC(パソコン)208 に接続している。PC20
8 はモニタ209及びマウス210 を備え、ユーザーと対話
式の切り抜き作業を行うことができる。その際は、図8
に示す画面でスライダ211a〜211dと切り抜き実行ボタン
211eを使って操作するようになっている。
Next, a second embodiment will be described. FIG. 7 is a block diagram showing a configuration of the second embodiment. The digital camera 200 according to this embodiment includes an optical system 201, and an optical image is formed on a CCD 203. The digital camera 200 further includes a strobe 202 and an optical system 201.
, The strobe 202 and the CCD 203 are controlled by an imaging control unit 206. The CCD 203 outputs to the image memory 205 via the interpolation unit 204. The image is output from the image memory 205 to the flash image generating unit 107 and the reflectance estimating unit 109. Strobe image generator 107 and reflectance estimator 109
Is output to the strobe distance estimation unit 110. Image memory 20
5 and the strobe distance estimating unit 110 are both connected to a PC (personal computer) 208 via an output terminal 207. PC20
8 has a monitor 209 and a mouse 210 so that the user can perform an interactive clipping operation with the user. In that case, FIG.
Slider 211a ~ 211d and cutout execution button on the screen shown in
It is designed to be operated using 211e.

【0085】次に、第2の実施の形態の動作を信号の流
れに沿って説明する。ユーザーが撮影を行うと、撮像制
御部206 はCCD203 からの信号に基づいて適切な露出
条件及びストロボ光量を算出する。そして、ストロボ20
2 及び光学系201 を制御して、ストロボ202 を発光した
状態及び発光しない状態の2種類の撮像条件で撮像を行
う。撮像信号は補間部204 によりカラー画像に変換さ
れ、上記2種の条件で2枚の画像が得られる。得られた
画像を順次画像I11,I12と呼ぶ。添字の数字11,12は
撮像条件を特定するものとする。
Next, the operation of the second embodiment will be described along the flow of signals. When the user performs photographing, the imaging control unit 206 calculates an appropriate exposure condition and a strobe light amount based on a signal from the CCD 203. And strobe 20
2 and the optical system 201 are controlled to perform imaging under two types of imaging conditions: a state in which the strobe 202 emits light and a state in which the strobe 202 does not emit light. The image pickup signal is converted into a color image by the interpolation unit 204, and two images are obtained under the above two conditions. The obtained images are sequentially called images I11 and I12. The subscript numbers 11 and 12 specify the imaging conditions.

【0086】画像I1及びI2は、順次画像メモリ205
に書き込まれる。画像メモリ205 に2枚の画像が書き込
まれた後、ストロボ画像生成部107 は第1の実施の形態
の場合と同様に、ストロボ光のみを照明とする画像を算
出する。算出方法は、ストロボ光の有無による露光量の
違いを補正した後、画像I11から画像I12を減算して得
る。得られた画像をI13とする。そして、画像I13はス
トロボ距離推定部110に、画像I12は出力端子207 に出
力する。
The images I1 and I2 are sequentially stored in the image memory 205.
Is written to. After the two images are written in the image memory 205, the strobe image generation unit 107 calculates an image using only the strobe light as in the case of the first embodiment. The calculation method is obtained by subtracting the image I12 from the image I11 after correcting the difference in the exposure amount due to the presence or absence of the strobe light. Let the obtained image be I13. Then, the image I13 is output to the strobe distance estimating unit 110, and the image I12 is output to the output terminal 207.

【0087】これと同時に、反射率推定部109 は、画像
メモリ205 中のCCD203 の出力画像から被写体反射率
を推定し、各画素の値が被写体反射率と相関のある画像
I14をストロボ距離推定部110 に出力する。画像I14は
画像I12から第1の実施の形態例と全く同じ方法で算出
される。
At the same time, the reflectance estimating unit 109 estimates the subject reflectance from the output image of the CCD 203 in the image memory 205, and converts the image I14 in which the value of each pixel is correlated with the subject reflectance into a strobe distance estimating unit. Output to 110. The image I14 is calculated from the image I12 in exactly the same way as in the first embodiment.

【0088】ストロボ画像生成部107 より画像I13,反
射率推定部109 より画像I14が入力されると、ストロボ
距離推定部110 は被写体距離と単調な関係のある量を画
素値にもつ画像I15を算出し、出力端子207 に出力す
る。本実施の形態では、画像I15は第1の実施の形態同
様に、次式(5)により算出される。 I15=I13/I14 ・・・・・・・・・・・・(5)
When the image I13 is input from the strobe image generating unit 107 and the image I14 is input from the reflectance estimating unit 109, the strobe distance estimating unit 110 calculates an image I15 having a pixel value having a monotonic relationship with the subject distance. Then, the signal is output to the output terminal 207. In the present embodiment, the image I15 is calculated by the following equation (5), as in the first embodiment. I15 = I13 / I14 (5)

【0089】その後、画像I15は距離推定画像として出
力端子207 に出力される。出力端子207 から画像I12,
I15の出力が完了すると、PC208 はモニタ209 上に図
8に示すような画面を表示し、マウス210 を用いユーザ
ーと対話的に処理を進める。図8の図示例では、左側に
通常条件で撮影した画像I12,右側に被写体距離推定値
を画素値とする画像I15が表示されている。画像I15の
右側には、切り抜き処理のためのパラメータ調整部211
の表示がなされる。
Thereafter, the image I15 is output to the output terminal 207 as a distance estimation image. From the output terminal 207, the image I12,
When the output of I15 is completed, the PC 208 displays a screen as shown in FIG. 8 on the monitor 209, and proceeds with the user interactively using the mouse 210. In the example shown in FIG. 8, an image I12 photographed under normal conditions is displayed on the left side, and an image I15 having a subject distance estimated value as a pixel value is displayed on the right side. On the right side of the image I15, a parameter adjustment unit 211 for a clipping process is provided.
Is displayed.

【0090】ユーザーは、図8の画面が表示されると、
切り抜きたい範囲がおおよそ選択できるようにパラメー
タ調整部211 中の距離範囲スライダ211aを調整する。ス
ライダ等の調整はマウスカーソル211fにより行う。この
スライダ211aにより切り出す距離推定値の上限値と下限
値が指定されると、PC208 は画像I15に対して閾値処
理を行い、距離推定値が上限値と下限値の間にある画素
位置で1,その他の位置で0をとる画像I16を生成し、
右側に表示する。同時に、画像I16と画像I12のRGB
各成分の積をとって画像I17とし、左側に表示する。図
9はこの処理を行った結果の一例を示す図である。この
処理が終了後、左側に表示された画像I17の画素値が0
でない領域を初期領域として、色情報と距離推定値に基
づく領域拡張が施される。この拡張の調整を行うため、
ユーザーはパラメータ調整部211の輝度変化閾値スライ
ダ211b及び色相変化閾値スライダ211cを使って輝度に関
する閾値Ty ,色相及び彩度に関する閾値Tc ,並びに
距離変化閾値スライダ211dを用いて距離推定値に関する
閾値Td を指定し、ボタン211eを押して拡張実行を指示
する。領域拡張は、図11に示す処理フロー(ステップS
1〜S10)に従って行われる。
When the screen of FIG. 8 is displayed, the user
The distance range slider 211a in the parameter adjustment unit 211 is adjusted so that the range to be clipped can be roughly selected. Adjustment of the slider and the like is performed by the mouse cursor 211f. When the upper limit value and the lower limit value of the distance estimation value to be cut out are designated by the slider 211a, the PC 208 performs a threshold process on the image I15, and 1 is set at the pixel position where the distance estimation value is between the upper limit value and the lower limit value. Generate an image I16 that takes 0 at other positions,
Display to the right. At the same time, RGB of image I16 and image I12
The product of the components is taken as an image I17, which is displayed on the left. FIG. 9 is a diagram illustrating an example of the result of performing this processing. After this processing is completed, the pixel value of the image I17 displayed on the left is 0
The region expansion based on the color information and the estimated distance value is performed with the region not being the initial region. To adjust for this expansion,
The user uses the luminance change threshold slider 211b and the hue change threshold slider 211c of the parameter adjustment unit 211 to set the threshold Ty for luminance, the threshold Tc for hue and saturation, and the threshold Td for the estimated distance using the distance change threshold slider 211d. Is specified, and an extension execution is instructed by pressing the button 211e. The area expansion is performed by the processing flow shown in FIG.
1 to S10).

【0091】S1:集合Dを、初期領域に属する画素の
集合とする。 S2:集合Dから、D内の画素により形成される領域の
輪郭部に属する画素集合Bを取り出す。集合Uを空集合
とする。 S3:S4からS7のループで、輪郭部画素集合Bの各
画素と同一被写体に含まれる画素集合を取り出す。その
ため、輪郭部画素集合Bの画素が全てS4〜S7の処理
を経たか確認する。全て処理した場合、S8に進む。 S4:Pを輪郭部画素集合B内の未処理の画素とする。
S1: Set D is a set of pixels belonging to the initial area. S2: From the set D, a pixel set B belonging to the contour of the region formed by the pixels in D is extracted. Set U is an empty set. S3: In a loop from S4 to S7, a pixel set included in the same subject as each pixel of the contour part pixel set B is extracted. Therefore, it is checked whether all the pixels of the contour part pixel set B have undergone the processing of S4 to S7. When all the processes have been performed, the process proceeds to S8. S4: Let P be an unprocessed pixel in the contour part pixel set B.

【0092】S5:画素Pと同一被写体に含まれる画素
集合を探索し、Eとする。この処理は公知の画素拡張法
により行われる。まず画素Pの3×3近傍内の各画素Q
について、画素Qとの類似度を評価関数f(P,P,Q)によ
り評価し、画素Pと類似と判断された場合は、同一被写
体に含まれると判断して画素Qを画素集合Eに加える。
次に、新たに画素集合Eに加えた画素Qの各々を中心と
する3×3近傍をとり、その内部の画素Rについて画素
Pとの類似性を評価関数f(P,Q,R)により同様に評価
し、類似と判断された画素を新たに画素集合Eに追加す
る。この処理を、新たに画素集合Eに追加される画素が
なくなるまで繰り返す。評価関数f(P1,P2,P3)は、例え
ば、次のように定義される。 f(P1,P2,P3)=1:|Hue(P1)−Hue(P3)|+|Sat(P
1)−Sat(P3)|<Tc 且つ|L(P3)−L(P2)|<Ty 且つ|Dist(P3)−Dist(P2)|<Td の時 f(P1,P2,P3)=0:その他の時 ここで、P1は画素拡張法を開始した画素、P2は既に
P1と類似と判断された画素、P3はP2の近傍画素で
ある。関数Hue,Sat,Dist は、それぞれ与えられた
画素位置における色相、彩度、距離推定値を表す。この
評価関数に従えば、P3とP1が明るさを無視して色を
比較した場合に小さく、P1からP3にいたる間の輝度
の変化率が小さく、且つP1からP3にいたる間の距離
推定値の変化率も小さい場合に、P1とP3が類似と判
断される。
S5: A pixel set included in the same subject as the pixel P is searched for and set as E. This processing is performed by a known pixel expansion method. First, each pixel Q in the 3 × 3 neighborhood of the pixel P
Is evaluated by the evaluation function f (P, P, Q) for the similarity with the pixel Q. When it is determined that the pixel Q is similar to the pixel P, it is determined that the pixel Q is included in the same subject and the pixel Q is included in the pixel set E. Add.
Next, a 3 × 3 neighborhood centered on each of the pixels Q newly added to the pixel set E is taken, and the similarity between the pixels R inside the pixel R and the pixels P is determined by an evaluation function f (P, Q, R). Pixels evaluated in the same manner and determined to be similar are newly added to the pixel set E. This process is repeated until there are no more pixels to be newly added to the pixel set E. The evaluation function f (P1, P2, P3) is defined, for example, as follows. f (P1, P2, P3) = 1: | Hue (P1) -Hue (P3) | + | Sat (P
1) When −Sat (P3) | <Tc and | L (P3) −L (P2) | <Ty and | Dist (P3) −Dist (P2) | <Td f (P1, P2, P3) = 0 At other times, P1 is a pixel at which the pixel expansion method is started, P2 is a pixel already determined to be similar to P1, and P3 is a pixel near P2. The functions Hue, Sat, and Dist respectively represent the hue, saturation, and distance estimation value at a given pixel position. According to this evaluation function, P3 and P1 are small when comparing colors ignoring brightness, the rate of change in luminance from P1 to P3 is small, and the distance estimation value from P1 to P3. Are small, it is determined that P1 and P3 are similar.

【0093】S6:画素集合Uに、画素集合Eを追加す
る。追加する場合、重複する画素はそのままにしてお
く。 S7:輪郭部画素集合Bから画素Pを除き、S3に戻
る。
S6: The pixel set E is added to the pixel set U. When adding, overlapping pixels are left as they are. S7: The pixel P is removed from the contour portion pixel set B, and the process returns to S3.

【0094】S8:輪郭部画素集合Bの全ての画素を処
理した結果、画素集合UはPの輪郭画素のいずれかと類
似と判断された画素からなる集合となる。図12におい
て、輪郭画素P1〜P4の各々について類似と判断され
た拡張領域をR1〜R4で示した。拡張領域R1〜R4
に含まれる画素は全て画素集合Uに含まれ、複数の拡張
領域に含まれる画素は複数個Uに含まれる。例えば点Q
1は二回、Q2は一回U内に現れる。この個数が多いほ
ど、多くの拡張領域に含まれていることを意味し、より
領域Dと同一被写体に含まれる可能性が高い。このステ
ップでは画素集合U内にN回未満しか現れない画素を信
頼性が低いとして除外し、領域Dと同一被写体に含まれ
る可能性が十分に高い画素のみを画素集合Uに残す。
S8: As a result of processing all the pixels of the contour portion pixel set B, the pixel set U is a set of pixels determined to be similar to any of the contour pixels of P. In FIG. 12, extended regions determined to be similar for each of the outline pixels P1 to P4 are indicated by R1 to R4. Extended areas R1 to R4
Are included in the pixel set U, and the pixels included in the plurality of extended areas are included in the plurality U. For example, point Q
1 appears twice and Q2 appears once in U. The larger the number is, the more included it is in the extended area, and the more likely it is that it is included in the same subject as the area D. In this step, pixels that appear less than N times in the pixel set U are excluded as having low reliability, and only pixels having a sufficiently high possibility of being included in the same subject as the region D are left in the pixel set U.

【0095】S9:画素集合Uに含まれる画素数が0の
とき、これ以上領域拡張できないことを意味するので終
了する。 S10:領域Dに画素集合Uを追加し、S2に戻る。
S9: When the number of pixels included in the pixel set U is 0, it means that the area cannot be expanded any more, and the processing is terminated. S10: Add the pixel set U to the area D, and return to S2.

【0096】この処理を行った後、PC208 は拡張後の
領域Dに含まれる画素の画素値を画像I12における画素
値、含まれない画素の値を特定色に設定した画像を右側
に、左側に拡張結果を表示する。その結果、例えば図10
に示すように、距離推定値による閾値処理だけでは欠落
していた被写体領域が正しく選択される。拡張結果が好
ましくない場合は、パラメータを調整して再実行した
り、一度拡張した結果から再度拡張処理を行うことがで
きる。
After performing this processing, the PC 208 sets the pixel values of the pixels included in the expanded area D to the pixel values in the image I12, and sets the values of the pixels not included to the specific color to the right side and the left side to the left side. Display the extension result. As a result, for example, FIG.
As shown in (1), the missing subject region is correctly selected only by the threshold processing based on the distance estimation value. If the extension result is not preferable, the parameter can be adjusted and re-executed, or the extension process can be performed again from the result of the extension once.

【0097】以上の動作により、ユーザーがシャッタを
押した段階で、撮像制御部206 によりストロボ発光と無
発光の2条件で撮像が行われ、ストロボ距離推定部110
により被写体までの距離に対応する画素値をもつ画像I
15が生成される。この画像I15がPC208 によりモニタ
209 に表示され、使用者が閾値処理のみで被写体の大ま
かな領域を選択することかできるので、色情報を用いた
場合などのように、被写体の主要な領域をいくつもの細
分領域の組み合わせとして選択する煩わしさがなくな
る。大まかな領域の選択後、領域拡張が行われるが、色
情報と被写体距離情報に基づいて拡張を行うのでエラー
が少なく、色情報に関する閾値を緩く設定できるので、
ここでも領域の細分化が防げる。
With the above operation, when the user presses the shutter, the image is taken by the image taking control section 206 under two conditions of strobe light emission and no light emission.
Image I having a pixel value corresponding to the distance to the subject
15 is generated. This image I15 is monitored by PC208
209, and the user can select a rough area of the subject only by threshold processing, so that the main area of the subject is selected as a combination of several sub-areas, such as when color information is used. No more hassle. After selection of a rough area, area expansion is performed, but since expansion is performed based on color information and subject distance information, there are few errors, and the threshold value for color information can be set loosely,
Here too, segmentation of the area can be prevented.

【0098】また、この実施の形態にも様々な変形、変
更が可能である。例えば、距離推定画像閾値処理で大ま
かに被写体領域を含む領域を切り出した後に、この領域
を公知の手法で領域分割するようにしても、領域分割の
時間が短縮され、背景領域に切り抜き領域がはみ出して
いくエラーが低減される。また、特定被写体の領域を切
り抜き以外に、画像全体を領域分割する際にも本発明は
有効である。図11に示した処理フローのS8の説明にお
いて述べた画素拡張法を、適切に開始画素を選んで繰り
返せば、距離情報を利用しない場合よりも破綻の少ない
分割が得られる。開始画素の選択は、例えば色ヒストグ
ラムが大きい色をもつ画素から行う方法等が考えられ
る。
Various modifications and changes can be made to this embodiment. For example, even if a region including the subject region is roughly cut out by the threshold processing of the distance estimation image, and this region is divided into regions by a known method, the time required for the region division is reduced, and the cut-out region extends outside the background region. Errors are reduced. The present invention is also effective when the entire image is divided into regions, other than cutting out the region of the specific subject. If the pixel expansion method described in the description of S8 in the processing flow shown in FIG. 11 is appropriately selected and repeated, a division with less failure can be obtained as compared with a case where distance information is not used. For example, a method of selecting a start pixel from a pixel having a color with a large color histogram can be considered.

【0099】[0099]

【発明の効果】以上実施の形態に基づいて説明したよう
に、請求項1に係る発明によれば、連写撮像により得ら
れた複数画像の被写体の特徴量に基づいて2つの画像領
域が同一被写体に属するか否かを判断するように構成し
ているので、1枚の画像のみを用いる場合より高精度の
判別関数を作成でき、各被写体に対応する領域が精度よ
く生成され、特定被写体の切り抜きを色等の表面状態に
依存することなく安定に行うことができる。また請求項
2に係る発明によれば、連写撮像により得られた複数画
像に基づく2つの画像領域に対する距離推定値分布及び
画素値分布に関する統計量を特徴量として、2つの画像
領域が同一被写体に属するか否かを判断するようにして
いるので、より高精度で判別関数を生成することができ
る。
As described above with reference to the embodiment, according to the first aspect of the present invention, two image areas are the same based on the feature amount of the subject in a plurality of images obtained by continuous shooting. Since it is configured to determine whether or not the image belongs to the subject, a more accurate discriminant function can be created than when only one image is used, the area corresponding to each subject is generated with high accuracy, and the The cutting can be stably performed without depending on the surface state such as the color. According to the second aspect of the present invention, a statistic relating to a distance estimation value distribution and a pixel value distribution with respect to two image regions based on a plurality of images obtained by continuous shooting is used as a feature amount so that the two image regions are the same subject. Is determined, so that the discriminant function can be generated with higher accuracy.

【0100】また、請求項3及び4に係る発明によれ
ば、特徴量の信頼度の評価に応じて信頼できる特徴量を
優先的に判別手段の判断根拠に用いるようにしているの
で、算出した特徴量にエラーがある場合でも、エラーの
程度を評価しエラーのありそうな特徴量は使用されず、
判別手段の誤判定が少なくなり、安定した判別を行うこ
とができる。また請求項5及び6に係る発明によれば、
2つの画像領域を特徴量が特定範囲に属するか否かで分
類することができ、現実の被写体が物理的に一定範囲の
特徴量を有する傾向がある場合に、その性質を反映で
き、より信頼性の高い判別を行うことが可能となる。ま
た請求項7に係る発明によれば、距離分布ヒストグラム
を複数の基本分布の和で近似し、これに基づいて距離範
囲を設定するようにしているので、特に奥行き方向に離
散的にしか被写体が存在しないシーンで、確実に各被写
体の存在する距離範囲を推定することができ、結果的に
切り抜き精度を高くすることが可能となる。
According to the third and fourth aspects of the present invention, since the reliable feature is preferentially used as the basis for the judgment by the discriminating means in accordance with the evaluation of the reliability of the feature. Even if there is an error in the feature value, the degree of the error is evaluated and the feature value that is likely to have an error is not used.
The erroneous determination of the determination means is reduced, and stable determination can be performed. According to the invention according to claims 5 and 6,
The two image regions can be classified based on whether or not the feature amounts belong to a specific range. If a real subject tends to have a feature range in a physically fixed range, the characteristics can be reflected, and more reliable This makes it possible to perform highly accurate determination. According to the seventh aspect of the present invention, the distance distribution histogram is approximated by the sum of a plurality of basic distributions, and the distance range is set based on the distance distribution histogram. In a non-existing scene, the distance range in which each subject exists can be reliably estimated, and as a result, it is possible to increase the cutting accuracy.

【0101】また請求項8に係る発明によれば、複数の
距離推定手段により得られた推定値を信頼度評価手段で
評価し、最も信頼できると判断された距離推定結果を用
いるようにしているので、判別関数の精度を向上させる
ことができる。また請求項9に係る発明によれば、スト
ロボを発光する条件及び発光しない条件で連写を行い、
2枚の連写画像の差分からストロボ光のみで照明された
画像を得て、これを補正して距離推定値を得るようにし
ているので、極めて高精度の距離推定値を得ることがで
きる。また請求項10に係る発明によれば、ストロボ光の
みで照明された画像の輝度を、ストロボを発光しない条
件で得られた画像の輝度に反比例する補正係数を乗じて
補正し距離推定値を得るようにしているので、例えば距
離推定時に人物被写体の服の色の影響を緩和することが
できる。
According to the invention of claim 8, the estimated values obtained by the plurality of distance estimating means are evaluated by the reliability evaluation means, and the distance estimation result determined to be most reliable is used. Therefore, the accuracy of the discriminant function can be improved. According to the ninth aspect of the present invention, continuous shooting is performed under the condition that the strobe emits light and the condition that the strobe does not emit light,
Since an image illuminated with only the strobe light is obtained from the difference between the two continuous shot images and corrected to obtain a distance estimation value, an extremely accurate distance estimation value can be obtained. According to the tenth aspect, the luminance of an image illuminated only with strobe light is corrected by multiplying by a correction coefficient inversely proportional to the luminance of an image obtained under a condition in which no strobe light is emitted to obtain a distance estimation value. Thus, the influence of the color of the clothes of the human subject can be reduced, for example, when estimating the distance.

【0102】また請求項11に係る発明によれば、合焦位
置をずらして連写を行い、焦点位置の異なる連写画像か
ら距離推定値を得るようにしているので、簡便な方法で
エッジ部分の距離推定が可能となり、ストロボ利用の場
合と異なり照射むら等の影響を受けないようにすること
ができる。また請求項12に係る発明によれば、2つの重
複する画像領域に対し、重複領域とその他の領域とで輝
度及び距離推定値の変化が連続的であり、且つ色相及び
彩度の変化量が所定の閾値内にある場合に限り、2つの
画像領域を同一被写体に属すると判断するように構成さ
れているので、同一被写体中の同一素材の2つの画像領
域を別の被写体に属すると判断する可能性を低くするこ
とができる。また請求項13に係る発明によれば、距離判
別手段により互いに同一被写体に属すると判断された画
素からなる連結領域を基本領域として生成し、連結領域
の輪郭上の複数個の画素と同一の被写体に属すると判断
された画素を抽出して基本領域に追加して領域を拡張
し、高精度の判断に基づいて拡張して行くようにしてい
るので、距離情報にエラーが含まれ基本領域の輪郭が被
写体の輪郭と一致の場合に対処でき、しかも基本領域の
多くの輪郭画素と同一被写体と判断された外部画素のみ
を用いて拡張して行くようにしているので、被写体の輪
郭をはみ出して拡張が起こる危険性を緩和することがで
きる。
According to the eleventh aspect of the present invention, the continuous shooting is performed while shifting the focus position, and the distance estimation value is obtained from the continuous shot images having different focus positions. Can be estimated, and unlike the case of using a strobe, it is possible to prevent the influence of uneven irradiation or the like. Further, according to the invention according to claim 12, for two overlapping image regions, the change of the luminance and the distance estimation value between the overlapping region and the other region is continuous, and the change amount of the hue and the saturation is small. Since it is configured to determine that two image regions belong to the same subject only when it is within a predetermined threshold, it is determined that two image regions of the same material in the same subject belong to another subject. Possibility can be reduced. According to the invention according to claim 13, a connected area composed of pixels determined to belong to the same subject by the distance determining means is generated as a basic area, and the same subject as a plurality of pixels on the outline of the connected area is generated. Pixels determined to belong to are extracted and added to the basic area to extend the area, and the expansion is performed based on high-precision determination. Can be dealt with when the object matches the contour of the subject. In addition, many contour pixels in the basic area are extended using only external pixels judged to be the same subject. The risk of occurrence can be reduced.

【0103】また請求項14に係る発明によれば、基本領
域の外接画素のうち基本領域に属する確率が最も高い画
素を新たに追加して基本領域を拡張して行くようにして
いるので、基本領域に同一被写体に属さない画素が追加
されて基本領域が同一被写体に属する画素の領域から大
きくはみ出したりするなどの破綻の発生の可能性を低減
することができる。また請求項15に係る発明によれば、
外接画素が基本領域に含まれるか否かに加えて外接画素
が近傍の基本領域外部に含まれるか否かを判断して、外
接画素が基本領域に含まれる確率を算出するようにして
いるので、基本領域の内外で色や距離情報の違いが少な
く判断の難しい部分で、外接画素が基本領域に含まれる
確率が過大評価されることを防止し、精度のよい判定が
可能となる。また請求項16に係る発明によれば、被写体
特徴推定手段により設定された距離推定値の範囲のうち
最も近い範囲を特定し、その範囲に対応する被写体を前
景被写体とみなして選択するようにしているので、ポー
トレートなど前景を切り抜く作業を自動化することが可
能となる。また請求項17に係る発明によれば、前景被写
体とみなして選択した領域を表すマスク画像を形成し、
連写により得られた複数枚の画像から標準的な撮像条件
で得られた画像だけを選択してマスク画像と共に出力さ
せるようにしているので、必要十分なデータのみの出力
により、出力先の記憶容量などの浪費を避けることがで
きる。
According to the fourteenth aspect of the present invention, the basic region is expanded by newly adding a pixel having the highest probability of belonging to the basic region among the circumscribed pixels of the basic region. Pixels that do not belong to the same subject are added to the region, so that the possibility of occurrence of a failure such as the basic region greatly protruding from the region of pixels belonging to the same subject can be reduced. According to the invention of claim 15,
Since it is determined whether or not the circumscribing pixel is included in the basic region and whether or not the circumscribing pixel is included outside the neighboring basic region, the probability that the circumscribing pixel is included in the basic region is calculated. In addition, it is possible to prevent the probability that a circumscribing pixel is included in the basic region from being overestimated in a portion where there is little difference in color and distance information inside and outside the basic region, and perform accurate determination. According to the invention according to claim 16, the closest range is specified from the range of the distance estimation value set by the subject feature estimating means, and a subject corresponding to the range is selected as a foreground subject. This makes it possible to automate the work of cutting out the foreground such as portraits. According to the invention according to claim 17, a mask image representing a region selected as a foreground subject is formed,
Since only images obtained under the standard imaging conditions are selected from a plurality of images obtained by continuous shooting and output together with the mask image, output of only necessary and sufficient data enables storage of an output destination. Waste of capacity and the like can be avoided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る画像処理装置の第1の実施の形態
に係るデジタルカメラの構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a digital camera according to a first embodiment of an image processing apparatus according to the present invention.

【図2】ストロボ光又はストロボ以外の光源で被写体を
照射して撮像する態様を示す図である。
FIG. 2 is a diagram illustrating a mode in which a subject is illuminated with a strobe light or a light source other than a strobe to capture an image.

【図3】撮影画像から得られる画像I6における被写体
距離推定値分布を示すヒストグラムである。
FIG. 3 is a histogram showing a subject distance estimated value distribution in an image I6 obtained from a captured image.

【図4】前景及び背景の距離推定値分布を示す図であ
る。
FIG. 4 is a diagram showing a distance estimation value distribution of a foreground and a background.

【図5】図1に示した第1の実施の形態における領域拡
張部の動作を説明するための処理フローチャートであ
る。
FIG. 5 is a processing flowchart for explaining the operation of an area extension unit in the first embodiment shown in FIG. 1;

【図6】撮影画像の距離推定値に基づく画像I7,及び
前景候補領域に含まれる画素集合In ,含まれない画素
集合OutのRGB空間での画素値分布を示す図である。
FIG. 6 is a diagram showing a pixel value distribution in an RGB space of an image I7 based on a distance estimation value of a captured image, a pixel set In included in a foreground candidate area, and a pixel set Out not included in a foreground candidate area.

【図7】第2の実施の形態を示すブロック図である。FIG. 7 is a block diagram showing a second embodiment.

【図8】図7に示した第2の実施の形態におけるモニタ
に、通常条件で撮影した画像I12,及び被写体距離推定
値を画素値とする画像I15を示した態様を示す図であ
る。
FIG. 8 is a diagram showing a mode in which an image I12 captured under normal conditions and an image I15 having a subject distance estimated value as a pixel value are shown on the monitor in the second embodiment shown in FIG. 7;

【図9】画像I15に対して閾値処理を行った画像I16,
及び画像I16と画像I12のRGB各成分の積をとった画
像I17を表示したモニタの態様を示す図である。
FIG. 9 shows an image I16 obtained by performing threshold processing on an image I15,
FIG. 14 is a diagram showing a mode of a monitor displaying an image I17 obtained by multiplying RGB components of an image I16 and an image I12.

【図10】画像I16の拡張処理結果、及び拡張処理後の領
域Dに含まれる画素の画素値を画像I12における画素値
に、含まれない画素の画素値を特定色に設定した画像を
表示したモニタの態様を示す図である。
FIG. 10 shows an image obtained by setting an expansion result of an image I16, a pixel value of a pixel included in a region D after the expansion processing to a pixel value of an image I12, and a pixel value of a pixel not included to a specific color. It is a figure which shows the aspect of a monitor.

【図11】第2の実施の形態における領域拡張の処理動作
を説明するためのフローチャートである。
FIG. 11 is a flowchart illustrating a processing operation of area expansion according to the second embodiment.

【図12】各輪郭画素の拡張領域を示す図である。FIG. 12 is a diagram illustrating an extended area of each contour pixel.

【符号の説明】[Explanation of symbols]

100 デジタルカメラ 101 光学系 102 ストロボ 103 撮像制御部 104 CCD 105 補間部 106 画像メモリ 107 ストロボ画像生成部 108 フォーカス距離推定部 109 反射率推定部 110 ストロボ距離推定部 111 前景抽出部 112 領域拡張部 113 マスクメモリ 114 記録部 200 デジタルカメラ 201 光学系 202 ストロボ 203 CCD 204 補間部 205 画像メモリ 206 撮像制御部 207 出力端子 208 PC 209 モニタ 210 マウス 211 パラメータ調整部 211a〜211d スライダ 211e ボタン 301 被写体 302 カメラ 303 カメラ光軸 304 ストロボ光 305 ストロボ光以外の光源 100 Digital camera 101 Optical system 102 Strobe 103 Image capture controller 104 CCD 105 Interpolator 106 Image memory 107 Strobe image generator 108 Focus distance estimator 109 Reflectivity estimator 110 Strobe distance estimator 111 Foreground extractor 112 Area expander 113 Mask Memory 114 Recording unit 200 Digital camera 201 Optical system 202 Strobe 203 CCD 204 Interpolation unit 205 Image memory 206 Imaging control unit 207 Output terminal 208 PC 209 Monitor 210 Mouse 211 Parameter adjustment unit 211a to 211d Slider 211e button 301 Subject 302 Camera 303 Camera light Axis 304 Strobe light 305 Light source other than strobe light

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA20 CA01 CA08 CA12 CB01 CB08 CB12 DA08 DB02 DB06 DB09 DC01 DC23 DC30 5C022 AA13 AB15 AB19 AB28 AB68 AC01 AC32 AC42 AC52 AC54 5C076 AA01 AA02 AA13 BA01 BA06 CA10 5C077 LL16 MP08 PP27 PP32 PP35 PP47 PP58 PQ08 PQ19 SS01 SS07 TT09  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) 5B057 AA20 CA01 CA08 CA12 CB01 CB08 CB12 DA08 DB02 DB06 DB09 DC01 DC23 DC30 5C022 AA13 AB15 AB19 AB28 AB68 AC01 AC32 AC42 AC52 AC54 5C076 AA01 AA02 AA13 BA01 BA06 CA10 5C027 PP PP35 PP47 PP58 PQ08 PQ19 SS01 SS07 TT09

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 撮像条件を変えて連写を行うことにより
複数枚の画像を得る撮像手段と、二つの画像領域各々に
おいて前記複数枚画像の画素値から被写体に関連する特
徴量を算出し、該特徴量に基づいて二つの画像領域が同
一被写体に属するか否かの判断を行う判別関数を生成す
る判別手段と、該判別手段の判断に基づいて同一被写体
に属する画素からなる領域を生成する領域生成手段と、
所定の条件を満足する被写体に対応する前記領域生成手
段の生成結果を選択する領域選択手段とを有することを
特徴とする画像処理装置。
An imaging unit that obtains a plurality of images by performing continuous shooting while changing imaging conditions; and calculating a feature amount related to a subject from pixel values of the plurality of images in each of two image regions; Determining means for generating a determination function for determining whether two image areas belong to the same subject based on the feature amount; and generating an area including pixels belonging to the same subject based on the determination by the determination means. Region generating means;
An image processing apparatus comprising: an area selecting unit that selects a generation result of the area generating unit corresponding to a subject satisfying a predetermined condition.
【請求項2】 撮像条件を変えて連写を行うことにより
複数枚の画像を得る撮像手段と、前記複数枚の画像に基
づいて、各画素において被写体までの距離に関連する推
定値を得る距離推定手段と、二つの画像領域に対して各
々の内部の距離推定値分布及び画素値分布に関する統計
量を特徴量として算出し、該特徴量に基づいて二つの画
像領域が同一被写体に属するか否かの判断を行う判別関
数を生成する判別手段と、該判別手段の判断に基づいて
同一被写体に属する画素からなる領域を生成する領域生
成手段と、所定の条件を満足する被写体に対応する前記
領域生成手段の生成結果を選択する領域選択手段とを有
することを特徴とする画像処理装置。
2. An imaging unit for obtaining a plurality of images by performing continuous shooting while changing imaging conditions, and a distance for obtaining an estimated value related to a distance to a subject in each pixel based on the plurality of images. Estimating means for calculating, as a feature amount, a statistic regarding a distance estimation value distribution and a pixel value distribution inside each of the two image regions, and determining whether the two image regions belong to the same subject based on the feature amount. Discriminating means for generating a discriminant function for judging whether or not, an area generating means for generating an area consisting of pixels belonging to the same subject based on the judgment of the discriminating means, and an area corresponding to a subject satisfying a predetermined condition An image processing apparatus comprising: an area selection unit that selects a generation result of a generation unit.
【請求項3】 前記判別手段は、前記特徴量の信頼度を
評価する信頼度評価手段を有し、該信頼度評価手段の評
価に応じて同一被写体か否かの判断に用いる前記特徴量
の優先度を決定するように構成されていることを特徴と
する請求項1に係る画像処理装置。
3. The method according to claim 1, wherein the determining unit includes a reliability evaluation unit that evaluates the reliability of the feature amount, and determines whether or not the feature amount is the same subject according to the evaluation of the reliability evaluation unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is configured to determine a priority.
【請求項4】 前記判別手段は、前記特徴量の信頼度を
評価する信頼度評価手段を有し、該信頼度評価手段の評
価に応じて同一被写体か否かの判断に用いる前記特徴量
の優先度を決定するように構成されていることを特徴と
する請求項2に係る画像処理装置。
4. The method according to claim 1, wherein the determining unit includes a reliability evaluation unit that evaluates the reliability of the feature amount, and determines whether or not the feature amount is the same subject according to the evaluation of the reliability evaluation unit. 3. The image processing apparatus according to claim 2, wherein the image processing apparatus is configured to determine a priority.
【請求項5】 前記判別手段は、前記特徴量が被写体に
対応する画像領域で取りうる範囲を推定する被写体特徴
推定手段を有し、二つの画像領域各々の特徴量が属する
範囲が同一の場合に二つの画像領域が同一被写体に属す
ると判断するように構成されていることを特徴とする請
求項1に係る画像処理装置。
5. The image processing apparatus according to claim 1, wherein the determining unit includes a subject feature estimating unit that estimates a range in which the feature amount can be taken in an image region corresponding to the subject. The image processing apparatus according to claim 1, wherein the image processing apparatus is configured to determine that two image areas belong to the same subject.
【請求項6】 前記判別手段は、前記特徴量が被写体に
対応する画像領域で取りうる範囲を推定する被写体特徴
推定手段を有し、二つの画像領域各々の特徴量が属する
範囲が同一の場合に二つの画像領域が同一被写体に属す
ると判断するように構成されていることを特徴とする請
求項2に係る画像処理装置。
6. The image processing apparatus according to claim 1, wherein the determining unit includes a subject feature estimating unit configured to estimate a range in which the feature amount can be taken in an image region corresponding to the subject. The image processing apparatus according to claim 2, wherein the image processing apparatus is configured to determine that two image areas belong to the same subject.
【請求項7】 前記被写体特徴推定手段は、画像の所定
領域内の距離推定値のヒストグラムを所定数の基本分布
の和で近似し、各基本分布が所定の閾値以上の値をもつ
範囲を各被写体が占める距離推定値の範囲とするように
構成されていることを特徴とする請求項6に係る画像処
理装置。
7. The object feature estimating means approximates a histogram of distance estimation values in a predetermined area of an image by a sum of a predetermined number of basic distributions, and determines a range in which each basic distribution has a value equal to or more than a predetermined threshold value. 7. The image processing apparatus according to claim 6, wherein the image processing apparatus is configured to set a range of a distance estimation value occupied by a subject.
【請求項8】 前記距離推定手段を複数備え、前記判別
手段は各画素において複数の距離推定手段による距離推
定結果のうち前記信頼度評価手段に最も信頼できると判
断される距離推定値を優先して用いるように構成されて
いることを特徴とする請求項4に係る画像処理装置。
8. A plurality of the distance estimating means, wherein the discriminating means gives priority to a distance estimation value determined to be most reliable by the reliability evaluation means among the distance estimation results of the plurality of distance estimating means in each pixel. The image processing apparatus according to claim 4, wherein the image processing apparatus is configured to be used.
【請求項9】 前記撮像手段はストロボを発光する条件
及び発光しない条件で連写を行うように構成され、前記
距離推定手段は、二枚の連写画像の差分からストロボ光
のみで照明された画像を得る差分手段と、前記ストロボ
光のみで照明された画像を補正して距離推定値を得るス
トロボ距離推定手段とを有することを特徴とする請求項
2に係る画像処理装置。
9. The image capturing means is configured to perform continuous shooting under a condition where a strobe light is emitted and a condition where no flash light is emitted, and the distance estimating means is illuminated only with a strobe light based on a difference between two continuous shot images. 3. The image processing apparatus according to claim 2, further comprising: a difference unit that obtains an image; and a strobe distance estimation unit that obtains a distance estimation value by correcting an image illuminated only by the strobe light.
【請求項10】 前記ストロボ距離推定手段は、前記スト
ロボ光のみで照明された画像の輝度を、ストロボを発光
しない条件で得られた画像の輝度に反比例する補正係数
を乗じて補正することにより距離推定値を得るように構
成されていることを特徴とする請求項9に係る画像処理
装置。
10. The strobe distance estimating means corrects the distance by multiplying a luminance of an image illuminated only by the strobe light by a correction coefficient inversely proportional to a luminance of an image obtained under a condition in which the strobe light is not emitted. The image processing apparatus according to claim 9, wherein the image processing apparatus is configured to obtain an estimated value.
【請求項11】 前記撮像手段は合焦位置をずらして連写
を行うように構成され、前記距離推定手段は、焦点位置
の異なる連写画像から距離推定値を得るフォーカス距離
推定手段を有することを特徴とする請求項2に係る画像
処理装置。
11. The image capturing unit is configured to perform continuous shooting while shifting a focus position, and the distance estimating unit includes a focus distance estimating unit that obtains a distance estimated value from continuously shot images having different focal positions. The image processing apparatus according to claim 2, wherein:
【請求項12】 前記判別手段は、二つの重複する画像領
域に対し、重複領域とその他の領域とで輝度及び距離推
定値の変化が連続的であり、且つ色相及び彩度の変化量
が所定の閾値内にある場合に限り、二つの画像領域を同
一被写体に属すると判断するように構成されていること
を特徴とする請求項2に係る画像処理装置。
12. The determining unit according to claim 2, wherein, for two overlapping image regions, a change in luminance and a distance estimation value between the overlap region and another region is continuous, and a change amount of hue and saturation is predetermined. The image processing apparatus according to claim 2, wherein the image processing apparatus is configured to determine that two image areas belong to the same subject only when the values are within the threshold value.
【請求項13】 前記領域生成手段は、前記判別手段によ
り互いに同一被写体に属すると判断された画素からなる
連結領域を基本領域として生成する基本領域生成手段
と、前記判別手段により前記各連結領域の輪郭上の複数
個の画素と同一の被写体に属すると判断された画素を抽
出して前記基本領域に追加する領域拡張手段とを有する
ことを特徴とする請求項2に係る画像処理装置。
13. A basic region generating unit configured to generate, as a basic region, a connected region including pixels determined to belong to the same subject by the determining unit, and a region generating unit configured to generate each of the connected regions by the determining unit. 3. The image processing apparatus according to claim 2, further comprising an area expanding unit that extracts a pixel determined to belong to the same subject as a plurality of pixels on the contour and adds the extracted pixel to the basic area.
【請求項14】 前記領域生成手段は、同一被写体に属す
ると判断された画素からなる基本領域の外部に隣接する
外接画素を抽出する外接画素抽出手段と、該外接画素抽
出手段により抽出された各外接画素が基本領域に属する
確率を評価する内外判定手段を有し、該内外判定手段に
より最も確率が高いと評価された外接画素を新たに基本
領域に付け加えるように構成されていることを特徴とす
る請求項1又は2に係る画像処理装置。
14. The circumscribing pixel extracting means for extracting circumscribing pixels adjacent to the outside of a basic area composed of pixels determined to belong to the same subject, and each of the circumscribing pixel extracting means The circumscribing pixel has inside and outside determining means for evaluating the probability that the pixel belongs to the basic region, and the circumscribing pixel evaluated as having the highest probability by the inside and outside determining means is configured to be newly added to the basic region. The image processing device according to claim 1.
【請求項15】 前記内外判定手段は、外接画素近傍で基
本領域内部に属する画素集合と外接画素自身の二領域に
対する前記判別手段の判別結果、及び外接画素近傍で基
本領域外部に属する画素集合と外接画素自身の二領域に
対する前記判別手段の判別結果の双方に基づいて、外接
画素が基本領域に属する確率を算出するように構成され
ていることを特徴とする請求項14に係る画像処理装置。
15. The inside / outside determination unit includes a determination result of the determination unit for a pixel set belonging to the inside of the basic region near the circumscribed pixel and two regions of the circumscribed pixel itself, and a pixel set belonging to the outside of the basic region near the circumscribed pixel. 15. The image processing device according to claim 14, wherein the image processing device according to claim 14, wherein a probability that the circumscribing pixel belongs to the basic region is calculated based on both of the determination results of the determining unit for the two regions of the circumscribing pixel itself.
【請求項16】 前記領域選択手段は、前記領域生成手段
により生成される領域のうち、前記被写体特徴推定手段
により設定された距離推定値の範囲のうち最も近い範囲
に対応する被写体に対応した領域を選択するように構成
されていることを特徴とする請求項7に係る画像処理装
置。
16. The region selecting unit, wherein the region corresponding to a subject corresponding to the closest range among the range of the distance estimation value set by the subject feature estimating unit among the regions generated by the region generating unit. The image processing apparatus according to claim 7, wherein the image processing apparatus is configured to select:
【請求項17】 前記領域選択手段は、選択した領域を表
すマスク画像を形成するマスク画像生成手段を有し、前
記撮像手段において得られた複数枚画像の中から標準的
な撮像条件で得られた画像を選択してマスク画像と共に
出力するように構成されていることを特徴とする請求項
7に係る画像処理装置。
17. The image processing apparatus according to claim 1, wherein the area selection unit includes a mask image generation unit that forms a mask image representing the selected area, and is obtained under a standard imaging condition from a plurality of images obtained by the imaging unit. 8. The image processing apparatus according to claim 7, wherein the image processing apparatus is configured to select the selected image and output the selected image together with the mask image.
JP2000169878A 2000-06-07 2000-06-07 Image processing unit Pending JP2001352440A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000169878A JP2001352440A (en) 2000-06-07 2000-06-07 Image processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000169878A JP2001352440A (en) 2000-06-07 2000-06-07 Image processing unit

Publications (2)

Publication Number Publication Date
JP2001352440A true JP2001352440A (en) 2001-12-21
JP2001352440A5 JP2001352440A5 (en) 2007-07-19

Family

ID=18672670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000169878A Pending JP2001352440A (en) 2000-06-07 2000-06-07 Image processing unit

Country Status (1)

Country Link
JP (1) JP2001352440A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009050841A1 (en) * 2007-10-17 2009-04-23 Nikon Corporation Focusing measurement device, focusing measurement method, and program
JP2009098436A (en) * 2007-10-17 2009-05-07 Nikon Corp Focusing measurement device, method of focusing measurement and program
JP2009267436A (en) * 2007-07-31 2009-11-12 Panasonic Corp Imaging apparatus, imaging method, program, recording medium, and integrated circuit
JP2010016546A (en) * 2008-07-02 2010-01-21 Nikon Corp Imaging device
JP2015040941A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Image-capturing device, control method therefor, and program
JP2015089588A (en) * 2013-11-05 2015-05-11 ファナック株式会社 Method and apparatus for taking out article placed in three-dimensional space by using robot
JP2015142370A (en) * 2014-01-30 2015-08-03 キヤノン株式会社 Image processing apparatus, imaging device, control method for those, program, and recording medium
KR101611308B1 (en) 2014-11-14 2016-04-26 엘지전자 주식회사 Method of image taking
WO2019239715A1 (en) * 2018-06-11 2019-12-19 富士フイルム株式会社 Imaging device, imaging method, and program
WO2021166690A1 (en) * 2020-02-19 2021-08-26 ソニーグループ株式会社 Information processing device and method, and program

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009267436A (en) * 2007-07-31 2009-11-12 Panasonic Corp Imaging apparatus, imaging method, program, recording medium, and integrated circuit
US8106954B2 (en) 2007-07-31 2012-01-31 Panasonic Corporation Imaging apparatus and method that reduces illumination variations by converting a luminance value of a target pixel depending on an average luminance value of pixels in the vicinity of the target pixel
WO2009050841A1 (en) * 2007-10-17 2009-04-23 Nikon Corporation Focusing measurement device, focusing measurement method, and program
JP2009098436A (en) * 2007-10-17 2009-05-07 Nikon Corp Focusing measurement device, method of focusing measurement and program
US8558942B2 (en) 2007-10-17 2013-10-15 Nikon Corporation Focusing measurement device, focusing measurement method, and program
JP2010016546A (en) * 2008-07-02 2010-01-21 Nikon Corp Imaging device
JP2015040941A (en) * 2013-08-21 2015-03-02 キヤノン株式会社 Image-capturing device, control method therefor, and program
CN104608150A (en) * 2013-11-05 2015-05-13 发那科株式会社 Apparatus and method for picking up article disposed in three-dimensional space using robot
JP2015089588A (en) * 2013-11-05 2015-05-11 ファナック株式会社 Method and apparatus for taking out article placed in three-dimensional space by using robot
US9503704B2 (en) 2013-11-05 2016-11-22 Fanuc Corporation Apparatus and method for picking up article disposed in three-dimensional space using robot
JP2015142370A (en) * 2014-01-30 2015-08-03 キヤノン株式会社 Image processing apparatus, imaging device, control method for those, program, and recording medium
KR101611308B1 (en) 2014-11-14 2016-04-26 엘지전자 주식회사 Method of image taking
WO2019239715A1 (en) * 2018-06-11 2019-12-19 富士フイルム株式会社 Imaging device, imaging method, and program
JP6851551B2 (en) * 2018-06-11 2021-03-31 富士フイルム株式会社 Imaging device, imaging method, and program
JPWO2019239715A1 (en) * 2018-06-11 2021-04-22 富士フイルム株式会社 Imaging device, imaging method, and program
WO2021166690A1 (en) * 2020-02-19 2021-08-26 ソニーグループ株式会社 Information processing device and method, and program

Similar Documents

Publication Publication Date Title
JP2856229B2 (en) Image clipping point detection method
US9684966B2 (en) Foreground / background separation in digital images
US7174034B2 (en) Redeye reduction of digital images
US8170350B2 (en) Foreground/background segmentation in digital images
EP1918872B1 (en) Image segmentation method and system
US6859565B2 (en) Method and apparatus for the removal of flash artifacts
US7602417B2 (en) Image processing method, imaging apparatus, and storage medium storing control program of image processing method executable by computer
US8031941B2 (en) Image display apparatus, image display method, and image display program
JP4078334B2 (en) Image processing apparatus and image processing method
US20210281748A1 (en) Information processing apparatus
US20050169555A1 (en) Image processing apparatus and method, and computer program
JP2004512595A (en) Method for automatically or semi-automatically converting digital image data to provide a desired image appearance
CN105825494A (en) Image processing method and mobile terminal
JP2001186325A (en) Method and device for processing picture, recording medium and transmitting medium
JP2007128453A (en) Image processing method and device for it
JP2001352440A (en) Image processing unit
JP7387261B2 (en) Information processing device, information processing method and program
JP3510040B2 (en) Image processing method
JPH1021408A (en) Device and method for extracting image
JPH10320566A (en) Picture processor, picture processing method, and storage medium storing the same method
EP1286539A1 (en) Camera control
JP2007048108A (en) Image evaluation system, image evaluation method and image evaluation program
JP3709656B2 (en) Image processing device
EP1686531B1 (en) A method, a software product and an electronic device for generating an image composition
JPH10155110A (en) Image pickup method, device and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090526