JP2002232777A - Imaging system - Google Patents

Imaging system

Info

Publication number
JP2002232777A
JP2002232777A JP2001029959A JP2001029959A JP2002232777A JP 2002232777 A JP2002232777 A JP 2002232777A JP 2001029959 A JP2001029959 A JP 2001029959A JP 2001029959 A JP2001029959 A JP 2001029959A JP 2002232777 A JP2002232777 A JP 2002232777A
Authority
JP
Japan
Prior art keywords
image
area
unit
main subject
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001029959A
Other languages
Japanese (ja)
Inventor
Takeo Tsuruoka
建夫 鶴岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2001029959A priority Critical patent/JP2002232777A/en
Publication of JP2002232777A publication Critical patent/JP2002232777A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an imaging system capable of imparting a suitable gray- scale width to a main object in an image regardless of an area and a position of the object. SOLUTION: In an imaging system generating one image with wide dynamic range from more than one image imaged at different exposures, the system comprises an estimation part 14 for main object range to assume a main object range among images from a focus-locked focusing detecting range, a suitable exposure extracting part 13 to extract a suitable exposure range based on the level of an image signal image-by-image among a group of the images, a conversion characteristic calculation part 15 to execute a gray-scale correction to deliver the gray-scale width mainly to the assumed main object range for the extracted suitable exposure range, a brightness corrective part 16, a color- difference corrective part 17, a Y/C combining part 18 and an image combining par 20 to generate one image with wide dynamic range by combining the suitable exposure range of each image executed the gray-scale correction through the parts 15-18.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、露光量の異なる複
数の画像を合成することにより得られる広ダイナミック
レンジ画像を階調圧縮して出力する撮像システム、また
は一の撮影画像のダイナミックレンジを階調圧縮して出
力する撮像システムに関するものであり、特に、主要被
写体に割り当てる階調幅を適切に制御することにより高
画質な出力画像を得る撮像システムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup system for gradation-compressing a wide dynamic range image obtained by synthesizing a plurality of images having different exposure amounts and outputting the image, or a method for increasing the dynamic range of one photographed image. More specifically, the present invention relates to an imaging system that obtains a high-quality output image by appropriately controlling a gradation width assigned to a main subject.

【0002】[0002]

【従来の技術】被写体を電子的に撮像する撮像システム
は、従来より種々のものが提案されており、例えば電子
カメラが一例として挙げられる。
2. Description of the Related Art Various imaging systems for electronically capturing an image of a subject have been proposed, and an electronic camera is an example.

【0003】このような電子カメラに用いられている一
般的なCCD撮像素子は、階調に関するダイナミックレ
ンジが、従来の銀塩カメラに使用されている銀塩フィル
ムに比べて狭いという特性があるために、明暗差の大き
い被写体を撮像した場合、例えば炎天下における日向と
日陰を同時に撮像した場合に、何れか一方が適切な露光
となるように撮像すると、他方は黒つぶれするかまたは
白飛びした画像となってしまうことがある。
A general CCD image pickup device used in such an electronic camera has a characteristic that a dynamic range relating to gradation is narrower than a silver halide film used in a conventional silver halide camera. In the case where an image of a subject having a large difference in contrast is taken, for example, when the sun and the shade under the scorching sun are imaged simultaneously, if one of them is imaged so as to have an appropriate exposure, the other is an image in which black or white is overexposed. It may be.

【0004】このような明暗差の大きい撮影シーンで
も、明部と暗部の何れもが適切に再現されるように、露
光量の異なる複数の画像を合成して、一の広ダイナミッ
クレンジ画像を生成する技術が提案されている。
[0004] Even in such a photographing scene having a large difference in brightness, a plurality of images having different exposure amounts are combined to generate one wide dynamic range image so that both the bright and dark portions are appropriately reproduced. A technology to do this has been proposed.

【0005】ただし、このようにして得られた広ダイナ
ミックレンジ画像は、通常のモニタやプリンタなどの表
示出力系ではそのまま扱うことができないために、階調
圧縮を行う必要がある。
[0005] However, the wide dynamic range image obtained in this manner cannot be directly handled by a display output system such as a normal monitor or a printer, so that it is necessary to perform gradation compression.

【0006】この階調圧縮の技術としては、例えば特開
2000−50151号公報に、複数の異なる露光量で
同一の被写体を撮像し、露光量の異なる複数画面分の画
像信号を生成可能な撮像手段と、この撮像手段により得
られる露光量の異なる複数画面分の画像信号を合成して
広ダイナミックレンジ合成画像を生成する手段とを備え
た撮像装置において、撮影済みの複数画面分の画像信号
に基づいて適切な合成画像が得られるか否かを判定する
判定手段と、この判定手段の出力に基づいて上記合成画
像生成手段の生成処理動作をオンまたはオフに切り換え
る切換制御手段と、を備えた撮像装置が記載され、さら
に、複数の異なる露光量で同一の被写体を撮像して得ら
れる露光量の異なる複数画面分の画像信号と、これら複
数画面分の画像信号を合成して広ダイナミックレンジ合
成画像を生成するときに用いられる合成情報とが、1つ
のファイルとして記録されている記録媒体から上記ファ
イルを読み出し、このファイル中の複数画面分の画像信
号を、該ファイル中の合成情報に基づいて合成して広ダ
イナミックレンジ合成画像を生成する合成手段を備えた
外部合成装置が記載されている。
[0006] For example, Japanese Patent Laid-Open No. 2000-50151 discloses an image pickup technique capable of imaging the same subject with a plurality of different exposure amounts and generating image signals for a plurality of screens with different exposure amounts. Means for generating a wide dynamic range composite image by synthesizing image signals for a plurality of screens having different exposure amounts obtained by the imaging means. Determining means for determining whether or not an appropriate combined image is obtained based on the output of the determining means; and switching control means for switching on or off a generation processing operation of the combined image generating means based on an output of the determining means. An image pickup apparatus is described, and image signals for a plurality of screens having different exposure amounts obtained by imaging the same subject with a plurality of different exposure amounts are provided. Is read from a recording medium in which synthesis information used to generate a wide dynamic range synthesized image by synthesizing the file is read as a single file, and image signals for a plurality of screens in the file are read out from the storage medium. An external synthesizing device including a synthesizing means for generating a wide dynamic range synthesized image by synthesizing based on synthesis information in a file is described.

【0007】また、1枚の画像を1回の撮像により得る
通常の電子カメラにおいても、階調圧縮の技術が用いら
れている。すなわち、デジタル信号処理を行う際には、
桁落ちによる画質劣化が生じる可能性があるために、こ
れを防止するべく、入力画像の階調bit(ビット)を
出力画像の階調bitよりも広く設定する場合があり、
この設定がなされている場合には、最終的に階調圧縮を
行うことになる。そこで、従来の電子カメラでは、一般
的に、この階調圧縮を、固定的なγ変換により処理する
ようになっている。
[0007] Further, in an ordinary electronic camera that obtains one image by one image pickup, the technology of gradation compression is used. That is, when performing digital signal processing,
Since there is a possibility that image quality may be degraded due to digit loss, the gradation bit (bit) of the input image may be set wider than the gradation bit of the output image in order to prevent this.
When this setting is made, gradation compression is finally performed. Therefore, in a conventional electronic camera, this gradation compression is generally processed by a fixed γ conversion.

【0008】さらに、1枚の画像に関してコントラスト
補正処理を行うことで、より高品位な画像を得る技術が
知られている。
Further, there is known a technique of obtaining a higher quality image by performing a contrast correction process on one image.

【0009】このような技術として、例えば特開平11
−55520号公報には、画像データを入力して、階調
度数分布をとり、その階調度数分布に基づいてコントラ
ストの補正パラメータを設定し、この補正パラメータと
ユーザにより設定された明暗調整パラメータとに基づ
き、画像レベルの変換を行う技術が記載されている。
As such a technique, for example, Japanese Patent Application Laid-Open
In Japanese Patent Application Laid-Open No. 55520/1990, image data is input, a gradation frequency distribution is obtained, and a contrast correction parameter is set based on the gradation frequency distribution. There is described a technology for performing image level conversion based on the.

【0010】[0010]

【発明が解決しようとする課題】上述したように、従来
の技術では、階調圧縮を、階調幅全体に対して平均的に
圧縮することにより行うか、あるいはγ変換で圧縮する
ことにより行うようになっていたが、このように固定的
に圧縮する手段では、人物などの主要被写体が適切な階
調を持つことは保証されないために、必ずしも好ましい
画像になるとは限らない。さらに、こうした階調圧縮の
手段を用いると、全体としてコントラスト感に欠ける平
坦な画像となる傾向がある。
As described above, in the prior art, the gradation is compressed by averaging the entire gradation width or by performing γ conversion. However, with such a means for fixedly compressing, it is not guaranteed that a main subject such as a person has an appropriate gradation, so that a preferable image is not always obtained. Further, when such a means of gradation compression is used, there is a tendency that a flat image lacking in contrast as a whole is obtained.

【0011】一方、画像からヒストグラムを求めて適応
的に階調を圧縮する手段も提案されているが、ヒストグ
ラムに基づいているために、面積の大きい被写体により
多くの階調が付与される傾向がある。このために、人物
などの主要被写体が、画面内に小さく撮影されている場
合は、主要被写体の階調はつぶれ気味となり、最適な画
像を得ることができない。
On the other hand, there has been proposed means for obtaining a histogram from an image and adaptively compressing the gradation. However, since the histogram is based on the histogram, a subject having a large area tends to be provided with a larger number of gradations. is there. For this reason, when a main subject such as a person is photographed in a small size in the screen, the gradation of the main subject tends to be lost, and an optimal image cannot be obtained.

【0012】こうした課題を改善するために、主要被写
体にはエッジ部分が多いと仮定して、エッジ部のヒスト
グラムを用いる手段も提案されているが、例えば主要被
写体が人物の顔である場合には、上記仮定に反してエッ
ジとなる要素が少ないために、あまり顕著な改善効果を
得ることはできていない。
In order to solve such a problem, there has been proposed a means of using a histogram of the edge portion on the assumption that the main subject has many edge portions. For example, when the main subject is a person's face, Contrary to the above assumption, since there are few elements serving as edges, a remarkable improvement effect cannot be obtained.

【0013】こうして、特に人物などの主要被写体の階
調がより適切となるように、階調圧縮を行うことができ
る技術が望まれている。
Thus, there is a demand for a technique capable of performing gradation compression such that the gradation of a main subject such as a person becomes more appropriate.

【0014】本発明は上記事情に鑑みてなされたもので
あり、画像内における主要被写体の面積や位置に関わら
ず、適切な階調幅を付与してより高品位な階調圧縮を行
うことができる撮像システムを提供することを目的とし
ている。
The present invention has been made in view of the above circumstances, and it is possible to provide an appropriate gradation width and perform higher-quality gradation compression irrespective of the area or position of a main subject in an image. It is intended to provide an imaging system.

【0015】[0015]

【課題を解決するための手段】上記の目的を達成するた
めに、第1の発明による撮像システムは、同一の被写体
に対して異なる露光条件で撮像した複数の画像からなる
画像群を処理して一の広ダイナミックレンジ画像を生成
する撮像システムであって、撮像した画像中の主要被写
体領域を推定する推定手段と、上記画像群中の各画像毎
に画像信号レベルに基づき適正露光域を抽出する抽出手
段と、この抽出手段により抽出された適正露光域に対し
て上記推定手段により推定された主要被写体領域に重点
的に階調幅が配分されるように階調補正を行う補正手段
と、この補正手段により階調補正を行った各画像の適正
露光域を合成することにより一の広ダイナミックレンジ
画像を生成する合成手段と、を備えたものである。
In order to achieve the above object, an imaging system according to a first aspect of the present invention processes an image group consisting of a plurality of images of the same subject captured under different exposure conditions. An imaging system for generating a wide dynamic range image, comprising: an estimating unit for estimating a main subject area in a captured image; and extracting an appropriate exposure area based on an image signal level for each image in the image group. Extracting means; correcting means for performing tone correction so that a tone width is distributed to the main subject area estimated by the estimating means with respect to the proper exposure area extracted by the extracting means; And synthesizing means for generating one wide dynamic range image by synthesizing an appropriate exposure area of each image subjected to gradation correction by the means.

【0016】また、第2の発明による撮像システムは、
撮像した画像の階調幅を調整することにより階調が補正
された画像を生成する撮像システムであって、撮像した
画像中の主要被写体領域を推定する推定手段と、この推
定手段により推定された主要被写体領域に重点的に階調
幅が配分されるように上記撮像した画像の階調補正を行
う補正手段と、を備えたものである。
[0016] The imaging system according to the second invention comprises:
An imaging system that generates an image in which a gradation is corrected by adjusting a gradation width of a captured image, comprising: an estimation unit configured to estimate a main subject area in the captured image; and a main unit estimated by the estimation unit. Correction means for performing the gradation correction of the captured image so that the gradation width is mainly distributed to the subject area.

【0017】さらに、第3の発明による撮像システム
は、上記第1または第2の発明による撮像システムにお
いて、上記推定手段が、フォーカスロックされた際の合
焦検出領域である画面中央部の画像を対象画像として設
定する対象画像設定手段と、この対象画像設定手段によ
り設定された対象画像と本撮影時に撮像された画像との
マッチングを行うマッチング手段と、このマッチング手
段により上記対象画像とのマッチングが最大であると判
断された上記本撮影画像中の領域を主要被写体領域とし
て設定する領域設定手段と、を有してなるものである。
Further, in the imaging system according to a third aspect of the present invention, in the imaging system according to the first or second aspect, the estimating means may include an image at a central portion of the screen, which is a focus detection area when focus is locked. A target image setting means for setting as a target image, a matching means for matching a target image set by the target image setting means with an image captured at the time of actual shooting, and a matching with the target image by the matching means. Region setting means for setting the region in the main photographed image determined to be the maximum as the main subject region.

【0018】第4の発明による撮像システムは、上記第
1または第2の発明による撮像システムにおいて、本撮
影を行うに先だって複数回のプリ撮影を行うものであ
り、上記推定手段が、上記複数回のプリ撮影毎に異なる
発光量で照明光を照射するストロボ手段と、プリ撮影し
て得られる異なる発光量での照明に係る複数の画像を記
憶する記憶手段と、この記憶手段に記憶されているプリ
撮影時の画像を読み出して各画像の輝度信号の比をとる
ことにより距離情報を算出する距離算出手段と、この距
離算出手段から算出される距離情報に基づき本撮影時の
合焦距離と等価な距離にある領域を主要被写体領域とし
て設定する領域設定手段と、を有してなるものである。
An imaging system according to a fourth aspect of the present invention is the imaging system according to the first or second aspect, wherein the pre-imaging is performed a plurality of times before the actual imaging is performed. A flash unit for irradiating illumination light with a different light emission amount for each pre-photographing, a storage unit for storing a plurality of images related to illumination with different light emission amounts obtained by the pre-photographing, and stored in the storage unit. Distance calculating means for calculating distance information by reading an image at the time of pre-shooting and calculating the ratio of the luminance signal of each image, and is equivalent to a focusing distance at the time of main shooting based on the distance information calculated by the distance calculating means. Area setting means for setting an area at a short distance as a main subject area.

【0019】第5の発明による撮像システムは、上記第
1または第2の発明による撮像システムにおいて、本撮
影を行うに先だってプリ撮影を行うものであり、上記推
定手段が、プリ撮影して得られる画像を記憶する記憶手
段と、この記憶手段に記憶されているプリ撮影時の画像
を読み出して本撮影して得られる画像との差分情報を取
得する差分手段と、この差分手段から得られる差分情報
に基づいて所定閾値以上の差分がある領域を主要被写体
領域として設定する領域設定手段と、を有してなるもの
である。
According to a fifth aspect of the present invention, in the imaging system according to the first or second aspect, the pre-photographing is performed prior to the main photographing, and the estimating means is obtained by the pre-photographing. Storage means for storing an image; difference means for reading an image at the time of pre-shooting stored in the storage means to obtain difference information from an image obtained by actual shooting; difference information obtained from the difference means Area setting means for setting, as a main subject area, an area having a difference equal to or greater than a predetermined threshold value based on the threshold value.

【0020】第6の発明による撮像システムは、上記第
1または第2の発明による撮像システムにおいて、上記
推定手段が、タッチパネル機能を有する画像表示手段
と、この画像表示手段のタッチパネル機能により指定さ
れた領域を主要被写体領域として設定する領域設定手段
と、を有してなるものである。
According to a sixth aspect of the present invention, in the imaging system according to the first or second aspect, the estimating unit is specified by an image display unit having a touch panel function and the touch panel function of the image display unit. Area setting means for setting an area as a main subject area.

【0021】第7の発明による撮像システムは、上記第
1または第2の発明による撮像システムにおいて、上記
推定手段が、複数の所定サイズの領域に分割された画像
表示手段と、上記複数の領域の内の少なくとも1つの領
域を選択する選択手段と、この選択手段により選択され
た領域を主要被写体領域として設定する領域設定手段
と、を有してなるものである。
According to a seventh aspect of the present invention, in the imaging system according to the first or second aspect, the estimating means includes: an image display means divided into a plurality of areas of a predetermined size; And an area setting means for setting the area selected by the selecting means as a main subject area.

【0022】第8の発明による撮像システムは、上記第
1または第2の発明による撮像システムにおいて、上記
推定手段が、撮像される画像に略該当する被写体領域の
赤外分布状況を取得する赤外センサ手段と、この赤外セ
ンサ手段により取得された赤外分状況から所定の閾値以
上の領域を候補領域として設定する候補領域設定手段
と、この候補領域設定手段により設定された候補領域に
対して肌色成分の検出を行う肌色検出手段と、この肌色
検出手段により肌色成分を含むと判断された領域を主要
被写体領域として設定する領域設定手段と、を有してな
るものである。
An imaging system according to an eighth aspect of the present invention is the imaging system according to the first or second aspect, wherein the estimating means obtains an infrared distribution state of a subject area substantially corresponding to a captured image. A sensor unit, a candidate region setting unit that sets a region equal to or greater than a predetermined threshold as a candidate region based on the infrared component status acquired by the infrared sensor unit, and a candidate region set by the candidate region setting unit. The apparatus comprises a skin color detecting means for detecting a skin color component, and an area setting means for setting an area determined to include the skin color component by the skin color detecting means as a main subject area.

【0023】第9の発明による撮像システムは、上記第
1または第2の発明による撮像システムにおいて、リモ
ートコントロール装置を用いた遠隔操作による撮影が可
能となるように構成されており、上記推定手段が、上記
リモートコントロール装置から送信されるリモートコン
トロール信号を受信する受信手段と、この受信手段によ
り受信したリモートコントロール信号の発信方向を算出
する方向算出手段と、この方向算出手段により算出され
た発信方向の所定サイズの領域を主要被写体領域として
設定する領域設定手段と、を有してなるものである。
An imaging system according to a ninth aspect of the present invention is configured such that, in the imaging system according to the first or second aspect, it is possible to perform imaging by remote control using a remote control device. Receiving means for receiving a remote control signal transmitted from the remote control device; direction calculating means for calculating a transmitting direction of the remote control signal received by the receiving means; and transmitting direction calculated by the direction calculating means. Region setting means for setting a region of a predetermined size as a main subject region.

【0024】第10の発明による撮像システムは、上記
第1または第2の発明による撮像システムにおいて、上
記補正手段が、上記主要被写体領域の重みが該主要被写
体領域以外の領域に比して重くなるような重み係数を設
定する重み係数設定手段と、上記撮像した画像から特徴
量を算出する特徴量算出手段と、上記重み係数設定手段
により設定された重み係数と上記特徴量算出手段により
算出された特徴量とに基づいて重み付きヒストグラムを
作成するヒストグラム作成手段と、このヒストグラム作
成手段により作成されたヒストグラムに基づき階調変換
曲線を算出する階調変換曲線算出手段と、を有してなる
ものである。
In the imaging system according to a tenth aspect, in the imaging system according to the first or second aspect, the correction means may be arranged such that the weight of the main subject area is heavier than an area other than the main subject area. Weighting factor setting means for setting such weighting factors, feature quantity calculating means for calculating feature quantities from the captured images, weighting factors set by the weighting factor setting means and calculated by the feature quantity calculating means A histogram creating means for creating a weighted histogram based on the characteristic amount; and a tone conversion curve calculating means for calculating a tone conversion curve based on the histogram created by the histogram creating means. is there.

【0025】[0025]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1から図4は本発明の第1の実
施形態を示したものであり、図1は撮像システムの構成
を示すブロック図、図2は主要被写体領域推定部の構成
例を示すブロック図、図3は操作表示部の構成例を示す
図、図4は変換特性算出部の構成を示すブロック図であ
る。
Embodiments of the present invention will be described below with reference to the drawings. 1 to 4 show a first embodiment of the present invention. FIG. 1 is a block diagram showing a configuration of an imaging system. FIG. 2 is a block diagram showing a configuration example of a main subject area estimating unit. 3 is a diagram illustrating a configuration example of an operation display unit, and FIG. 4 is a block diagram illustrating a configuration of a conversion characteristic calculation unit.

【0026】この第1の実施形態の撮像システムは、例
えば、電子カメラとして構成されたものとなっている。
The imaging system according to the first embodiment is configured as, for example, an electronic camera.

【0027】まず、図1を参照して、この第1の実施形
態の撮像システムの構成について説明する。
First, the configuration of the imaging system according to the first embodiment will be described with reference to FIG.

【0028】この撮像システムは、被写体像を後述する
CCD4に結像させるためのレンズ系1と、このレンズ
系1を通過する光束の通過範囲を規定するための絞り2
と、上記レンズ系1を通過した光束から不要な高周波ノ
イズを除去するローパスフィルタ3と、このローパスフ
ィルタ3を通過した後に結像された光像を光電変換して
アナログの電気信号として出力するものであり例えば電
子シャッタ機能を備えた単板式のカラーCCD等でなる
CCD4と、このCCD4から出力されるアナログの映
像信号をデジタル信号に変換するA/D変換器5と、こ
のA/D変換器5から出力される画像データを蓄積する
画像用バッファ6と、この画像バッファ6から出力され
る画像データに基づき、被写体の輝度やフォーカス位置
等を検出して、上記絞り2の絞り量や上記CCD4の電
子シャッタを制御するとともに、レンズ駆動制御信号を
後述するAFモータ8に出力し、ストロボ発光制御信号
を後述するストロボ23に出力する撮像制御部7と、こ
の撮像制御部7から出力されるレンズ駆動制御信号に基
づき上記レンズ系1に含まれるフォーカスレンズを駆動
するAFモータ8と、上記撮像制御部7から出力される
ストロボ発光制御信号に基づき被写体に向けて照明光を
照射する推定手段でありストロボ手段たるストロボ23
と、上記画像用バッファ6から出力される単板状態の画
像データを三板状態の画像データに変換する補間部9
と、この補間部9から出力される三板状態の画像データ
を蓄積する作業用バッファ10と、後述するように各種
の操作スイッチ類を有するとともにこの作業用バッファ
10から出力される画像データに基づき主要被写体領域
を指定するために画像を表示する推定手段たる操作表示
部11と、上記作業用バッファ10から出力される画像
データを輝度信号Yと色差信号Cに分離するY/C分離
部12と、このY/C分離部12から出力される輝度信
号Yに基づき適正露光域を抽出する抽出手段たる適正露
光抽出部13と、上記画像用バッファ6から出力される
画像データに基づき画像内の主要被写体を推定する推定
手段であり領域設定手段たる主要被写体領域推定部14
と、上記適正露光抽出部13により抽出された適正露光
域の変換特性を上記主要被写体領域推定部14により推
定された主要被写体の階調が適切となるように重み付け
しながら算出する補正手段たる変換特性算出部15と、
上記適正露光抽出部13により抽出された適正露光域に
ついて上記変換特性算出部15により算出された変換特
性に基づき輝度信号Yの階調補正を行う補正手段たる輝
度補正部16と、上記Y/C分離部12と輝度補正部1
6から出力される変換前後の輝度信号と色の存在し得る
理論限界モデルとに基づいて該Y/C分離部12から出
力される色差信号Cの階調補正を行う補正手段たる色差
補正部17と、上記輝度補正部16から出力される階調
補正後の輝度信号Yと上記色差補正部17から出力され
る階調補正後の色差信号Cとを合成するY/C合成部1
8と、階調補正された適正露光域の画像データを記憶し
ておく作業バッファ19と、この作業バッファ19に記
憶されている異なる露光に係る複数の画像データを上記
適正露光抽出部13からの適正露光域情報に基づき合成
して、1枚の広ダイナミックレンジ画像を生成する合成
手段たる画像合成部20と、この画像合成部20により
合成された広ダイナミックレンジ画像を例えばメモリカ
ードやハードディスク等の記憶媒体、あるいは外部の装
置等に出力する出力部21と、上記撮像制御部7、補間
部9、操作表示部11、Y/C分離部12、適正露光抽
出部13、主要被写体領域推定部14、変換特性算出部
15、Y/C合成部18、画像合成部20、出力部21
等から情報を得てこれらを含むこの撮像システム内の各
回路を統括的に制御する例えばマイクロコンピュータ等
でなる制御部22と、を有して構成されている。
This image pickup system includes a lens system 1 for forming an image of a subject on a CCD 4 described later, and an aperture 2 for defining a passing range of a light beam passing through the lens system 1.
A low-pass filter 3 for removing unnecessary high-frequency noise from a light beam passing through the lens system 1, and a light image formed after passing through the low-pass filter 3 is photoelectrically converted and output as an analog electric signal For example, a CCD 4 such as a single-plate color CCD having an electronic shutter function, an A / D converter 5 for converting an analog video signal output from the CCD 4 into a digital signal, and an A / D converter An image buffer 6 for accumulating image data output from the image buffer 5; a luminance and a focus position of a subject are detected based on the image data output from the image buffer 6; And outputs a lens drive control signal to an AF motor 8 to be described later, and outputs a strobe light emission control signal to a flash drive to be described later. 23, an AF motor 8 for driving a focus lens included in the lens system 1 based on a lens drive control signal output from the imaging control unit 7, and an output from the imaging control unit 7. Estimating means for irradiating the object with illumination light based on a strobe light emission control signal.
And an interpolator 9 for converting single-plate image data output from the image buffer 6 into three-plate image data.
A work buffer 10 for accumulating image data in the three-plate state output from the interpolation unit 9, and various operation switches as will be described later, and based on the image data output from the work buffer 10, An operation display unit 11 that is an estimating unit that displays an image for designating a subject area, a Y / C separation unit 12 that separates image data output from the work buffer 10 into a luminance signal Y and a color difference signal C, A proper exposure extracting section 13 as an extracting means for extracting a proper exposure area based on the luminance signal Y output from the Y / C separating section 12; and a main subject in the image based on the image data output from the image buffer 6. Main subject region estimating unit 14 which is an estimating unit for estimating
And a conversion means for calculating the conversion characteristic of the proper exposure area extracted by the proper exposure extraction unit 13 while weighting the main subject estimated by the main subject area estimation unit 14 so that the gradation is appropriate. A characteristic calculator 15;
A luminance correction unit 16 as correction means for performing gradation correction of the luminance signal Y based on the conversion characteristic calculated by the conversion characteristic calculation unit 15 for the appropriate exposure area extracted by the appropriate exposure extraction unit 13; Separation unit 12 and brightness correction unit 1
A color difference correction unit 17 serving as a correction unit for performing gradation correction of the color difference signal C output from the Y / C separation unit 12 based on the luminance signal before and after the conversion output from the Y / C 6 and a theoretical limit model where colors can exist. And a Y / C synthesizing unit 1 for synthesizing the luminance signal Y after gradation correction output from the luminance correction unit 16 and the color difference signal C after gradation correction output from the color difference correction unit 17.
8, a work buffer 19 for storing image data of a proper exposure area whose gradation has been corrected, and a plurality of image data relating to different exposures stored in the work buffer 19. An image synthesizing unit 20 that synthesizes one wide dynamic range image by synthesizing based on the proper exposure area information, and a wide dynamic range image synthesized by the image synthesizing unit 20 is stored in, for example, a memory card or a hard disk. An output unit 21 for outputting to a storage medium or an external device; an imaging control unit 7, an interpolation unit 9, an operation display unit 11, a Y / C separation unit 12, a proper exposure extraction unit 13, and a main subject region estimation unit 14 Conversion characteristic calculation unit 15, Y / C synthesis unit 18, image synthesis unit 20, output unit 21
And a control unit 22 such as a microcomputer that collectively controls each circuit in the imaging system including information obtained from the information and the like.

【0029】次に、このように構成された撮像システム
の作用を、図1に示したような信号の流れに沿って説明
する。
Next, the operation of the thus configured imaging system will be described with reference to the signal flow shown in FIG.

【0030】上述したように例えば電子カメラでなるこ
の撮像システムに設けられている図示しないシャッタボ
タンを半押しすると、本撮影に先立って行われるプリ撮
影モードに入る。
As described above, when a shutter button (not shown) provided in the image pickup system, for example, an electronic camera, is half-pressed, the apparatus enters a pre-photographing mode performed prior to the main photographing.

【0031】上記絞り2とローパスフィルタ3を介し
て、上記レンズ系1により結像された被写体像は、CC
D4により電気信号に変換されてアナログの映像信号と
して出力される。この映像信号は、A/D変換器5によ
ってデジタル信号に変換された後に、画像用バッファ6
へ転送されて蓄積される。
The subject image formed by the lens system 1 through the aperture 2 and the low-pass filter 3 is CC
The signal is converted into an electric signal by D4 and output as an analog video signal. This video signal is converted into a digital signal by the A / D converter 5 and then converted into a digital signal.
Is transferred to and stored.

【0032】この画像用バッファ6のサイズは、本実施
形態におけるデジタル化された信号の階調幅を例えば1
0bitとすると、該階調幅の画像データを必要とされ
る連続撮影分だけ記憶することができる容量となってい
る。
The size of the image buffer 6 is such that the gradation width of the digitized signal in this embodiment is, for example, 1
If it is set to 0 bit, the capacity is such that the image data of the gradation width can be stored for the required continuous shooting.

【0033】上記画像用バッファ6内に記憶された画像
データは、その後に読み出されて、映像信号として撮像
制御部7へ転送される。
The image data stored in the image buffer 6 is subsequently read out and transferred to the image pickup controller 7 as a video signal.

【0034】この撮像制御部7は、画像中の輝度レベル
を求めて、適正露光となるような絞り値やシャッタ速度
などを設定し、上記絞り2やCCD4を制御するととも
に、画像中のエッジ強度を検出して該エッジ強度が最大
となるように上記AFモータ8を介してレンズ系1を駆
動させることにより合焦画像を得るように制御する。こ
のプリ撮影モードにおいてレンズ系1が合焦位置に駆動
された後は、シャッタボタンの半押しを続けている間は
この合焦位置が固定して維持され、いわゆるフォーカス
ロック状態となる。この間に撮影者は、自由にフレーミ
ングを変えることができるようになっている。
The imaging control unit 7 obtains a luminance level in the image, sets an aperture value and a shutter speed for achieving proper exposure, controls the aperture 2 and the CCD 4, and controls the edge intensity in the image. Is detected and the lens system 1 is driven via the AF motor 8 so as to maximize the edge strength, thereby controlling to obtain a focused image. After the lens system 1 is driven to the in-focus position in the pre-photographing mode, the in-focus position is fixed and maintained while the shutter button is half-pressed, resulting in a so-called focus lock state. During this time, the photographer can freely change the framing.

【0035】次に、上記シャッタボタンを全押しするこ
とにより、本撮影が行われる。上記撮像制御部7によっ
て求められた露光条件に対して、所定の露光比、例えば
1/8となるような露光条件で1枚目の画像(短時間露
光画像)が撮影され、A/D変換器5によってデジタル
信号に変換された後に画像用バッファ6へ転送されて記
憶される。
Next, the full photographing is performed by fully pressing the shutter button. The first image (short-time exposure image) is shot under a predetermined exposure ratio, for example, 1/8 of the exposure condition obtained by the imaging control unit 7, and A / D conversion is performed. After being converted into a digital signal by the device 5, it is transferred to the image buffer 6 and stored.

【0036】続いて、撮像制御部7によって求められた
露光条件によって2枚目の画像(長時間露光画像)が撮
影され、上記A/D変換器5によってデジタル信号に変
換された後に、画像用バッファ6へ転送されて記憶され
る。
Subsequently, a second image (long-time exposure image) is photographed according to the exposure conditions obtained by the imaging control unit 7, and is converted into a digital signal by the A / D converter 5; The data is transferred to the buffer 6 and stored.

【0037】補間部9は、制御部22の制御に従って、
上記画像用バッファ6に記憶されている単板状態の映像
信号を順次読み込んで、公知の補間処理、ホワイトバラ
ンス処理、強調処理などを行って三板状態の信号を生成
し、作業用バッファ10へ転送する。
The interpolator 9 operates according to the control of the controller 22.
The video signals in the single-plate state stored in the image buffer 6 are sequentially read, and a known three-plate state signal is generated by performing known interpolation processing, white balance processing, enhancement processing, and the like, and transferred to the work buffer 10. I do.

【0038】操作表示部11は、制御部22の制御に従
って、上記作業用バッファ10上の長時間露光画像を表
示するために読み込む。
The operation display unit 11 reads the long-time exposure image on the work buffer 10 for display under the control of the control unit 22.

【0039】Y/C分離部12は、制御部22の制御に
従って、上記作業用バッファ10上の三板信号を長時間
露光画像、短時間露光画像の順に読み込んで、それぞれ
を輝度信号Yと色差信号Cとに分離する。
Under the control of the control unit 22, the Y / C separation unit 12 reads the three-plate signals on the working buffer 10 in the order of a long-time exposure image and a short-time exposure image, and reads them in the order of a luminance signal Y and a chrominance signal. C.

【0040】長時間露光画像に係る輝度信号は、適正露
光抽出部13によって露光オーバーとなる領域(非適正
露光域)が抽出され、これ以外の領域(適正露光域)の
信号が変換特性算出部15と輝度補正部16とへ転送さ
れる。
In the luminance signal relating to the long-time exposure image, the overexposure area (inappropriate exposure area) is extracted by the appropriate exposure extraction section 13 and the signal of the other area (appropriate exposure area) is converted into the conversion characteristic calculation section. 15 and the luminance correction unit 16.

【0041】また、短時間露光画像に係る輝度信号の場
合には、上記適正露光抽出部13によって、上記非適正
露光域に対応する輝度信号が変換特性算出部15と輝度
補正部16とへ転送される。
In the case of the luminance signal relating to the short-time exposure image, the luminance signal corresponding to the inappropriate exposure area is transferred to the conversion characteristic calculating section 15 and the luminance correcting section 16 by the appropriate exposure extracting section 13. Is done.

【0042】主要被写体領域推定部14は、制御部22
の制御に従って、上記画像用バッファ6からプリ撮影時
の画像および長時間露光画像を読み込み、これらの画像
から後述するように主要被写体領域を求めて、求めた結
果を変換特性算出部15へ転送する。
The main subject area estimating section 14 includes a control section 22
According to the above control, the image at the time of pre-shooting and the long-time exposure image are read from the image buffer 6, a main subject area is obtained from these images as described later, and the obtained result is transferred to the conversion characteristic calculation unit 15. .

【0043】変換特性算出部15は、上記適正露光抽出
部13から送られてきた輝度信号の累積ヒストグラム
を、上記主要被写体領域推定部14から送られてきた主
要被写体領域に重み付けをして作成し、その累積ヒスト
グラムに基づいて階調変換を行うための変換曲線を生成
する。
The conversion characteristic calculating section 15 creates a cumulative histogram of the luminance signal sent from the proper exposure extracting section 13 by weighting the main subject area sent from the main subject area estimating section 14. , A conversion curve for performing gradation conversion based on the cumulative histogram is generated.

【0044】輝度補正部16は、上記変換特性算出部1
5から送られてきた変換曲線に基づき、長時間露光画像
に係る輝度信号と短時間露光画像に係る輝度信号とを変
換する。変換後の輝度信号は色差補正部17とY/C合
成部18へ転送される。
The brightness correction section 16 is provided with the conversion characteristic calculation section 1.
Based on the conversion curve sent from 5, a luminance signal for a long-time exposure image and a luminance signal for a short-time exposure image are converted. The converted luminance signal is transferred to the color difference correction unit 17 and the Y / C synthesis unit 18.

【0045】色差補正部17は、上記Y/C分離部12
から変換前の輝度信号を受け取るとともに、上記輝度補
正部16からの変換後の輝度信号を受け取る。そして、
これら変換前後の輝度信号と色の存在し得る理論限界モ
デルとに基づいて、色差信号を補正するための補正係数
を算出し、上記Y/C分離部12から送られてくる色差
信号にこの補正係数を乗算する。
The color difference correction section 17 is provided with the Y / C separation section 12.
, And receives the converted luminance signal from the luminance correction unit 16. And
A correction coefficient for correcting the color difference signal is calculated based on the luminance signal before and after the conversion and the theoretical limit model in which the color can exist, and the correction coefficient is converted into the color difference signal sent from the Y / C separation unit 12. Multiply the coefficient.

【0046】補正された色差信号は、Y/C合成部18
へ転送されて、上記輝度補正部16から送られてくる変
換後の輝度信号と合成され、通常の映像信号として、長
時間露光画像、短時間露光画像の順に、作業用バッファ
19に保存される。
The corrected color difference signal is supplied to the Y / C
And is combined with the converted luminance signal sent from the luminance correction unit 16 and stored in the working buffer 19 as a normal video signal in the order of a long exposure image and a short exposure image. .

【0047】画像合成部20は、制御部22の制御に従
って、上記適正露光抽出部13から送られてくる情報に
基づき、階調変換後の長時間露光画像と、階調変換後の
短時間露光画像とを合成して、一枚の広ダイナミックレ
ンジ画像を生成し、出力部21へ転送する。
The image synthesizing unit 20 controls the long-time exposure image after gradation conversion and the short-time exposure image after gradation conversion based on the information sent from the proper exposure extraction unit 13 under the control of the control unit 22. The image is synthesized to generate one wide dynamic range image and transferred to the output unit 21.

【0048】次に、図2(A)を参照して、上記主要被
写体領域推定部14の構成の第1の例について説明す
る。
Next, a first example of the configuration of the main subject area estimating section 14 will be described with reference to FIG.

【0049】この構成例における主要被写体領域推定部
14は、上記制御部22の制御に従って上記画像用バッ
ファ6からプリ撮影時の画像と長時間露光画像とを読み
込んで、これらをプリ撮影画像バッファ32と本撮影画
像バッファ35とへそれぞれ転送する切換部31と、こ
の切換部31から送られたプリ撮影時の画像を記憶して
おくプリ撮影画像バッファ32と、このプリ撮影画像バ
ッファ32に記憶されているプリ撮影時の画像から所定
サイズの画面中央部の領域(上記フォーカスロック時に
使用された合焦検出領域であって、撮影の主要被写体と
考えられる領域)を切り出す対象画像設定手段たるトリ
ミング部33と、このトリミング部33から切り出され
た対象画像を記憶しておく対象画像バッファ34と、上
記切換部31から送られた長時間露光画像を記憶してお
く本撮影画像バッファ35と、上記対象画像バッファ3
4上の主要被写体と考えられる対象画像と上記本撮影画
像バッファ35上の長時間露光画像間とでパターンマッ
チング処理を行い、その結果を領域設定部37へ転送す
るマッチング手段たるマッチング部36と、上記制御部
22の制御に従って、上記マッチング部36により最も
マッチングが高いと判断された長時間露光画像中の領域
を主要被写体領域として設定し、その結果を上記変換特
性算出部15へ転送する領域設定手段たる領域設定部3
7と、を有して構成されている。
The main subject area estimating section 14 in this configuration example reads the pre-photographed image and the long-time exposure image from the image buffer 6 under the control of the control section 22, and stores them in the pre-photographed image buffer 32. A switching unit 31 for transferring the image to the main photographed image buffer 35, a pre-photographed image buffer 32 for storing the pre-photographed image sent from the switching unit 31, and a memory for storing the pre-photographed image buffer 32. A trimming unit as a target image setting unit that cuts out an area at the center of the screen of a predetermined size (an area which is a focus detection area used at the time of the focus lock and is considered to be a main subject of imaging) from an image obtained during pre-imaging 33, a target image buffer 34 for storing a target image cut out from the trimming unit 33, A captured image buffer 35 for storing the long-time exposure image, which is, the target image buffer 3
A matching unit 36 that performs a pattern matching process between the target image considered to be the main subject on the main image 4 and the long-time exposure image on the main photographed image buffer 35 and transfers the result to an area setting unit 37; Under the control of the control unit 22, an area in the long-time exposure image determined to have the highest matching by the matching unit 36 is set as a main subject area, and the result is transferred to the conversion characteristic calculation unit 15. Area setting unit 3 as means
7 are provided.

【0050】なお、この主要被写体領域推定部14が上
記画像用バッファ6から読み込む画像は単板画像である
ために、上記マッチング部36によるパターンマッチン
グ処理も単板状態で行っている。これによりマッチング
の精度はやや低下するが、それでも主要被写体の概略的
な領域を求める機能を果たすには十分であるということ
ができる。もちろんこれに限らず、補間処理を行って三
板状態にした後の、例えば上記作業用バッファ10に記
憶された画像情報に基づいて、パターンマッチング処理
を行うことも可能である。
Since the image read from the image buffer 6 by the main subject area estimating section 14 is a single-chip image, the pattern matching processing by the matching section 36 is also performed in a single-chip state. Although the accuracy of the matching is slightly reduced by this, it can be said that it is still enough to perform the function of obtaining the approximate area of the main subject. Of course, the present invention is not limited to this, and it is also possible to perform a pattern matching process based on, for example, image information stored in the working buffer 10 after the interpolation process is performed to form a three-plate state.

【0051】続いて、図4を参照して、上記変換特性算
出部15の構成の一例について説明する。
Next, an example of the configuration of the conversion characteristic calculator 15 will be described with reference to FIG.

【0052】この変換特性算出部15は、制御部22の
制御に従って、上記主要被写体領域推定部14により推
定された主要被写体領域の重みがそれ以外の領域に比し
て重くなるような重み係数を設定する重み係数設定手段
たる重み係数算出部70と、上記制御部22の制御に従
って、適正露光抽出部13から各露光画像に係る輝度信
号を後述する順に読み込んで、公知のエッジ抽出を行う
特徴量算出手段たるエッジ抽出部71と、このエッジ抽
出部71により抽出されたエッジ画像から所定の閾値以
上のエッジ強度のある画素を選別して、上記重み係数算
出部70から出力される重み係数を乗算して重み付けを
行いヒストグラムを作成するヒストグラム作成手段たる
ヒストグラム作成部72と、このヒストグラム作成部7
2から出力されるヒストグラムを累積することにより変
換曲線を生成して上記輝度補正部16へ転送する階調変
換曲線算出手段たる変換曲線算出部73と、を有して構
成されている。
Under the control of the control unit 22, the conversion characteristic calculating unit 15 calculates a weighting factor such that the weight of the main subject area estimated by the main subject area estimating unit 14 becomes heavier than the other areas. Under the control of the weighting factor calculation unit 70 as a weighting factor setting unit to be set and the control unit 22, a luminance value of each exposure image is read from the proper exposure extraction unit 13 in the order described below, and a known feature amount for performing edge extraction is used. An edge extraction unit 71 serving as a calculation unit, and a pixel having an edge strength equal to or greater than a predetermined threshold value is selected from the edge image extracted by the edge extraction unit 71, and multiplied by a weight coefficient output from the weight coefficient calculation unit 70. A histogram creation unit 72 as a histogram creation unit for creating a histogram by performing weighting on the histogram;
And a conversion curve calculation unit 73 that is a gradation conversion curve calculation unit that generates a conversion curve by accumulating the histograms output from the second unit 2 and transfers the conversion curve to the luminance correction unit 16.

【0053】なお、この変換特性算出部15は、上記適
正露光抽出部13からまず長時間露光画像に係る輝度信
号を読み込んで上述したように長時間露光画像に係る変
換曲線を作成し、次に、短時間露光画像に係る輝度信号
を読み込んで同様にして短時間露光画像に係る変換曲線
を作成するようになっている。
The conversion characteristic calculating section 15 first reads the luminance signal relating to the long exposure image from the appropriate exposure extracting section 13 and creates a conversion curve relating to the long exposure image as described above. Then, a conversion curve for the short-time exposure image is created in the same manner by reading a luminance signal for the short-time exposure image.

【0054】こうして、上記図2(A)に示したような
構成により、プリ撮影時にフォーカスロックを行った被
写体を主要被写体と判断して、上記図4に示したような
構成により、この主要被写体に重み付けを行った階調変
換を行うことが可能となる。これにより、主要被写体に
割り当てられる階調幅が増加するために、主観的に好ま
しい画像を得ることができる。
In this way, with the configuration as shown in FIG. 2A, the subject for which focus lock has been performed during the pre-shooting is determined as the main subject, and with the configuration as shown in FIG. Can be subjected to tone conversion. As a result, since the gradation width assigned to the main subject increases, a subjectively preferable image can be obtained.

【0055】次に、図2(B)を参照して、上記主要被
写体領域推定部14の構成の第2の例について説明す
る。
Next, a second example of the configuration of the main subject area estimating unit 14 will be described with reference to FIG.

【0056】この図2(B)に示す例は、発光量の異な
る複数枚のストロボ画像をプリ撮影モードで撮影して、
これらから撮影距離に比例するパラメータを求め、フォ
ーカス距離と等しい距離にある物体を主要被写体として
設定するものである。
In the example shown in FIG. 2B, a plurality of stroboscopic images having different light emission amounts are photographed in the pre-shooting mode.
From these, a parameter proportional to the shooting distance is obtained, and an object at a distance equal to the focus distance is set as a main subject.

【0057】すなわち、この構成例における主要被写体
領域推定部14は、制御部22の制御に従って、画像用
バッファ6からストロボを発光させた場合のプリ撮影時
の画像と発光させなかった場合のプリ撮影時の画像とを
読み込み、これらの単板画像を第1画像バッファ42と
第2画像バッファ44とへそれぞれ転送する切換部41
と、この切換部41から送られたストロボを発光させた
場合のプリ撮影時の画像を記憶しておく記憶手段たる第
1画像バッファ42と、この第1画像バッファ42から
画像データを読み出して公知の線形補間処理を行った後
に輝度信号を算出する輝度算出部43と、上記切換部4
1から送られたストロボを発光させなかった場合のプリ
撮影時の画像を記憶しておく記憶手段たる第2画像バッ
ファ44と、この第2画像バッファ44から画像データ
を読み出して公知の線形補間処理を行った後に輝度信号
を算出する輝度算出部45と、上記輝度算出部43から
の輝度信号と上記輝度算出部45からの輝度信号とを除
算処理して後述するように距離情報を求める距離算出手
段たる除算部46と、制御部22の制御に従って、上記
除算部46により求められた距離情報に基づき主要被写
体領域を設定して上記変換特性算出部15へ出力する領
域設定手段たる領域設定部47と、を有して構成されて
いる。
In other words, the main subject area estimating section 14 in this configuration example, under the control of the control section 22, controls the pre-shooting image when the strobe light is emitted from the image buffer 6 and the pre-shooting when the strobe light is not emitted. Switching unit 41 for reading the current image and transferring these single-plate images to the first image buffer 42 and the second image buffer 44, respectively.
A first image buffer 42 as storage means for storing an image at the time of pre-shooting when the strobe sent from the switching unit 41 is fired, and reading image data from the first image buffer A luminance calculating unit 43 that calculates a luminance signal after performing the linear interpolation processing of
A second image buffer 44 as storage means for storing an image at the time of pre-shooting when the strobe sent from 1 is not fired, and image data is read out from the second image buffer 44 to perform a known linear interpolation process. And a luminance calculation unit 45 that calculates a luminance signal after performing the calculation, and a distance calculation that obtains distance information by dividing the luminance signal from the luminance calculation unit 43 and the luminance signal from the luminance calculation unit 45 as described later. In accordance with the control of the dividing unit 46 and the control unit 22, a main subject region is set based on the distance information obtained by the dividing unit 46, and the region setting unit 47 is a region setting unit that outputs the main subject region to the conversion characteristic calculating unit 15. , And is configured.

【0058】ここで、上記除算部46によりストロボ発
光時とストロボ非発光時の輝度信号を除算して距離情報
を求め、この距離情報に基づいて上記領域設定部47に
より主要被写体領域を設定する原理について説明する。
The principle of setting the main subject area by the area setting section 47 based on the distance information is obtained by dividing the luminance signal between when the strobe light is emitted and when the strobe light is not emitted by the dividing section 46. Will be described.

【0059】被写体の反射率をr、被写体面に立てた法
線と上記レンズ系1の光軸とのなす角をα1 、被写体面
に立てた法線と該被写体面からストロボ以外の外部光源
に向かう方向とのなす角をα2 、ストロボ光の明るさを
Ls、ストロボ以外の外部光源の明るさをLa、被写体
までの距離をdとすると、ストロボ光の照射方向と上記
レンズ系1の光軸の方向がほぼ一致するとして、ストロ
ボ発光時の画像の画素値V1 は、
The reflectance of the object is r, the angle between the normal line on the object surface and the optical axis of the lens system 1 is α1, the normal line on the object surface and the external light source other than the strobe from the object surface. Assuming that the angle between the heading direction and α2, the brightness of the strobe light is Ls, the brightness of an external light source other than the strobe is La, and the distance to the subject is d, the irradiation direction of the strobe light and the optical axis of the lens system 1 are described. Are almost the same, the pixel value V1 of the image at the time of flash emission is

【数1】V1 =r×cos(α1 )×Ls/d^2+r×cos
(α2 )×La となる。ここに、記号「^」はべき乗を表している。
V1 = r × cos (α1) × Ls / d ^ 2 + r × cos
(α2) × La. Here, the symbol “^” represents a power.

【0060】一方、ストロボ非発光時の画像の画素値V
2 は、
On the other hand, the pixel value V of the image when the strobe light is not emitted
2 is

【数2】V2 =r×cos(α2 )×La となる。## EQU2 ## V2 = r.times.cos (.alpha.2) .times.La.

【0061】上記数式1により得られる画素値V1 と、
上記数式2により得られる画素値V2 との比を求める
と、
The pixel value V1 obtained by the above equation (1),
When the ratio with the pixel value V2 obtained by the above equation 2 is obtained,

【数3】V1 /V2 ={1/d^2}×{cos(α1 )/cos(α
2 )}×{Ls/La}+1 となるが、Ls/Laは定数項と見なすことができるた
めに、数式3により得られるV1 /V2 は、面の向きの
影響等を除けば、被写体距離dの二乗に反比例すること
になる。すなわち、V1 /V2 の撮影画面内における分
布は、被写体距離dのみに依存した分布となる。よっ
て、上記領域設定部47は、合焦位置における数式3の
値と等価な領域を抽出することにより、合焦距離にある
領域を主要被写体として抽出することができる。
V1 / V2 = {1 / d ^ 2} × {cos (α1) / cos (α)
2)} × {Ls / La} +1, where Ls / La can be regarded as a constant term. Therefore, V1 / V2 obtained from Expression 3 is the object distance except for the influence of the direction of the surface. It will be inversely proportional to the square of d. That is, the distribution of V1 / V2 in the shooting screen is a distribution dependent only on the subject distance d. Therefore, the region setting unit 47 can extract a region at the focal distance as a main subject by extracting a region equivalent to the value of Expression 3 at the focal position.

【0062】続いて、図2(C)を参照して、上記主要
被写体領域推定部14の構成の第3の例について説明す
る。
Next, a third example of the configuration of the main subject area estimating unit 14 will be described with reference to FIG.

【0063】この図2(C)に示す例は、主要被写体が
人物である場合には、時間経過に伴って該主要被写体に
微少な動きが生じることから、プリ撮影モードで撮影し
た画像から動領域を求めて主要被写体として設定するも
のである。
In the example shown in FIG. 2C, when the main subject is a person, a slight movement occurs in the main subject with the passage of time. An area is obtained and set as a main subject.

【0064】この構成例における主要被写体領域推定部
14は、制御部22の制御に従って、画像用バッファ6
からプリ撮影時の画像と本撮影の長時間露光画像とを読
み込み、これらの単板画像を第1画像バッファ52と第
2画像バッファ54とへそれぞれ転送する切換部51
と、この切換部51から送られたプリ撮影時の画像を記
憶しておく記憶手段たる第1画像バッファ52と、この
第1画像バッファ52から画像データを読み出して公知
の線形補間処理を行った後に輝度信号を算出する輝度算
出部53と、上記切換部51から送られた長時間露光画
像を記憶しておく記憶手段たる第2画像バッファ54
と、この第2画像バッファ54から画像データを読み出
して公知の線形補間処理を行った後に輝度信号を算出す
る輝度算出部55と、上記輝度算出部53からの輝度信
号と上記輝度算出部55からの輝度信号とを減算処理す
ることにより動領域を求める差分手段たる減算部56
と、制御部22の制御に従って、上記減算部56により
求められた動領域から所定の範囲内にある動領域を抽出
してこれを人物領域とすることにより主要被写体領域を
設定し上記変換特性算出部15へ出力する領域設定手段
たる領域設定部57と、を有して構成されている。
The main subject area estimating section 14 in this configuration example controls the image buffer 6 under the control of the control section 22.
A switching unit 51 for reading an image at the time of the pre-shooting and a long-time exposure image of the mainshooting, and transferring these single-chip images to the first image buffer 52 and the second image buffer 54, respectively.
A first image buffer 52 serving as a storage unit for storing the image at the time of the pre-shooting sent from the switching unit 51; and image data read out from the first image buffer 52 and subjected to a known linear interpolation process. A luminance calculating section 53 for calculating a luminance signal later; and a second image buffer 54 as a storage means for storing the long-time exposure image sent from the switching section 51
A luminance calculating unit 55 that reads out image data from the second image buffer 54 and performs a known linear interpolation process to calculate a luminance signal; a luminance signal from the luminance calculating unit 53 and a luminance calculating unit 55 Subtraction unit 56 as a difference means for obtaining a moving area by subtracting the luminance signal of
Under the control of the control unit 22, a main subject region is set by extracting a moving region within a predetermined range from the moving region obtained by the subtracting unit 56 and setting the extracted moving region as a person region. And an area setting unit 57 that is an area setting unit that outputs to the unit 15.

【0065】なお、減算部56により動領域を求める場
合には、手振れ等により画像全体がシフトする影響を取
り除いてから行うようにすると良い。
When the moving area is obtained by the subtraction unit 56, it is preferable to remove the influence of shifting the entire image due to camera shake or the like.

【0066】また、上述では、単に動領域のみを抽出し
て主要被写体を検出しているが、さらには、肌色データ
や形状データとのマッチングを行うことで、より高精度
な人物検出を行うことも可能である。
Further, in the above description, the main subject is detected by simply extracting only the moving area. However, by performing matching with skin color data and shape data, a more accurate person detection is performed. Is also possible.

【0067】ここで、上記図2(A)から図2(C)に
示した例は、この撮像システムが自動的に主要被写体領
域を求めるものであったが、手動により主要被写体領域
を指定することも可能である。
Here, in the examples shown in FIGS. 2A to 2C, the imaging system automatically finds the main subject area, but the main subject area is manually designated. It is also possible.

【0068】このような手動操作により主要被写体領域
を指定し得る操作表示部11の具体的な構成例を、図3
を参照して説明する。
FIG. 3 shows a specific configuration example of the operation display section 11 capable of designating a main subject area by such manual operation.
This will be described with reference to FIG.

【0069】まず、図3(A)に示す構成例の操作表示
部11は、この撮像システムに係る各種の情報を表示す
るとともに上記作業用バッファ10に記憶された画像デ
ータを読み出して画像を表示するタッチパネル機能を有
しペン入力可能な画像表示手段たる液晶61と、この液
晶61を表示させるか否かを設定するための液晶0N/
0FFスイッチ62と、上記液晶61へのペン入力を可
能にするか否かを切り換えるための画像表示手段たるペ
ン入力スイッチ63と、この撮像システムに対して数字
等を入力するために用いるテンキーでなる数字キー64
と、上記液晶61に表示されている項目などを選択する
際に用いられる選択手段たる選択キー65と、この選択
キー65により選択された項目を確定するための画像表
示手段であり選択手段たる確定スイッチ66と、を有し
て構成されている。
First, the operation display section 11 of the configuration example shown in FIG. 3A displays various kinds of information relating to the imaging system, and reads out image data stored in the work buffer 10 to display an image. A liquid crystal 61 serving as an image display unit having a touch panel function and capable of inputting by a pen, and a liquid crystal 0N / N for setting whether to display the liquid crystal 61 or not.
It consists of a 0FF switch 62, a pen input switch 63 serving as an image display means for switching whether or not to enable the pen input to the liquid crystal 61, and a numeric keypad used for inputting numbers and the like to the imaging system. Numeric keys 64
And a selection key 65 as a selection means used when selecting an item or the like displayed on the liquid crystal 61, and an image display means for determining an item selected by the selection key 65, and a determination as a selection means. And a switch 66.

【0070】このような構成の操作表示部11を用い
て、主要被写体領域を手動で指定する場合には、上記液
晶0N/0FFスイッチ62を操作することにより、上
記作業用バッファ10から映像信号を読み込ませて液晶
61に表示させる。
When the main subject area is manually designated using the operation display section 11 having such a configuration, the video signal is transmitted from the work buffer 10 by operating the liquid crystal 0N / 0FF switch 62. It is read and displayed on the liquid crystal 61.

【0071】そして、上記ペン入力スイッチ63を操作
してペン入力モードに移行し、液晶61上で図示しない
ペンの先端を接触させながら閉曲線を描くことにより、
主要被写体領域を指定する。
Then, the pen input switch 63 is operated to shift to a pen input mode, and a closed curve is drawn while the tip of a pen (not shown) is brought into contact with the liquid crystal 61 to draw a closed curve.
Specify the main subject area.

【0072】その後に、上記確定スイッチ66を押すこ
とにより、上記制御部22が、指定された閉曲線の内部
を主要被写体領域として抽出し、上記主要被写体領域推
定部14へ転送して、上述したような処理を行わせる。
Thereafter, when the decision switch 66 is pressed, the control section 22 extracts the inside of the designated closed curve as a main subject area and transfers it to the main subject area estimation section 14 as described above. Process.

【0073】次に、図3(B)に示すような他の構成例
の操作表示部11は、上記図3(A)に示したものとほ
ぼ同様に構成されているが、タッチパネル機能を有する
上記液晶61の代わりに通常の画像表示手段たる液晶6
8が用いられ、さらに、上記ペン入力スイッチ63の代
わりに、上記液晶68に表示される画像をブロックに区
分して、区分されたブロックを少なくとも1つ選択する
モードに設定するための画像表示手段たるブロック選択
スイッチ69が設けられている点が異なっている。
Next, the operation display section 11 of another configuration example as shown in FIG. 3B has substantially the same configuration as that shown in FIG. 3A, but has a touch panel function. Liquid crystal 6 as a normal image display means instead of the liquid crystal 61
Image display means for setting a mode in which the image displayed on the liquid crystal 68 is divided into blocks and at least one of the divided blocks is selected instead of the pen input switch 63 The difference is that a block selection switch 69 is provided.

【0074】このような構成の操作表示部11を用い
て、主要被写体領域を手動で指定する場合には、上記液
晶0N/0FFスイッチ62を操作することにより、上
記作業用バッファ10から映像信号を読み込ませて液晶
68に表示させる。
When the main subject area is manually designated using the operation display section 11 having such a configuration, the video signal is transmitted from the work buffer 10 by operating the liquid crystal 0N / 0FF switch 62. It is read and displayed on the liquid crystal 68.

【0075】そして、上記ブロック選択スイッチ69に
よりブロック選択モードに移行すると、液晶68に表示
されている画像が所定サイズのブロック領域に分割され
る。撮影者が、上記選択キー65を操作することによ
り、選択候補となるブロックを上下左右に移動させ、主
要被写体上に移動したところで確定スイッチ66を押す
ことにより、特定のブロック領域が選択される。
When the mode is shifted to the block selection mode by the block selection switch 69, the image displayed on the liquid crystal 68 is divided into block areas of a predetermined size. The photographer operates the selection key 65 to move a block as a selection candidate up, down, left, and right, and presses a decision switch 66 when the block is moved over the main subject, thereby selecting a specific block area.

【0076】制御部22は、指定されたブロック領域を
主要被写体領域として抽出し、主要被写体領域推定部1
4へ転送して、上述したような処理を行わせる。
The control section 22 extracts the designated block area as the main subject area, and
4 to perform the above-described processing.

【0077】なお、上述では、長時間露光画像と短時間
露光画像の二枚の画像を合成する場合について説明した
が、もちろんこれは一例であって、露光量の異なるより
多くの枚数の画像から広ダイナミックレンジ画像を合成
する構成も可能であるし、あるいは、1回の露光により
1枚の画像が得られる通常撮影の場合にも、階調補正を
行うのに適用することが可能である。
In the above description, a case has been described in which two images, a long-time exposure image and a short-time exposure image, are synthesized. However, this is merely an example, and it is assumed that a larger number of images with different exposure amounts are used. A configuration for synthesizing a wide dynamic range image is also possible, or the present invention can be applied to gradation correction even in the case of normal shooting in which one image is obtained by one exposure.

【0078】このような第1の実施形態によれば、画像
中の主要被写体の面積や位置に関わらず、自動または手
動により画像中の主要被写体領域を設定して、該主要被
写体により多くの階調が割り当てられるように階調変換
を行っているために、より主観的に好ましい階調変換が
行われた画像を得ることができる。
According to the first embodiment, the main subject area in the image is set automatically or manually, regardless of the area or position of the main subject in the image, so that the main subject has more floors. Since the tone conversion is performed so that a tone is assigned, it is possible to obtain an image on which a more subjectively preferable tone conversion has been performed.

【0079】図5、図6は本発明の第2の実施形態を示
したものであり、図5は撮像システムの構成を示すブロ
ック図、図6は主要被写体領域推定部の構成例を示すブ
ロック図である。この第2の実施形態において、上述の
第1の実施形態と同様である部分については同一の符号
を付して説明を省略し、主として異なる点についてのみ
説明する。
FIGS. 5 and 6 show a second embodiment of the present invention. FIG. 5 is a block diagram showing a configuration of an imaging system. FIG. 6 is a block diagram showing a configuration example of a main subject area estimating section. FIG. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. Only different points will be mainly described.

【0080】この第2の実施形態の撮像システムは、上
述した第1の実施形態の撮像システムにおけるストロボ
23、操作表示部11、適正露光抽出部13、作業用バ
ッファ19、画像合成部20を除去するとともに、上記
撮像制御部7により制御されて撮像される画像に略該当
する2次元の赤外分布画像を検出しその検出結果を上記
主要被写体領域推定部14に出力する推定手段、赤外セ
ンサ手段、受信手段を兼ねた赤外センサ25を新たに付
加した構成となっている。
The imaging system according to the second embodiment eliminates the strobe 23, the operation display unit 11, the proper exposure extracting unit 13, the working buffer 19, and the image synthesizing unit 20 in the imaging system according to the first embodiment. Estimating means for detecting a two-dimensional infrared distribution image substantially corresponding to an image captured by being controlled by the imaging control unit 7 and outputting the detection result to the main subject region estimating unit 14; An infrared sensor 25 also serving as a means and a receiving means is newly added.

【0081】続いて、この第2の実施形態の作用は、基
本的に上述した第1の実施形態と同等であるために、主
として異なる部分についてのみ、図5に示す信号の流れ
に沿って説明する。
Subsequently, the operation of the second embodiment is basically the same as that of the first embodiment, and therefore, only different parts will be mainly described along the signal flow shown in FIG. I do.

【0082】図示しないシャッタボタンを押すことによ
り、1枚の画像が撮像されて、該画像データが上記画像
用バッファ6へ転送される。
By pressing a shutter button (not shown), one image is captured, and the image data is transferred to the image buffer 6.

【0083】この撮影に連動して、上記撮像制御部7が
赤外センサ25に2次元の赤外分布画像を取り込ませ、
その結果が赤外センサ25から主要被写体領域推定部1
4へ転送される。
In conjunction with this photographing, the imaging control section 7 causes the infrared sensor 25 to capture a two-dimensional infrared distribution image.
The result is sent from the infrared sensor 25 to the main subject area estimating unit 1.
4 is transferred.

【0084】一方、上記画像用バッファ6に記憶されて
いる映像信号は、補間部9により三板状態の信号に変換
されて、作業用バッファ10へ転送される。
On the other hand, the video signal stored in the image buffer 6 is converted into a three-plate signal by the interpolation unit 9 and transferred to the work buffer 10.

【0085】Y/C分離部12は、制御部22の制御に
従って、作業用バッファ10上の三板信号を輝度信号Y
と色差信号Cに分離して、これらの内の輝度信号Yを変
換特性算出部15と輝度補正部16とへ転送する。
The Y / C separation section 12 converts the three signals on the work buffer 10 into a luminance signal Y under the control of the control section 22.
And a chrominance signal C, and the luminance signal Y is transferred to the conversion characteristic calculation unit 15 and the luminance correction unit 16.

【0086】上記主要被写体領域推定部14は、制御部
22の制御に従って、上記赤外センサ25から出力され
る情報に基づいて後述するように主要被写体領域を求
め、これを変換特性算出部15へ転送する。
The main subject area estimating section 14 obtains a main subject area based on information output from the infrared sensor 25 under the control of the control section 22 as described later, and sends it to the conversion characteristic calculating section 15. Forward.

【0087】変換特性算出部15は、上記Y/C分離部
12から送られてきた輝度信号Yの累積ヒストグラム
を、上記主要被写体領域推定部14から送られてきた主
要被写体領域に重み付けをして作成し、その累積ヒスト
グラムに基づいて階調変換を行うための変換曲線を生成
する。
The conversion characteristic calculation section 15 weights the cumulative histogram of the luminance signal Y sent from the Y / C separation section 12 to the main subject area sent from the main subject area estimation section 14. Then, a conversion curve for performing gradation conversion is generated based on the accumulated histogram.

【0088】輝度補正部16は、上記変換特性算出部1
5から送られる変換曲線に基づき、輝度信号Yを変換し
て色差補正部17とY/C合成部18へ転送する。
The brightness correction section 16 is provided with the conversion characteristic calculation section 1.
The luminance signal Y is converted based on the conversion curve sent from the control unit 5 and transferred to the color difference correction unit 17 and the Y / C synthesis unit 18.

【0089】色差補正部17は、Y/C分離部12から
変換前の輝度信号を受け取るとともに、輝度補正部16
からの変換後の輝度信号を受け取り、これら変換前後の
輝度信号と、色の存在し得る理論限界モデルとから、色
差信号を補正するための補正係数を算出して、上記Y/
C分離部12から送られてくる色差信号Cに該補正係数
を乗算する。
The color difference correction section 17 receives the luminance signal before conversion from the Y / C separation section 12 and
, And calculates a correction coefficient for correcting the color difference signal from the luminance signal before and after the conversion and the theoretical limit model in which the color can exist, and calculates the Y / Y
The color difference signal C sent from the C separation unit 12 is multiplied by the correction coefficient.

【0090】Y/C合成部18は、上記色差補正部17
により変換された色差信号と、上記輝度補正部16によ
り変換された輝度信号とを合成して、通常の映像信号と
して出力部21へ転送するようになっている。
The Y / C synthesizing section 18 is provided with the color difference correcting section 17.
Is combined with the luminance signal converted by the luminance correction unit 16 and transferred to the output unit 21 as a normal video signal.

【0091】ここで、図6(A)を参照して、主要被写
体領域推定部14の構成の一例について説明する。
Here, an example of the configuration of the main subject area estimating section 14 will be described with reference to FIG.

【0092】この主要被写体領域推定部14は、制御部
22の制御に従って上記赤外センサ25から送られてく
る赤外分布画像を所定の閾値で二値化する二値化処理部
82と、この二値化処理部82から転送された赤外分布
画像と画像用バッファ6から読み込まれた撮像画像から
一定温度以上の領域を主要被写体の候補領域として抽出
しこの候補領域に関して線形補間処理を行う候補領域設
定手段たる候補領域抽出部81と、この候補領域抽出部
81から転送された候補領域を記憶しておく画像バッフ
ァ83と、この画像バッファ83に記憶されている候補
領域を読み出して色差信号を算出するY/C分離部84
と、肌色に該当する色差信号の範囲が記録されている肌
色検出手段たる肌色データ記録部85と、制御部22の
制御に従って肌色データ記録部85から肌色に該当する
色差信号の範囲を読み出して上記Y/C分離部84から
転送された色差信号と比較することにより人物が含まれ
ていると推定される領域を主要被写体領域として変換特
性算出部15へ転送する領域設定手段たる領域設定部8
6と、を有して構成されている。
The main subject area estimating section 14 binarizes the infrared distribution image sent from the infrared sensor 25 with a predetermined threshold value under the control of the control section 22. From the infrared distribution image transferred from the binarization processing unit 82 and the captured image read from the image buffer 6, an area having a certain temperature or higher is extracted as a candidate area of a main subject, and a linear interpolation process is performed on the candidate area. A candidate area extracting unit 81 as an area setting unit, an image buffer 83 for storing the candidate area transferred from the candidate area extracting unit 81, and a candidate area stored in the image buffer 83 are read out to generate a color difference signal. Y / C separation unit 84 to be calculated
And a skin color data recording unit 85 serving as a skin color detecting unit in which a range of color difference signals corresponding to the skin color is recorded; An area setting unit 8 serving as an area setting unit that transfers an area estimated to include a person by comparing the color difference signal transferred from the Y / C separation unit 84 to the conversion characteristic calculation unit 15 as a main subject area.
6 are provided.

【0093】次に、図6(B)を参照して、主要被写体
領域推定部14の構成の他の例について説明する。
Next, another example of the configuration of the main subject area estimating section 14 will be described with reference to FIG.

【0094】この図6(B)に示す例は、赤外線リモー
トコントロール装置を使用した遠隔撮影時に、該リモー
トコントロール装置の方向を検出して、その方向の所定
サイズの領域を主要被写体領域として設定するようにし
たものである。
In the example shown in FIG. 6B, at the time of remote shooting using an infrared remote control device, the direction of the remote control device is detected, and a region of a predetermined size in that direction is set as a main subject region. It is like that.

【0095】すなわち、この主要被写体領域推定部14
は、制御部22の制御に従って赤外センサ25から出力
される赤外分布画像を所定の閾値で二値化する二値化処
理部91と、この二値化処理部91から転送される赤外
分布画像を所定サイズのブロック領域に分割し各ブロッ
ク内の平均値が最大となるブロックを候補領域とする方
向算出手段たる最大強度ブロック抽出部92と、制御部
22の制御に従って画像用バッファ6から転送された信
号と上記最大強度ブロック抽出部92から転送された候
補領域とから赤外線リモートコントロール装置の方向を
主要被写体領域として変換特性算出部15へ転送する領
域設定手段たる領域設定部93と、を有して構成されて
いる。
That is, the main subject area estimating section 14
Is a binarization processing unit 91 that binarizes an infrared distribution image output from the infrared sensor 25 with a predetermined threshold value under the control of the control unit 22, and an infrared ray transferred from the binarization processing unit 91. The maximum intensity block extraction unit 92, which is a direction calculation unit that divides the distribution image into block regions of a predetermined size and sets a block having the maximum average value in each block as a candidate region, and the image buffer 6 under the control of the control unit 22 An area setting unit 93, which is an area setting unit that transfers the direction of the infrared remote control device as a main subject area to the conversion characteristic calculation unit 15 from the transferred signal and the candidate area transferred from the maximum intensity block extraction unit 92; It is configured to have.

【0096】なお、上述においては1回の露光により1
枚の画像を撮影する通常の場合の構成について説明した
が、この第2の実施形態の構成もこれに限らず、上述し
た第1の実施形態と同様に、長時間露光画像と短時間露
光画像の二枚の画像や異なる露光に係る3枚以上の画像
を合成する場合などにも適用することができる。
Note that, in the above description, one exposure results in 1
Although the configuration in the normal case of capturing a single image has been described, the configuration of the second embodiment is not limited to this, and similarly to the first embodiment described above, the long exposure image and the short exposure image are used. The present invention can be applied to a case where two images or three or more images with different exposures are combined.

【0097】このような第2の実施形態によれば、上述
した第1の実施形態とほぼ同様の効果を奏するととも
に、被写体が人物である場合には体温などにより赤外線
を放出していることに着目して赤外センサを用いるとと
もに、さらに他の赤外線を放出する物体と区別するため
に肌色データと比較することにより、主要被写体領域を
適切に判断することができる。そして、この主要被写体
を重視した階調変換を行うことにより、主要被写体に割
り当てられる階調幅が増加するために、主観的に好まし
い画像を得ることができる。
According to the second embodiment, substantially the same effects as those of the first embodiment can be obtained, and when the subject is a person, infrared rays are emitted due to body temperature or the like. The main subject area can be determined appropriately by using the infrared sensor with attention and comparing it with skin color data to distinguish it from other objects that emit infrared light. Then, by performing the gradation conversion with emphasis on the main subject, the gradation width assigned to the main subject increases, so that a subjectively preferable image can be obtained.

【0098】また、赤外線リモートコントロール装置を
用いた遠隔撮影を行う場合には、被写体を兼ねた撮影者
が撮影画面内で該赤外線リモートコントロール装置を発
光させるために、赤外センサにより検出される赤外分布
画像中の最大強度を検出することにより、被写体の方向
を特定することが可能となる。
When performing remote shooting using an infrared remote control device, a photographer who also serves as a subject emits the infrared remote control device within a shooting screen, so that a red light detected by an infrared sensor is used. By detecting the maximum intensity in the outside distribution image, the direction of the subject can be specified.

【0099】なお、本発明は上述した実施形態に限定さ
れるものではなく、発明の主旨を逸脱しない範囲内にお
いて種々の変形や応用が可能であることは勿論である。
The present invention is not limited to the above-described embodiment, and it goes without saying that various modifications and applications are possible without departing from the gist of the invention.

【0100】[0100]

【発明の効果】以上説明したように請求項1による本発
明の撮像システムによれば、異なる露光条件で撮像した
複数の画像における、主要被写体領域と各画像の適正露
光域とを求めて、主要被写体領域に階調幅が重点的に配
分されるように階調補正を行って各画像を合成すること
により、画像内における主要被写体の面積や位置に関わ
らず、主要被写体に適切な階調幅が付与されるために、
高品位な画像を得ることができる。
As described above, according to the imaging system of the present invention, the main subject area and the proper exposure area of each image in a plurality of images taken under different exposure conditions are determined. By combining each image by performing gradation correction so that the gradation width is mainly distributed to the subject area, an appropriate gradation width is given to the main subject regardless of the area or position of the main subject in the image To be
High quality images can be obtained.

【0101】また、請求項2による本発明の撮像システ
ムによれば、一の撮影画像における主要被写体領域を求
めて、主要被写体に階調幅が重点的に配分されるように
階調補正を行うことにより、画像内における主要被写体
の面積や位置に関わらず、主要被写体に適切な階調幅が
付与されるために、高品位な画像を得ることができる。
Further, according to the imaging system of the present invention, the main subject area in one photographed image is obtained, and the gradation correction is performed so that the gradation width is mainly distributed to the main subject. Accordingly, an appropriate gradation width is given to the main subject regardless of the area and position of the main subject in the image, so that a high-quality image can be obtained.

【0102】さらに、請求項3による本発明の撮像シス
テムによれば、請求項1または請求項2に記載の発明と
同様の効果を奏するとともに、フォーカスロックされた
際の合焦検出領域を、本撮影画像とマッチングさせるこ
とにより主要被写体領域を求めるようにしているため
に、主要被写体にフォーカスロックされることを巧みに
用いて、主要被写体を推定することができる。
Further, according to the image pickup system of the present invention, the same effects as those of the first or second invention can be obtained, and the focus detection area when the focus is locked can be changed. Since the main subject area is obtained by matching with the photographed image, the main subject can be estimated by skillfully using the fact that the main subject is focus-locked.

【0103】請求項4による本発明の撮像システムによ
れば、請求項1または請求項2に記載の発明と同様の効
果を奏するとともに、プリ撮影時の発光量の異なるスト
ロボ撮影画像から距離情報を求めて、本撮影時の合焦距
離と等価な距離にある領域を主要被写体領域とすること
により、良好な精度で主要被写体を推定することができ
る。
According to the image pickup system of the present invention, the same effect as that of the first or second embodiment is obtained, and the distance information is obtained from the flash photographed images having different light emission amounts at the time of the pre-photograph. By determining an area at a distance equivalent to the focusing distance at the time of actual shooting as the main subject area, the main subject can be estimated with good accuracy.

【0104】請求項5による本発明の撮像システムによ
れば、請求項1または請求項2に記載の発明と同様の効
果を奏するとともに、プリ撮影画像と本撮影画像との差
分をとることにより動領域を求めて主要被写体領域とす
ることにより、人物等には微少な動きがあることを巧み
に利用して、主要被写体を推定することができる。
According to the imaging system of the present invention, the same effects as those of the first or second embodiment can be obtained, and the motion can be obtained by taking the difference between the pre-photographed image and the main photographed image. By determining the area and setting it as the main subject area, the fact that a person or the like has a slight movement can be skillfully used to estimate the main subject.

【0105】請求項6による本発明の撮像システムによ
れば、請求項1または請求項2に記載の発明と同様の効
果を奏するとともに、タッチパネル機能を有する画像表
示手段を用いて手動で主要被写体位置を設定することに
より、撮影者の意図する領域に適切な階調幅を付与する
ことができる。
According to the imaging system of the present invention, the same effects as those of the first or second aspect can be obtained, and the main subject position can be manually adjusted by using image display means having a touch panel function. , An appropriate gradation width can be given to a region intended by the photographer.

【0106】請求項7による本発明の撮像システムによ
れば、請求項1または請求項2に記載の発明と同様の効
果を奏するとともに、画像表示手段の領域を選択するこ
とにより、撮影者の意図する領域に適切な階調幅を付与
することができ、かつ、タッチパネル機能が不要である
ためにより安価に構成することができる。
According to the imaging system of the present invention, the same effects as those of the first or second aspect can be obtained, and the photographer's intention can be selected by selecting the area of the image display means. An appropriate gradation width can be given to the region to be touched, and the touch panel function is not required, so that the configuration can be made more inexpensively.

【0107】請求項8による本発明の撮像システムによ
れば、請求項1または請求項2に記載の発明と同様の効
果を奏するとともに、赤外センサ手段により所定以上の
赤外線を放出している領域を検出し、該領域の内で肌色
成分を有する領域をさらに検出することにより、人物で
ある場合の主要被写体を適切に推定することができる。
According to the imaging system of the present invention, the same effect as that of the first or second aspect is obtained, and the infrared sensor means emits infrared light of a predetermined or more. Is detected, and a region having a flesh color component is further detected in the region, so that a main subject in the case of a person can be appropriately estimated.

【0108】請求項9による本発明の撮像システムによ
れば、請求項1または請求項2に記載の発明と同様の効
果を奏するとともに、リモートコントロール信号の発信
方向を算出して発信方向の所定サイズの領域を主要被写
体領域と設定することにより、リモートコントロール装
置を用いて遠隔操作していると考えられる主要被写体を
適切に推定することができる。
According to the ninth aspect of the present invention, the same effect as that of the first or second aspect is obtained, and the transmission direction of the remote control signal is calculated to determine the predetermined size of the transmission direction. By setting the region as the main subject region, it is possible to appropriately estimate the main subject that is considered to be remotely controlled using the remote control device.

【0109】請求項10による本発明の撮像システムに
よれば、請求項1または請求項2に記載の発明と同様の
効果を奏するとともに、主要被写体領域に重み付けをし
たエッジヒストグラムから階調変換曲線を算出すること
により、主要被写体に適切な階調幅を付与させることが
可能となる。
According to the tenth aspect of the present invention, the same effect as that of the first or second aspect is obtained, and the gradation conversion curve is obtained from the edge histogram weighting the main subject area. By calculating, it is possible to give an appropriate gradation width to the main subject.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態における撮像システム
の構成を示すブロック図。
FIG. 1 is a block diagram showing a configuration of an imaging system according to a first embodiment of the present invention.

【図2】上記第1の実施形態の撮像システムにおける主
要被写体領域推定部の構成例を示すブロック図。
FIG. 2 is a block diagram showing a configuration example of a main subject area estimation unit in the imaging system according to the first embodiment.

【図3】上記第1の実施形態の撮像システムにおける操
作表示部の構成例を示す図。
FIG. 3 is a diagram showing a configuration example of an operation display unit in the imaging system according to the first embodiment.

【図4】上記第1の実施形態の撮像システムにおける変
換特性算出部の構成を示すブロック図。
FIG. 4 is a block diagram illustrating a configuration of a conversion characteristic calculation unit in the imaging system according to the first embodiment.

【図5】本発明の第2の実施形態における撮像システム
の構成を示すブロック図。
FIG. 5 is a block diagram illustrating a configuration of an imaging system according to a second embodiment of the present invention.

【図6】上記第2の実施形態の撮像システムにおける主
要被写体領域推定部の構成例を示すブロック図。
FIG. 6 is a block diagram showing a configuration example of a main subject area estimation unit in the imaging system according to the second embodiment.

【符号の説明】[Explanation of symbols]

1…レンズ系 2…絞り 4…CCD 7…撮像制御部 9…補間部 11…操作表示部(推定手段) 12…Y/C分離部 13…適正露光抽出部(抽出手段) 14…主要被写体領域推定部(推定手段、領域設定手
段) 15…変換特性算出部(補正手段) 16…輝度補正部(補正手段) 17…色差補正部(補正手段) 18…Y/C合成部 19…作業用バッファ 20…画像合成部(合成手段) 21…出力部 22…制御部 23…ストロボ(推定手段、ストロボ手段) 25…赤外センサ(推定手段、赤外センサ手段、受信手
段) 31,41,51…切換部 32…プリ撮影画像バッファ 33…トリミング部(対象画像設定手段) 34…対象画像バッファ 35…本撮影画像バッファ 36…マッチング部(マッチング手段) 37,47,57…領域設定部(領域設定手段) 42,52…第1画像バッファ(記憶手段) 43,45,53,55…輝度算出部 44,54…第2画像バッファ(記憶手段) 46…除算部(距離算出手段) 56…減算部(差分手段) 61,68…液晶(画像表示手段) 62…液晶0N/0FFスイッチ 63…ペン入力スイッチ(画像表示手段) 65…選択キー(選択手段) 66…確定スイッチ(画像表示手段、選択手段) 69…ブロック選択スイッチ(画像表示手段) 70…重み係数算出部(重み係数設定手段) 71…エッジ抽出部(特徴量算出手段) 72…ヒストグラム作成部(ヒストグラム作成手段) 73…変換曲線算出部(階調変換曲線算出手段) 81…候補領域抽出部(候補領域設定手段) 82,91…二値化処理部 85…肌色データ記録部(肌色検出手段) 86…領域設定部(領域設定手段) 92…最大強度ブロック抽出部(方向算出手段) 93…領域設定部(領域設定手段)
DESCRIPTION OF SYMBOLS 1 ... Lens system 2 ... Aperture 4 ... CCD 7 ... Imaging control part 9 ... Interpolation part 11 ... Operation display part (estimation means) 12 ... Y / C separation part 13 ... Appropriate exposure extraction part (extraction means) 14 ... Main subject area Estimating section (estimating means, area setting means) 15: conversion characteristic calculating section (correcting means) 16: luminance correcting section (correcting means) 17: color difference correcting section (correcting means) 18: Y / C synthesizing section 19: working buffer Reference Signs List 20 image synthesizing unit (synthesizing unit) 21 output unit 22 control unit 23 strobe (estimating unit, strobe unit) 25 infrared sensor (estimating unit, infrared sensor unit, receiving unit) 31, 41, 51 Switching unit 32: Pre-captured image buffer 33: Trimming unit (target image setting unit) 34: Target image buffer 35: Main captured image buffer 36: Matching unit (matching unit) 37, 47, 57: Area setting Determining sections (area setting means) 42, 52: First image buffer (storage means) 43, 45, 53, 55 ... Luminance calculation sections 44, 54 ... Second image buffer (storage means) 46: Dividing section (distance calculation means) 56 ... Subtractor (difference means) 61, 68 ... Liquid crystal (image display means) 62 ... Liquid crystal 0N / 0FF switch 63 ... Pen input switch (image display means) 65 ... Selection key (selection means) 66 ... Confirmation switch (image) Display means, selection means) 69: block selection switch (image display means) 70: weight coefficient calculation section (weight coefficient setting means) 71: edge extraction section (feature amount calculation means) 72: histogram creation section (histogram creation means) 73 ... Conversion curve calculation unit (gradation conversion curve calculation means) 81 ... Candidate area extraction unit (candidate area setting means) 82,91 ... Binarization processing unit 85 ... Skin color data recording unit ( Color detection means) 86 ... area setting unit (region setting means) 92 ... maximum intensity block extraction section (direction calculation means) 93 ... area setting unit (region setting means)

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 同一の被写体に対して異なる露光条件で
撮像した複数の画像からなる画像群を処理して一の広ダ
イナミックレンジ画像を生成する撮像システムであっ
て、 撮像した画像中の主要被写体領域を推定する推定手段
と、 上記画像群中の各画像毎に画像信号レベルに基づき適正
露光域を抽出する抽出手段と、 この抽出手段により抽出された適正露光域に対して、上
記推定手段により推定された主要被写体領域に重点的に
階調幅が配分されるように、階調補正を行う補正手段
と、 この補正手段により階調補正を行った各画像の適正露光
域を合成することにより、一の広ダイナミックレンジ画
像を生成する合成手段と、 を具備したことを特徴とする撮像システム。
An imaging system for processing an image group consisting of a plurality of images of the same subject captured under different exposure conditions to generate one wide dynamic range image, wherein a main subject in the captured image is provided. Estimating means for estimating a region; extracting means for extracting an appropriate exposure area based on an image signal level for each image in the image group; and estimating means for the appropriate exposure area extracted by the extracting means. By synthesizing a corrector that performs tone correction and an appropriate exposure area of each image that has been subjected to tone correction by the corrector, so that the tone width is mainly distributed to the estimated main subject area, An image capturing system comprising: a synthesizing unit that generates one wide dynamic range image.
【請求項2】 撮像した画像の階調幅を調整することに
より階調が補正された画像を生成する撮像システムであ
って、 撮像した画像中の主要被写体領域を推定する推定手段
と、 この推定手段により推定された主要被写体領域に重点的
に階調幅が配分されるように、上記撮像した画像の階調
補正を行う補正手段と、を具備したことを特徴とする撮
像システム。
2. An imaging system for generating an image whose gradation is corrected by adjusting a gradation width of a captured image, comprising: an estimation unit configured to estimate a main subject region in the captured image; And a correcting means for performing tone correction of the captured image so that the tone width is distributed with emphasis on the main subject area estimated by the above.
【請求項3】 上記推定手段は、 フォーカスロックされた際の合焦検出領域である画面中
央部の画像を対象画像として設定する対象画像設定手段
と、 この対象画像設定手段により設定された対象画像と、本
撮影時に撮像された画像とのマッチングを行うマッチン
グ手段と、 このマッチング手段により上記対象画像とのマッチング
が最大であると判断された上記本撮影画像中の領域を、
主要被写体領域として設定する領域設定手段と、 を有してなるものであることを特徴とする請求項1また
は請求項2に記載の撮像システム。
3. The target image setting means for setting, as a target image, an image at the center of the screen, which is a focus detection area when focus is locked, and a target image set by the target image setting means. And a matching unit that performs matching with an image captured at the time of the main shooting, and an area in the main shooting image that is determined by the matching unit to have the maximum matching with the target image,
3. The imaging system according to claim 1, further comprising: an area setting unit configured to set the main subject area.
【請求項4】 当該撮像システムは、本撮影を行うに先
だって複数回のプリ撮影を行うものであり、 上記推定手段は、 上記複数回のプリ撮影毎に異なる発光量で照明光を照射
するストロボ手段と、 プリ撮影して得られる異なる発光量での照明に係る複数
の画像を記憶する記憶手段と、 この記憶手段に記憶されているプリ撮影時の画像を読み
出して、各画像の輝度信号の比をとることにより距離情
報を算出する距離算出手段と、 この距離算出手段から算出される距離情報に基づき、本
撮影時の合焦距離と等価な距離にある領域を主要被写体
領域として設定する領域設定手段と、 を有してなるものであることを特徴とする請求項1また
は請求項2に記載の撮像システム。
4. The imaging system according to claim 1, wherein a plurality of pre-photographing operations are performed prior to the main photographing operation. Means for storing a plurality of images related to illumination with different light emission amounts obtained by pre-photographing; reading out the images at the time of pre-photography stored in the storage means; A distance calculating means for calculating distance information by taking a ratio; and an area for setting, as a main subject area, an area at a distance equivalent to the in-focus distance at the time of actual photographing based on the distance information calculated by the distance calculating means. The imaging system according to claim 1, further comprising: a setting unit.
【請求項5】 当該撮像システムは、本撮影を行うに先
だってプリ撮影を行うものであり、 上記推定手段は、 プリ撮影して得られる画像を記憶する記憶手段と、 この記憶手段に記憶されているプリ撮影時の画像を読み
出して、本撮影して得られる画像との差分情報を取得す
る差分手段と、 この差分手段から得られる差分情報に基づいて、所定閾
値以上の差分がある領域を主要被写体領域として設定す
る領域設定手段と、 を有してなるものであることを特徴とする請求項1また
は請求項2に記載の撮像システム。
5. The imaging system according to claim 1, wherein said image capturing system performs pre-photographing prior to actual photographing. The estimating means includes a storage means for storing an image obtained by pre-photographing; A difference means for reading an image at the time of the pre-shooting and obtaining difference information from an image obtained by the main shooting; and, based on the difference information obtained from the difference means, an area having a difference equal to or greater than a predetermined threshold value. The imaging system according to claim 1, further comprising: an area setting unit that sets an object area.
【請求項6】 上記推定手段は、 タッチパネル機能を有する画像表示手段と、 この画像表示手段のタッチパネル機能により指定された
領域を主要被写体領域として設定する領域設定手段と、 を有してなるものであることを特徴とする請求項1また
は請求項2に記載の撮像システム。
6. The estimating means includes: image display means having a touch panel function; and area setting means for setting an area specified by the touch panel function of the image display means as a main subject area. The imaging system according to claim 1, wherein the imaging system is provided.
【請求項7】 上記推定手段は、 複数の所定サイズの領域に分割された画像表示手段と、 上記複数の領域の内の少なくとも1つの領域を選択する
選択手段と、 この選択手段により選択された領域を主要被写体領域と
して設定する領域設定手段と、 を有してなるものであることを特徴とする請求項1また
は請求項2に記載の撮像システム。
7. The estimating unit includes: an image display unit that is divided into a plurality of regions of a predetermined size; a selecting unit that selects at least one of the plurality of regions; 3. The imaging system according to claim 1, further comprising: an area setting unit that sets an area as a main subject area.
【請求項8】 上記推定手段は、 撮像される画像に略該当する被写体領域の赤外分布状況
を取得する赤外センサ手段と、 この赤外センサ手段により取得された赤外分状況から所
定の閾値以上の領域を候補領域として設定する候補領域
設定手段と、 この候補領域設定手段により設定された候補領域に対し
て肌色成分の検出を行う肌色検出手段と、 この肌色検出手段により肌色成分を含むと判断された領
域を主要被写体領域として設定する領域設定手段と、 を有してなるものであることを特徴とする請求項1また
は請求項2に記載の撮像システム。
8. An infrared sensor means for acquiring an infrared distribution state of a subject region substantially corresponding to a captured image, and a predetermined infrared component state obtained from the infrared state obtained by the infrared sensor means. Candidate area setting means for setting an area equal to or larger than a threshold value as a candidate area; skin color detecting means for detecting a skin color component with respect to the candidate area set by the candidate area setting means; 3. An imaging system according to claim 1, further comprising: an area setting unit that sets an area determined to be a main subject area.
【請求項9】 当該撮像システムは、リモートコントロ
ール装置を用いた遠隔操作による撮影が可能となるよう
に構成されており、 上記推定手段は、 上記リモートコントロール装置から送信されるリモート
コントロール信号を受信する受信手段と、 この受信手段により受信したリモートコントロール信号
の発信方向を算出する方向算出手段と、 この方向算出手段により算出された発信方向の所定サイ
ズの領域を主要被写体領域として設定する領域設定手段
と、 を有してなるものであることを特徴とする請求項1また
は請求項2に記載の撮像システム。
9. The imaging system according to claim 1, wherein the image capturing system is configured to be capable of performing remote control image capturing using a remote control device, and wherein the estimating unit receives a remote control signal transmitted from the remote control device. Receiving means; direction calculating means for calculating a transmitting direction of the remote control signal received by the receiving means; area setting means for setting a predetermined size area of the transmitting direction calculated by the direction calculating means as a main subject area; The imaging system according to claim 1, wherein the imaging system comprises:
【請求項10】 上記補正手段は、 上記主要被写体領域の重みが該主要被写体領域以外の領
域に比して重くなるような重み係数を設定する重み係数
設定手段と、 上記撮像した画像から特徴量を算出する特徴量算出手段
と、 上記重み係数設定手段により設定された重み係数と、上
記特徴量算出手段により算出された特徴量とに基づい
て、重み付きヒストグラムを作成するヒストグラム作成
手段と、 このヒストグラム作成手段により作成されたヒストグラ
ムに基づき、階調変換曲線を算出する階調変換曲線算出
手段と、 を有してなるものであることを特徴とする請求項1また
は請求項2に記載の撮像システム。
10. A weighting factor setting means for setting a weighting factor such that a weight of the main subject region is heavier than a region other than the main subject region; And a histogram creating means for creating a weighted histogram based on the weighting factor set by the weighting factor setting means and the feature amount calculated by the feature amount calculating means. 3. The image pickup apparatus according to claim 1, further comprising: a gradation conversion curve calculation unit that calculates a gradation conversion curve based on the histogram created by the histogram creation unit. system.
JP2001029959A 2001-02-06 2001-02-06 Imaging system Pending JP2002232777A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001029959A JP2002232777A (en) 2001-02-06 2001-02-06 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001029959A JP2002232777A (en) 2001-02-06 2001-02-06 Imaging system

Publications (1)

Publication Number Publication Date
JP2002232777A true JP2002232777A (en) 2002-08-16

Family

ID=18894238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001029959A Pending JP2002232777A (en) 2001-02-06 2001-02-06 Imaging system

Country Status (1)

Country Link
JP (1) JP2002232777A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006217277A (en) * 2005-02-03 2006-08-17 Nikon Corp Imaging device
JP2007124280A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging apparatus
WO2007063731A1 (en) * 2005-12-01 2007-06-07 Olympus Corporation Camera system
JP2008529435A (en) * 2005-02-03 2008-07-31 ソニー エリクソン モバイル コミュニケーションズ, エービー Method and apparatus for generating a high dynamic range image by multiple exposures
JP2009027634A (en) * 2007-07-23 2009-02-05 Canon Inc Imaging apparatus and its control method
JP2009053216A (en) * 2007-08-23 2009-03-12 Ricoh Co Ltd Imaging apparatus and imaging method
JP2009517981A (en) * 2005-11-30 2009-04-30 イーストマン コダック カンパニー Digital image exposure and tone scale adjustment
US7596307B2 (en) 2002-12-25 2009-09-29 Nikon Corporation Blur correction camera system
JP2010028596A (en) * 2008-07-23 2010-02-04 Hitachi Ltd Image sensing device
CN103002211A (en) * 2011-09-08 2013-03-27 奥林巴斯映像株式会社 Photographic device
JP2014011729A (en) * 2012-07-02 2014-01-20 Olympus Imaging Corp Imaging device
WO2015025740A1 (en) * 2013-08-22 2015-02-26 ソニー株式会社 Control device, control method, and electronic device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000228747A (en) * 1998-12-03 2000-08-15 Olympus Optical Co Ltd Picture processor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000228747A (en) * 1998-12-03 2000-08-15 Olympus Optical Co Ltd Picture processor

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7596307B2 (en) 2002-12-25 2009-09-29 Nikon Corporation Blur correction camera system
US7711253B2 (en) 2002-12-25 2010-05-04 Nikon Corporation Blur correction camera system
JP2006217277A (en) * 2005-02-03 2006-08-17 Nikon Corp Imaging device
US7916181B2 (en) 2005-02-03 2011-03-29 Sony Ericsson Mobile Communications Ab Method and device for creating high dynamic range pictures from multiple exposures
JP2008529435A (en) * 2005-02-03 2008-07-31 ソニー エリクソン モバイル コミュニケーションズ, エービー Method and apparatus for generating a high dynamic range image by multiple exposures
JP4595569B2 (en) * 2005-02-03 2010-12-08 株式会社ニコン Imaging device
JP2007124280A (en) * 2005-10-28 2007-05-17 Nikon Corp Imaging apparatus
JP4870779B2 (en) * 2005-11-30 2012-02-08 イーストマン コダック カンパニー Digital image exposure and tone scale adjustment
JP2009517981A (en) * 2005-11-30 2009-04-30 イーストマン コダック カンパニー Digital image exposure and tone scale adjustment
JP2007158544A (en) * 2005-12-01 2007-06-21 Olympus Corp Camera system
WO2007063731A1 (en) * 2005-12-01 2007-06-07 Olympus Corporation Camera system
US8081236B2 (en) 2005-12-01 2011-12-20 Olympus Corporation Camera system capable of performing exposure control processing combined with gradation conversion processing
JP4628937B2 (en) * 2005-12-01 2011-02-09 オリンパス株式会社 Camera system
JP2009027634A (en) * 2007-07-23 2009-02-05 Canon Inc Imaging apparatus and its control method
JP2009053216A (en) * 2007-08-23 2009-03-12 Ricoh Co Ltd Imaging apparatus and imaging method
JP2010028596A (en) * 2008-07-23 2010-02-04 Hitachi Ltd Image sensing device
CN103002211A (en) * 2011-09-08 2013-03-27 奥林巴斯映像株式会社 Photographic device
JP2013058922A (en) * 2011-09-08 2013-03-28 Olympus Imaging Corp Photographing device
JP2014011729A (en) * 2012-07-02 2014-01-20 Olympus Imaging Corp Imaging device
WO2015025740A1 (en) * 2013-08-22 2015-02-26 ソニー株式会社 Control device, control method, and electronic device
CN105379248A (en) * 2013-08-22 2016-03-02 索尼公司 Control device, control method, and electronic device
US9998679B2 (en) 2013-08-22 2018-06-12 Sony Corporation Control device, control method, and electronic device to control an exposure amount of a pixel group
CN105379248B (en) * 2013-08-22 2019-08-09 索尼公司 Control device, control method and electronic device

Similar Documents

Publication Publication Date Title
US7796831B2 (en) Digital camera with face detection function for facilitating exposure compensation
JP4628937B2 (en) Camera system
US8106995B2 (en) Image-taking method and apparatus
JP5066398B2 (en) Image processing apparatus and method, and program
US7298402B2 (en) Image-pickup apparatus with expanded dynamic range capabilities
US7565068B2 (en) Image-taking apparatus
US7706674B2 (en) Device and method for controlling flash
US8937677B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable medium
US20040061796A1 (en) Image capturing apparatus
US20130050542A1 (en) Image processing apparatus and photographing apparatus
JP4668956B2 (en) Image processing apparatus and method, and program
US8237854B2 (en) Flash emission method and flash emission apparatus
JP2003224769A (en) Digital camera
JP2017022610A (en) Image processing apparatus and image processing method
JP2009017477A (en) Imaging device and imaging method
JP4796007B2 (en) Imaging device
JP4160205B2 (en) Electronic still camera
JP2002232777A (en) Imaging system
JP2008148180A (en) Imaging apparatus, image processing device and method, and computer program
JP2007188126A (en) Image brightness calculation device, method, and program
JP2010093679A (en) Imaging apparatus, and imaging control method
CN110324529B (en) Image processing apparatus and control method thereof
JP6108680B2 (en) Imaging apparatus, control method therefor, program, and storage medium
JP2019029833A (en) Imaging apparatus
JP2009017427A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100112

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100518