JP2016139927A - Image processing apparatus, image processing method, image processing program and imaging device - Google Patents

Image processing apparatus, image processing method, image processing program and imaging device Download PDF

Info

Publication number
JP2016139927A
JP2016139927A JP2015013600A JP2015013600A JP2016139927A JP 2016139927 A JP2016139927 A JP 2016139927A JP 2015013600 A JP2015013600 A JP 2015013600A JP 2015013600 A JP2015013600 A JP 2015013600A JP 2016139927 A JP2016139927 A JP 2016139927A
Authority
JP
Japan
Prior art keywords
image
determination
unit
color
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015013600A
Other languages
Japanese (ja)
Other versions
JP6616573B2 (en
Inventor
由加 市川
Yuka Ichikawa
由加 市川
高済 真哉
Masaya Takasumi
真哉 高済
野中 修
Osamu Nonaka
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2015013600A priority Critical patent/JP6616573B2/en
Publication of JP2016139927A publication Critical patent/JP2016139927A/en
Application granted granted Critical
Publication of JP6616573B2 publication Critical patent/JP6616573B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Processing Of Color Television Signals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To ensure an effect for enhancing the reproducibility of color, even in a scene where correct exposure cannot be obtained.SOLUTION: An image processing apparatus includes an image acquisition unit for acquiring a plurality of images of different brightness for the same subject, an image storage unit for storing the plurality of images, a first determination unit performing color component determination of a predetermined object region in an image, by using an image of first brightness out of the plurality of images stored in the image storage unit, a second determination unit performing region determination of the object region, by using an image of second brightness out of the plurality of images stored in the image storage unit, and an image correction unit for generating a correction image, where the colors of color component determination results are applied to the object region in one image, out of the plurality of images, on the basis of the determination results from the first and second determination units.SELECTED DRAWING: Figure 1

Description

本発明は、色の視認性又は再現性を向上させるようにした画像処理装置、画像処理方法、画像処理プログラム及び撮像装置に関する。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, and an imaging apparatus that improve color visibility or reproducibility.

近年、デジタルカメラなどの撮影機能付き携帯機器(撮像装置)が普及している。この種の撮像装置においては表示部を備えて、撮影画像を表示する機能を有するものもある。更に、表示部にメニュー画面を表示して、撮像装置の操作を容易にしたものもある。   In recent years, portable devices (imaging devices) with a photographing function such as digital cameras have become widespread. Some image pickup apparatuses of this type include a display unit and have a function of displaying a captured image. Further, there is a display screen that displays a menu screen to facilitate the operation of the imaging apparatus.

また、撮像装置においては、撮影時の種々の設定が自動化されたものがある。例えば、デジタルカメラ等には、ピント合わせを自動化したAF機能や、露出を自動化した自動露出(AE)機能を搭載したものがある。また、撮像装置においては、ホワイトバランス補正を自動化したオートホワイトバランス機能を搭載したものもある。例えば、特許文献1においては、光源の種類を判別してホワイトバランス制御を行うことで、被写体の色の再現性を向上させた装置が開示されている。   In some imaging apparatuses, various settings at the time of shooting are automated. For example, some digital cameras and the like are equipped with an AF function that automates focusing and an automatic exposure (AE) function that automates exposure. Some imaging apparatuses have an auto white balance function that automates white balance correction. For example, Patent Document 1 discloses an apparatus that improves the color reproducibility of a subject by determining the type of light source and performing white balance control.

特開2010−50740号公報JP 2010-50740 A

しかしながら、従来、撮像装置は、被写体や露出の状態によっては、色等の再現性が低下してしまうことがある。撮像装置は、撮影範囲の平均的な反射光量や注目被写体からの反射光量等を測定して露出を制御している。従って、撮影範囲内の明るさの分布によっては、撮影範囲の全域で適切な露出が得られるとは限らない。例えば、暗い背景や建物と明るいネオンや窓とが混在した夜景を撮影する場合には、ネオンや明るい窓等の光源部分と他の部分との輝度差が大きいことから、光源部分が白く飽和して撮影されることがある。また、光源部分は、にじんだりぼけたりして、形状が明瞭ではなく、更に、サイズも大きく、しかも色は全く再現できないこともある。同様の事は、スポット的に光が当たったところや、光が届かないところなどでも起こる。   However, conventionally, an imaging apparatus may have a low color reproducibility depending on the subject and the exposure state. The imaging device controls exposure by measuring an average reflected light amount in a photographing range, a reflected light amount from a subject of interest, and the like. Therefore, depending on the distribution of brightness within the shooting range, appropriate exposure may not be obtained throughout the shooting range. For example, when shooting night scenes with dark backgrounds and buildings mixed with bright neon lights and windows, the brightness difference between the light source parts such as neon and light windows and other parts is large, so the light source part is saturated white. May be taken. In addition, the light source part may be blurred or blurred, the shape is not clear, the size is large, and the color may not be reproduced at all. The same thing happens in places where light hits the spot or where the light does not reach.

なお、夜景のシーンに限らず、撮影範囲の全域において適正露出が得られないシーンを撮影する場合もあり、露出の状態によっては、色や形状を正しく再現することができないことがあるという問題があった。   In addition, not only night scenes but also scenes where proper exposure cannot be obtained over the entire shooting range, there is a problem that colors and shapes may not be reproduced correctly depending on the state of exposure. there were.

本発明は、適正露出が得られないシーンにおいても、色についての視認性又は再現性を向上させることができる画像処理装置、画像処理方法、画像処理プログラム及び撮像装置を提供することを目的とする。   An object of the present invention is to provide an image processing device, an image processing method, an image processing program, and an imaging device that can improve the visibility or reproducibility of colors even in a scene where proper exposure cannot be obtained. .

本発明に係る画像処理装置は、同一被写体について明るさが異なる複数の画像を取得する画像取得部と、上記複数の画像を蓄積する画像蓄積部と、上記画像蓄積部に蓄積された複数の画像のうち第1の明るさの画像を用いて、画像中の所定の対象領域の色成分判定を行う第1判定部と、上記画像蓄積部に蓄積された複数の画像のうち第2の明るさの画像を用いて、上記対象領域の領域判定を行う第2判定部と、上記第1及び第2判定部の判定結果に基づいて、上記複数の画像のうちの1つの画像中の上記対象領域に上記色成分判定の結果の色を適用した補正画像を生成する画像補正部とを具備する。   An image processing apparatus according to the present invention includes an image acquisition unit that acquires a plurality of images with different brightness for the same subject, an image storage unit that stores the plurality of images, and a plurality of images stored in the image storage unit. A first determination unit that performs color component determination of a predetermined target area in the image using an image having the first brightness, and a second brightness among the plurality of images stored in the image storage unit. A second determination unit that performs region determination of the target region using the image of the target, and the target region in one of the plurality of images based on the determination results of the first and second determination units And an image correction unit for generating a corrected image to which the color resulting from the color component determination is applied.

また、本発明に係る撮像装置は、同一被写体について明るさが異なる複数の画像を撮像可能な撮像部と、上記撮像部からの上記複数の画像を蓄積する画像蓄積部と、上記画像蓄積部に蓄積された複数の画像のうち第1の明るさの画像を用いて、画像中の所定の対象領域の色成分判定を行う第1判定部と、上記画像蓄積部に蓄積された複数の画像のうち第2の明るさの画像を用いて、上記対象領域の領域判定を行う第2判定部と、上記第1及び第2判定部の判定結果に基づいて、上記複数の画像のうちの1つの画像中の上記対象領域に上記色成分判定の結果の色を適用した補正画像を生成する画像補正部とを具備する。   In addition, an imaging apparatus according to the present invention includes an imaging unit that can capture a plurality of images with different brightness for the same subject, an image storage unit that stores the plurality of images from the imaging unit, and the image storage unit. A first determination unit that performs color component determination of a predetermined target region in the image using an image having a first brightness among the plurality of stored images, and a plurality of images stored in the image storage unit. Of these, based on the determination results of the second determination unit that performs region determination of the target region using the second brightness image, and the determination results of the first and second determination units, one of the plurality of images And an image correction unit that generates a corrected image in which the color as a result of the color component determination is applied to the target region in the image.

また、本発明に係る画像処理方法は、同一被写体について明るさが異なる複数の画像を取得する画像取得ステップと、上記複数の画像を蓄積する画像蓄積ステップと、上記画像蓄積ステップにおいて蓄積された複数の画像のうち第1の明るさの画像を用いて、画像中の所定の対象領域の色成分判定を行う第1判定ステップと、上記画像蓄積ステップにおいて蓄積された複数の画像のうち第2の明るさの画像を用いて、上記対象領域の領域判定を行う第2判定ステップと、上記第1及び第2判定ステップの判定結果に基づいて、上記複数の画像のうちの1つの画像中の上記対象領域に上記色成分判定の結果の色を適用した補正画像を生成する画像補正ステップとを具備する。   The image processing method according to the present invention includes an image acquisition step for acquiring a plurality of images with different brightness for the same subject, an image storage step for storing the plurality of images, and a plurality of images stored in the image storage step. A first determination step for determining a color component of a predetermined target region in the image using an image having the first brightness among the images of the second image, and a second of the plurality of images stored in the image storage step Based on the determination result of the second determination step for performing the region determination of the target region using an image of brightness and the determination results of the first and second determination steps, the above-mentioned one of the plurality of images And an image correction step of generating a corrected image in which the color resulting from the color component determination is applied to the target area.

また、本発明に係る画像処理プログラムは、コンピュータに、同一被写体について明るさが異なる複数の画像を取得する画像取得ステップと、上記複数の画像を蓄積する画像蓄積ステップと、上記画像蓄積ステップにおいて蓄積された複数の画像のうち第1の明るさの画像を用いて、画像中の所定の対象領域の色成分判定を行う第1判定ステップと、上記画像蓄積ステップにおいて蓄積された複数の画像のうち第2の明るさの画像を用いて、上記対象領域の領域判定を行う第2判定ステップと、上記第1及び第2判定ステップの判定結果に基づいて、上記複数の画像のうちの1つの画像中の上記対象領域に上記色成分判定の結果の色を適用した補正画像を生成する画像補正ステップとを実行させる。   In addition, an image processing program according to the present invention stores in a computer an image acquisition step of acquiring a plurality of images with different brightness for the same subject, an image storage step of storing the plurality of images, and the image storage step. A first determination step for determining a color component of a predetermined target area in the image using an image having a first brightness among the plurality of images, and among the plurality of images stored in the image storage step One image of the plurality of images based on the second determination step for determining the region of the target region using the second brightness image and the determination results of the first and second determination steps. And an image correction step of generating a corrected image in which the color resulting from the color component determination is applied to the target region.

本発明によれば、画像各部の輝度差が大きいシーンにおいても、色についての視認性又は再現性を向上させることができるという効果を有する。   According to the present invention, there is an effect that the visibility or reproducibility of colors can be improved even in a scene where the luminance difference of each part of the image is large.

本発明の第1の実施の形態に係る画像処理装置が組み込まれた撮像装置の回路構成を示すブロック図。1 is a block diagram showing a circuit configuration of an imaging apparatus incorporating an image processing apparatus according to a first embodiment of the present invention. 本実施の形態における色の判定及び形状の判定方法の概要を説明するための説明図。Explanatory drawing for demonstrating the outline | summary of the determination method of the color in this Embodiment, and the determination method of a shape. 本実施の形態における色の判定及び形状の判定方法の概要を説明するための説明図。Explanatory drawing for demonstrating the outline | summary of the determination method of the color in this Embodiment, and the determination method of a shape. 画像処理装置20の処理を説明するためのフローチャート。4 is a flowchart for explaining processing of the image processing apparatus 20; 画像処理装置20の処理を説明するためのフローチャート。4 is a flowchart for explaining processing of the image processing apparatus 20; 光点についての撮像装置1における色判定及び領域判定の処理を説明するためのフローチャート。6 is a flowchart for explaining color determination and area determination processing in the imaging apparatus 1 for a light spot. 本発明の第2の実施の形態において採用される動作フローを示すフローチャート。The flowchart which shows the operation | movement flow employ | adopted in the 2nd Embodiment of this invention. 本発明の第3の実施の形態において採用される動作フローを示すフローチャート。The flowchart which shows the operation | movement flow employ | adopted in the 3rd Embodiment of this invention. 本実施の形態を説明するための説明図である。It is explanatory drawing for demonstrating this Embodiment. 本実施の形態を説明するための説明図である。It is explanatory drawing for demonstrating this Embodiment. 本実施の形態を説明するための説明図である。It is explanatory drawing for demonstrating this Embodiment.

以下、図面を参照して本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
図1は本発明の第1の実施の形態に係る画像処理装置が組み込まれた撮像装置の回路構成を示すブロック図である。本実施の形態における撮像装置1は、同一被写体について露出を変化させながら撮像して得られる複数の画像(以下、露出が異なる画像という)又は同一被写体について明るさが異なる複数の画像を取得し、露出又は明るさが異なる各画像から画像中の一部の色や形状を判定可能な画像を選択して色や形状の判定を行い、判定結果に基づいて画像合成を行うことで画像全域に亘って色の再現性又は視認性、形状の再現性を向上させた画像を得るものである。
(First embodiment)
FIG. 1 is a block diagram showing a circuit configuration of an imaging apparatus incorporating an image processing apparatus according to the first embodiment of the present invention. The imaging apparatus 1 in the present embodiment acquires a plurality of images obtained by imaging while changing the exposure of the same subject (hereinafter referred to as images having different exposures) or a plurality of images having different brightness with respect to the same subject, Select images that can be used to determine the color or shape of a part of the image from images with different exposure or brightness, determine the color or shape, and perform image composition based on the determination result to cover the entire image. Thus, an image with improved color reproducibility or visibility and shape reproducibility is obtained.

色は、RGB信号の比率や信号量によって決まるが、本明細書では特に取得時に失われると再現できないRGB信号の比率を「色」または「色成分」と表現しており、その情報さえあれば、信号量の方は増幅などの補正、置き換えによって再現の自由度は大きいと考えて説明している。また、色は、スペクトル成分の比率を求めることで判定でき、明細書中における「色」、または「色成分」は、RGB信号だけでなくその他のスペクトル成分の比率を得る各種信号によって得られるものを意味する。画面の特徴や画像の状況に応じて、色再現時の信号量に関しては、標準的な信号量や色ごとに見栄えの良い信号量に補正してもよい。分かりやすい例で言えば、表示画面で警告や指示やスイッチ類を示すアイコンや字幕等で採用した信号量でもよい。スーパーインポーズなどでアイコンや字幕の表示をすると、背景などによっては見栄えが悪くなることが知られているが、この場合、アイコンも明るさ調整などを行う事がある。   The color is determined by the RGB signal ratio and signal amount. In this specification, the ratio of the RGB signal that cannot be reproduced if lost especially at the time of acquisition is expressed as “color” or “color component”. The signal amount is explained by assuming that the degree of freedom of reproduction is greater by correction and replacement such as amplification. In addition, the color can be determined by determining the ratio of the spectral components, and “color” or “color component” in the specification is obtained by various signals that obtain the ratio of other spectral components as well as the RGB signals. Means. Depending on screen characteristics and image conditions, the signal amount at the time of color reproduction may be corrected to a standard signal amount or a good signal amount for each color. In an easy-to-understand example, the signal amount may be adopted for warnings, instructions, icons indicating switches, subtitles, etc. on the display screen. When icons or subtitles are displayed in superimpose, it is known that the appearance may deteriorate depending on the background. In this case, the icons may be adjusted in brightness.

先ず、図2及び図3の説明図を参照して本実施の形態における色の判定(上述のように特にRGB比だが、信号量も判定してもよい)及び形状の判定方法の概要を説明する。
図2は所定の露出量で夜景を撮影して得られた撮像画像を示している。画像41は、空の画像部分42、星印で示す星の画像部分43、建物の画像部分44及び建物の窓等から漏れる明かりやネオン等による光点の画像部分45を含む。比較的暗い夜景においては、画像全体を表現するのにふさわしい適正な露出量(例えば夜景に対する適正露出量)と、画像の個々の位置の色を表現するのに適正な露出量との差が比較的大きい。例えば、デジタルカメラにおける夜景モードでは、建物等の形状を視認可能なように、比較的大きな露出量で撮影が行われる。この結果、明るい光点の画像部分45は、像信号が飽和し、実際の光の色に拘わらず白くなると共に、にじみが生じてサイズも実際より大きくなり、形状も判別不能となる。
First, referring to the explanatory diagrams of FIGS. 2 and 3, an outline of the color determination method (in particular, the RGB ratio as described above, but the signal amount may be determined) and the shape determination method in the present embodiment will be described. To do.
FIG. 2 shows a captured image obtained by photographing a night scene with a predetermined exposure amount. The image 41 includes a sky image portion 42, a star image portion 43 indicated by an asterisk, a building image portion 44, and a light spot image portion 45 caused by light or neon leaking from a building window or the like. In a relatively dark night scene, the difference between the appropriate exposure value suitable for expressing the entire image (for example, the appropriate exposure value for the night scene) and the appropriate exposure value for expressing the color of each position in the image is compared. Big. For example, in the night view mode of a digital camera, shooting is performed with a relatively large exposure amount so that the shape of a building or the like can be visually recognized. As a result, the image portion 45 of the bright light spot is saturated with the image signal, and becomes white regardless of the actual color of light, blurring occurs, the size becomes larger than the actual size, and the shape cannot be discriminated.

なお、光点は、例えば部屋を照らすランプの光が窓から漏れて光った点(部分)であるが、ランプからの照明光が直接撮像される場合もあり、この場合には、光点は光源そのものである。   Note that the light spot is, for example, a point (part) where the light from the lamp that illuminates the room leaks from the window, but the illumination light from the lamp may be directly imaged. In this case, the light spot is The light source itself.

図3は横軸に所定時間間隔毎の時間をとり縦軸に電荷蓄積量をとって、図2の画像41を得るデジタルカメラの撮像素子の電荷蓄積量の変化を示すものである。図3(a)は画像41中の所定の光点の画像部分の中心部分に対応し、図3(b)は図3(a)の光点の画像部分の周辺部分に対応する。図3は露出量A〜Dにて示す4つの時間における色成分RGB毎の電荷蓄積量を示している。   FIG. 3 shows changes in the charge accumulation amount of the image sensor of the digital camera that obtains the image 41 of FIG. 2 with the horizontal axis representing the time for each predetermined time interval and the vertical axis representing the charge accumulation amount. 3A corresponds to the central portion of the image portion of the predetermined light spot in the image 41, and FIG. 3B corresponds to the peripheral portion of the image portion of the light spot in FIG. 3A. FIG. 3 shows the charge accumulation amount for each of the color components RGB in the four times indicated by the exposure amounts A to D.

各色成分RGBは、時間の経過と共に電荷蓄積量が増大して明るさは変化するが、色は色成分RGB相互間の比率から求めることができる。色成分RGBの比率が正しく得られない場合には、色を正しく再現することはできない。なお、実際には、RGBの比率だけでは色が正しいとは言えず、明るさといった信号量も再現する必要があるが、単純化して標準的な信号量での色(RGB信号比)を想定している。図3(a)の例では、光点におけるR成分の電荷蓄積量は、露出量Dの時間において撮像素子に許容された飽和量を超えていることを示している。このため、露出量Dの時間では、撮像素子によって得られる色成分RGB相互間の比率が崩れて、本来の色を再現することはできない。言い換えると、色成分RGBの蓄積電荷量のいずれも飽和量に達していなければ、光点であっても色を判定することができる。そこで、本実施の形態においては、色再現のために、例えば、比較的低い露出量の画像を選択して色の判定を行う。例えば、露出量Cの時点において色成分RGBの成分比率を求めることで、その光点特有の色を判定することができる。なお、ノイズの影響を考慮すると、所定の露出量以上の露出量で色の判定を行った方がよい。   For each color component RGB, the amount of charge accumulation increases with time and the brightness changes, but the color can be obtained from the ratio between the color components RGB. If the ratio of the color components RGB cannot be obtained correctly, the colors cannot be reproduced correctly. Actually, it cannot be said that the color is correct only by the RGB ratio, and it is necessary to reproduce the signal amount such as brightness, but it is simplified to assume a color with a standard signal amount (RGB signal ratio). doing. In the example of FIG. 3A, it is shown that the charge accumulation amount of the R component at the light spot exceeds the saturation amount allowed for the image sensor in the time of the exposure amount D. For this reason, in the time of the exposure amount D, the ratio between the color components RGB obtained by the image sensor collapses, and the original color cannot be reproduced. In other words, if none of the accumulated charge amounts of the color components RGB reaches the saturation amount, the color can be determined even at the light spot. Therefore, in the present embodiment, for color reproduction, for example, an image with a relatively low exposure amount is selected and color determination is performed. For example, by obtaining the component ratio of the color component RGB at the time of the exposure amount C, it is possible to determine the color specific to the light spot. In consideration of the influence of noise, it is better to perform color determination with an exposure amount equal to or greater than a predetermined exposure amount.

なお、彩度によってRGBの比は変化するが、彩度が一定でも露出量が変わると同じ色でも明るかったり暗かったりして印象が異なるので、色合いにふさわしい露出量、あるいは信号量(標準信号量)も合わせて判定するようにしても良い。仮に露出に応じて彩度が変わる場合は、例えば最も高い彩度、即ち、色成分RGBの比が最も大きい場合の露出量において求めた色成分RGBの比率によって、色を判定してもよいし、ノイズレベルからの差が最も大きい露出量でのRGBの比率によってもよい。もちろん、他の部位の彩度や露出を参照して色判定(色成分判定)してもよく、このような工夫によって、ムラの少ない画像表現が可能となる。   The RGB ratio changes depending on the saturation, but if the exposure is changed even if the saturation is constant, the impression will be different even if the same color is bright or dark, so the exposure or signal amount (standard signal amount) appropriate for the hue. ) May also be determined. If the saturation changes according to the exposure, the color may be determined based on, for example, the ratio of the color components RGB obtained at the highest saturation, that is, the exposure amount when the ratio of the color components RGB is the largest. The ratio of RGB at the exposure amount having the largest difference from the noise level may be used. Of course, color determination (color component determination) may be performed with reference to the saturation and exposure of other parts, and such an idea makes it possible to express an image with less unevenness.

本実施の形態においては、判定した色を元の画像部分に適用することで、色の再現性を向上させる。例えば、判定した色による塗り潰し(標準信号量で、または、周りの信号量、露出量に合わせるレベルで)を行ってもよく、また、元の画像部分の周辺に向かうに従ってグラデーションを掛けてもよい。   In the present embodiment, the color reproducibility is improved by applying the determined color to the original image portion. For example, the determined color may be filled (with a standard signal amount, or at a level that matches the surrounding signal amount and exposure amount), and gradation may be applied toward the periphery of the original image portion. .

また、光点の画像部分に、判定した色を適用するためには、判定した色を適用すべき領域、即ち、光点の画像部分の画像中における領域(以下、光点領域という)を判定する必要がある。光点領域の検出のためには、形状を認識するのに適した露出又は明るさの画像が必要となる。   In addition, in order to apply the determined color to the image portion of the light spot, the region to which the determined color is to be applied, that is, the region in the image of the image portion of the light spot (hereinafter referred to as the light spot region) is determined. There is a need to. In order to detect the light spot region, an image having an exposure or brightness suitable for recognizing the shape is required.

シーンによっては、光点領域においては明るさは、一様ではなく所定の分布を有する。光点領域中の比較的暗い領域では、色判定(色成分判定)に用いた露出量では十分な明るさが得られず、形状を判定することができないことが考えられる。図3(b)はこのような光点領域中の周辺領域の電荷蓄積量を示しており、露出量(信号量)Cでは、形状を正確に判定できるほど十分な電荷蓄積量が得られていないことを示している。   Depending on the scene, the brightness is not uniform and has a predetermined distribution in the light spot region. In a relatively dark region in the light spot region, it is conceivable that sufficient brightness cannot be obtained with the exposure amount used for color determination (color component determination), and the shape cannot be determined. FIG. 3B shows the charge accumulation amount in the peripheral region in such a light spot region. With the exposure amount (signal amount) C, a sufficient charge accumulation amount is obtained so that the shape can be accurately determined. It shows no.

光点中心は比較的明るいのに対し、中心からずれるに従って次第に暗くなり、周辺領域は必ずしも明るくないことがある。このため、露出量が低すぎると、光点中心近傍のみが検出され、光点の全体が検出されないことが考えられる。このように、露出量が比較的低い画像では、形が正しく現れないことが考えられる。光点の形状(光点領域)の検出のためには、光点中心部分の電荷蓄積量は飽和していてもよいので、十分に高い露出量で撮像された画像を選択する。例えば、図3の例では、光点領域の判定には、十分な電荷蓄積量が得られる露出量Dにおける画像を用いる。   While the center of the light spot is relatively bright, it gradually becomes darker as it deviates from the center, and the surrounding area may not necessarily be bright. For this reason, if the exposure amount is too low, it is conceivable that only the vicinity of the light spot center is detected and the entire light spot is not detected. Thus, it is conceivable that the shape does not appear correctly in an image with a relatively low exposure amount. In order to detect the shape of the light spot (light spot region), the charge accumulation amount at the center of the light spot may be saturated, so an image picked up with a sufficiently high exposure amount is selected. For example, in the example of FIG. 3, an image at the exposure amount D at which a sufficient charge accumulation amount is obtained is used for determining the light spot region.

なお、露出量が高過ぎる場合には、光点の画像部分が実際よりも広がって検出されたり、他の光点部分と重複した領域に検出されたりすることがあるので、光点領域を判定する場合にも適宜の露出量を設定する必要がある。   If the amount of exposure is too high, the image area of the light spot may be detected wider than it actually is, or it may be detected in an area overlapping with other light spot parts. In this case, it is necessary to set an appropriate exposure amount.

以上のように、図3の例では、色判定(色成分判定)のために露出量Cの画像を用い、光点領域判定のためには露出量Dの画像を用いる。例えば、露出量Dの画像から光点領域を判定し、画像全体として適正な露出量の画像の光点領域に、露出量Cの画像を用いて判定した色を適用する。これにより、画像全体として比較的鮮明で且つ光点における色及び形状も明瞭な画像を得ることができる。   As described above, in the example of FIG. 3, an image with the exposure amount C is used for color determination (color component determination), and an image with the exposure amount D is used for light spot region determination. For example, the light spot region is determined from the image with the exposure amount D, and the color determined using the image with the exposure amount C is applied to the light spot region of the image with the appropriate exposure amount as the entire image. As a result, it is possible to obtain an image that is relatively clear as a whole and clear in color and shape at the light spot.

上述した説明は、デジタルカメラの撮像時に適用することができるだけでなく、外部から取り込んだ画像の編集時にも適用可能である。即ち、同一被写体について露出量が異なる複数の画像を撮像して取得するのではなく、同一被写体について異なる明るさの画像を取得すればよい。例えば、比較的暗い画像から光点部分のRGB成分の比率に基づいて色を判定することができ、比較的明るい画像から光点部分の領域を判定することができる。こうして、判定した色を光点領域の画像部分に見栄えの良い明るさ(標準信号量でも画像の他の部分とのバランスで決まる信号量でも良い)で埋め込むことで、光点領域の色及び形状を再現した画像を得ることができる。   The above description can be applied not only when an image is captured by a digital camera, but also when an image captured from the outside is edited. That is, instead of capturing and acquiring a plurality of images with different exposure amounts for the same subject, it is only necessary to acquire images with different brightness for the same subject. For example, the color can be determined based on the ratio of the RGB components of the light spot portion from a relatively dark image, and the region of the light spot portion can be determined from a relatively bright image. Thus, the color and shape of the light spot region can be obtained by embedding the determined color in the image portion of the light spot region with a good-looking brightness (either a standard signal amount or a signal amount determined by a balance with other parts of the image). Can be obtained.

図1において、撮像装置1は画像処理装置20及び撮像部10を含む。画像処理装置20には撮像部10からの撮像画像が与えられる。画像取得部21は撮像部10からの画像を取り込むようになっている。画像取得部21には撮像制御部22が設けられており、撮像制御部22は撮像部10を制御する。   In FIG. 1, the imaging device 1 includes an image processing device 20 and an imaging unit 10. The image processing apparatus 20 is provided with a captured image from the imaging unit 10. The image acquisition unit 21 captures an image from the imaging unit 10. The image acquisition unit 21 is provided with an imaging control unit 22, and the imaging control unit 22 controls the imaging unit 10.

撮像部10は、CCDやCMOSセンサ等の図示しない撮像素子と、被写体の光学像を撮像素子の撮像面に導く図示しない光学系とを備える。光学系は、ズームやフォーカシングのためのレンズ及び絞り等を備えている。   The imaging unit 10 includes an imaging device (not shown) such as a CCD or CMOS sensor, and an optical system (not shown) that guides an optical image of a subject to the imaging surface of the imaging device. The optical system includes a lens and a diaphragm for zooming and focusing.

撮像制御部22は、撮像部10の撮像素子及び光学系を駆動制御する。例えば、撮像制御部22は、ズームやフォーカシングのためのレンズ及び絞りを駆動して、ズーム及びピント位置や絞りを変更することができる。また、撮像制御部22は、撮像部10の撮像素子を駆動制御して、撮像素子からの撮像画像を取得することができるようになっている。また、撮像制御部22は、撮像素子からの画素信号の読み出しに際して、画素信号を必要に応じて加算したり間引いたりして出力することもできる。   The imaging control unit 22 drives and controls the imaging element and the optical system of the imaging unit 10. For example, the imaging control unit 22 can change a zoom and focus position and an aperture by driving a lens and an aperture for zooming and focusing. In addition, the imaging control unit 22 can drive and control the imaging device of the imaging unit 10 and acquire a captured image from the imaging device. The imaging control unit 22 can also add and thin out the pixel signals as necessary when outputting the pixel signals from the imaging device.

更に、本実施の形態においては、撮像制御部22は、撮像素子のシャッタスピード、露光時間等を制御して、同一被写体について異なる露出量で撮像された露出量が異なる複数の撮像画像を撮像部10に撮像させることができるようになっている。こうして、画像取得部21は、露出量が異なる複数の撮像画像を取得する。なお、シャッタスピード、露光時間を一定にした場合でも、画素加算の有無等によっても得られる画像の明るさは異なり、本実施の形態はこのような場合も含むものである。撮像素子によっては、感度切換機能を有するものもあるが、このような手法を利用しても良い。   Furthermore, in the present embodiment, the imaging control unit 22 controls the shutter speed, exposure time, and the like of the imaging element, and captures a plurality of captured images that are captured with different exposure amounts for the same subject. 10 can be imaged. In this way, the image acquisition unit 21 acquires a plurality of captured images with different exposure amounts. Even when the shutter speed and the exposure time are fixed, the brightness of the obtained image varies depending on the presence or absence of pixel addition and the like, and this embodiment includes such a case. Some image sensors have a sensitivity switching function, but such a method may be used.

なお、上述したように、画像処理装置20は同一被写体について異なる明るさの複数の画像を取得することができればよく、例えば異なる露出量で撮像された複数の画像を図示しない通信部やメモリ等から取得するようになっていてもよい。この場合には、図1の撮像部10は省略することができ、撮像部10を制御する撮像制御部22を省略した画像処理装置のみによって、本実施の形態を構成することができる。   Note that, as described above, the image processing device 20 only needs to be able to acquire a plurality of images with different brightness for the same subject. For example, a plurality of images captured with different exposure amounts can be obtained from a communication unit or a memory (not shown). You may come to get. In this case, the imaging unit 10 in FIG. 1 can be omitted, and the present embodiment can be configured only by an image processing apparatus in which the imaging control unit 22 that controls the imaging unit 10 is omitted.

画像取得部21が取得した複数の画像は画像蓄積部23に与えられる。画像蓄積部23は、入力された複数の画像を蓄積する。即ち、画像蓄積部23は、同一被写体について、露出量又は明るさが異なる複数の画像を蓄積することができる。画像蓄積部23は、蓄積した画像を第1判定部24及び第2判定部25に出力すると共に、画像補正部27にも出力する。なお、異なる露出量で撮像して得られた画像は結果的に明るさが異なるので、以後、明るさが異なる画像は露出量が異なる画像を含むものとして、露出量が異なる画像の記載又は明るさが異なる画像の記載を省略することがある。   The plurality of images acquired by the image acquisition unit 21 are given to the image storage unit 23. The image storage unit 23 stores a plurality of input images. That is, the image storage unit 23 can store a plurality of images with different exposure amounts or brightnesses for the same subject. The image storage unit 23 outputs the stored image to the first determination unit 24 and the second determination unit 25 and also outputs to the image correction unit 27. In addition, since images obtained by imaging with different exposure amounts have different brightness as a result, hereinafter, images with different exposure amounts are described as brightness images including different exposure amounts or brightness. Description of images with different lengths may be omitted.

画像処理装置20には、制御部26が設けられている。制御部26は、例えば、図示しないメモリに記憶されたプログラムに従って制御を行う図示しないCPU等のプロセッサによって構成することができ、画像処理装置20の各部を制御するようになっている。また、画像処理装置20の他の各回路部も、図示しない1つ又は複数のプロセッサによって構成してもよい。   The image processing apparatus 20 is provided with a control unit 26. The control unit 26 can be configured by a processor such as a CPU (not shown) that performs control according to a program stored in a memory (not shown), for example, and controls each unit of the image processing apparatus 20. Further, each other circuit unit of the image processing apparatus 20 may be configured by one or a plurality of processors (not shown).

画像補正部27は、入力された画像に対して、所定の信号処理、例えば、色調整処理、マトリックス変換処理、ノイズ除去処理、その他各種の信号処理を行うこともできる。画像補正部27は、入力された撮像画像に対して後述する画像合成(画像補正)処理を行って表示制御部29に出力することができる。なお、画像補正部27は、入力された画像に対して画像補正を行うことなくそのまま表示制御部29に与えることもできる。   The image correction unit 27 can also perform predetermined signal processing, such as color adjustment processing, matrix conversion processing, noise removal processing, and other various signal processing, on the input image. The image correction unit 27 can perform an image composition (image correction) process, which will be described later, on the input captured image and output the processed image to the display control unit 29. Note that the image correction unit 27 can also directly apply the input image to the display control unit 29 without performing image correction on the input image.

表示制御部29は、表示に関する各種処理を実行する。表示制御部29は、与えられた画像を表示部31に与えて表示させることができる。表示部31は、LCD等の表示画面を有しており、表示制御部29から与えられた画像を表示する。また、表示制御部29は、各種メニュー表示等を表示部31の表示画面に表示させることもできるようになっている。   The display control unit 29 executes various processes related to display. The display control unit 29 can give the given image to the display unit 31 for display. The display unit 31 has a display screen such as an LCD, and displays an image given from the display control unit 29. In addition, the display control unit 29 can display various menu displays on the display screen of the display unit 31.

なお、表示部31の表示画面は撮像装置1の筐体の背面に沿って設けられており、撮影者は、撮影時に表示部31の表示画面上に表示されたスルー画等を確認することができ、スルー画等を確認しながら撮影操作を行うこともできる。   Note that the display screen of the display unit 31 is provided along the rear surface of the housing of the imaging device 1, and the photographer may check a through image displayed on the display screen of the display unit 31 at the time of shooting. It is also possible to perform a shooting operation while confirming a through image.

操作判定部28は、図示しないシャッタボタン、ファンクションボタン、撮影モード設定等の各種スイッチ等を含む操作部32に対するユーザ操作を受け付けるようになっている。また、表示部31の表示画面上には、タッチパネル31aが設けられている。タッチパネル31aは、ユーザが指で指し示した表示画面上の位置やスライド操作に応じた操作信号を発生することができる。この操作信号も操作判定部28に供給される。操作判定部28は操作部32及びタッチパネル31aに対する操作を判定して、判定結果を制御部26に与える。こうして、制御部26はユーザの指示に従って画像補正処理を含む各部の制御を行うことができる。   The operation determination unit 28 receives user operations on the operation unit 32 including various buttons such as a shutter button, a function button, and a shooting mode setting (not shown). A touch panel 31 a is provided on the display screen of the display unit 31. The touch panel 31a can generate an operation signal corresponding to a position on the display screen pointed by the user with a finger or a slide operation. This operation signal is also supplied to the operation determination unit 28. The operation determination unit 28 determines an operation on the operation unit 32 and the touch panel 31 a and gives a determination result to the control unit 26. In this way, the control unit 26 can control each unit including the image correction process in accordance with a user instruction.

本実施の形態においては、第1判定部24は、入力された画像の各部について色判定(色成分判定)を行って判定結果を画像補正部27に出力するようになっている。また、第2判定部25は、入力された画像の各部について形状判定を行って、画像中の当該形状部分の領域(以下、対象領域という)を示す判定結果を画像補正部27に出力するようになっている。例えば、第1判定部24は、光点の色判定を行って判定結果を出力し、第2判定部25は、光点領域の領域判定を行って判定結果を出力する。   In the present embodiment, the first determination unit 24 performs color determination (color component determination) on each part of the input image and outputs the determination result to the image correction unit 27. The second determination unit 25 performs shape determination on each part of the input image, and outputs a determination result indicating the region of the shape part in the image (hereinafter referred to as a target region) to the image correction unit 27. It has become. For example, the first determination unit 24 performs light spot color determination and outputs a determination result, and the second determination unit 25 performs light spot region determination and outputs the determination result.

例えば、第1及び第2判定部24,25は、画像蓄積部23からの画像中の露出が適正でない画像部分又は明るさが適正でない画像部分について、当該画像部分の色及び形状の判定に適した露出量又は明るさの画像を用いて判定を行う。なお、第1及び第2判定部24,25は、判定に適した露出量又は明るさの画像を、例えばRGB成分のレベルに基づいて選択してもよく、また、制御部26によって指定されてもよい。例えば、制御部26は、予め設定された露出量の画像を判定に用いるように第1及び第2判定部24,25を制御してもよい。   For example, the first and second determination units 24 and 25 are suitable for determining the color and shape of an image portion where the exposure from the image storage unit 23 is not appropriate or the image portion where the brightness is not appropriate. Judgment is performed using an image of the exposure amount or brightness. Note that the first and second determination units 24 and 25 may select an image with an exposure amount or brightness suitable for determination based on, for example, the level of the RGB components, and are designated by the control unit 26. Also good. For example, the control unit 26 may control the first and second determination units 24 and 25 so as to use an image having a preset exposure amount for the determination.

また、第1判定部24は、色判定に際して、画像内における明るさの分布も同時に判定するようにしてもよい。同様に、第2判定部25は、対象領域の判定に際して、明るさの分布も同時に判定するようにしてもよい。   The first determination unit 24 may determine the brightness distribution in the image at the same time as the color determination. Similarly, the second determination unit 25 may determine the brightness distribution at the same time when determining the target region.

本実施の形態においては、画像補正部27は、第1判定部24及び第2判定部25の判定結果が与えられて、画像蓄積部23から入力された画像に対して、第2判定部25により判定された対象領域について第1判定部24により判定された色(や、それに基づくその適正な明るさ)を適用して画像を補正することで補正画像を生成する。例えば、画像補正部27は、画像蓄積部23から画像全体として適正露出で撮像された画像又は画像の全体的な明るさが適正な画像を取得して元画像とし、この元画像中の露出が適正でない画像部分又は明るさが適正でない画像部分を対象領域として、当該対象領域について第1判定部24により求められた色のパターンで、当該対象領域を塗り潰すことにより補正画像を生成する。また、画像補正部27は、対象領域の塗り潰しに際して、対象領域の明るさの分布に略従った(それでいて、色の視認性が良い)グラデーションを施してもよい。なお、色の視認性は、RGBのような色成分の比率だけでは決まらず、被写体などによって見栄えの良い明るさが異なるが、表示部において表示する視認性がよいアイコン表示の明るさなどを参考にしてもよく、色ごとに決めたり、周りの明るさや画像全体の明るさなどによって調整しても良い。画像補正部27は、生成した補正画像を記録部33に与えて記録させる。なお、画像補正部27は、画像蓄積部23から与えられた補正前の画像についてもそのまま記録部33に与えて記録させてもよい。   In the present embodiment, the image correction unit 27 is given the determination results of the first determination unit 24 and the second determination unit 25, and performs the second determination unit 25 on the image input from the image storage unit 23. The corrected image is generated by correcting the image by applying the color determined by the first determination unit 24 (or the appropriate brightness based thereon) for the target region determined by the above. For example, the image correction unit 27 acquires an image captured with appropriate exposure as the entire image from the image storage unit 23 or an image with appropriate overall brightness as an original image, and the exposure in the original image is A correction image is generated by filling the target area with a color pattern obtained by the first determination unit 24 for the target area, which is an inappropriate image part or an image part whose brightness is not appropriate. In addition, the image correction unit 27 may perform gradation in accordance with the brightness distribution of the target area (but with good color visibility) when filling the target area. Note that the color visibility is not determined only by the ratio of the color components such as RGB, but the brightness that looks good depends on the subject, but the brightness of the icon display that is displayed on the display section is also helpful. Alternatively, it may be determined for each color, or may be adjusted according to the brightness of the surroundings or the brightness of the entire image. The image correcting unit 27 gives the generated corrected image to the recording unit 33 for recording. Note that the image correction unit 27 may also give the image before correction given from the image storage unit 23 to the recording unit 33 as it is for recording.

なお、記録部33としては、種々の記録媒体を採用することができる。例えば、記録部33として、カードインターフェースを採用して、メモリカード等の記録媒体に画像を記録可能である。   As the recording unit 33, various recording media can be employed. For example, a card interface is employed as the recording unit 33, and an image can be recorded on a recording medium such as a memory card.

次に、このように構成された実施の形態の動作について図4乃至図6を参照して説明する。図4及び図5は画像処理装置20の処理を説明するためのフローチャートである。また、図6は光点についての撮像装置1における色判定及び領域判定の処理を説明するためのフローチャートである。   Next, the operation of the embodiment configured as described above will be described with reference to FIGS. 4 and 5 are flowcharts for explaining the processing of the image processing apparatus 20. FIG. 6 is a flowchart for explaining color determination and area determination processing in the imaging apparatus 1 for a light spot.

画像取得部21は、同一被写体について露出又は明るさが異なる複数の画像を順次取得して画像蓄積部23に与えて記憶させる。第1判定部24は、図4のステップS1において、画像蓄積部23から光点の色(RGB成分、色成分)を判定するのに適した露出又は明るさの画像を取得し、ステップS2において取得した画像を用いて色判定(色成分判定)を行う。第1判定部24は色判定の判定結果を画像補正部27に与える。   The image acquisition unit 21 sequentially acquires a plurality of images with different exposure or brightness for the same subject, gives them to the image storage unit 23, and stores them. In step S1 of FIG. 4, the first determination unit 24 obtains an image having an exposure or brightness suitable for determining the color (RGB component, color component) of the light spot from the image storage unit 23, and in step S2. Color determination (color component determination) is performed using the acquired image. The first determination unit 24 gives the determination result of the color determination to the image correction unit 27.

一方、第2判定部25は、ステップS3において、画像蓄積部23から光点領域を判定するのに適した露出又は明るさの画像を取得し、ステップS4において取得した画像を用いて光点領域の領域判定を行う。第2判定部25は光点領域の判定結果を画像補正部27に与える。   On the other hand, in step S3, the second determination unit 25 acquires an image having an exposure or brightness suitable for determining the light spot region from the image storage unit 23, and uses the image acquired in step S4. The area is determined. The second determination unit 25 gives the light spot region determination result to the image correction unit 27.

画像補正部27は、画像蓄積部23から画像全体として適正な露出又は明るさの画像を元画像として取得する。画像補正部27は、第2の判定部25の判定結果に基づく元画像中の光点領域を、第1の判定部24の判定結果に基づく色(判定された色成分と適当な明るさを有する)で塗り潰した補正画像を生成する(ステップS5)。   The image correction unit 27 acquires an image having an appropriate exposure or brightness as the original image from the image storage unit 23 as a whole. The image correction unit 27 sets the light spot area in the original image based on the determination result of the second determination unit 25 to the color (determined color component and appropriate brightness) based on the determination result of the first determination unit 24. A corrected image filled with (having) is generated (step S5).

この補正画像は、画像全体してとは適正な露出で撮像されているか又は適切な明るさの画像であり、画像全体としては比較的実際の見た目に近い画像である。人は視覚のダイナミックレンジが広いし、刻一刻と変化する感覚をもって色認識したり、脳内の情報をもって補正したりするので、印象的な色で画像を捉えがちであり、飽和や黒つぶれによる画像の色再現や視認性に対する違和感を感じやすく、鮮やかな色の方を記憶している色に感じやすい。このようなニーズに対応する工夫を行う。つまり、ここでは、光点領域は色が適宜の露出又は明るさの画像から検出されているので、人が実際に認識する色と同様の色となっている。また、光点領域は位置、形状及びサイズが適宜の露出又は明るさの画像から検出されているので、適切な位置、形状及びサイズを有し、例えばサイズが大きくなりすぎていたり、にじんでいたりすることもなく、人が実際に感じる形状及びサイズと同様の形状及びサイズになっている。人は、上述の色の記載と同様の認識の補正を形状やサイズに関しても行う傾向にある。   This corrected image is an image captured with appropriate exposure or an appropriate brightness as the entire image, and is an image that is relatively close to the actual appearance as the entire image. People have a wide visual dynamic range, and color recognition with a sense of changing every moment, or correction with information in the brain, so it tends to capture images with impressive colors, due to saturation and blackout It is easy to feel a sense of incongruity with the color reproduction and visibility of the image, and it is easy to feel a vivid color. Devise measures to meet these needs. That is, here, the light spot region has a color similar to the color actually recognized by a person because the color is detected from an image with appropriate exposure or brightness. In addition, since the position, shape, and size of the light spot region are detected from an image with appropriate exposure or brightness, the light spot region has an appropriate position, shape, and size. For example, the light spot region may be too large or blurring. The shape and size is similar to the shape and size that a person actually feels. People tend to perform recognition correction similar to the color description described above with respect to shape and size.

なお、色成分の判定に用いる画像の露出量又は明るさを変化させることで色成分の判定結果は多少変化するので、ユーザの感覚に合わせて色判定に用いる画像の露出量又は明るさを制御することができるようになっていてもよい。同様に、対象領域の判定に用いる画像の露出量又は明るさを変化させることで対象領域のサイズや形状も多少変化するので、ユーザの感覚に合わせて強調、補正してもよい。これを加味して、領域判定に用いる画像の露出量又は明るさを制御することができるようになっていてもよい。   Note that the result of color component determination changes slightly by changing the exposure amount or brightness of the image used to determine the color component, so the exposure amount or brightness of the image used for color determination is controlled according to the user's sense. You may be able to do that. Similarly, by changing the exposure amount or brightness of the image used for determination of the target region, the size and shape of the target region also change somewhat. Therefore, emphasis and correction may be performed according to the user's feeling. In consideration of this, the exposure amount or brightness of an image used for region determination may be controlled.

図4の例は、対象領域を判定した色(色成分(成分比)と明るさ(信号量))で単純に塗り潰す例を示した。図5は対象領域に判定した色をグラデーションを掛けながら適用することで、判定領域を明るさの分布に応じて濃淡を施す例を示している。図5において図4と同一の手順には同一符号を付して説明を省略する。   The example of FIG. 4 shows an example in which the target area is simply painted with the determined color (color component (component ratio) and brightness (signal amount)). FIG. 5 shows an example in which the determined area is applied with gradation according to the brightness distribution by applying the determined color to the target area while applying gradation. In FIG. 5, the same steps as those in FIG.

図5のステップS11においては、第1判定部24は、画像の各部について光量分布の判定を行う。第1判定部24は、色の判定結果及び光量分布の判定結果を画像補正部27に与える。画像補正部27は、第2の判定部25の判定結果に基づく元画像中の光点領域を、第1の判定部24の判定結果に基づく色で、光量分布に従ったグラデーションを付けて塗り潰した補正画像を生成する(ステップS12)。   In step S11 of FIG. 5, the first determination unit 24 determines the light amount distribution for each part of the image. The first determination unit 24 gives the determination result of the color and the determination result of the light amount distribution to the image correction unit 27. The image correction unit 27 fills the light spot area in the original image based on the determination result of the second determination unit 25 with a color based on the determination result of the first determination unit 24 with a gradation according to the light amount distribution. A corrected image is generated (step S12).

こうてし、図5の例では、光点領域は、判定された色で、判定された光量分布に従ったグラデーションが施されて塗り潰されていることから、よりユーザの感覚に近い画像を得ることができる。なお、光量分布の判定は、第1の判定部24が行ってもよく、また、第2の判定部25が行ってもよい。   Thus, in the example of FIG. 5, the light spot region is filled with the determined color and gradation according to the determined light amount distribution, so that an image closer to the user's sense is obtained. be able to. The determination of the light amount distribution may be performed by the first determination unit 24 or the second determination unit 25.

図4及び図5は、画像取得部12によって、同一被写体について露出又は明るさが異なる複数の画像が取得されて画像蓄積部23に格納されるものとして説明した。図6はこのような画像の取得、色及び対象領域の判定並びに補正画像の生成の一連の処理をデジタルカメラ等により構成される図1の撮像装置によって実施する場合の動作を説明するためのものである。   4 and 5 have been described on the assumption that the image acquisition unit 12 acquires a plurality of images with different exposure or brightness for the same subject and stores them in the image storage unit 23. FIG. 6 is a diagram for explaining an operation in a case where such a series of processing of image acquisition, color and target region determination, and correction image generation is performed by the imaging apparatus of FIG. 1 configured by a digital camera or the like. It is.

図6は基本的に非破壊読み出しが可能な撮像素子を採用した場合の例である。非破壊読み出しが可能な撮像素子の出力を用いることで、最終的に画像全体で適正で十分な露出量の画像を得る途中の段階において、所定の露出量毎の画像を取得することができる。しかし、非破壊読み出しができない撮像素子を用いた場合でも、露光及び読み出しを複数回繰り返し、各読み出し毎の像信号を積分することで、所定の露出量毎の画像を得る機能(以下、ライトバルブ機能という)を採用することで、非破壊読み出しと同様の読み出しが可能であり、図6の説明はこの場合も含む。   FIG. 6 shows an example in which an image sensor capable of nondestructive readout is basically employed. By using the output of the image sensor capable of nondestructive reading, an image for each predetermined exposure amount can be acquired in the middle of obtaining an image with an appropriate and sufficient exposure amount for the entire image. However, even when an image sensor that cannot perform non-destructive readout is used, a function for obtaining an image for each predetermined exposure amount (hereinafter referred to as a light valve) by repeating exposure and readout a plurality of times and integrating image signals for each readout. By adopting the function, reading similar to nondestructive reading is possible, and the description of FIG. 6 also includes this case.

ユーザによって、シャッタボタンが押されて撮像が指示されると、撮像制御部22は撮像部10を制御して露出を開始させる。撮像制御部22は所定の露光時間を設定して露光を行う(ステップS21)。これにより、所定の露出量での撮像が開始される。撮像制御部22は、所定の露出量が得られる露光時間に到達すると、撮像素子からの画素信号を読み出す。こうして、画像取得部12は所定の露出量における画像を得る。この画像は画像蓄積部23に供給され、第1判定部24及び第2判定部25に与えられる。   When the user presses the shutter button to instruct imaging, the imaging control unit 22 controls the imaging unit 10 to start exposure. The imaging control unit 22 performs exposure by setting a predetermined exposure time (step S21). Thereby, imaging with a predetermined exposure amount is started. The imaging control unit 22 reads a pixel signal from the imaging device when the exposure time for obtaining a predetermined exposure amount is reached. Thus, the image acquisition unit 12 obtains an image at a predetermined exposure amount. This image is supplied to the image storage unit 23 and is supplied to the first determination unit 24 and the second determination unit 25.

撮像制御部22は、ステップS22において、画像全体の適正露出量に到達したか否かを判定しており、この適正露出量に到達したと判定すると、処理を終了する。   In step S22, the imaging control unit 22 determines whether or not the appropriate exposure amount of the entire image has been reached. If it is determined that the appropriate exposure amount has been reached, the process is terminated.

第1判定部24は、ステップS23において色判定可能であるか否かを判定する。また、第2判定部25は、ステップS25において光点領域の判定が可能であるか否かを判定する。例えば、第1判定部24及び第2判定部25は、ノイズレベルに比べて十分な画素信号が得られない露出量の場合には判定不能であると判定する。更に、第2判定部25は、画素信号が光点領域を検出可能なレベルに到達していない露出量では判定不能であると判定する。   The first determination unit 24 determines whether or not color determination is possible in step S23. Further, the second determination unit 25 determines whether or not the light spot region can be determined in step S25. For example, the first determination unit 24 and the second determination unit 25 determine that determination is impossible when the exposure amount is such that a sufficient pixel signal cannot be obtained compared to the noise level. Further, the second determination unit 25 determines that the pixel signal cannot be determined with an exposure amount that has not reached a level where the light spot region can be detected.

第1判定部24は、色判定可能であると判定した場合には、ステップS24において、色の判定を行う。また、第2判定部25は、光点領域が判定可能であると判定した場合には、ステップS26において、光点領域の判定を行う。   If it is determined that the color can be determined, the first determination unit 24 determines the color in step S24. If the second determination unit 25 determines that the light spot region can be determined, the second determination unit 25 determines the light spot region in step S26.

なお、色判定は、RGB各レベルが飽和しておらず、且つRGBの各レベルがいずれもノイズレベル以上であることを条件にしてもよい。また、色判定を行う露出量では、RGB成分のいずれも飽和していないので、光点領域における明るさ分布を正確に求めることができる。   Note that the color determination may be made on condition that each RGB level is not saturated and each RGB level is equal to or higher than the noise level. In addition, since none of the RGB components is saturated in the exposure amount for performing color determination, the brightness distribution in the light spot region can be accurately obtained.

また、対象領域の判定は、サイズが比較的大きい光点だけでなく、サイズが比較的小さい光点についても検出できるように、十分な露出量で行うようにしてもよい。   Further, the determination of the target area may be performed with a sufficient exposure amount so that not only a light spot having a relatively large size but also a light spot having a relatively small size can be detected.

撮像制御部22は、ステップS27において、所定の露光時間を追加する設定を行った後、処理をステップS22に戻す。こうして、以後、所定の単位露光時間毎に画像が読み出されて、画像全体の適正露出量に到達するまで、色判定及び光点領域の判定が行われる。   In step S27, the imaging control unit 22 performs setting to add a predetermined exposure time, and then returns the process to step S22. Thus, after that, the image is read at every predetermined unit exposure time, and the color determination and the light spot region determination are performed until the appropriate exposure amount of the entire image is reached.

なお、第1判定部24による色判定は画素毎に行えばよいのに対し、第2判定部25による光点領域判定は画像全体に対して行う必要がある。即ち、第1判定部24は、光点毎に、露出量を変化させながら飽和を判定して色を判定する。また、第2判定部25は、露出量が大きくなる毎に判定する対象領域の領域サイズが大きくなることが考えられるので、所定の露出量の状態で画像の全ての対象領域を求める。   The color determination by the first determination unit 24 may be performed for each pixel, whereas the light spot region determination by the second determination unit 25 needs to be performed on the entire image. That is, the first determination unit 24 determines the color by determining saturation for each light spot while changing the exposure amount. The second determination unit 25 obtains all target regions of the image with a predetermined exposure amount because the region size of the target region to be determined increases each time the exposure amount increases.

第1判定部24は、例えば、色判定可能な各露出量の画像のうち最も高い彩度が得られるRGB成分を用いて各画像部分の色を判定して判定結果を画像補正部27に出力する。なお、第1判定部24がいずれの露出量の画像を用いるかは、各画像部分毎に独立して制御される。   For example, the first determination unit 24 determines the color of each image portion using the RGB component that provides the highest saturation among the images of each exposure amount that can be color determined, and outputs the determination result to the image correction unit 27. To do. Note that which exposure amount the first determination unit 24 uses is controlled independently for each image portion.

また、第2判定部25は、例えば、対象領域判定が可能な各露出量の画像のうち所定のサイズ以上の光点領域が検出可能な露出量の画像を用いて判定を行う。上述したように、この判定は、画像中の各光点毎のサイズの相違が分かるように、画像全体で共通の露出量の画像が用いられる。   In addition, the second determination unit 25 performs determination using, for example, an exposure amount image in which a light spot region having a predetermined size or more can be detected among the exposure amount images in which the target region determination is possible. As described above, in this determination, an image having an exposure amount common to the entire image is used so that the difference in size for each light spot in the image can be understood.

また、光点が例えば文字を形成するネオンによって得られるものである場合には、第2判定部25は、画像の明るさだけでなく、コントラストによって領域判定を行ってもよい。この場合には、第2判定部25は、比較的少ない露出量で判定を行う。また、夜景中の光点の雰囲気にふさわしい多少にじんだ表現を行う場合には、各光点の大小のみが判別可能であれば良く、各光点部分が広がって判定されてもよい場合がある。このような場合を想定して、例えば、第2判定部25は、比較的高い露出量であって十分に小さい光点も判定可能な露出量の画像を用いて領域判定を行う。   Further, when the light spot is obtained by neon forming a character, for example, the second determination unit 25 may perform the region determination based not only on the brightness of the image but also on the contrast. In this case, the second determination unit 25 performs determination with a relatively small exposure amount. In addition, when performing a slightly blurred expression suitable for the atmosphere of a light spot in a night view, it is sufficient that only the magnitude of each light spot can be determined, and there may be cases where each light spot portion is spread and determined. . Assuming such a case, for example, the second determination unit 25 performs region determination using an image having an exposure amount that is a relatively high exposure amount and can also determine a sufficiently small light spot.

また、画像中の各光点のサイズの相違が分かるように、画像全体で共通の露出量の画像を用いて領域判定するものと説明したが、画像の各部について異なる露出量の画像を用いて領域判定を行ってもよい。例えば、光点の一部が文字を構成する場合等においては、当該文字部分だけ他の部分と異なる露出量の画像を用いて領域判定するようにしてもよい。   In addition, in order to understand the difference in the size of each light spot in the image, it has been described that the area determination is performed using an image having a common exposure amount in the entire image. However, each part of the image is used with an image having a different exposure amount. Area determination may be performed. For example, when a part of the light spot constitutes a character, the region may be determined using an image with an exposure amount that is different from the other part only for the character part.

なお、上述した第1及び第2判定部24,25の処理は、画像全体で適正な露出量での撮影を行う1回の撮影期間中の各単位露光時間毎に行われる。カメラによっては、1回の撮影による露光期間の途中で、RGB成分を直接検出できない場合もある。例えば、RGB成分から求められた明るさ信号(Y信号)に基づいて露出制御が行われるカメラでは、露光期間の途中においては、RGB各成分が飽和しているか否か、ノイズレベル以上であるか否かを直接判定することができないことが考えられる。そこで、この場合には、RGB成分に代えてY信号のレベルによってこのような判定を行ってもよい。例えば、Y信号に所定の余裕を設定し、あるY信号のレベル範囲内ならばRGB成分は飽和しておらず且つノイズレベル以上であると判定してもよい。或いは、RGB成分の比率をある値に仮定し、仮定した比率とY信号のレベルとによってRGB成分の最大及び最小レベルを推定することで、全てのRGB成分がノイズレベルより大きく且つ飽和していないことを判定してもよい。もちろん、RGBでなくともよく、他の色成分でも同様のことが言え、その成分を計算した値や、一部の成分だけで判定してもよい。   Note that the processing of the first and second determination units 24 and 25 described above is performed for each unit exposure time during one shooting period in which shooting is performed with an appropriate exposure amount for the entire image. Depending on the camera, the RGB component may not be directly detected during the exposure period of one image. For example, in a camera in which exposure control is performed based on a brightness signal (Y signal) obtained from RGB components, whether or not each RGB component is saturated during the exposure period or whether it is above the noise level It may be impossible to determine directly whether or not. Therefore, in this case, such a determination may be made based on the level of the Y signal instead of the RGB components. For example, a predetermined margin may be set for the Y signal, and if it is within a certain Y signal level range, it may be determined that the RGB component is not saturated and is above the noise level. Alternatively, assuming that the ratio of the RGB components is a certain value, and estimating the maximum and minimum levels of the RGB components based on the assumed ratio and the level of the Y signal, all the RGB components are larger than the noise level and not saturated. You may determine that. Of course, it does not have to be RGB, and the same can be said for other color components, and determination may be made based on a value obtained by calculating the component or only a part of the components.

ステップS22において、画像全体の適正露出に到達したものと判定されると、この適正露出の画像が画像蓄積部23から元画像として画像補正部27に供給される。   In step S22, when it is determined that the proper exposure of the entire image has been reached, the image of the proper exposure is supplied from the image storage unit 23 to the image correction unit 27 as an original image.

画像補正部27は、元画像の光点領域を判定された色で例えば塗りつぶすことによって、画像全体として適正露出で且つ光点部分の色や形状及びサイズが認識可能な補正画像を生成する。この補正画像は記録部33に与えられて記録される。   For example, the image correction unit 27 paints the light spot area of the original image with the determined color, thereby generating a correction image with appropriate exposure as a whole and capable of recognizing the color, shape, and size of the light spot portion. The corrected image is given to the recording unit 33 and recorded.

このように本実施の形態においては、異なる露出量又は明るさの画像を取得し、画像全体として適正露出であっても部分的に露出が適正でなく色の再現性が悪い画像部分について、色の判定が可能な露出量又は明るさの画像を用いて色を判定し、この色で当該画像部分を塗り潰す等のように判定した色を当該画像部分に適用することで、画像全体及び各部において色の再現性を向上させた画像を得ることができる。また、画像全体として適正露出であっても部分的に露出が適正でなくその画像部分の領域(対象領域)の再現性が悪い画像部分について、対象領域の判定が可能な露出量又は明るさの画像を用いて対象領域を判定し、この対象領域を判定した色で塗り潰す処理等のように判定した色を当該対象領域に適用することで、画像全体及び各部において形状の再現性を向上させた画像を得ることができる。このような補正画像の対象領域は、人が実際に認識する色と同様の色で、適切な位置、形状及びサイズを有し、例えばサイズが大きくなりすぎていたり、にじんでいたりすることもなく、人が実際に感じる形状及びサイズと同様の形状及びサイズになっており、補正画像は色及び形状の再現性に優れている。   As described above, in the present embodiment, images having different exposure amounts or brightness are obtained, and even if the entire image is proper exposure, the color exposure is partially inappropriate and the color reproducibility is poor. By determining the color using an image with an exposure amount or brightness that can be determined, and applying the determined color to the image part such as filling the image part with this color, the entire image and each part Thus, an image with improved color reproducibility can be obtained. Further, even if the exposure is appropriate for the entire image, the exposure amount or brightness that allows the target region to be determined for an image portion where the exposure is not appropriate partially and the reproducibility of the region (target region) of the image portion is poor. By determining the target area using the image and applying the determined color to the target area, such as the process of filling the target area with the determined color, the reproducibility of the shape in the entire image and each part is improved. Images can be obtained. The target area of such a corrected image is a color similar to the color that a person actually recognizes, has an appropriate position, shape, and size, for example, without being too large or blurring. The shape and size are the same as those actually felt by humans, and the corrected image has excellent color and shape reproducibility.

(第2の実施の形態)
図7は本発明の第2の実施の形態において採用される動作フローを示すフローチャートである。本実施の形態におけるハードウェア構成は第1の実施の形態と同様である。本実施の形態においても、上述したように、色は、スペクトル成分(色成分)の比率を例えばRGB信号の比率によって求めることで判定されるものであり、その信号量は見栄えを考慮して定めることができるものである。色判定及び領域判定の判定法については、第1の実施の形態と同様であり、説明は省略する。
(Second Embodiment)
FIG. 7 is a flowchart showing an operation flow employed in the second embodiment of the present invention. The hardware configuration in this embodiment is the same as that in the first embodiment. Also in the present embodiment, as described above, the color is determined by obtaining the ratio of the spectral components (color components) by, for example, the ratio of the RGB signals, and the signal amount is determined in consideration of appearance. It is something that can be done. The determination method for color determination and region determination is the same as that in the first embodiment, and a description thereof will be omitted.

第1の実施の形態においては、主に光点領域が対象領域であるものとして説明した。光点に限らず、露出が適正でない部分を対象領域として、この対象領域の判定及び対象領域内の色分布の判定を行い、対象領域に判定した色を適用することにより、画像全体及び画像の各部について適正な露出の補正画像を得ることができる。本実施の形態はこのように対象領域が光点領域以外の場合の例を示している。   In the first embodiment, description has been given mainly assuming that the light spot region is the target region. Not only the light spot but also the part where the exposure is not appropriate is set as the target area, the target area is determined and the color distribution in the target area is determined, and by applying the determined color to the target area, the entire image and the image A corrected image with appropriate exposure can be obtained for each part. This embodiment shows an example in which the target area is other than the light spot area.

例えば、ミカン畑を撮影した場合には、画像の全体的な露出量を適正にすると、ミカンの葉は緑色が再現されていても、ミカンのオレンジ色は再現されないことがある。この場合においても、第1の実施の形態と同様の手法により、RGB成分の全てが飽和されておらず且つノイズレベルよりも十分に大きい露出量又は明るさの画像を選択することで、ミカン等の対象領域の色を再現することができる。   For example, when a mandarin orange field is photographed, if the overall exposure amount of the image is set appropriately, the orange color of the mandarin orange may not be reproduced even if the mandarin orange leaf is reproduced green. Even in this case, by using the same method as in the first embodiment, by selecting an image in which all of the RGB components are not saturated and the exposure amount or brightness is sufficiently larger than the noise level, The color of the target area can be reproduced.

しかし、日中における撮影では夜景の撮影と異なり、画像全体として適正な露出量を得るための露光時間が極めて短いことが考えられる。この場合には必ずしも1回の撮影中に色判定を行うことができるとは限らない。図7はこの場合に対応したものであり、複数回の撮影により、色及び対象領域の判定を行うものである。   However, in the daytime shooting, unlike night scene shooting, it is conceivable that the exposure time for obtaining an appropriate exposure amount for the entire image is extremely short. In this case, color determination cannot always be performed during one shooting. FIG. 7 corresponds to this case, and the color and the target area are determined by a plurality of times of photographing.

ユーザによって、シャッタボタンが押されて撮像が指示されると、撮像制御部22は所定の露光時間を設定して(ステップS31)、撮像部10に撮影を指示する。これにより、所定の露出量での撮影が行われる(ステップS32)。撮像素子からの画像は画像取得部21によって取り込まれて画像蓄積部23に供給されて蓄積される。第1判定部24及び第2判定部25は画像蓄積部23に蓄積された画像を読み出す。   When the user presses the shutter button to instruct imaging, the imaging control unit 22 sets a predetermined exposure time (step S31) and instructs the imaging unit 10 to perform imaging. Thereby, photographing with a predetermined exposure amount is performed (step S32). An image from the image sensor is captured by the image acquisition unit 21, supplied to the image storage unit 23, and stored. The first determination unit 24 and the second determination unit 25 read the image stored in the image storage unit 23.

第2判定部25は、ステップS33において画像中の色を判定する部分(以下、色点という)が画像中で占める領域(以下、色点領域という)の判定が可能であるか否かを判定する。また、第1判定部24は、ステップS35において、色点について色判定可能であるか否かを判定する。第2判定部25及び第1判定部24によるステップS33,S35の判定の条件等は、第1の実施の形態と同様である。   The second determination unit 25 determines whether or not it is possible to determine an area (hereinafter referred to as a color point area) occupied by a portion (hereinafter referred to as a color point) for determining a color in the image in step S33. To do. The first determination unit 24 determines whether or not color determination is possible for the color point in step S35. The conditions for determination in steps S33 and S35 by the second determination unit 25 and the first determination unit 24 are the same as those in the first embodiment.

第2判定部25は、色点領域が判定可能であると判定した場合には、ステップS34において、色点領域の判定を行う。第1判定部24は、色判定可能であると判定した場合には、ステップS36において、色の判定を行う。   If it is determined that the color point region can be determined, the second determination unit 25 determines the color point region in step S34. When determining that the color can be determined, the first determination unit 24 determines the color in step S36.

撮像制御部22は、第1及び第2判定部24,25の判定結果によって色判定及び色点領域判定がいずれも終了したか否かを判定する(ステップS37)。色判定及び色点領域判定がいずれも終了した場合には処理を終了し、終了していない場合には次のステップS38に処理を移行する。   The imaging control unit 22 determines whether or not the color determination and the color point area determination are completed based on the determination results of the first and second determination units 24 and 25 (step S37). If both the color determination and the color point area determination are completed, the process is terminated, and if not completed, the process proceeds to the next step S38.

撮像制御部22は、ステップS38において、前回の撮影時よりも増加させた露光時間を設定して(ステップS38)、撮影を繰り返す(ステップS32)。以後、同様の動作が繰り返されて、各露出量において色点の色判定及び色点領域の判定が行われる。なお、ステップS37の判定を省略して、所定の露出量となるまで色判定及び領域判定を繰り返してもよい。   In step S38, the imaging control unit 22 sets an exposure time that is increased compared to the previous shooting (step S38), and repeats shooting (step S32). Thereafter, the same operation is repeated, and the color determination of the color point and the determination of the color point region are performed at each exposure amount. Note that the determination in step S37 may be omitted, and the color determination and the area determination may be repeated until a predetermined exposure amount is reached.

第1及び第2判定部24,25の判定結果は画像補正部27に与えられる。画像補正部27は、元画像の色点領域を、判定された色で例えば塗りつぶすことによって、画像全体として適正露出で且つ色点部分の色や形状及びサイズが認識可能な補正画像を生成する。この補正画像は記録部33に与えられて記録される。   The determination results of the first and second determination units 24 and 25 are given to the image correction unit 27. The image correction unit 27 generates, for example, a correction image in which the color, shape, and size of the color point portion can be recognized with appropriate exposure as a whole image by painting the color point area of the original image with the determined color, for example. The corrected image is given to the recording unit 33 and recorded.

このように本実施の形態においても第1の実施の形態と同様の効果を得ることができる。また、本実施の形態においては、1回の撮影によって色点についての色判定及び色点領域の判定ができない場合でも、露出量を変更しながらの複数回の撮影によって得られる画像を用いて、色点についての色判定及び色点領域の判定を確実に行うことができる。   As described above, also in this embodiment, the same effect as that of the first embodiment can be obtained. Further, in the present embodiment, even when color determination and color point area determination cannot be performed for a color point by a single shooting, an image obtained by a plurality of shootings while changing the exposure amount is used. It is possible to reliably perform the color determination and the color point region determination for the color point.

(第3の実施の形態)
図8は本発明の第3の実施の形態において採用される動作フローを示すフローチャートである。図8において図6と同一の手順には同一符号を付して説明を省略する。また、図9乃至図11は本実施の形態を説明するための説明図である。本実施の形態におけるハードウェア構成は第1の実施の形態と同様である。本実施の形態においても、上述したように、色は、スペクトル成分(色成分)の比率を例えばRGB信号の比率によって求めることで判定されるものであり、その信号量は見栄えを考慮して定めることができるものである。色判定及び領域判定の判定法については、第1の実施の形態と同様であり、説明は省略する。
(Third embodiment)
FIG. 8 is a flowchart showing an operation flow employed in the third embodiment of the present invention. In FIG. 8, the same steps as those in FIG. 9 to 11 are explanatory diagrams for explaining the present embodiment. The hardware configuration in this embodiment is the same as that in the first embodiment. Also in the present embodiment, as described above, the color is determined by obtaining the ratio of the spectral components (color components) by, for example, the ratio of the RGB signals, and the signal amount is determined in consideration of appearance. It is something that can be done. The determination method for color determination and region determination is the same as that in the first embodiment, and a description thereof will be omitted.

上記各実施の形態においては、画像全体について対象領域における色判定及び領域判定を行う例を説明した。本実施の形態は画像の一部の領域中の対象領域について色判定及び領域判定を行う例を示している。例えば、画像の一部の領域として、画像中に含まれる文字部分等がある。   In each of the above embodiments, an example has been described in which color determination and region determination in the target region are performed for the entire image. This embodiment shows an example in which color determination and region determination are performed on a target region in a partial region of an image. For example, as a partial region of the image, there is a character portion included in the image.

図9は所定の露出量で夜景を撮影して得られた撮像画像を示している。画像51は、空の画像部分52、星印で示す星の画像部分53、建物の画像部分54、人物の画像部分57及び建物の窓等から漏れる明かりやネオン等による光点の画像部分58a,58bを含む。図9の例では、デジタルカメラの夜景モード等のように比較的大きな露出量で撮影が行われた結果、明るい光点の画像部分58a,58bは、像信号が飽和し、実際の光の色に拘わらず白くなると共に、にじみが生じてサイズも実際より大きくなり、形状も判別不能となっている。   FIG. 9 shows a captured image obtained by photographing a night view with a predetermined exposure amount. The image 51 includes a sky image portion 52, a star image portion 53 indicated by an asterisk, a building image portion 54, a person image portion 57, and a light spot image portion 58a caused by light or neon leaking from a building window. 58b. In the example of FIG. 9, as a result of shooting with a relatively large exposure amount as in the night view mode of a digital camera, the image portions 58a and 58b with bright light spots are saturated with image signals, and the actual light color. Regardless of the color, the color becomes white, blurring occurs, the size becomes larger than the actual size, and the shape cannot be identified.

本実施の形態においては、ユーザが指定した位置においてのみ、色判定及び領域判定を行うようになっている。図10はこの様子を示しており、撮像装置1が収納された筐体1aの背面には表示部31の表示画面31bが配設されている。表示画面31b上には、図9の画像51が表示されている。また、筐体1aの上面には図1の操作部32に相当するシャッタボタン32aが配設されている。表示画面31b上には、図1のタッチパネル31aが設けられており、タッチパネル31aは、ユーザによる操作を受け付ける。即ち、タッチパネル31aは、ユーザが指60によって指し示した表示画面31b上の位置の情報を操作判定部28に出力する。   In the present embodiment, color determination and area determination are performed only at a position designated by the user. FIG. 10 shows this state, and a display screen 31b of the display unit 31 is disposed on the back surface of the housing 1a in which the imaging device 1 is accommodated. The image 51 of FIG. 9 is displayed on the display screen 31b. A shutter button 32a corresponding to the operation unit 32 in FIG. 1 is disposed on the top surface of the housing 1a. The touch panel 31a of FIG. 1 is provided on the display screen 31b, and the touch panel 31a receives an operation by the user. That is, the touch panel 31 a outputs information on the position on the display screen 31 b pointed by the user with the finger 60 to the operation determination unit 28.

画像処理装置20は、ユーザが例えば指60のタッチ操作によって指定した位置における色判定及び領域判定を行う。この場合において、第2判定部25は、タッチ位置が文字部分である場合には、形状の判定にコントラスト判定を採用してもよい。更に、第2判定部25は、図示しないデータベースを参照することによって、文字認識を行って、領域判定の精度を向上させてもよい。   The image processing apparatus 20 performs color determination and area determination at a position specified by the user by, for example, a touch operation of the finger 60. In this case, when the touch position is a character part, the second determination unit 25 may employ contrast determination for shape determination. Furthermore, the second determination unit 25 may perform character recognition by referring to a database (not shown) to improve the accuracy of region determination.

次に、図8を参照してデジタルカメラ等により構成される図1の撮像装置によって補正画像を生成する場合の動作を説明する。   Next, an operation when a corrected image is generated by the imaging apparatus of FIG. 1 configured by a digital camera or the like will be described with reference to FIG.

図8のステップS41において、制御部26は、撮影モードが指示されたか否かを判定する。撮影モードが指示されていない場合には、制御部26は、再生モードが指定されているか否かを判定する(ステップS51)。再生モードが指示されると、制御部26は、ステップS52において、指定された画像を再生する。制御部26は、ステップS53において再生画像の変更が指示されたか否かを判定しており、変更が指示された場合には指定された画像に変更して再生を行う(ステップS54)。また、制御部26は、再生モードが指示されていない場合には、ステップS55において、画像通信モードに移行する。   In step S41 of FIG. 8, the control unit 26 determines whether or not the shooting mode is instructed. If the shooting mode is not instructed, the control unit 26 determines whether or not the playback mode is designated (step S51). When the reproduction mode is instructed, the control unit 26 reproduces the designated image in step S52. The control unit 26 determines whether or not a change of the reproduction image is instructed in step S53, and when the change is instructed, the control unit 26 changes to the designated image and performs reproduction (step S54). If the playback mode is not instructed, the control unit 26 shifts to the image communication mode in step S55.

一方、撮影モードが指示されると、制御部26は撮像制御部22を制御して撮像部10の撮像を開始させる。制御部26は、画像取得部21を制御して撮像部10から撮像画像を取得し、取得した画像を画像蓄積部23及び画像補正部27を介して表示制御部29に与えて、表示部31の表示画面31b上にスルー画表示させる(ステップS43)。こうして、撮像画像は、図10に示すように、表示部31の表示画面31b上に表示される。   On the other hand, when the shooting mode is instructed, the control unit 26 controls the imaging control unit 22 to start imaging of the imaging unit 10. The control unit 26 controls the image acquisition unit 21 to acquire a captured image from the imaging unit 10, provides the acquired image to the display control unit 29 via the image storage unit 23 and the image correction unit 27, and displays the display unit 31. The through image is displayed on the display screen 31b (step S43). Thus, the captured image is displayed on the display screen 31b of the display unit 31, as shown in FIG.

制御部26は、ステップS43の後又は撮像開始時以外の撮影モード時においては、ユーザによるタッチ操作の判定を行う(ステップS44)。例えば、制御部26は、暗いシーンの撮像中において、タッチパネル31aに対するタッチ操作が生じたか否かを検出する。タッチ操作がない場合には、制御部26は、ステップS45において撮影操作の有無を判定する。撮影操作がなければ、処理をステップS41に戻して、同様の処理を繰り返す。   The control unit 26 determines the touch operation by the user after step S43 or in a shooting mode other than when imaging is started (step S44). For example, the control unit 26 detects whether or not a touch operation on the touch panel 31a has occurred during imaging of a dark scene. If there is no touch operation, the control unit 26 determines whether or not there is a shooting operation in step S45. If there is no shooting operation, the process returns to step S41 and the same process is repeated.

ユーザは撮影に際して、筐体1aの背面の略全域に配置された表示画面31b上のスルー画を見ながら撮影操作を行うことができる。   When photographing, the user can perform a photographing operation while looking at a through image on the display screen 31b arranged in substantially the entire rear surface of the housing 1a.

いま、図10に示すように、ユーザが指60によって表示画面31b上をタッチ操作するものとする。例えば、ユーザは画像51中の光点の画像部分58bの位置をタッチする。制御部26はこのタッチ操作を検出して、処理をステップS44からステップS21に移行する。即ち、制御部26は、撮像制御部22を制御して、撮像部10に所定の露光時間を設定して露光を行わせる。撮像制御部22は、所定の露出量が得られる露光時間に到達すると、撮像素子からの画素信号を読み出す。こうして、画像取得部12は所定の露出量における画像を得る。この画像は画像蓄積部23に供給され、第1判定部24及び第2判定部25に与えられる。   Now, as shown in FIG. 10, it is assumed that the user performs a touch operation on the display screen 31 b with the finger 60. For example, the user touches the position of the image portion 58 b of the light spot in the image 51. The control unit 26 detects this touch operation, and the process proceeds from step S44 to step S21. That is, the control unit 26 controls the imaging control unit 22 so that the imaging unit 10 performs exposure by setting a predetermined exposure time. The imaging control unit 22 reads a pixel signal from the imaging device when the exposure time for obtaining a predetermined exposure amount is reached. Thus, the image acquisition unit 12 obtains an image at a predetermined exposure amount. This image is supplied to the image storage unit 23 and is supplied to the first determination unit 24 and the second determination unit 25.

本実施の形態においては、第2判定部25は制御部26に制御されて、ステップS61において、画像中のユーザがタッチ操作によって指定した位置について、光点領域の判定が可能であるか否かを判定する。また、第1判定部24は制御部26に制御されて、ステップS63において、画像中のユーザがタッチ操作によって指定した位置について、色判定可能であるか否かを判定する。   In the present embodiment, the second determination unit 25 is controlled by the control unit 26, and in step S61, whether or not the light spot region can be determined for the position specified by the touch operation by the user in the image. Determine. Further, the first determination unit 24 is controlled by the control unit 26 to determine whether or not color determination is possible at the position designated by the user in the image by the touch operation in step S63.

第2判定部25は、光点領域が判定可能であると判定した場合には、ステップS62において、光点領域の判定を行う。なお、第2判定部25は、上述したように、画像のコントラスト判定や文字認識処理によって、光点領域の判定を行ってもよい。このような領域判定によれば、光点がネオン等よる文字部分である場合には、判定される領域はネオン等により形成される文字の形状と同一の形状となり、画像中において文字を明確に判別可能となる。例えば、第2判定部25は、文字部分については、比較的少ない露出量の画像を用いて領域判定を行うことで、文字形状を正確に再現することができる。また、第1判定部24は、色判定可能であると判定した場合には、ステップS64において、色の判定を行う。   If it is determined that the light spot area can be determined, the second determination unit 25 determines the light spot area in step S62. Note that, as described above, the second determination unit 25 may determine the light spot region by image contrast determination or character recognition processing. According to such region determination, when the light spot is a character part such as neon, the determined region is the same shape as the character formed by neon or the like, and the character is clearly displayed in the image. Discrimination becomes possible. For example, for the character portion, the second determination unit 25 can accurately reproduce the character shape by performing region determination using an image with a relatively small exposure amount. If the first determination unit 24 determines that the color determination is possible, the first determination unit 24 determines the color in step S64.

更に、本実施の形態においては、ユーザがタッチ操作して指定した位置における光点の色判定結果と同一の色を画像中から検出して、当該色の光点部分については、第2の判定部25により、領域判定を行ってもよい。例えば、第2の判定部25が、上述した文字部分に対する領域判定を行うことで、画像中の同一色の全ての文字については、明確に形状を判別することができるようになる。   Furthermore, in the present embodiment, the same color as the color determination result of the light spot at the position specified by the touch operation by the user is detected from the image, and the light spot portion of the color is subjected to the second determination. The area determination may be performed by the unit 25. For example, when the second determination unit 25 performs the region determination on the character part described above, the shape of all characters of the same color in the image can be clearly determined.

撮像制御部22は、ステップS27において、所定の露光時間を追加する設定を行った後、処理をステップS22に戻す。こうして、以後、所定の単位露光時間毎に画像が読み出されて、画像全体の適正露出量に到達するまで、色判定及び光点領域の判定が行われる。   In step S27, the imaging control unit 22 performs setting to add a predetermined exposure time, and then returns the process to step S22. Thus, after that, the image is read at every predetermined unit exposure time, and the color determination and the light spot region determination are performed until the appropriate exposure amount of the entire image is reached.

ステップS22において、画像全体の適正露出に到達したものと判定されると、この適正露出の画像が画像蓄積部23から元画像として画像補正部27に供給される。画像補正部27は、ステップS47において、元画像中のユーザによって指定された領域の光点領域を、判定された色で例えば塗りつぶすことによって、画像全体として適正露出で且つ光点部分の色や形状及びサイズが認識可能な補正画像を生成する。   In step S22, when it is determined that the proper exposure of the entire image has been reached, the image of the proper exposure is supplied from the image storage unit 23 to the image correction unit 27 as an original image. In step S47, the image correction unit 27 fills the light spot area of the area specified by the user in the original image with the determined color, for example, so that the image as a whole is appropriately exposed and the color and shape of the light spot part. And a corrected image whose size is recognizable.

本実施の形態においては、画像補正部27は補正画像を表示制御部29に与えて表示画面31b上に表示させる(ステップS48)。図11はこの場合に表示画面31b上に表示される画像51を示している。画像51においては、図9の光点の画像部分58bは、文字の画像58cに置き換えられている。ユーザがタッチした位置以外の部分についても、タッチ位置の画像と同一の色と判定された部分は文字認識等によって形状が正確に判定されており、図11に示すように、「TOKYO」の文字が明瞭な形状で表示されている。   In the present embodiment, the image correction unit 27 gives the corrected image to the display control unit 29 and displays it on the display screen 31b (step S48). FIG. 11 shows an image 51 displayed on the display screen 31b in this case. In the image 51, the light spot image portion 58b of FIG. 9 is replaced with a character image 58c. As for the portion other than the position touched by the user, the shape of the portion determined to be the same color as the image at the touch position is accurately determined by character recognition or the like. As shown in FIG. Is displayed in a clear shape.

制御部26は、補正画像の表示が終了すると、処理をステップS49からステップS45に移行して、撮影操作の待機状態となる。ここで、ユーザがシャッタボタン32aを操作して撮影を指示するものとする。本実施の形態においては、ステップS46において、撮影前と同じ処理、即ち、スルー画に対する色判定、領域判定及び補正画像の生成が行われて、生成された補正画像が記録部33に与えられて記録される。   When the display of the corrected image is completed, the control unit 26 shifts the process from step S49 to step S45, and enters a standby state for a shooting operation. Here, it is assumed that the user operates the shutter button 32a to instruct shooting. In the present embodiment, in step S46, the same processing as before photographing, that is, color determination, region determination, and generation of a corrected image for a through image are performed, and the generated corrected image is given to the recording unit 33. To be recorded.

なお、人物など主被写体は夜間照明の色かぶりが気になるので、顔の色が不自然にならないように、ホワイトバランス調整を行ってもよい。また、背景の夜景の光点は、そこに色がかぶっている場合は少ないと考えて、ホワイトバランス調整はしなくてもよい。場合によっては、強い照明が重なっている場合もあり、その場合はホワイトバランス調整を行う。   Since the main subject such as a person is concerned about the color cast of night illumination, white balance adjustment may be performed so that the face color does not become unnatural. Further, it is not necessary to adjust the white balance because it is considered that the light spot of the background night scene is small when the color is covered there. In some cases, strong illumination may overlap, in which case white balance adjustment is performed.

このように本実施の形態においては、第1の実施の形態と同様の効果を得ることができると共に、ユーザが指定した位置において色判定及び領域判定を行うことができる。また、形状の判定にコントラスト判定及び文字認識等を採用することで、画像中の文字を正確に判定して明瞭な文字画像に変換することができる。ユーザは、光でにじんで明瞭に判別できない画像部分をタッチすることで、明瞭な画像に変換することができ、スルー画上でネオン等による文字を確認しながら撮影することができると共に、明瞭な文字画像を含む撮像画像を記録することができる。   As described above, in the present embodiment, the same effects as in the first embodiment can be obtained, and color determination and area determination can be performed at a position designated by the user. In addition, by employing contrast determination, character recognition, and the like for shape determination, characters in the image can be accurately determined and converted into a clear character image. The user can convert to a clear image by touching an image part that cannot be clearly discriminated by light, and can take a picture while confirming characters such as neon on a through image. A captured image including a character image can be recorded.

なお、図8の例は、撮影時に、スルー画上で色判定及び領域判定を行って補正画像を生成する例を説明したが、既に記録されている画像についても、露出量が異なる複数の画像を記録しておくことで、画像の一部分についての色判定及び領域判定を行って補正画像を生成することができることは明らかである。   In the example of FIG. 8, an example in which a corrected image is generated by performing color determination and region determination on a through image at the time of shooting has been described, but a plurality of images with different exposure amounts are also recorded in an already recorded image. It is clear that recording a correction image can be performed by performing color determination and region determination on a part of the image by recording the image.

さらに、本発明の各実施形態においては、撮影のための機器として、デジタルカメラを用いて説明したが、カメラとしては、レンズ型カメラでも、デジタル一眼レフカメラでもコンパクトデジタルカメラでもよく、ビデオカメラ、ムービーカメラのような動画用のカメラでもよく、さらに、携帯電話やスマートフォンなど携帯情報端末(PDA:Personal Digital Assist)等に内蔵されるカメラでも勿論構わない。また、内視鏡、顕微鏡のような産業用、医療用の光学機器でもよく、監視カメラや車載用カメラ、据え置き型のカメラ、例えば、テレビジョン受信機やパーソナルコンピュータ等に取り付けられているカメラであってもよい。例えば、内視鏡や顕微鏡に適用することで、被検体中の特定の色を観察しやすくすることも可能である。   Furthermore, in each embodiment of the present invention, a digital camera has been described as an apparatus for photographing. However, the camera may be a lens type camera, a digital single-lens reflex camera, or a compact digital camera, a video camera, A camera for moving images such as a movie camera may be used, and a camera built in a personal digital assistant (PDA) such as a mobile phone or a smartphone may of course be used. In addition, it may be an industrial or medical optical device such as an endoscope or a microscope, such as a surveillance camera, an on-vehicle camera, a stationary camera, for example, a camera attached to a television receiver or a personal computer. There may be. For example, by applying to an endoscope or a microscope, it is possible to make it easier to observe a specific color in the subject.

本発明は、上記各実施形態にそのまま限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素の幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiments as they are, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, you may delete some components of all the components shown by embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

なお、特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。また、これらの動作フローを構成する各ステップは、発明の本質に影響しない部分については、適宜省略も可能であることは言うまでもない。   It should be noted that even if the operation flow in the claims, the description, and the drawings is described using “first,” “next,” etc. for convenience, it is essential to carry out in this order. It doesn't mean. In addition, it goes without saying that the steps constituting these operation flows can be omitted as appropriate for portions that do not affect the essence of the invention.

また、ここで説明した技術のうち、主にフローチャートで説明した制御や機能は、多くがプログラムにより設定可能であり、そのプログラムをコンピュータが読み取り実行することで上述した制御や機能を実現することができる。そのプログラムは、コンピュータプログラム製品として、フレキシブルディスク、CD−ROM等、不揮発性メモリ等の可搬媒体や、ハードディスク、揮発性メモリ等の記憶媒体に、その全体あるいは一部を記録又は記憶することができ、製品出荷時又は可搬媒体或いは通信回線を介して流通又は提供可能である。利用者は、通信ネットワークを介してそのプログラムをダウンロードしてコンピュータにインストールしたり、あるいは記録媒体からコンピュータにインストールすることで、容易に本実施の形態の画像処理装置を実現することができる。   Of the technologies described here, many of the controls and functions mainly described in the flowcharts can be set by a program, and the above-described controls and functions can be realized by a computer reading and executing the program. it can. As a computer program product, the program may be recorded or stored in whole or in part on a portable medium such as a non-volatile memory such as a flexible disk or a CD-ROM, or a storage medium such as a hard disk or a volatile memory. It can be distributed or provided at the time of product shipment or via a portable medium or communication line. The user can easily realize the image processing apparatus according to the present embodiment by downloading the program via a communication network and installing the program on a computer, or installing the program from a recording medium on the computer.

1…撮像装置、10…撮像部、20…画像処理装置、21…画像取得部、22…撮像制御部、23…画像蓄積部、24…第1判定部、25…第2判定部、26…制御部、27…画像補正部、28…操作判定部、29…表示制御部、31…表示部、31a…タッチパネル、32…操作部、33…記録部。     DESCRIPTION OF SYMBOLS 1 ... Imaging device, 10 ... Imaging part, 20 ... Image processing apparatus, 21 ... Image acquisition part, 22 ... Imaging control part, 23 ... Image storage part, 24 ... 1st determination part, 25 ... 2nd determination part, 26 ... Control part 27 ... Image correction part 28 ... Operation determination part 29 ... Display control part 31 ... Display part 31a ... Touch panel 32 ... Operation part 33 ... Recording part.

Claims (13)

同一被写体について明るさが異なる複数の画像を取得する画像取得部と、
上記複数の画像を蓄積する画像蓄積部と、
上記画像蓄積部に蓄積された複数の画像のうち第1の明るさの画像を用いて、画像中の所定の対象領域の色成分判定を行う第1判定部と、
上記画像蓄積部に蓄積された複数の画像のうち第2の明るさの画像を用いて、上記対象領域の領域判定を行う第2判定部と、
上記第1及び第2判定部の判定結果に基づいて、上記複数の画像のうちの1つの画像中の上記対象領域に上記色成分判定の結果の色を適用した補正画像を生成する画像補正部と
を具備したことを特徴とする画像処理装置。
An image acquisition unit that acquires a plurality of images with different brightness for the same subject;
An image storage unit for storing the plurality of images;
A first determination unit that performs color component determination of a predetermined target region in the image using an image having a first brightness among the plurality of images stored in the image storage unit;
A second determination unit that performs region determination of the target region using a second brightness image among the plurality of images stored in the image storage unit;
An image correction unit that generates a corrected image in which the color of the color component determination result is applied to the target region in one of the plurality of images based on the determination results of the first and second determination units. An image processing apparatus comprising:
上記画像取得部は、上記同一被写体について異なる露出量の撮像画像を出力可能な撮像部の撮像を制御して、上記同一被写体について明るさが異なる複数の画像を取得する
ことを特徴とする請求項1に記載の画像処理装置。
The said image acquisition part controls the imaging of the imaging part which can output the captured image of different exposure amount about the same subject, and acquires the several image from which the brightness differs about the same subject. The image processing apparatus according to 1.
上記画像取得部は、上記撮像部による1回の撮影中において、上記同一被写体について明るさが異なる複数の画像を取得する
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the image acquisition unit acquires a plurality of images with different brightness for the same subject during one shooting by the imaging unit.
上記画像取得部は、上記撮像部による複数回の撮影によって、上記同一被写体について明るさが異なる複数の画像を取得する
ことを特徴とする請求項2に記載の画像処理装置。
The image processing apparatus according to claim 2, wherein the image acquisition unit acquires a plurality of images having different brightness for the same subject by performing a plurality of shootings by the imaging unit.
上記第1判定部は、上記第1の明るさの画像として、上記対象領域における各色成分がいずれも飽和していない画像を選択する
ことを特徴とする請求項1乃至4のいずれか1つに記載の画像処理装置。
5. The apparatus according to claim 1, wherein the first determination unit selects an image in which each color component in the target region is not saturated as the image having the first brightness. The image processing apparatus described.
上記第1判定部は、上記第1の明るさの画像として、上記対象領域における各色成分がいずれも所定のノイズレベルよりも大きいレベルの画像を選択する
ことを特徴とする請求項1乃至5のいずれか1つに記載の画像処理装置。
6. The first determination unit according to claim 1, wherein the first determination unit selects, as the first brightness image, an image in which each color component in the target region is higher than a predetermined noise level. The image processing apparatus according to any one of the above.
上記第2判定部は、上記第2の明るさの画像として、上記対象領域における各色成分がいずれも所定のノイズレベルよりも大きいレベルの画像を選択する
ことを特徴とする請求項1乃至6のいずれか1つに記載の画像処理装置。
7. The second determination unit according to claim 1, wherein the second determination unit selects, as the second brightness image, an image in which each color component in the target region is higher than a predetermined noise level. The image processing apparatus according to any one of the above.
上記第2判定部は、上記第2の明るさの画像として、画像中の所定サイズ以上の上記対象領域を検出可能な明るさの画像を選択する
ことを特徴とする請求項1乃至7のいずれか1つに記載の画像処理装置。
The said 2nd determination part selects the image of the brightness which can detect the said object area | region more than the predetermined size in an image as said 2nd brightness image, Any one of Claim 1 thru | or 7 characterized by the above-mentioned. The image processing apparatus according to claim 1.
上記第1及び第2の判定部は、ユーザ操作に基づいて上記対象領域が指定される
ことを特徴とする請求項1乃至8のいずれか1つに記載の画像処理装置。
The image processing apparatus according to claim 1, wherein the first and second determination units specify the target area based on a user operation.
上記画像補正部は、上記第1及び第2判定部の判定結果に基づいて上記複数の画像のうち第3の明るさの画像中の上記対象領域に上記色成分判定結果の色を適用した補正画像を生成する
ことを特徴とする請求項11乃至9のいずれか1つに記載の画像処理装置。
The image correction unit is configured to apply the color of the color component determination result to the target region in the third brightness image among the plurality of images based on the determination results of the first and second determination units. The image processing apparatus according to claim 11, wherein an image is generated.
同一被写体について明るさが異なる複数の画像を撮像可能な撮像部と、
上記撮像部からの上記複数の画像を蓄積する画像蓄積部と、
上記画像蓄積部に蓄積された複数の画像のうち第1の明るさの画像を用いて、画像中の所定の対象領域の色成分判定を行う第1判定部と、
上記画像蓄積部に蓄積された複数の画像のうち第2の明るさの画像を用いて、上記対象領域の領域判定を行う第2判定部と、
上記第1及び第2判定部の判定結果に基づいて、上記複数の画像のうちの1つの画像中の上記対象領域に上記色成分判定の結果の色を適用した補正画像を生成する画像補正部と
を具備したことを特徴とする撮像装置。
An imaging unit capable of capturing a plurality of images with different brightness for the same subject;
An image storage unit for storing the plurality of images from the imaging unit;
A first determination unit that performs color component determination of a predetermined target region in the image using an image having a first brightness among the plurality of images stored in the image storage unit;
A second determination unit that performs region determination of the target region using a second brightness image among the plurality of images stored in the image storage unit;
An image correction unit that generates a corrected image in which the color of the color component determination result is applied to the target region in one of the plurality of images based on the determination results of the first and second determination units. An image pickup apparatus comprising:
同一被写体について明るさが異なる複数の画像を取得する画像取得ステップと、
上記複数の画像を蓄積する画像蓄積ステップと、
上記画像蓄積ステップにおいて蓄積された複数の画像のうち第1の明るさの画像を用いて、画像中の所定の対象領域の色成分判定を行う第1判定ステップと、
上記画像蓄積ステップにおいて蓄積された複数の画像のうち第2の明るさの画像を用いて、上記対象領域の領域判定を行う第2判定ステップと、
上記第1及び第2判定ステップの判定結果に基づいて、上記複数の画像のうちの1つの画像中の上記対象領域に上記色成分判定の結果の色を適用した補正画像を生成する画像補正ステップと
を具備したことを特徴とする画像処理方法。
An image acquisition step of acquiring a plurality of images with different brightness for the same subject;
An image storage step for storing the plurality of images;
A first determination step of determining a color component of a predetermined target region in the image using an image having a first brightness among the plurality of images stored in the image storage step;
A second determination step of performing region determination of the target region using a second brightness image among the plurality of images stored in the image storage step;
An image correction step for generating a corrected image in which the color of the result of the color component determination is applied to the target region in one of the plurality of images based on the determination results of the first and second determination steps. And an image processing method.
コンピュータに、
同一被写体について明るさが異なる複数の画像を取得する画像取得ステップと、
上記複数の画像を蓄積する画像蓄積ステップと、
上記画像蓄積ステップにおいて蓄積された複数の画像のうち第1の明るさの画像を用いて、画像中の所定の対象領域の色成分判定を行う第1判定ステップと、
上記画像蓄積ステップにおいて蓄積された複数の画像のうち第2の明るさの画像を用いて、上記対象領域の領域判定を行う第2判定ステップと、
上記第1及び第2判定ステップの判定結果に基づいて、上記複数の画像のうちの1つの画像中の上記対象領域に上記色成分判定の結果の色を適用した補正画像を生成する画像補正ステップと
を実行させるための画像処理プログラム。
On the computer,
An image acquisition step of acquiring a plurality of images with different brightness for the same subject;
An image storage step for storing the plurality of images;
A first determination step of determining a color component of a predetermined target region in the image using an image having a first brightness among the plurality of images stored in the image storage step;
A second determination step of performing region determination of the target region using a second brightness image among the plurality of images stored in the image storage step;
An image correction step for generating a corrected image in which the color of the result of the color component determination is applied to the target region in one of the plurality of images based on the determination results of the first and second determination steps. An image processing program for executing
JP2015013600A 2015-01-27 2015-01-27 Image processing apparatus, image processing method, image processing program, and imaging apparatus Expired - Fee Related JP6616573B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015013600A JP6616573B2 (en) 2015-01-27 2015-01-27 Image processing apparatus, image processing method, image processing program, and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015013600A JP6616573B2 (en) 2015-01-27 2015-01-27 Image processing apparatus, image processing method, image processing program, and imaging apparatus

Publications (2)

Publication Number Publication Date
JP2016139927A true JP2016139927A (en) 2016-08-04
JP6616573B2 JP6616573B2 (en) 2019-12-04

Family

ID=56559385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015013600A Expired - Fee Related JP6616573B2 (en) 2015-01-27 2015-01-27 Image processing apparatus, image processing method, image processing program, and imaging apparatus

Country Status (1)

Country Link
JP (1) JP6616573B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101886A (en) * 2001-09-25 2003-04-04 Olympus Optical Co Ltd Image pickup device
JP2005117635A (en) * 2003-09-16 2005-04-28 Fuji Photo Film Co Ltd Camera system, camera control method, and program
WO2010116922A1 (en) * 2009-04-07 2010-10-14 コニカミノルタオプト株式会社 Image input device
JP2013077879A (en) * 2011-09-29 2013-04-25 Sony Corp Imaging device, imaging method and program
JP2013098805A (en) * 2011-11-01 2013-05-20 Clarion Co Ltd Image processing apparatus, imaging apparatus and image processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003101886A (en) * 2001-09-25 2003-04-04 Olympus Optical Co Ltd Image pickup device
JP2005117635A (en) * 2003-09-16 2005-04-28 Fuji Photo Film Co Ltd Camera system, camera control method, and program
WO2010116922A1 (en) * 2009-04-07 2010-10-14 コニカミノルタオプト株式会社 Image input device
JP2013077879A (en) * 2011-09-29 2013-04-25 Sony Corp Imaging device, imaging method and program
JP2013098805A (en) * 2011-11-01 2013-05-20 Clarion Co Ltd Image processing apparatus, imaging apparatus and image processing program

Also Published As

Publication number Publication date
JP6616573B2 (en) 2019-12-04

Similar Documents

Publication Publication Date Title
JP7071137B2 (en) Electronic devices and their control methods
KR101427660B1 (en) Apparatus and method for blurring an image background in digital image processing device
US8760534B2 (en) Image processing apparatus with function for specifying image quality, and method and storage medium
CN101635797B (en) Imaging apparatus
JP2006033241A (en) Image pickup device and image acquiring means
JP6624889B2 (en) Video processing apparatus, video processing method, and video processing program
JP2017108309A (en) Imaging apparatus and imaging method
JP2010147786A (en) Imaging device and image processing method
JP2019129506A (en) Imaging apparatus and control method of the same
JP6261205B2 (en) Image processing device
JP2019176305A (en) Imaging apparatus, control method of the same, and program
JP6210772B2 (en) Information processing apparatus, imaging apparatus, control method, and program
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP2021005761A (en) Image processing device, imaging device, control method of image processing device, and program
JP2017163339A (en) Video processing apparatus, video processing method and program
JP2003259200A (en) Image pickup device
US11336802B2 (en) Imaging apparatus
JP6616573B2 (en) Image processing apparatus, image processing method, image processing program, and imaging apparatus
JP2006186931A (en) Camera device and white balance bracketing photographing method
JP5289354B2 (en) Imaging device
JP6925827B2 (en) Image processing device and image processing method
JP2019047436A (en) Image processing device, image processing method, image processing program, and imaging device
JP2014138259A (en) Photographing apparatus
JP6504693B2 (en) Image pickup apparatus, operation support method, and operation support program
JP5964937B2 (en) Image processing method, electronic device, and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20150423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190325

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191108

R151 Written notification of patent or utility model registration

Ref document number: 6616573

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees