JP2024021344A - Image processing device, control method and program - Google Patents
Image processing device, control method and program Download PDFInfo
- Publication number
- JP2024021344A JP2024021344A JP2022124106A JP2022124106A JP2024021344A JP 2024021344 A JP2024021344 A JP 2024021344A JP 2022124106 A JP2022124106 A JP 2022124106A JP 2022124106 A JP2022124106 A JP 2022124106A JP 2024021344 A JP2024021344 A JP 2024021344A
- Authority
- JP
- Japan
- Prior art keywords
- image
- captured image
- light
- corrected
- target area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 91
- 238000000034 method Methods 0.000 title claims description 27
- 238000012937 correction Methods 0.000 claims abstract description 96
- 238000003384 imaging method Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 19
- 230000015572 biosynthetic process Effects 0.000 claims description 17
- 238000003786 synthesis reaction Methods 0.000 claims description 17
- 210000000056 organ Anatomy 0.000 claims description 7
- 230000002194 synthesizing effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 10
- 238000003702 image correction Methods 0.000 abstract description 5
- 238000001514 detection method Methods 0.000 description 26
- 206010014970 Ephelides Diseases 0.000 description 25
- 208000003351 Melanosis Diseases 0.000 description 25
- 239000011148 porous material Substances 0.000 description 24
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 238000009795 derivation Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- XUMBMVFBXHLACL-UHFFFAOYSA-N Melanin Chemical compound O=C1C(=O)C(C2=CNC3=C(C(C(=O)C4=C32)=O)C)=C2C4=CNC2=C1C XUMBMVFBXHLACL-UHFFFAOYSA-N 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003796 beauty Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000037311 normal skin Effects 0.000 description 1
- 239000000049 pigment Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Abstract
【課題】光源の照射態様に応じた画像補正を行う。【解決手段】画像処理装置は、被写体について、第1の波長域の光を撮像した第1の撮像画像と、第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得手段と、第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定手段第1の撮像画像と第2の撮像画像との差分に基づいて、第1の撮像画像の対象領域の画像を補正した第1の補正画像を生成する第1の補正手段と、第1の補正手段により生成された第1の補正画像と第1の撮像画像とを合成することで、出力用の補正画像を生成する合成手段と、第1の波長域の光により対象領域の被写体が照射される強度の分布を示す第1の照射態様と、第2の波長域の光により対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、合成手段の合成における第1の補正画像の適用率を制御する制御手段と、を有する。【選択図】図4The present invention performs image correction according to the irradiation mode of a light source. [Solution] An image processing device captures a first captured image of a subject with light in a first wavelength range and a second captured image of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition means for acquiring a second captured image, and a setting means for setting a target area to be corrected based on the first captured image, based on the difference between the first captured image and the second captured image. , a first correction means for generating a first corrected image by correcting an image of the target area of the first captured image; a first corrected image generated by the first correction means; and a first captured image; a first irradiation mode indicating the distribution of intensity with which a subject in a target area is irradiated with light in a first wavelength range; and control means for controlling the application rate of the first corrected image in the composition of the composition means based on the difference in the second irradiation mode indicating the distribution of the intensity with which the object in the target region is irradiated by the light of the region. [Selection diagram] Figure 4
Description
本発明は、画像処理装置、制御方法及びプログラムに関し、特に人物の肌領域に対する画像補正技術に関する。 The present invention relates to an image processing device, a control method, and a program, and particularly relates to an image correction technique for a human skin region.
しみやそばかす等、人物の皮膚のメラニン色素が沈着した部位は赤外光画像に表れにくい特性を利用して、可視光画像と赤外光画像の差分画像に基づいて当該部位を補正した画像を生成する技術がある(特許文献1)。 Taking advantage of the fact that melanin pigmented areas of a person's skin, such as spots and freckles, are difficult to show up in infrared images, the system creates an image in which the areas are corrected based on the difference image between the visible light image and the infrared image. There is a technology for generating this (Patent Document 1).
ところで、撮像装置の中には照明装置としてLED等の赤外光を含まない光源を採用するものもある。このような撮像装置で人物の撮影を行った場合、可視光と赤外光の照射態様が異なることがあり、特許文献1のように可視光画像と赤外光画像の差分画像を用いたとしてもメラニン色素が沈着した部位を好適に特定できない場合がある。即ち、従来の技術では、光源の照射態様によっては、好適に人物の肌領域を補正した画像を生成できない場合があった。
By the way, some imaging devices employ a light source that does not contain infrared light, such as an LED, as an illumination device. When photographing a person with such an imaging device, the irradiation mode of visible light and infrared light may differ, and even if a difference image between a visible light image and an infrared light image is used as in
本発明は、上述の問題点に鑑みてなされたものであり、光源の照射態様に応じた画像補正を行う画像処理装置、制御方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an image processing device, a control method, and a program that perform image correction according to the irradiation mode of a light source.
前述の目的を達成するために、本発明の画像処理装置は、被写体について、第1の波長域の光を撮像した第1の撮像画像と、第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得手段と、第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定手段第1の撮像画像と第2の撮像画像との差分に基づいて、第1の撮像画像の対象領域の画像を補正した第1の補正画像を生成する第1の補正手段と、第1の補正手段により生成された第1の補正画像と第1の撮像画像とを合成することで、出力用の補正画像を生成する合成手段と、第1の波長域の光により対象領域の被写体が照射される強度の分布を示す第1の照射態様と、第2の波長域の光により対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、合成手段の合成における第1の補正画像の適用率を制御する制御手段と、を有することを特徴とする。 In order to achieve the above-mentioned object, the image processing device of the present invention provides a first captured image of a subject that captures light in a first wavelength range, and a second image that includes a wavelength longer than the first wavelength range. an acquisition means for acquiring a second captured image capturing light in a wavelength range of , and a setting means for setting a target area to be corrected based on the first captured image; a first correction unit that generates a first corrected image in which an image of the target area of the first captured image is corrected based on a difference with the captured image; and a first correction generated by the first correction unit. a synthesis means for generating a corrected image for output by synthesizing the image and the first captured image; Based on the difference between the irradiation mode and the second irradiation mode indicating the distribution of the intensity with which the object in the target area is irradiated with light in the second wavelength range, the application rate of the first corrected image in the synthesis of the synthesis means is controlled. It is characterized by having a control means for.
このような構成により本発明によれば、光源の照射態様に応じた画像補正を行うことが可能となる。 With such a configuration, according to the present invention, it is possible to perform image correction according to the irradiation mode of the light source.
[実施形態]
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[Embodiment]
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.
以下に説明する一実施形態は、画像処理装置の一例としての、可視光画像と赤外光画像とを撮像可能な撮像装置に、本発明を適用した例を説明する。しかし、本発明は、第1の波長域の光を撮像した第1の撮像画像と、第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像を取得することが可能な任意の機器に適用可能である。また、本明細書において「(光の)照射態様」とは、被写体が光により照射される強度の分布を示し、簡易的には、光あるいは光源による被写体の照らされ方を示すものとする。 An embodiment described below describes an example in which the present invention is applied to an imaging device capable of capturing visible light images and infrared light images, which is an example of an image processing device. However, the present invention provides a first captured image that captures light in a first wavelength range, and a second captured image that captures light in a second wavelength range that includes a wavelength longer than the first wavelength range. It is applicable to any equipment that can be acquired. Furthermore, in this specification, the term "irradiation mode (of light)" refers to the distribution of intensity with which a subject is irradiated with light, and simply refers to how the subject is illuminated by light or a light source.
《撮像装置の機能構成》
図1は、本実施形態に係る撮像装置100の機能構成を示すブロック図である。
《Functional configuration of imaging device》
FIG. 1 is a block diagram showing the functional configuration of an
撮像部101は、被写体を撮像して撮像画像を出力する。撮像部101は、撮像光学系、イメージセンサ、A/D変換処理部を含む。撮像部101は、例えばユーザによる撮影指示が操作入力部108により受け付けられた場合に、撮影動作を行う。より詳しくは撮像部101は、撮像光学系によりイメージセンサに結像された被写体の光学像を光電変換することで撮影を行い、撮像画像を出力する。
The
本実施形態では撮像部101は、可視光画像と赤外光画像の2種類の撮像画像を出力可能に構成される。撮像部101からの可視光画像及び赤外光画像の出力は、例えば、イメージセンサを図8に示される態様で構成することにより実現できる。図8には、イメージセンサにおける画素(光電変換素子)配列を格子で示しており、各格子内に示される文字は、格子に適用されるフィルタを示している。ここで、R、G、Bは、それぞれ赤色、緑色、青色の可視光を通過させるフィルタを示し、IRは、赤外光を通過させるフィルタ、あるいは可視光をカットするフィルタを示す。またWは、赤外光をカットするフィルタを示す。
In this embodiment, the
図8(a)は、可視光画像と赤外光画像のそれぞれを出力可能な2種類のイメージセンサを具備する態様であり、各イメージセンサに適用される可視光フィルタと赤外光フィルタを示している。対して、図8(b)は、1種類のイメージセンサにて可視光画像と赤外光画像を出力可能とする態様であり、イメージセンサに適用されるフィルタには2×2の画素に各色の可視光と赤外光とを透過するフィルタが適用されている。図8(c)は、1種類のイメージセンサにて順次適用されるフィルタを異ならせて可視光画像と赤外光画像とを出力可能とする態様であり、赤外光カットフィルタと可視光カットフィルタが交互に適用される。 FIG. 8(a) shows an embodiment including two types of image sensors capable of outputting visible light images and infrared light images, and shows a visible light filter and an infrared light filter applied to each image sensor. ing. On the other hand, FIG. 8(b) shows a mode in which one type of image sensor can output a visible light image and an infrared light image, and the filter applied to the image sensor has 2×2 pixels for each color. A filter is applied that transmits visible light and infrared light. FIG. 8(c) shows a mode in which a visible light image and an infrared light image can be output by changing sequentially applied filters in one type of image sensor. Filters are applied alternately.
なお、本実施形態では発明の理解を容易にすべく、可視光画像と赤外光画像は、同一の撮像範囲を撮像するものとし、可視光画像と赤外光画像とで、同一の被写体の像は同一の位置に表れるものとする。即ち、可視光画像の任意の画素位置の画素に表れる被写体は、赤外光画像において同一画素位置の画素に表れるものとする。 In this embodiment, in order to facilitate understanding of the invention, it is assumed that the visible light image and the infrared light image are captured in the same imaging range, and that the same subject is captured in the visible light image and the infrared light image. The images shall appear in the same position. That is, it is assumed that a subject appearing in a pixel at an arbitrary pixel position in a visible light image appears in a pixel at the same pixel position in an infrared light image.
画像処理部102は、入力された画像に対して各種の画像処理を実行する。画像処理部102による画像処理の対象は、撮像部101により出力された撮像画像に加え、後述の記録部106から読み出された画像や通信I/F107を介して外部装置から取得された画像を含むことができる。画像処理部102は、入力された撮像画像に対し、ホワイトバランス処理やデモザイク処理、ガンマ処理等の現像処理を実行する。この他、画像処理部102は、可視光画像及び赤外光画像に基づいて、後述の美肌補正処理を実行する。
The
システム制御部103は、撮像装置100が有する各ブロックの動作を制御する。システム制御部103は、不図示のCPU、ROM、RAMを含む。各ブロックの動作は、CPUが、ROMに記憶された各ブロックの動作プログラムを読み出してRAMに展開して実行することにより制御される。
The
表示制御部104は、撮像装置100が備える表示用の映像信号の出力インタフェースであり、表示部105の表示制御を行う。本実施形態の撮像装置100は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイ等の表示装置であってよい表示部105を具備する。表示制御部104は、撮像画像や画像処理部102により生成された画像や各種のグラフィカルユーザインタフェースの映像信号を表示部105に出力する。表示部105は、撮像装置100に内蔵される表示装置であってもよいし、撮像装置100に着脱可能に接続された外部の表示装置であってもよい。
The
記録部106は、撮像装置100が備える記録装置であり、主として画像処理部102により生成された画像(画像ファイル)を記録する。記録部106は、例えば半導体メモリで構成されたメモリカードや、光磁気ディスクで構成されたハードディスク等の規則装置を含むことができる。記録部106は、着脱可能に構成されるものであってもよいし、撮像装置100に内蔵されるものであってもよい。
The
通信I/F107は、撮像装置100が備える外部装置との情報通信を制御するインタフェースである。通信I/F107は、外部装置と、不図示のネットワークを介して接続されるものであってもよいし、有線・無線で直接接続されるものであってもよい。本実施形態の撮像装置100が行う撮像動作や画像処理は、操作入力部108が操作されることにより実行されるものであってもよいし、通信I/F107を介して接続された外部装置からの要求に基づいて実行されるものであってもよい。従って、通信I/F107は、外部装置からの制御入力の受信や、外部装置への画像処理部102が生成した画像の送信を行う。
The communication I/
操作入力部108は、撮像装置100が備えるユーザインタフェースである。操作入力部108は、例えばボタン等の操作部材やタッチパネルセンサ等を含むことができる。操作入力部108は、操作入力がなされたことを検出すると、当該操作入力に対応する制御信号をシステム制御部103に出力する。
The
バス109は、撮像装置100が有するブロック間での情報通信に用いられる通信経路である。図1の例では、撮像部101、画像処理部102、システム制御部103、表示制御部104、記録部106、通信I/F107が、バス109を介して相互通信可能に構成されている。
The
《美肌補正処理の概要》
続いて、本実施形態の画像処理部102において実行される美肌補正処理について概要を説明する。画像処理部102において実行される美肌補正処理は、可視光画像に含まれる人物の像について、その肌領域に表れるしみ、そばかす、毛穴等を目立ちにくくする補正処理である。
《Overview of skin beautification processing》
Next, an outline of the skin-beautifying correction process executed by the
ここで、肌が綺麗な状態であれば、可視光画像における肌領域は、エッジ等を除いて肌の色が均一に広がった平坦な状態となる。対して、肌にしみ、そばかす、毛穴等がある場合には、可視光画像における肌領域は、肌の色以外が混じった「色むら」のある状態となる。従って、このような色むらは、可視光画像を周波数分解した際のAC成分に表れることになる。しかし、可視光画像のAC成分には、肌の隆起に起因するもの等、しみ、そばかす、毛穴等に起因しない輝度変化(以下、肌本来の輝度変化として言及)も表れる。 Here, if the skin is in a beautiful state, the skin area in the visible light image will be in a flat state with the skin color spread evenly except for edges and the like. On the other hand, if there are spots, freckles, pores, etc. on the skin, the skin area in the visible light image will have "color unevenness" in which colors other than the skin are mixed. Therefore, such color unevenness appears in the AC component when the visible light image is frequency-resolved. However, in the AC component of the visible light image, brightness changes that are not caused by spots, freckles, pores, etc., such as those caused by bumps on the skin (hereinafter referred to as brightness changes inherent to the skin) also appear.
一方、赤外光画像には、しみ、そばかす、毛穴等が表れにくいという特性がある。このため、赤外光画像のAC成分からは、しみ、そばかす、毛穴等に起因する輝度変化分が除外(あるいは低減)された、肌本来の輝度変化を得ることができる。従って、被写体を同時期に撮像した可視光画像と赤外光画像についてAC成分の差分をとることで、しみ、そばかす、毛穴等に起因する輝度変化分を得ることができる。つまり、可視光画像と赤外光画像のAC成分の差分により、しみ、そばかす、毛穴等の存在している領域を特定することができる。従って、可視光画像のAC成分を、可視光画像と赤外光画像のAC成分との差分に基づいてしみ、そばかす、毛穴等による影響を低減した状態に補正し、これを可視光画像のDC成分に加算することで、好適な肌状態の可視光画像を得ることができる。 On the other hand, infrared light images have the characteristic that spots, freckles, pores, etc. are less likely to appear. Therefore, from the AC component of the infrared light image, it is possible to obtain the original brightness change of the skin, with brightness changes caused by spots, freckles, pores, etc. removed (or reduced). Therefore, by calculating the difference in AC components between visible light images and infrared light images taken of a subject at the same time, it is possible to obtain luminance changes caused by spots, freckles, pores, etc. That is, based on the difference between the AC components of the visible light image and the infrared light image, it is possible to specify areas where spots, freckles, pores, etc. are present. Therefore, the AC component of the visible light image is corrected based on the difference between the AC component of the visible light image and the infrared light image to reduce the effects of spots, freckles, pores, etc. By adding it to the components, a visible light image of a suitable skin condition can be obtained.
しかしながら、被写体(人物)への可視光と赤外光の照射態様が異なる場合、可視光画像と赤外光画像のAC成分の差分をとっても、好適にしみ、そばかす、毛穴等に起因する輝度変化分を特定することができない。例えば、可視光のみを照射する光源が配置され、人物の肌領域を局所的に照明している場合は、可視光画像と赤外光画像のAC成分の差分には、肌本来の輝度変化分に加えて、可視光と赤外光の照射態様の違いに起因する輝度変化分が表れる。また例えば、室内や夜間の(太陽光が照射されていない)屋外において、人物の肌領域を可視光で局所的に照射している場合も同様である。結果、可視光画像と赤外光画像のAC成分との差分に基づいて特定される領域について補正を行った場合、例えばしみ、そばかす、毛穴等が発生していない領域も補正されてしまい、得られる補正画像が好適な態様にならない。 However, when the modes of irradiation of visible light and infrared light on a subject (person) are different, even if the difference between the AC components of the visible light image and the infrared light image is taken, the brightness changes due to spots, freckles, pores, etc. It is not possible to specify the minute. For example, if a light source that emits only visible light is placed to locally illuminate a person's skin area, the difference between the AC components of the visible light image and the infrared light image includes the skin's original brightness change. In addition to this, a change in brightness due to the difference in the irradiation mode between visible light and infrared light appears. For example, the same applies when a person's skin area is locally irradiated with visible light indoors or outdoors at night (where no sunlight is irradiated). As a result, when correction is performed on an area identified based on the difference between the AC components of a visible light image and an infrared light image, for example, areas where spots, freckles, pores, etc. The corrected image that is displayed is not in a suitable manner.
このため、本実施形態の画像処理部102は、可視光の照射態様と赤外光の照射態様の違いに基づいて美肌補正処理の処理内容を異ならせることで、肌領域が好適に補正された補正画像を得る。具体的には画像処理部102は、可視光画像と赤外光画像のAC成分の差異に基づいて可視光画像の肌領域を補正した画像と、単純に赤外光画像を参照せずに可視光画像の肌領域を補正した画像とを、照射態様の差異に応じた比率で合成することで補正画像を得る。
Therefore, the
〈美肌補正処理に係る機能構成〉
図2は、本実施形態の画像処理部102で行われる美肌補正処理に係る機能構成を示したブロック図である。上述したように、美肌補正処理の入力は、被写体を同時期に撮影して得られた可視光画像210と赤外光画像220の2つであり、処理後、1つの補正画像(可視光画像)230が出力される。より詳しくは、可視光画像210は、対象領域検出部201と第1照射検出部202に入力され、赤外光画像220は第2照射検出部203に入力される。
<Functional configuration related to skin beautification processing>
FIG. 2 is a block diagram showing a functional configuration related to skin beautification processing performed by the
対象領域検出部201は、入力された可視光画像210から、美肌補正処理の補正対象である対象領域を検出する。本実施形態では、美肌補正処理の対象領域は、人物の顔領域中の肌が表れる領域(人物の顔の肌領域)とする。詳細な説明は省略するが、対象領域検出部201は、可視光画像210について別途行われた顔検出処理の検出結果を参照し、当該検出結果で示される顔領域中の、肌の色が表れる領域(しみ、そばかす、毛穴等の領域を含む)を対象領域として設定する。そして可視光画像210は、対象領域の検出結果を示す対象領域情報と可視光画像210とを後段の補正部204に出力する。
The target
第1照射検出部202は、入力された可視光画像210に基づいて、可視光の照射態様を示す可視光照射情報を生成する。具体的には、第1照射検出部202は、可視光画像210中の顔領域300(対象領域)を図3に示されるようにブロック分割し、対象領域中のブロック(分割領域)ごとの可視光の照射状態を示す値を導出する。本実施形態では、可視光の照射状態を示す値は、ブロック内の平均輝度値を顔領域全体の平均輝度値で正規化することで導出されるものとする。即ち、ブロック座標(i,j)で示されるブロックの可視光の照射状態を示す値BYnorm(i,j)は、当該ブロック内の平均輝度BY(i,j)と、顔領域300内の平均輝度BYaveを用いて、
で導出される。第1照射検出部202は、全てのブロックについて可視光の照射状態を示す値を導出すると、これらを統合した可視光照射情報を補正部204に出力する。
The first
It is derived as When the first
第2照射検出部203は、入力された赤外光画像220に基づいて、赤外光の照射態様を示す赤外光照射情報を生成する。第2照射検出部203で行われる処理は、第1照射検出部202において行われる処理と同様である。即ち、第2照射検出部203は、赤外光画像220中の顔領域をブロック分割し、ブロックごとに導出した赤外光の照射状態を示す値を統合して赤外光照射情報を生成する。第2照射検出部203は、赤外光照射情報を生成すると、当該赤外光照射情報と赤外光画像220とを補正部204に出力する。
The second
ここで、第1照射検出部202も第2照射検出部203も、本実施形態ではブロック内の平均輝度値を顔領域全体の平均輝度値で正規化している。従って、生成される可視光照射情報及び赤外光照射情報には、可視光と赤外光の分光反射率の違いによる影響は排除されている。
Here, in this embodiment, both the first
補正部204は、入力された可視光画像210、赤外光画像220、対象領域情報、可視光照射情報及び赤外光照射情報に基づいて、可視光画像210に対する美肌補正処理を実行して出力用の補正画像230を生成する。
The
〈補正部204の詳細構成〉
ここで、補正部204の詳細構成について、図4をさらに参照して説明する。上述したように、補正部204の入力は、可視光画像210、赤外光画像220、対象領域情報410、可視光照射情報420及び赤外光照射情報430である。可視光画像210は、第1AC成分抽出部401、第1補正部404及び第2補正部405に入力され、赤外光画像220は、第2AC成分抽出部402に入力される。また対象領域情報410は、第1補正部404及び第2補正部405に入力され、可視光照射情報420及び赤外光照射情報430は導出部406に入力される。
<Detailed configuration of
Here, the detailed configuration of the
第1AC成分抽出部401は、入力された可視光画像210からAC成分の画像(可視光AC画像)を抽出する。具体的には、第1AC成分抽出部401は、可視光画像210に対して所定の周波数帯域を抽出するバンドパスフィルタ処理を適用することで、可視光AC画像を抽出して出力する。
The first AC
第2AC成分抽出部402は、入力された赤外光画像220からAC成分の画像(赤外光AC画像)を抽出する。第2AC成分抽出部402は、第1AC成分抽出部401と同様に、赤外光画像220にバンドパスフィルタ処理を適用することで、赤外光AC画像を抽出して出力する。
The second AC
AC成分比較部403は、可視光AC画像と赤外光AC画像とに基づいて、これらの差異を示し、第1補正部404における可視光画像の補正のための補正係数を導出する。補正係数は、画像の座標ごとに導出される。本実施形態ではAC成分比較部403は、座標(x,y)についての補正係数k(x,y)を、可視光AC画像の同座標の値Y_AC(x,y)と赤外光AC画像の同座標の値IR_AC(x,y)とを用いて、
で導出する。ここで、補正係数k(x,y)は、0の場合には可視光画像210と赤外光画像220とで差がない、即ち、可視光画像210の座標(x,y)の画素にしみ、そばかす、毛穴等が表れていないことを示す。対して、補正係数k(x,y)が負の場合には、可視光画像210と赤外光画像220とに差がある、即ち、可視光画像210の座標(x,y)の画素にしみ、そばかす、毛穴等が表れていることを示す。また補正係数k(x,y)は、その値が小さい(絶対値が大きい)ほど、正常な肌の色から乖離した色が表れていることを示している。なお、しみ、そばかす、毛穴等が表れている画素で負となるように補正係数k(x,y)を導出している理由は、第1補正部404における補正において、可視光画像210のAC成分を低減させる(弱める)ためである。
The AC
Derive it as Here, when the correction coefficient k (x, y) is 0, there is no difference between the visible
第1補正部404は、可視光画像210と赤外光画像220のAC成分の差異に基づいて、可視光画像210の対象領域に表れるしみ、そばかす、毛穴等を低減させた画像(第1の補正画像)を生成する。より詳しくは、第1補正部404は、可視光画像210の対象領域の画素について、AC成分比較部403により導出された補正係数k(x,y)に基づいてAC成分を補正し、これをDC成分に加算することで補正後の対象領域の画素値を導出する。そして第1補正部404は、可視光画像210のうちの対象領域の画素値を、得られた補正後の対象領域の画素値に変更することで第1の補正画像を生成する。
The
まず第1補正部404は、可視光AC画像の対象領域の座標(x,y)ごとに、しみ、そばかす、毛穴等を低減させた補正量k_AC(x,y)を
で導出する。また、可視光画像210のDC成分Y_DC(x,y)は、
で導出できる。従って、第1補正部404は、可視光画像210の対象領域のDC成分Y_DC(x,y)と補正量k_AC(x,y)とを用いて
で補正後の対象領域の座標(x,y)の画素値Yafter1(x,y)を導出する。そして、第1補正部404は、可視光画像210の対象領域の画素値をYafter1(x,y)に変更することで第1の補正画像を生成する。
First, the
Derive it as Further, the DC component Y_DC(x,y) of the visible
It can be derived as Therefore, the
The pixel value Y after1 (x, y) of the coordinates (x, y) of the target area after correction is derived. Then, the
対して、第2補正部405は、可視光画像210の対象領域に対して、第1補正部404とは異なる補正処理を実行して、しみ、そばかす、毛穴等を低減させた画像(第2の補正画像)を生成する。第2補正部405において実行される補正処理は、可視光画像210と赤外光画像220の差異に基づくものではなく、可視光画像210のみを参照して実行される。即ち、第2補正部405において行われる補正処理は、対象領域のAC成分の振幅を低減するようなノイズリダクション処理である。
On the other hand, the
第2補正部405は、例えばバイラテラルフィルタのような、エッジを保存しつつ、領域のAC成分の振幅を低減させるフィルタリング処理を可視光画像210の対象領域に適用する。このとき、適用されるフィルタの規模は、しみ、そばかす、毛穴等の面積に適合させるため、顔領域の大きさが大きくなるほどフィルタを大きくするように調整されてよい。そして、第2補正部405は、可視光画像210の対象領域の画素を、フィルタリング処理ごの画素で置換することで、第2の補正画像を生成する。この他、第2補正部405で行われるノイズリダクション処理は、平均値フィルタやローパスフィルタ等を用いた、各種のフィルタリング処理を含むことができる。
The
導出部406は、可視光照射情報と赤外光照射情報とに基づいて、第1補正部404により生成された第1の補正画像と第2補正部405により生成された第2の補正画像の合成比率を導出する。本実施形態では、導出部406は、後述の合成部407で実行される合成処理における第1の補正画像の適用率αを導出する。
The deriving
まず導出部406は、可視光照射情報と赤外光照射情報のブロックごとの差分を用いて差分絶対値和の平均値を導出する。差分絶対値和の平均値Saveは、ブロック座標(i,j)で示されるブロックの可視光の照射状態を示す値BYnorm(i,j)と赤外光の照射状態を示す値BIRnorm(i,j)とを用いて、
で導出される。ここで、mは顔領域に含まれるブロックの総数である。
First, the
It is derived as Here, m is the total number of blocks included in the face area.
このように同一のブロック位置のブロックについて差分をとることで、顔の構造に起因する信号値のバラツキの影響を除外して、対象領域における可視光と赤外光の照射態様の違いを推定することができる。従って、Saveには、可視光と赤外光の照射態様の違いが大きいほど高い値が表れる。例えば、図5(a)に示されるように、可視光と赤外光の照射態様に違いがある場合には、Saveにその差異に応じた数値が表れる。換言すれば、Saveが大きい場合には、可視光と赤外光の照射態様の違いにより第1の補正画像においてしみ、そばかす、毛穴等が好適に低減されていないことが考えられる。従って、導出部406は、Saveが大きいほど第1の補正画像の合成比率が小さく、Saveが小さいほど第1の補正画像の合成比率が大きくなるよう、第1の補正画像の適用率αを決定する。
By taking the difference between blocks at the same block position in this way, we can exclude the influence of variations in signal values caused by the facial structure and estimate the difference in the irradiation mode of visible light and infrared light in the target area. be able to. Therefore, the larger the difference in the irradiation mode between visible light and infrared light, the higher the value of Save appears. For example, as shown in FIG. 5A, if there is a difference in the irradiation mode of visible light and infrared light, a value corresponding to the difference appears in Save . In other words, when S ave is large, it is possible that spots, freckles, pores, etc. are not reduced appropriately in the first corrected image due to the difference in the irradiation mode of visible light and infrared light. Therefore, the
適用率αの決定は、例えば図6に示されるようなSaveと適用率αとの関係を示すLUTを参照して行われるものであってよい。図6の例では、Saveと適用率αは線形関係として示されているが、Saveが大きいほど第1の補正画像の適用率αが小さくなり、Saveが小さいほど第1の補正画像の適用率αが大きい傾向を示すのであれば、これに限られるものではない。導出部406は、適用率αを決定すると、当該適用率αの情報を合成部407に伝送する。
The application rate α may be determined, for example, by referring to an LUT as shown in FIG. 6, which shows the relationship between Save and the application rate α. In the example of FIG. 6, S ave and application rate α are shown as a linear relationship; however, the larger S ave is, the smaller the application rate α of the first corrected image is, and the smaller S ave is, the smaller the application rate α of the first corrected image is. The present invention is not limited to this, as long as the application rate α tends to be large. After determining the application rate α, the
合成部407は、導出部406において決定された適用率αに基づいて、第1の補正画像及び第2の補正画像を合成して出力用の補正画像230を生成する。具体的には、合成部407は、補正画像230の座標(x,y)の画素値を、第1の補正画像の同座標の画素値Yafter1(x,y)と、第2の補正画像の同座標の画素値Yafter2(x,y)とを用いて、
で導出する。従って、可視光と赤外光の照射態様に違いがある場合には、補正画像230は第1の補正画像と第2の補正画像とが合成されることになるため、しみ、そばかす、毛穴等の補正残りを低減させた状態で出力される。即ち、可視光AC画像と赤外光AC画像の差分では好適に補正できなかったしみ、そばかす、毛穴等も、単純に可視光画像210のみで補正した第2の補正画像を合成するため、補正画像230で目立ちにくくなる。一方、可視光と赤外光の照射態様に違いがない場合には、補正画像230は第1の補正画像そのものになる。
The synthesizing
Derive it as Therefore, if there is a difference in the irradiation mode of visible light and infrared light, the corrected
《美肌補正処理》
次に、このような構成をもつ本実施形態の撮像装置100で行われる美肌補正処理について、図7のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、システム制御部103のCPUが、例えばROMに記憶されている対応する処理プログラムを読み出し、RAMに展開して実行して画像処理部102の動作を制御することにより実現することができる。本美肌補正処理は、例えば撮像モードとして美肌補正モードが撮像装置100に設定されている状態で撮影動作が行われた際に開始されるものとして説明する。
《Beautiful skin correction processing》
Next, the skin beauty correction process performed by the
S701で、対象領域検出部201は、撮影により得られた可視光画像210から対象領域を検出する。対象領域検出部201は対象領域を検出すると、対象領域情報410を出力する。
In S701, the target
S702で、第1照射検出部202は、可視光画像210の対象領域の画像に基づいて可視光照射情報420を生成する。また並行して第1照射検出部202は、S703で、赤外光画像220の対象領域の画像に基づいて赤外光照射情報430を生成する。
In S<b>702 , the first
S704で、第1AC成分抽出部401は、可視光画像210からAC成分を抽出して可視光AC画像を生成する。また第2AC成分抽出部402は、S705で、赤外光画像220からAC成分を抽出して赤外光AC画像を生成する。
In S704, the first AC
S706で、AC成分比較部403は、可視光AC画像と赤外光AC画像に基づいて、第1補正部404における補正処理用の補正係数を導出する。
In S706, the AC
S707で、第1補正部404は、S706で導出された補正係数に基づいて第1の補正画像を生成する。より詳しくは、第1補正部404は、可視光AC画像の対象領域の画素値の絶対値に補正係数を乗じることで補正後の対象領域のAC成分の画像を生成する。また第1補正部404は、可視光画像210から可視光AC画像を減算することで可視光画像210のDC成分の画像を生成し、これに補正後の対象領域のAC成分の画像を加算することで第1の補正画像を生成する。
In S707, the
また並行して第2補正部405は、S708で、可視光画像210の対象領域に対して所定のフィルタリング処理を適用することで、第2の補正画像を生成する。
In parallel, the
S709で、導出部406は、可視光照射情報420と赤外光照射情報430とに基づいて、第1の補正画像の適用率αを導出する。
In S709, the
S710で、合成部407は、S709で導出された適用率αに基づいて第1の補正画像と第2の補正画像を合成して、補正画像230を生成して本美肌補正処理を完了する。
In S710, the
このようにすることで、本実施形態の画像処理装置によれば、光源の照射態様に応じた画像補正を行い、好適な態様でしみ、そばかす、毛穴等を低減させた美肌補正画像を生成することができる。 In this manner, the image processing device of this embodiment performs image correction according to the irradiation mode of the light source, and generates a beautiful skin corrected image in which spots, freckles, pores, etc. are reduced in a suitable manner. be able to.
[変形例1]
上述した実施形態では、顔領域中の肌の色を示す領域を対象領域とするものとして説明したが、本発明の実施はこれに限られるものではない。例えば、可視光もしくは赤外光の照射領域を対象領域とするものであってもよい。この場合、赤外光が照射された画像と赤外光が照射されていない画像について画素値の差分を導出し、差分の大きい領域を対象領域として抽出すればよい。
[Modification 1]
In the above-described embodiment, the target area is an area indicating the skin color in the face area, but the implementation of the present invention is not limited to this. For example, the target area may be an area irradiated with visible light or infrared light. In this case, a difference in pixel values between an image irradiated with infrared light and an image not irradiated with infrared light may be derived, and a region with a large difference may be extracted as a target region.
[変形例2]
上述した実施形態では、可視光照射情報及び赤外光照射情報の導出にあたり、各ブロック内の平均輝度値を顔領域全体の平均輝度値で正規化した値を用いるものとして説明したが、本発明の実施はこれに限られるものではない。
[Modification 2]
In the embodiment described above, when deriving the visible light irradiation information and the infrared light irradiation information, the average brightness value in each block is normalized by the average brightness value of the entire face area. However, the present invention The implementation is not limited to this.
例えば、各照射情報は、各ブロックにおける輝度の分散値を導出し、分散値が閾値以内である分割領域のみの輝度のヒストグラムとして構成されるものであってもよい。この場合も、照射情報は、顔領域内での照射態様の分布を示すことができ、可視光と赤外光とでその差分をとることで、照射態様の差異を導出することができる。 For example, each piece of irradiation information may be configured as a luminance histogram of only divided regions whose variance value is within a threshold value by deriving the variance value of brightness in each block. In this case as well, the irradiation information can indicate the distribution of the irradiation mode within the face area, and by taking the difference between visible light and infrared light, the difference in the irradiation mode can be derived.
あるいは、各照射情報は、例えばブロックごとの輝度のヒストグラムの最頻値に基づいて構成されるものであってもよい。この場合、ブロック座標(i,j)で示されるブロックの可視光の照射状態を示す値BYmodenorm(i,j)は、当該ブロック内の最頻値BYmode(i,j)と、顔領域内の輝度の最頻値の平均BYmodeaveを用いて、
で導出してもよい。
Alternatively, each piece of irradiation information may be configured based on, for example, the mode of a brightness histogram for each block. In this case, the value BYmode norm (i, j) indicating the visible light irradiation state of the block indicated by the block coordinates (i, j) is the mode value BYmode (i, j) within the block and the value BYmode norm (i, j) within the face area. Using the average BYmode ave of the mode of brightness,
It can also be derived as
[変形例3]
上述した実施形態では、第1補正部404における可視光画像の補正のための補正係数k(x,y)を、可視光AC画像と赤外光AC画像をそのまま用いて導出する方法を説明したが、本発明の実施はこれに限られるものではない。例えば、AC成分比較部403は、可視光AC画像と赤外光AC画像とを明るさ合わせした上で補正係数k(x,y)を導出するものとしてもよい。明るさ合わせは、例えば輝度信号の平均値を用いて行われるものであってよい。この場合、補正係数k(x,y)は、可視光画像210全体の輝度信号の平均値Yaveと赤外光画像220全体の輝度信号の平均値IRaveを用いて、
で導出すればよい。この他、明るさ合わせは、着目画素(x,y)周辺の平均値を用いて行われてもよい。
[Modification 3]
In the embodiment described above, the method of deriving the correction coefficient k (x, y) for correcting the visible light image in the
It can be derived by In addition, brightness matching may be performed using an average value around the pixel of interest (x, y).
[変形例4]
上述した実施形態及び変形例では、第1補正部404における可視光画像の補正のための補正係数k(x,y)を、可視光AC画像と赤外光AC画像との画素値の比に基づいて導出するものとして説明したが、本発明の実施はこれに限られるものではない。例えば、しみ、そばかす、毛穴等ではないが顔の特徴たり得る要素が表れる領域は、赤外光AC画像においても高コントラストになり得る。従って、赤外光AC画像において閾値以上の画素値を示す領域については、補正係数k(x,y)を0とするよう制御してもよい。このようにすることで、赤外光画像220側のAC成分に特徴があるような領域について、第1補正部404における補正を行わせないようにすることができる。
[Modification 4]
In the embodiments and modified examples described above, the correction coefficient k(x,y) for correcting the visible light image in the
[変形例5]
上述した実施形態では、第1の補正画像の適用率αの導出に際して、可視光照射情報と赤外光照射情報のブロックの差分絶対値和の平均値Saveを導出する態様を説明したが、本発明の実施はこれに限られるものではない。顔領域には、例えば眼球部等、その他の肌とは乖離した色を示したり、照射された光の拡散傾向が異なる器官が存在する。従って、適用率αの導出に際して参照する差分絶対値和の平均値は、このような器官が表れる領域を除外して導出されてもよい。
[Modification 5]
In the embodiment described above, when deriving the application rate α of the first corrected image, a mode was explained in which the average value S ave of the sum of absolute differences between blocks of visible light irradiation information and infrared light irradiation information is derived. The implementation of the present invention is not limited to this. In the facial region, there are organs such as eyeballs that exhibit a color that is different from the rest of the skin or have a different tendency to diffuse irradiated light. Therefore, the average value of the sum of absolute differences referred to when deriving the application rate α may be derived excluding the region where such an organ appears.
図5(a)に示した実施形態の例では顔領域中の眼球部が含まれる領域も含めたが、本変形例では、図5(b)に示されるように眼球が含まれる器官領域については、差分絶対値和の平均値の導出に際して除外する。この場合、顔領域に含まれるm個のブロックのうち、器官領域を除いたn個のブロックについて得られる差分絶対値和の平均値Save_normは、器官領域を除いたブロックの差分絶対値和Snormを用いて、
で導出することができる。ただし、n≦mである。
In the example of the embodiment shown in FIG. 5(a), the area including the eyeball part in the face area is also included, but in this modified example, as shown in FIG. 5(b), the organ area including the eyeball is included. are excluded when deriving the average value of the sum of absolute differences. In this case, the average value S ave_norm of the sum of absolute differences obtained for n blocks excluding the organ area among the m blocks included in the face area is the sum of absolute differences S ave_norm of the blocks excluding the organ area. Using norm ,
It can be derived as However, n≦m.
また上述した実施形態及び本変形例では、可視光照射情報と赤外光照射情報の差分絶対値和の平均値を用いて照射態様の差異を評価するものとして説明したが、本発明の実施はこれに限られるものではなく、例えば差分二乗和の平均等を用いてもよい。 Furthermore, in the above-described embodiment and this modified example, it has been explained that the difference in the irradiation mode is evaluated using the average value of the sum of absolute differences between the visible light irradiation information and the infrared light irradiation information. The value is not limited to this, and for example, the average of the sum of squared differences may be used.
[変形例6]
上述した実施形態では、第1の補正画像と第2の補正画像とを合成することで補正画像230を生成する態様を説明したが、本発明の実施はこれに限られるものではない。本発明の実施に係り、第2の補正画像の生成は必須の構成ではなく、合成部407における合成は、第1の補正画像と可視光画像210とに基づいて行われるものであってもよい。即ち、補正画像230の座標(x,y)の画素値Yafter(x,y)は、第1の補正画像の同座標の画素値Yafter1(x,y)と、可視光画像210の同座標の画素値Yin2(x,y)とを用いて、
で導出されるものとしてもよい。
[Modification 6]
In the above-described embodiment, a mode has been described in which the corrected
It may be derived as follows.
[変形例7]
上述した実施形態及び変形例では、可視光画像と赤外光画像を取得し、それらのAC成分の差異に基づいて可視光画像を補正することで第1の補正画像を得るものとして説明したが、本発明の実施はこれに限られるものではない。しみ、そばかす、毛穴等の影響は、一般に600nm以上の波長の撮像画像において目立ちにくくなるものであるため、例えば所定の波長以上の波長域の光を通過させるフィルタを適用して撮像された画像を赤外光画像に代えて用いることもできる。
[Modification 7]
In the above-described embodiments and modified examples, the first corrected image is obtained by acquiring a visible light image and an infrared light image and correcting the visible light image based on the difference in their AC components. However, the implementation of the present invention is not limited to this. The effects of spots, freckles, pores, etc. are generally less noticeable in captured images with wavelengths of 600 nm or more. It can also be used in place of an infrared image.
[実施形態及び変形例のまとめ]
本明細書の開示は、以下の画像処理装置、制御方法及びプログラムを含む。
(項目1)
被写体について、第1の波長域の光を撮像した第1の撮像画像と、前記第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得手段と、
前記第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定手段
前記第1の撮像画像と前記第2の撮像画像との差分に基づいて、前記第1の撮像画像の前記対象領域の画像を補正した第1の補正画像を生成する第1の補正手段と、
前記第1の補正手段により生成された前記第1の補正画像と前記第1の撮像画像とを合成することで、出力用の補正画像を生成する合成手段と、
前記第1の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第1の照射態様と、前記第2の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、前記合成手段の合成における前記第1の補正画像の適用率を制御する制御手段と、
を有することを特徴とする画像処理装置。
(項目2)
前記第1の補正手段は、前記第1の撮像画像のAC成分と前記第2の撮像画像のAC成分との差分に基づいて、前記第1の撮像画像の前記対象領域の画像のAC成分を低減させることで、前記第1の補正画像を生成することを特徴とする項目1に記載の画像処理装置。
(項目3)
前記第1の補正手段は、前記第2の撮像画像のAC成分において予め定められた閾値以上の画素値を示す領域については、前記第1の撮像画像を補正しないことを特徴とする項目1または2に記載の画像処理装置。
(項目4)
前記合成手段は、前記第2の撮像画像を参照せずに前記第1の撮像画像の前記対象領域の画像を補正した第2の補正画像を生成する第2の補正手段を含み、前記第1の補正画像と前記第2の補正画像を合成することで、前記出力用の補正画像を生成することを特徴とする項目1乃至3のいずれか1項目に記載の画像処理装置。
(項目5)
前記第2の補正手段は、前記第2の撮像画像を参照せずに前記第1の撮像画像のAC成分を低減させることを特徴とする項目4に記載の画像処理装置。
(項目6)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像の輝度の差異に基づいて、前記対象領域の被写体に対する前記第1の照射態様と前記第2の照射態様の差異を特定することを特徴とする項目1乃至5のいずれか1項目に記載の画像処理装置。
(項目7)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの平均輝度の分布を生成し、前記第1の撮像画像と前記第2の撮像画像の平均輝度の分布の差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする項目6に記載の画像処理装置。
(項目8)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの輝度のヒストグラムを生成し、前記第1の撮像画像と前記第2の撮像画像の輝度のヒストグラムの差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする項目6に記載の画像処理装置。
(項目9)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの輝度の最頻値を特定し、前記第1の撮像画像と前記第2の撮像画像の輝度の最頻値の差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする項目6に記載の画像処理装置。
(項目10)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像の明るさを合わせた上で、前記対象領域の被写体に対する前記第1の波長域の光と前記第2の波長域の光との照射態様の差異を特定することを特徴とする項目6乃至9のいずれか1項目に記載の画像処理装置。
(項目11)
前記対象領域は、人物の顔の肌領域であり、
前記制御手段は、前記対象領域中の分割領域のうちの、顔を構成する所定の器官の領域を除外した分割領域の輝度の差異に基づいて、前記第1の照射態様と前記第2の照射態様の差異を特定する
ことを特徴とする項目6乃至10のいずれか1項目に記載の画像処理装置。
(項目12)
前記対象領域は、前記第1の波長域の光及び前記第2の波長域の光の少なくともいずれかが照射されている領域であることを特徴とする項目1乃至10のいずれか1項目に記載の画像処理装置。
(項目13)
前記第2の波長域の光は、波長が600nm以上の光であることを特徴とする項目1乃至12のいずれか1項目に記載の画像処理装置。
(項目14)
前記第1の波長域の光は、可視光であり、
前記第2の波長域の光は、赤外光である
ことを特徴とする項目13に記載の画像処理装置。
(項目15)
前記第1の波長域の光を撮像する第1の撮像手段と、
前記第2の波長域の光を撮像する第2の撮像手段と、
をさらに有することを特徴とする項目1乃至14のいずれか1項目に記載の画像処理装置。
(項目16)
被写体について、第1の波長域の光を撮像した第1の撮像画像と、前記第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得工程と、
前記第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定工程
前記第1の撮像画像と前記第2の撮像画像との差分に基づいて、前記第1の撮像画像の前記対象領域の画像を補正した第1の補正画像を生成する第1の補正工程と、
前記第1の補正工程において生成された前記第1の補正画像と前記第1の撮像画像とを合成することで、出力用の補正画像を生成する合成工程と、
前記第1の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第1の照射態様と、前記第2の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、前記合成工程の合成における前記第1の補正画像の適用率を制御する制御工程と、
を有することを特徴とする画像処理装置の制御方法。
(項目17)
コンピュータを、項目1乃至14のいずれか1項目に記載の画像処理装置の各手段として機能させるためのプログラム。
[Summary of embodiments and modifications]
The disclosure of this specification includes the following image processing device, control method, and program.
(Item 1)
For the subject, a first captured image is captured of light in a first wavelength range, and a second captured image is captured of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition means to
Setting means for setting a target area to be corrected based on the first captured image; and setting means for setting a target area to be corrected in the first captured image based on a difference between the first captured image and the second captured image. a first correction means that generates a first corrected image by correcting the image of the region;
a combining unit that generates a corrected image for output by combining the first corrected image generated by the first correcting unit and the first captured image;
a first irradiation mode showing a distribution of intensity with which a subject in the target area is irradiated with light in the first wavelength range; and a distribution of intensity with which a subject in the target area is irradiated with light in the second wavelength range. A control means for controlling an application rate of the first corrected image in the synthesis of the synthesis means based on a difference in a second irradiation mode showing the distribution;
An image processing device comprising:
(Item 2)
The first correction means adjusts the AC component of the image of the target area of the first captured image based on the difference between the AC component of the first captured image and the AC component of the second captured image. The image processing device according to
(Item 3)
(Item 4)
The synthesizing means includes a second correcting means that generates a second corrected image by correcting the image of the target area of the first captured image without referring to the second captured image, 4. The image processing apparatus according to any one of
(Item 5)
5. The image processing device according to item 4, wherein the second correction means reduces the AC component of the first captured image without referring to the second captured image.
(Item 6)
The control means specifies a difference between the first irradiation mode and the second irradiation mode for the subject in the target area based on a difference in brightness between the first captured image and the second captured image. The image processing device according to any one of
(Item 7)
The control means generates an average luminance distribution for each divided area in the target area for each of the first captured image and the second captured image, and The image processing device according to item 6, characterized in that a difference in distribution of average luminance of the captured image is specified as a difference between the first irradiation mode and the second irradiation mode.
(Item 8)
The control means generates a brightness histogram for each divided area in the target area for each of the first captured image and the second captured image, and 7. The image processing apparatus according to item 6, wherein a difference in a histogram of brightness of the image is specified as a difference between the first irradiation mode and the second irradiation mode.
(Item 9)
The control means specifies the mode of brightness for each divided area in the target area for each of the first captured image and the second captured image, and 7. The image processing apparatus according to item 6, wherein the difference in the mode of luminance of the captured image is specified as the difference between the first irradiation mode and the second irradiation mode.
(Item 10)
The control means matches the brightness of the first captured image and the second captured image, and then controls the light in the first wavelength range and the light in the second wavelength range to the subject in the target area. 10. The image processing apparatus according to any one of items 6 to 9, characterized in that the image processing apparatus specifies a difference in irradiation mode between the image processing apparatus and the image processing apparatus.
(Item 11)
The target area is a skin area of a person's face,
The control means controls the first irradiation mode and the second irradiation mode based on a difference in brightness between divided regions in the target region excluding a region of a predetermined organ constituting the face. The image processing device according to any one of items 6 to 10, characterized in that a difference in aspect is specified.
(Item 12)
According to any one of
(Item 13)
The image processing device according to any one of
(Item 14)
The light in the first wavelength range is visible light,
14. The image processing device according to item 13, wherein the light in the second wavelength range is infrared light.
(Item 15)
a first imaging means for imaging light in the first wavelength range;
a second imaging means for imaging light in the second wavelength range;
15. The image processing device according to any one of
(Item 16)
For the subject, a first captured image is captured of light in a first wavelength range, and a second captured image is captured of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition process to
A setting step of setting a target area to be corrected based on the first captured image; and a setting step of setting a target area to be corrected based on the first captured image. a first correction step of generating a first corrected image in which the image of the region is corrected;
a combining step of generating a corrected image for output by combining the first corrected image generated in the first correcting step and the first captured image;
a first irradiation mode showing a distribution of intensity with which a subject in the target area is irradiated with light in the first wavelength range; and a distribution of intensity with which a subject in the target area is irradiated with light in the second wavelength range. a control step of controlling an application rate of the first corrected image in the synthesis of the synthesis step based on a difference in a second irradiation mode showing the distribution;
A method for controlling an image processing device, comprising:
(Item 17)
A program for causing a computer to function as each means of the image processing apparatus described in any one of
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.
100:撮像装置、101:撮像部、102:画像処理部、103:システム制御部、201:対象領域検出部、202:第1照射検出部202、203:第2照射検出部、204:補正部、401:第1AC成分抽出部、402:第2AC成分抽出部、403:AC成分比較部、404:第1補正部、405:第2補正部、406:導出部、407:合成部
100: Imaging device, 101: Imaging unit, 102: Image processing unit, 103: System control unit, 201: Target area detection unit, 202: First
Claims (17)
前記第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定手段
前記第1の撮像画像と前記第2の撮像画像との差分に基づいて、前記第1の撮像画像の前記対象領域の画像を補正した第1の補正画像を生成する第1の補正手段と、
前記第1の補正手段により生成された前記第1の補正画像と前記第1の撮像画像とを合成することで、出力用の補正画像を生成する合成手段と、
前記第1の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第1の照射態様と、前記第2の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、前記合成手段の合成における前記第1の補正画像の適用率を制御する制御手段と、
を有することを特徴とする画像処理装置。 For the subject, a first captured image is captured of light in a first wavelength range, and a second captured image is captured of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition means to
Setting means for setting a target area to be corrected based on the first captured image; and setting means for setting a target area to be corrected in the first captured image based on a difference between the first captured image and the second captured image. a first correction means that generates a first corrected image by correcting the image of the region;
a combining unit that generates a corrected image for output by combining the first corrected image generated by the first correcting unit and the first captured image;
a first irradiation mode showing a distribution of intensity with which a subject in the target area is irradiated with light in the first wavelength range; and a distribution of intensity with which a subject in the target area is irradiated with light in the second wavelength range; A control means for controlling an application rate of the first corrected image in the synthesis of the synthesis means based on a difference in a second irradiation mode showing the distribution;
An image processing device comprising:
前記制御手段は、前記対象領域中の分割領域のうちの、顔を構成する所定の器官の領域を除外した分割領域の輝度の差異に基づいて、前記第1の照射態様と前記第2の照射態様の差異を特定する
ことを特徴とする請求項6に記載の画像処理装置。 The target area is a skin area of a person's face,
The control means controls the first irradiation mode and the second irradiation mode based on a difference in brightness between divided regions in the target region excluding a region of a predetermined organ constituting the face. The image processing apparatus according to claim 6, characterized in that a difference in aspect is specified.
前記第2の波長域の光は、赤外光である
ことを特徴とする請求項13に記載の画像処理装置。 The light in the first wavelength range is visible light,
The image processing apparatus according to claim 13, wherein the light in the second wavelength range is infrared light.
前記第2の波長域の光を撮像する第2の撮像手段と、
をさらに有することを特徴とする請求項1に記載の画像処理装置。 a first imaging means for imaging light in the first wavelength range;
a second imaging means for imaging light in the second wavelength range;
The image processing apparatus according to claim 1, further comprising: an image processing apparatus;
前記第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定工程
前記第1の撮像画像と前記第2の撮像画像との差分に基づいて、前記第1の撮像画像の前記対象領域の画像を補正した第1の補正画像を生成する第1の補正工程と、
前記第1の補正工程において生成された前記第1の補正画像と前記第1の撮像画像とを合成することで、出力用の補正画像を生成する合成工程と、
前記第1の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第1の照射態様と、前記第2の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、前記合成工程の合成における前記第1の補正画像の適用率を制御する制御工程と、
を有することを特徴とする画像処理装置の制御方法。 For the subject, a first captured image is captured of light in a first wavelength range, and a second captured image is captured of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition process to
A setting step of setting a target area to be corrected based on the first captured image; and a setting step of setting a target area to be corrected based on the first captured image. a first correction step of generating a first corrected image in which the image of the region is corrected;
a combining step of generating a corrected image for output by combining the first corrected image generated in the first correcting step and the first captured image;
a first irradiation mode showing a distribution of intensity with which a subject in the target area is irradiated with light in the first wavelength range; and a distribution of intensity with which a subject in the target area is irradiated with light in the second wavelength range; a control step of controlling an application rate of the first corrected image in the synthesis of the synthesis step based on a difference in a second irradiation mode showing the distribution;
A method for controlling an image processing device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022124106A JP2024021344A (en) | 2022-08-03 | 2022-08-03 | Image processing device, control method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022124106A JP2024021344A (en) | 2022-08-03 | 2022-08-03 | Image processing device, control method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024021344A true JP2024021344A (en) | 2024-02-16 |
Family
ID=89855619
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022124106A Pending JP2024021344A (en) | 2022-08-03 | 2022-08-03 | Image processing device, control method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024021344A (en) |
-
2022
- 2022-08-03 JP JP2022124106A patent/JP2024021344A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9858666B2 (en) | Medical skin examination device and method for processing and enhancing an image of a skin lesion | |
US6993200B2 (en) | System and method for effectively rendering high dynamic range images | |
CN105144233B (en) | Reference picture selection for moving ghost image filtering | |
EP1400921B1 (en) | Enhancing the tonal characteristics of digital images using inflection points in a tone scale function | |
US20180069996A1 (en) | Method and electronic device for producing composite image | |
US8289421B2 (en) | Image-signal processing device and image signal processing program | |
CN110458787B (en) | Image fusion method and device and computer storage medium | |
JP2021128791A (en) | Image processing apparatus, image processing method, and program | |
JP7114335B2 (en) | IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM | |
JP2000242775A (en) | Method and device for processing image, and recording medium | |
JP2016193107A (en) | Image processing system | |
JP2024021344A (en) | Image processing device, control method and program | |
JP2000341499A (en) | Color reproducing apparatus | |
JP2009100936A (en) | Image processor | |
JP2006350621A (en) | Image processor and image processing program | |
JP3149297B2 (en) | Color balance adjustment device and adjustment method | |
JP2005128600A (en) | Image processing method and object photographing system | |
JP7383891B2 (en) | Image processing device, image processing method, and program | |
JP7400198B2 (en) | Image processing device, image processing method, and program | |
JP2010283690A (en) | Image processing device, image processing method, program, and storage medium | |
JP2008294969A (en) | Video image conversion apparatus, method, and program | |
JP7449459B1 (en) | Method and system for analyzing objects | |
TW200950533A (en) | Control system and method for adjusting color temperature of high dynamic range images | |
JP7462464B2 (en) | Image processing device and method, program, and storage medium | |
EP4210324A1 (en) | Method and apparatus for aligning images in a sequence of image frames |