JP2024021344A - Image processing device, control method and program - Google Patents

Image processing device, control method and program Download PDF

Info

Publication number
JP2024021344A
JP2024021344A JP2022124106A JP2022124106A JP2024021344A JP 2024021344 A JP2024021344 A JP 2024021344A JP 2022124106 A JP2022124106 A JP 2022124106A JP 2022124106 A JP2022124106 A JP 2022124106A JP 2024021344 A JP2024021344 A JP 2024021344A
Authority
JP
Japan
Prior art keywords
image
captured image
light
corrected
target area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022124106A
Other languages
Japanese (ja)
Inventor
緋子 神崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022124106A priority Critical patent/JP2024021344A/en
Publication of JP2024021344A publication Critical patent/JP2024021344A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】光源の照射態様に応じた画像補正を行う。【解決手段】画像処理装置は、被写体について、第1の波長域の光を撮像した第1の撮像画像と、第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得手段と、第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定手段第1の撮像画像と第2の撮像画像との差分に基づいて、第1の撮像画像の対象領域の画像を補正した第1の補正画像を生成する第1の補正手段と、第1の補正手段により生成された第1の補正画像と第1の撮像画像とを合成することで、出力用の補正画像を生成する合成手段と、第1の波長域の光により対象領域の被写体が照射される強度の分布を示す第1の照射態様と、第2の波長域の光により対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、合成手段の合成における第1の補正画像の適用率を制御する制御手段と、を有する。【選択図】図4The present invention performs image correction according to the irradiation mode of a light source. [Solution] An image processing device captures a first captured image of a subject with light in a first wavelength range and a second captured image of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition means for acquiring a second captured image, and a setting means for setting a target area to be corrected based on the first captured image, based on the difference between the first captured image and the second captured image. , a first correction means for generating a first corrected image by correcting an image of the target area of the first captured image; a first corrected image generated by the first correction means; and a first captured image; a first irradiation mode indicating the distribution of intensity with which a subject in a target area is irradiated with light in a first wavelength range; and control means for controlling the application rate of the first corrected image in the composition of the composition means based on the difference in the second irradiation mode indicating the distribution of the intensity with which the object in the target region is irradiated by the light of the region. [Selection diagram] Figure 4

Description

本発明は、画像処理装置、制御方法及びプログラムに関し、特に人物の肌領域に対する画像補正技術に関する。 The present invention relates to an image processing device, a control method, and a program, and particularly relates to an image correction technique for a human skin region.

しみやそばかす等、人物の皮膚のメラニン色素が沈着した部位は赤外光画像に表れにくい特性を利用して、可視光画像と赤外光画像の差分画像に基づいて当該部位を補正した画像を生成する技術がある(特許文献1)。 Taking advantage of the fact that melanin pigmented areas of a person's skin, such as spots and freckles, are difficult to show up in infrared images, the system creates an image in which the areas are corrected based on the difference image between the visible light image and the infrared image. There is a technology for generating this (Patent Document 1).

特開2019-106045号公報JP 2019-106045 Publication

ところで、撮像装置の中には照明装置としてLED等の赤外光を含まない光源を採用するものもある。このような撮像装置で人物の撮影を行った場合、可視光と赤外光の照射態様が異なることがあり、特許文献1のように可視光画像と赤外光画像の差分画像を用いたとしてもメラニン色素が沈着した部位を好適に特定できない場合がある。即ち、従来の技術では、光源の照射態様によっては、好適に人物の肌領域を補正した画像を生成できない場合があった。 By the way, some imaging devices employ a light source that does not contain infrared light, such as an LED, as an illumination device. When photographing a person with such an imaging device, the irradiation mode of visible light and infrared light may differ, and even if a difference image between a visible light image and an infrared light image is used as in Patent Document 1, However, in some cases, it may not be possible to appropriately identify the site where melanin pigment is deposited. That is, in the conventional technology, depending on the irradiation mode of the light source, it may not be possible to generate an image in which the human skin area is suitably corrected.

本発明は、上述の問題点に鑑みてなされたものであり、光源の照射態様に応じた画像補正を行う画像処理装置、制御方法及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide an image processing device, a control method, and a program that perform image correction according to the irradiation mode of a light source.

前述の目的を達成するために、本発明の画像処理装置は、被写体について、第1の波長域の光を撮像した第1の撮像画像と、第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得手段と、第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定手段第1の撮像画像と第2の撮像画像との差分に基づいて、第1の撮像画像の対象領域の画像を補正した第1の補正画像を生成する第1の補正手段と、第1の補正手段により生成された第1の補正画像と第1の撮像画像とを合成することで、出力用の補正画像を生成する合成手段と、第1の波長域の光により対象領域の被写体が照射される強度の分布を示す第1の照射態様と、第2の波長域の光により対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、合成手段の合成における第1の補正画像の適用率を制御する制御手段と、を有することを特徴とする。 In order to achieve the above-mentioned object, the image processing device of the present invention provides a first captured image of a subject that captures light in a first wavelength range, and a second image that includes a wavelength longer than the first wavelength range. an acquisition means for acquiring a second captured image capturing light in a wavelength range of , and a setting means for setting a target area to be corrected based on the first captured image; a first correction unit that generates a first corrected image in which an image of the target area of the first captured image is corrected based on a difference with the captured image; and a first correction generated by the first correction unit. a synthesis means for generating a corrected image for output by synthesizing the image and the first captured image; Based on the difference between the irradiation mode and the second irradiation mode indicating the distribution of the intensity with which the object in the target area is irradiated with light in the second wavelength range, the application rate of the first corrected image in the synthesis of the synthesis means is controlled. It is characterized by having a control means for.

このような構成により本発明によれば、光源の照射態様に応じた画像補正を行うことが可能となる。 With such a configuration, according to the present invention, it is possible to perform image correction according to the irradiation mode of the light source.

本発明の実施形態及び変形例に係る撮像装置の機能構成を例示したブロック図A block diagram illustrating the functional configuration of an imaging device according to an embodiment and a modification of the present invention 本発明の実施形態及び変形例に係る美肌補正処理に係る機能構成を例示したブロック図A block diagram illustrating a functional configuration related to beautiful skin correction processing according to embodiments and modified examples of the present invention 本発明の実施形態及び変形例に係る顔領域の分割態様を説明するための図Diagrams for explaining how face areas are divided according to embodiments and modified examples of the present invention 本発明の実施形態及び変形例に係る補正部204の詳細構成を例示したブロック図A block diagram illustrating the detailed configuration of the correction unit 204 according to the embodiment and modification of the present invention 本発明の実施形態及び変形例に係る可視光と赤外光の照射態様の差異を説明するための図Diagram for explaining the difference between visible light and infrared light irradiation modes according to embodiments and modified examples of the present invention 本発明の実施形態及び変形例に係る適用率を説明するための図Diagram for explaining application rates according to embodiments and modified examples of the present invention 本発明の実施形態及び変形例に係る画像処理部102において実行される美肌補正処理を例示したフローチャートA flowchart illustrating a beautiful skin correction process executed in the image processing unit 102 according to the embodiment and modification of the present invention. 本発明の実施形態及び変形例に係るイメージセンサの構成例を示した図A diagram showing a configuration example of an image sensor according to an embodiment and a modification of the present invention

[実施形態]
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[Embodiment]
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

以下に説明する一実施形態は、画像処理装置の一例としての、可視光画像と赤外光画像とを撮像可能な撮像装置に、本発明を適用した例を説明する。しかし、本発明は、第1の波長域の光を撮像した第1の撮像画像と、第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像を取得することが可能な任意の機器に適用可能である。また、本明細書において「(光の)照射態様」とは、被写体が光により照射される強度の分布を示し、簡易的には、光あるいは光源による被写体の照らされ方を示すものとする。 An embodiment described below describes an example in which the present invention is applied to an imaging device capable of capturing visible light images and infrared light images, which is an example of an image processing device. However, the present invention provides a first captured image that captures light in a first wavelength range, and a second captured image that captures light in a second wavelength range that includes a wavelength longer than the first wavelength range. It is applicable to any equipment that can be acquired. Furthermore, in this specification, the term "irradiation mode (of light)" refers to the distribution of intensity with which a subject is irradiated with light, and simply refers to how the subject is illuminated by light or a light source.

《撮像装置の機能構成》
図1は、本実施形態に係る撮像装置100の機能構成を示すブロック図である。
《Functional configuration of imaging device》
FIG. 1 is a block diagram showing the functional configuration of an imaging device 100 according to this embodiment.

撮像部101は、被写体を撮像して撮像画像を出力する。撮像部101は、撮像光学系、イメージセンサ、A/D変換処理部を含む。撮像部101は、例えばユーザによる撮影指示が操作入力部108により受け付けられた場合に、撮影動作を行う。より詳しくは撮像部101は、撮像光学系によりイメージセンサに結像された被写体の光学像を光電変換することで撮影を行い、撮像画像を出力する。 The imaging unit 101 images a subject and outputs a captured image. The imaging unit 101 includes an imaging optical system, an image sensor, and an A/D conversion processing unit. The imaging unit 101 performs a shooting operation, for example, when the operation input unit 108 accepts a shooting instruction from a user. More specifically, the imaging unit 101 performs photography by photoelectrically converting an optical image of a subject formed on an image sensor by an imaging optical system, and outputs a captured image.

本実施形態では撮像部101は、可視光画像と赤外光画像の2種類の撮像画像を出力可能に構成される。撮像部101からの可視光画像及び赤外光画像の出力は、例えば、イメージセンサを図8に示される態様で構成することにより実現できる。図8には、イメージセンサにおける画素(光電変換素子)配列を格子で示しており、各格子内に示される文字は、格子に適用されるフィルタを示している。ここで、R、G、Bは、それぞれ赤色、緑色、青色の可視光を通過させるフィルタを示し、IRは、赤外光を通過させるフィルタ、あるいは可視光をカットするフィルタを示す。またWは、赤外光をカットするフィルタを示す。 In this embodiment, the imaging unit 101 is configured to be able to output two types of captured images: a visible light image and an infrared light image. The output of a visible light image and an infrared light image from the imaging unit 101 can be realized, for example, by configuring an image sensor in the manner shown in FIG. 8. In FIG. 8, the pixel (photoelectric conversion element) array in the image sensor is shown in a grid, and the characters shown in each grid indicate the filters applied to the grid. Here, R, G, and B indicate filters that pass red, green, and blue visible light, respectively, and IR indicates a filter that passes infrared light or a filter that cuts visible light. Further, W indicates a filter that cuts infrared light.

図8(a)は、可視光画像と赤外光画像のそれぞれを出力可能な2種類のイメージセンサを具備する態様であり、各イメージセンサに適用される可視光フィルタと赤外光フィルタを示している。対して、図8(b)は、1種類のイメージセンサにて可視光画像と赤外光画像を出力可能とする態様であり、イメージセンサに適用されるフィルタには2×2の画素に各色の可視光と赤外光とを透過するフィルタが適用されている。図8(c)は、1種類のイメージセンサにて順次適用されるフィルタを異ならせて可視光画像と赤外光画像とを出力可能とする態様であり、赤外光カットフィルタと可視光カットフィルタが交互に適用される。 FIG. 8(a) shows an embodiment including two types of image sensors capable of outputting visible light images and infrared light images, and shows a visible light filter and an infrared light filter applied to each image sensor. ing. On the other hand, FIG. 8(b) shows a mode in which one type of image sensor can output a visible light image and an infrared light image, and the filter applied to the image sensor has 2×2 pixels for each color. A filter is applied that transmits visible light and infrared light. FIG. 8(c) shows a mode in which a visible light image and an infrared light image can be output by changing sequentially applied filters in one type of image sensor. Filters are applied alternately.

なお、本実施形態では発明の理解を容易にすべく、可視光画像と赤外光画像は、同一の撮像範囲を撮像するものとし、可視光画像と赤外光画像とで、同一の被写体の像は同一の位置に表れるものとする。即ち、可視光画像の任意の画素位置の画素に表れる被写体は、赤外光画像において同一画素位置の画素に表れるものとする。 In this embodiment, in order to facilitate understanding of the invention, it is assumed that the visible light image and the infrared light image are captured in the same imaging range, and that the same subject is captured in the visible light image and the infrared light image. The images shall appear in the same position. That is, it is assumed that a subject appearing in a pixel at an arbitrary pixel position in a visible light image appears in a pixel at the same pixel position in an infrared light image.

画像処理部102は、入力された画像に対して各種の画像処理を実行する。画像処理部102による画像処理の対象は、撮像部101により出力された撮像画像に加え、後述の記録部106から読み出された画像や通信I/F107を介して外部装置から取得された画像を含むことができる。画像処理部102は、入力された撮像画像に対し、ホワイトバランス処理やデモザイク処理、ガンマ処理等の現像処理を実行する。この他、画像処理部102は、可視光画像及び赤外光画像に基づいて、後述の美肌補正処理を実行する。 The image processing unit 102 performs various image processing on the input image. The targets of image processing by the image processing unit 102 include, in addition to the captured image output by the imaging unit 101, images read out from the recording unit 106 (described later) and images acquired from an external device via the communication I/F 107. can be included. The image processing unit 102 performs development processing such as white balance processing, demosaic processing, and gamma processing on the input captured image. In addition, the image processing unit 102 executes skin beautification correction processing, which will be described later, based on the visible light image and the infrared light image.

システム制御部103は、撮像装置100が有する各ブロックの動作を制御する。システム制御部103は、不図示のCPU、ROM、RAMを含む。各ブロックの動作は、CPUが、ROMに記憶された各ブロックの動作プログラムを読み出してRAMに展開して実行することにより制御される。 The system control unit 103 controls the operation of each block included in the imaging apparatus 100. The system control unit 103 includes a CPU, ROM, and RAM (not shown). The operation of each block is controlled by the CPU reading out the operation program for each block stored in the ROM, loading it into the RAM, and executing it.

表示制御部104は、撮像装置100が備える表示用の映像信号の出力インタフェースであり、表示部105の表示制御を行う。本実施形態の撮像装置100は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイ等の表示装置であってよい表示部105を具備する。表示制御部104は、撮像画像や画像処理部102により生成された画像や各種のグラフィカルユーザインタフェースの映像信号を表示部105に出力する。表示部105は、撮像装置100に内蔵される表示装置であってもよいし、撮像装置100に着脱可能に接続された外部の表示装置であってもよい。 The display control unit 104 is an output interface for display video signals provided in the imaging device 100, and controls the display of the display unit 105. The imaging device 100 of this embodiment includes a display unit 105 that may be a display device such as a liquid crystal display or an organic EL (Electro Luminescence) display. The display control unit 104 outputs captured images, images generated by the image processing unit 102, and video signals of various graphical user interfaces to the display unit 105. The display unit 105 may be a display device built into the imaging device 100, or may be an external display device detachably connected to the imaging device 100.

記録部106は、撮像装置100が備える記録装置であり、主として画像処理部102により生成された画像(画像ファイル)を記録する。記録部106は、例えば半導体メモリで構成されたメモリカードや、光磁気ディスクで構成されたハードディスク等の規則装置を含むことができる。記録部106は、着脱可能に構成されるものであってもよいし、撮像装置100に内蔵されるものであってもよい。 The recording unit 106 is a recording device included in the imaging device 100, and mainly records images (image files) generated by the image processing unit 102. The recording unit 106 can include a regular device such as a memory card made of a semiconductor memory or a hard disk made of a magneto-optical disk. The recording unit 106 may be configured to be detachable or may be built into the imaging device 100.

通信I/F107は、撮像装置100が備える外部装置との情報通信を制御するインタフェースである。通信I/F107は、外部装置と、不図示のネットワークを介して接続されるものであってもよいし、有線・無線で直接接続されるものであってもよい。本実施形態の撮像装置100が行う撮像動作や画像処理は、操作入力部108が操作されることにより実行されるものであってもよいし、通信I/F107を介して接続された外部装置からの要求に基づいて実行されるものであってもよい。従って、通信I/F107は、外部装置からの制御入力の受信や、外部装置への画像処理部102が生成した画像の送信を行う。 The communication I/F 107 is an interface that controls information communication with an external device included in the imaging device 100. The communication I/F 107 may be connected to an external device via a network (not shown), or may be directly connected by wire or wirelessly. The imaging operation and image processing performed by the imaging device 100 of this embodiment may be performed by operating the operation input unit 108, or may be performed by an external device connected via the communication I/F 107. It may also be executed based on a request. Therefore, the communication I/F 107 receives control input from an external device and transmits an image generated by the image processing unit 102 to the external device.

操作入力部108は、撮像装置100が備えるユーザインタフェースである。操作入力部108は、例えばボタン等の操作部材やタッチパネルセンサ等を含むことができる。操作入力部108は、操作入力がなされたことを検出すると、当該操作入力に対応する制御信号をシステム制御部103に出力する。 The operation input unit 108 is a user interface included in the imaging device 100. The operation input unit 108 can include, for example, operation members such as buttons, a touch panel sensor, and the like. When the operation input unit 108 detects that an operation input has been made, it outputs a control signal corresponding to the operation input to the system control unit 103.

バス109は、撮像装置100が有するブロック間での情報通信に用いられる通信経路である。図1の例では、撮像部101、画像処理部102、システム制御部103、表示制御部104、記録部106、通信I/F107が、バス109を介して相互通信可能に構成されている。 The bus 109 is a communication path used for information communication between blocks included in the imaging apparatus 100. In the example of FIG. 1, an imaging unit 101, an image processing unit 102, a system control unit 103, a display control unit 104, a recording unit 106, and a communication I/F 107 are configured to be able to communicate with each other via a bus 109.

《美肌補正処理の概要》
続いて、本実施形態の画像処理部102において実行される美肌補正処理について概要を説明する。画像処理部102において実行される美肌補正処理は、可視光画像に含まれる人物の像について、その肌領域に表れるしみ、そばかす、毛穴等を目立ちにくくする補正処理である。
《Overview of skin beautification processing》
Next, an outline of the skin-beautifying correction process executed by the image processing unit 102 of this embodiment will be explained. The skin beautifying process executed by the image processing unit 102 is a correction process for making stains, freckles, pores, etc. appearing on the skin area of the human image included in the visible light image less noticeable.

ここで、肌が綺麗な状態であれば、可視光画像における肌領域は、エッジ等を除いて肌の色が均一に広がった平坦な状態となる。対して、肌にしみ、そばかす、毛穴等がある場合には、可視光画像における肌領域は、肌の色以外が混じった「色むら」のある状態となる。従って、このような色むらは、可視光画像を周波数分解した際のAC成分に表れることになる。しかし、可視光画像のAC成分には、肌の隆起に起因するもの等、しみ、そばかす、毛穴等に起因しない輝度変化(以下、肌本来の輝度変化として言及)も表れる。 Here, if the skin is in a beautiful state, the skin area in the visible light image will be in a flat state with the skin color spread evenly except for edges and the like. On the other hand, if there are spots, freckles, pores, etc. on the skin, the skin area in the visible light image will have "color unevenness" in which colors other than the skin are mixed. Therefore, such color unevenness appears in the AC component when the visible light image is frequency-resolved. However, in the AC component of the visible light image, brightness changes that are not caused by spots, freckles, pores, etc., such as those caused by bumps on the skin (hereinafter referred to as brightness changes inherent to the skin) also appear.

一方、赤外光画像には、しみ、そばかす、毛穴等が表れにくいという特性がある。このため、赤外光画像のAC成分からは、しみ、そばかす、毛穴等に起因する輝度変化分が除外(あるいは低減)された、肌本来の輝度変化を得ることができる。従って、被写体を同時期に撮像した可視光画像と赤外光画像についてAC成分の差分をとることで、しみ、そばかす、毛穴等に起因する輝度変化分を得ることができる。つまり、可視光画像と赤外光画像のAC成分の差分により、しみ、そばかす、毛穴等の存在している領域を特定することができる。従って、可視光画像のAC成分を、可視光画像と赤外光画像のAC成分との差分に基づいてしみ、そばかす、毛穴等による影響を低減した状態に補正し、これを可視光画像のDC成分に加算することで、好適な肌状態の可視光画像を得ることができる。 On the other hand, infrared light images have the characteristic that spots, freckles, pores, etc. are less likely to appear. Therefore, from the AC component of the infrared light image, it is possible to obtain the original brightness change of the skin, with brightness changes caused by spots, freckles, pores, etc. removed (or reduced). Therefore, by calculating the difference in AC components between visible light images and infrared light images taken of a subject at the same time, it is possible to obtain luminance changes caused by spots, freckles, pores, etc. That is, based on the difference between the AC components of the visible light image and the infrared light image, it is possible to specify areas where spots, freckles, pores, etc. are present. Therefore, the AC component of the visible light image is corrected based on the difference between the AC component of the visible light image and the infrared light image to reduce the effects of spots, freckles, pores, etc. By adding it to the components, a visible light image of a suitable skin condition can be obtained.

しかしながら、被写体(人物)への可視光と赤外光の照射態様が異なる場合、可視光画像と赤外光画像のAC成分の差分をとっても、好適にしみ、そばかす、毛穴等に起因する輝度変化分を特定することができない。例えば、可視光のみを照射する光源が配置され、人物の肌領域を局所的に照明している場合は、可視光画像と赤外光画像のAC成分の差分には、肌本来の輝度変化分に加えて、可視光と赤外光の照射態様の違いに起因する輝度変化分が表れる。また例えば、室内や夜間の(太陽光が照射されていない)屋外において、人物の肌領域を可視光で局所的に照射している場合も同様である。結果、可視光画像と赤外光画像のAC成分との差分に基づいて特定される領域について補正を行った場合、例えばしみ、そばかす、毛穴等が発生していない領域も補正されてしまい、得られる補正画像が好適な態様にならない。 However, when the modes of irradiation of visible light and infrared light on a subject (person) are different, even if the difference between the AC components of the visible light image and the infrared light image is taken, the brightness changes due to spots, freckles, pores, etc. It is not possible to specify the minute. For example, if a light source that emits only visible light is placed to locally illuminate a person's skin area, the difference between the AC components of the visible light image and the infrared light image includes the skin's original brightness change. In addition to this, a change in brightness due to the difference in the irradiation mode between visible light and infrared light appears. For example, the same applies when a person's skin area is locally irradiated with visible light indoors or outdoors at night (where no sunlight is irradiated). As a result, when correction is performed on an area identified based on the difference between the AC components of a visible light image and an infrared light image, for example, areas where spots, freckles, pores, etc. The corrected image that is displayed is not in a suitable manner.

このため、本実施形態の画像処理部102は、可視光の照射態様と赤外光の照射態様の違いに基づいて美肌補正処理の処理内容を異ならせることで、肌領域が好適に補正された補正画像を得る。具体的には画像処理部102は、可視光画像と赤外光画像のAC成分の差異に基づいて可視光画像の肌領域を補正した画像と、単純に赤外光画像を参照せずに可視光画像の肌領域を補正した画像とを、照射態様の差異に応じた比率で合成することで補正画像を得る。 Therefore, the image processing unit 102 of the present embodiment changes the processing content of the skin beautification process based on the difference between the visible light irradiation mode and the infrared light irradiation mode, so that the skin area is suitably corrected. Obtain a corrected image. Specifically, the image processing unit 102 generates an image in which the skin area of the visible light image is corrected based on the difference in AC components between the visible light image and the infrared light image, and a visible light image without simply referring to the infrared light image. A corrected image is obtained by combining the optical image with the image in which the skin area has been corrected at a ratio that corresponds to the difference in the irradiation mode.

〈美肌補正処理に係る機能構成〉
図2は、本実施形態の画像処理部102で行われる美肌補正処理に係る機能構成を示したブロック図である。上述したように、美肌補正処理の入力は、被写体を同時期に撮影して得られた可視光画像210と赤外光画像220の2つであり、処理後、1つの補正画像(可視光画像)230が出力される。より詳しくは、可視光画像210は、対象領域検出部201と第1照射検出部202に入力され、赤外光画像220は第2照射検出部203に入力される。
<Functional configuration related to skin beautification processing>
FIG. 2 is a block diagram showing a functional configuration related to skin beautification processing performed by the image processing unit 102 of this embodiment. As mentioned above, the input for the skin beautification processing is the visible light image 210 and the infrared light image 220 obtained by photographing the subject at the same time, and after processing, one corrected image (visible light image ) 230 is output. More specifically, the visible light image 210 is input to the target area detection section 201 and the first irradiation detection section 202, and the infrared light image 220 is input to the second irradiation detection section 203.

対象領域検出部201は、入力された可視光画像210から、美肌補正処理の補正対象である対象領域を検出する。本実施形態では、美肌補正処理の対象領域は、人物の顔領域中の肌が表れる領域(人物の顔の肌領域)とする。詳細な説明は省略するが、対象領域検出部201は、可視光画像210について別途行われた顔検出処理の検出結果を参照し、当該検出結果で示される顔領域中の、肌の色が表れる領域(しみ、そばかす、毛穴等の領域を含む)を対象領域として設定する。そして可視光画像210は、対象領域の検出結果を示す対象領域情報と可視光画像210とを後段の補正部204に出力する。 The target area detection unit 201 detects a target area to be corrected in the skin beautification process from the input visible light image 210. In this embodiment, the target area of the skin-beautifying correction process is an area in a person's face area where the skin appears (a skin area of the person's face). Although a detailed explanation will be omitted, the target area detection unit 201 refers to the detection result of face detection processing performed separately on the visible light image 210, and detects the skin color in the face area indicated by the detection result. Set the area (including areas such as spots, freckles, pores, etc.) as the target area. Then, the visible light image 210 outputs target area information indicating the detection result of the target area and the visible light image 210 to the subsequent correction unit 204.

第1照射検出部202は、入力された可視光画像210に基づいて、可視光の照射態様を示す可視光照射情報を生成する。具体的には、第1照射検出部202は、可視光画像210中の顔領域300(対象領域)を図3に示されるようにブロック分割し、対象領域中のブロック(分割領域)ごとの可視光の照射状態を示す値を導出する。本実施形態では、可視光の照射状態を示す値は、ブロック内の平均輝度値を顔領域全体の平均輝度値で正規化することで導出されるものとする。即ち、ブロック座標(i,j)で示されるブロックの可視光の照射状態を示す値BYnorm(i,j)は、当該ブロック内の平均輝度BY(i,j)と、顔領域300内の平均輝度BYaveを用いて、
で導出される。第1照射検出部202は、全てのブロックについて可視光の照射状態を示す値を導出すると、これらを統合した可視光照射情報を補正部204に出力する。
The first irradiation detection unit 202 generates visible light irradiation information indicating the visible light irradiation mode based on the input visible light image 210. Specifically, the first irradiation detection unit 202 divides the face area 300 (target area) in the visible light image 210 into blocks as shown in FIG. A value indicating the light irradiation state is derived. In this embodiment, it is assumed that the value indicating the visible light irradiation state is derived by normalizing the average brightness value within a block by the average brightness value of the entire face area. That is, the value BY norm (i, j) indicating the visible light irradiation state of the block indicated by the block coordinates (i, j) is the average luminance BY (i, j) in the block and the value in the face area 300. Using the average luminance BY ave ,
It is derived as When the first irradiation detection unit 202 derives values indicating the visible light irradiation state for all blocks, it outputs visible light irradiation information that integrates these values to the correction unit 204.

第2照射検出部203は、入力された赤外光画像220に基づいて、赤外光の照射態様を示す赤外光照射情報を生成する。第2照射検出部203で行われる処理は、第1照射検出部202において行われる処理と同様である。即ち、第2照射検出部203は、赤外光画像220中の顔領域をブロック分割し、ブロックごとに導出した赤外光の照射状態を示す値を統合して赤外光照射情報を生成する。第2照射検出部203は、赤外光照射情報を生成すると、当該赤外光照射情報と赤外光画像220とを補正部204に出力する。 The second irradiation detection unit 203 generates infrared light irradiation information indicating an infrared light irradiation mode based on the input infrared light image 220. The processing performed by the second irradiation detection unit 203 is similar to the processing performed by the first irradiation detection unit 202. That is, the second irradiation detection unit 203 divides the face area in the infrared light image 220 into blocks, integrates values indicating the infrared light irradiation state derived for each block, and generates infrared light irradiation information. . When the second irradiation detection unit 203 generates the infrared light irradiation information, it outputs the infrared light irradiation information and the infrared light image 220 to the correction unit 204.

ここで、第1照射検出部202も第2照射検出部203も、本実施形態ではブロック内の平均輝度値を顔領域全体の平均輝度値で正規化している。従って、生成される可視光照射情報及び赤外光照射情報には、可視光と赤外光の分光反射率の違いによる影響は排除されている。 Here, in this embodiment, both the first irradiation detection unit 202 and the second irradiation detection unit 203 normalize the average luminance value within a block by the average luminance value of the entire face area. Therefore, the generated visible light irradiation information and infrared light irradiation information are free from the influence of the difference in spectral reflectance between visible light and infrared light.

補正部204は、入力された可視光画像210、赤外光画像220、対象領域情報、可視光照射情報及び赤外光照射情報に基づいて、可視光画像210に対する美肌補正処理を実行して出力用の補正画像230を生成する。 The correction unit 204 performs skin beautification processing on the visible light image 210 based on the input visible light image 210, infrared light image 220, target area information, visible light irradiation information, and infrared light irradiation information, and outputs the result. A corrected image 230 is generated.

〈補正部204の詳細構成〉
ここで、補正部204の詳細構成について、図4をさらに参照して説明する。上述したように、補正部204の入力は、可視光画像210、赤外光画像220、対象領域情報410、可視光照射情報420及び赤外光照射情報430である。可視光画像210は、第1AC成分抽出部401、第1補正部404及び第2補正部405に入力され、赤外光画像220は、第2AC成分抽出部402に入力される。また対象領域情報410は、第1補正部404及び第2補正部405に入力され、可視光照射情報420及び赤外光照射情報430は導出部406に入力される。
<Detailed configuration of correction unit 204>
Here, the detailed configuration of the correction unit 204 will be explained with further reference to FIG. 4. As described above, the inputs of the correction unit 204 are the visible light image 210, the infrared light image 220, the target area information 410, the visible light irradiation information 420, and the infrared light irradiation information 430. The visible light image 210 is input to the first AC component extraction section 401, the first correction section 404, and the second correction section 405, and the infrared light image 220 is input to the second AC component extraction section 402. Further, the target area information 410 is input to the first correction unit 404 and the second correction unit 405, and the visible light irradiation information 420 and the infrared light irradiation information 430 are input to the derivation unit 406.

第1AC成分抽出部401は、入力された可視光画像210からAC成分の画像(可視光AC画像)を抽出する。具体的には、第1AC成分抽出部401は、可視光画像210に対して所定の周波数帯域を抽出するバンドパスフィルタ処理を適用することで、可視光AC画像を抽出して出力する。 The first AC component extraction unit 401 extracts an AC component image (visible light AC image) from the input visible light image 210. Specifically, the first AC component extraction unit 401 extracts and outputs a visible light AC image by applying a bandpass filter process to the visible light image 210 to extract a predetermined frequency band.

第2AC成分抽出部402は、入力された赤外光画像220からAC成分の画像(赤外光AC画像)を抽出する。第2AC成分抽出部402は、第1AC成分抽出部401と同様に、赤外光画像220にバンドパスフィルタ処理を適用することで、赤外光AC画像を抽出して出力する。 The second AC component extraction unit 402 extracts an AC component image (infrared light AC image) from the input infrared light image 220. Similarly to the first AC component extraction unit 401, the second AC component extraction unit 402 extracts and outputs an infrared light AC image by applying band pass filter processing to the infrared light image 220.

AC成分比較部403は、可視光AC画像と赤外光AC画像とに基づいて、これらの差異を示し、第1補正部404における可視光画像の補正のための補正係数を導出する。補正係数は、画像の座標ごとに導出される。本実施形態ではAC成分比較部403は、座標(x,y)についての補正係数k(x,y)を、可視光AC画像の同座標の値Y_AC(x,y)と赤外光AC画像の同座標の値IR_AC(x,y)とを用いて、
で導出する。ここで、補正係数k(x,y)は、0の場合には可視光画像210と赤外光画像220とで差がない、即ち、可視光画像210の座標(x,y)の画素にしみ、そばかす、毛穴等が表れていないことを示す。対して、補正係数k(x,y)が負の場合には、可視光画像210と赤外光画像220とに差がある、即ち、可視光画像210の座標(x,y)の画素にしみ、そばかす、毛穴等が表れていることを示す。また補正係数k(x,y)は、その値が小さい(絶対値が大きい)ほど、正常な肌の色から乖離した色が表れていることを示している。なお、しみ、そばかす、毛穴等が表れている画素で負となるように補正係数k(x,y)を導出している理由は、第1補正部404における補正において、可視光画像210のAC成分を低減させる(弱める)ためである。
The AC component comparison unit 403 indicates the difference between the visible light AC image and the infrared light AC image based on the visible light AC image and the infrared light AC image, and derives a correction coefficient for correction of the visible light image in the first correction unit 404. A correction coefficient is derived for each coordinate of the image. In this embodiment, the AC component comparison unit 403 calculates the correction coefficient k(x,y) for the coordinates (x,y) from the value Y_AC(x,y) at the same coordinates of the visible light AC image and the infrared light AC image. Using the same coordinate value IR_AC (x, y) of
Derive it as Here, when the correction coefficient k (x, y) is 0, there is no difference between the visible light image 210 and the infrared light image 220, that is, the correction coefficient k (x, y) is set to the pixel at the coordinates (x, y) of the visible light image 210. Indicates that dark spots, freckles, pores, etc. are not visible. On the other hand, if the correction coefficient k(x, y) is negative, there is a difference between the visible light image 210 and the infrared light image 220, that is, the pixel at the coordinates (x, y) of the visible light image 210 Indicates that wrinkles, freckles, pores, etc. are visible. Further, the smaller the value of the correction coefficient k(x, y) (the larger the absolute value), the more deviated the color appears from the normal skin color. The reason why the correction coefficient k(x, y) is derived so that it is negative for pixels where spots, freckles, pores, etc. appear is that in the correction in the first correction unit 404, the AC of the visible light image 210 This is to reduce (weaken) the components.

第1補正部404は、可視光画像210と赤外光画像220のAC成分の差異に基づいて、可視光画像210の対象領域に表れるしみ、そばかす、毛穴等を低減させた画像(第1の補正画像)を生成する。より詳しくは、第1補正部404は、可視光画像210の対象領域の画素について、AC成分比較部403により導出された補正係数k(x,y)に基づいてAC成分を補正し、これをDC成分に加算することで補正後の対象領域の画素値を導出する。そして第1補正部404は、可視光画像210のうちの対象領域の画素値を、得られた補正後の対象領域の画素値に変更することで第1の補正画像を生成する。 The first correction unit 404 generates an image (first image) in which spots, freckles, pores, etc. appearing in the target area of the visible light image 210 are reduced based on the difference in AC components between the visible light image 210 and the infrared light image 220. corrected image). More specifically, the first correction unit 404 corrects the AC component of the pixels in the target area of the visible light image 210 based on the correction coefficient k(x,y) derived by the AC component comparison unit 403, and By adding it to the DC component, the pixel value of the target area after correction is derived. The first correction unit 404 then generates a first corrected image by changing the pixel value of the target area in the visible light image 210 to the obtained corrected pixel value of the target area.

まず第1補正部404は、可視光AC画像の対象領域の座標(x,y)ごとに、しみ、そばかす、毛穴等を低減させた補正量k_AC(x,y)を
で導出する。また、可視光画像210のDC成分Y_DC(x,y)は、
で導出できる。従って、第1補正部404は、可視光画像210の対象領域のDC成分Y_DC(x,y)と補正量k_AC(x,y)とを用いて
で補正後の対象領域の座標(x,y)の画素値Yafter1(x,y)を導出する。そして、第1補正部404は、可視光画像210の対象領域の画素値をYafter1(x,y)に変更することで第1の補正画像を生成する。
First, the first correction unit 404 calculates a correction amount k_AC(x,y) for reducing spots, freckles, pores, etc. for each coordinate (x,y) of the target area of the visible light AC image.
Derive it as Further, the DC component Y_DC(x,y) of the visible light image 210 is
It can be derived as Therefore, the first correction unit 404 uses the DC component Y_DC(x,y) of the target area of the visible light image 210 and the correction amount k_AC(x,y).
The pixel value Y after1 (x, y) of the coordinates (x, y) of the target area after correction is derived. Then, the first correction unit 404 generates a first corrected image by changing the pixel value of the target area of the visible light image 210 to Y after1 (x, y).

対して、第2補正部405は、可視光画像210の対象領域に対して、第1補正部404とは異なる補正処理を実行して、しみ、そばかす、毛穴等を低減させた画像(第2の補正画像)を生成する。第2補正部405において実行される補正処理は、可視光画像210と赤外光画像220の差異に基づくものではなく、可視光画像210のみを参照して実行される。即ち、第2補正部405において行われる補正処理は、対象領域のAC成分の振幅を低減するようなノイズリダクション処理である。 On the other hand, the second correction unit 405 performs a correction process different from that of the first correction unit 404 on the target area of the visible light image 210 to reduce stains, freckles, pores, etc. (corrected image). The correction process performed by the second correction unit 405 is not based on the difference between the visible light image 210 and the infrared light image 220, but is performed with reference only to the visible light image 210. That is, the correction process performed by the second correction unit 405 is a noise reduction process that reduces the amplitude of the AC component in the target area.

第2補正部405は、例えばバイラテラルフィルタのような、エッジを保存しつつ、領域のAC成分の振幅を低減させるフィルタリング処理を可視光画像210の対象領域に適用する。このとき、適用されるフィルタの規模は、しみ、そばかす、毛穴等の面積に適合させるため、顔領域の大きさが大きくなるほどフィルタを大きくするように調整されてよい。そして、第2補正部405は、可視光画像210の対象領域の画素を、フィルタリング処理ごの画素で置換することで、第2の補正画像を生成する。この他、第2補正部405で行われるノイズリダクション処理は、平均値フィルタやローパスフィルタ等を用いた、各種のフィルタリング処理を含むことができる。 The second correction unit 405 applies filtering processing, such as a bilateral filter, to the target region of the visible light image 210 to reduce the amplitude of the AC component in the region while preserving edges. At this time, the scale of the applied filter may be adjusted to match the area of spots, freckles, pores, etc., so that the larger the size of the facial area, the larger the filter. Then, the second correction unit 405 generates a second corrected image by replacing pixels in the target area of the visible light image 210 with pixels for each filtering process. In addition, the noise reduction processing performed by the second correction unit 405 can include various types of filtering processing using an average value filter, a low-pass filter, and the like.

導出部406は、可視光照射情報と赤外光照射情報とに基づいて、第1補正部404により生成された第1の補正画像と第2補正部405により生成された第2の補正画像の合成比率を導出する。本実施形態では、導出部406は、後述の合成部407で実行される合成処理における第1の補正画像の適用率αを導出する。 The deriving unit 406 calculates the first corrected image generated by the first correcting unit 404 and the second corrected image generated by the second correcting unit 405 based on the visible light irradiation information and the infrared light irradiation information. Derive the composite ratio. In the present embodiment, the derivation unit 406 derives the application rate α of the first corrected image in the compositing process performed by the compositing unit 407, which will be described later.

まず導出部406は、可視光照射情報と赤外光照射情報のブロックごとの差分を用いて差分絶対値和の平均値を導出する。差分絶対値和の平均値Saveは、ブロック座標(i,j)で示されるブロックの可視光の照射状態を示す値BYnorm(i,j)と赤外光の照射状態を示す値BIRnorm(i,j)とを用いて、
で導出される。ここで、mは顔領域に含まれるブロックの総数である。
First, the derivation unit 406 derives the average value of the sum of absolute differences using the difference between the visible light irradiation information and the infrared light irradiation information for each block. The average value S ave of the sum of absolute differences is a value BY norm (i, j) indicating the visible light irradiation state of the block indicated by the block coordinates (i, j) and a value BIR norm indicating the infrared light irradiation state. Using (i, j),
It is derived as Here, m is the total number of blocks included in the face area.

このように同一のブロック位置のブロックについて差分をとることで、顔の構造に起因する信号値のバラツキの影響を除外して、対象領域における可視光と赤外光の照射態様の違いを推定することができる。従って、Saveには、可視光と赤外光の照射態様の違いが大きいほど高い値が表れる。例えば、図5(a)に示されるように、可視光と赤外光の照射態様に違いがある場合には、Saveにその差異に応じた数値が表れる。換言すれば、Saveが大きい場合には、可視光と赤外光の照射態様の違いにより第1の補正画像においてしみ、そばかす、毛穴等が好適に低減されていないことが考えられる。従って、導出部406は、Saveが大きいほど第1の補正画像の合成比率が小さく、Saveが小さいほど第1の補正画像の合成比率が大きくなるよう、第1の補正画像の適用率αを決定する。 By taking the difference between blocks at the same block position in this way, we can exclude the influence of variations in signal values caused by the facial structure and estimate the difference in the irradiation mode of visible light and infrared light in the target area. be able to. Therefore, the larger the difference in the irradiation mode between visible light and infrared light, the higher the value of Save appears. For example, as shown in FIG. 5A, if there is a difference in the irradiation mode of visible light and infrared light, a value corresponding to the difference appears in Save . In other words, when S ave is large, it is possible that spots, freckles, pores, etc. are not reduced appropriately in the first corrected image due to the difference in the irradiation mode of visible light and infrared light. Therefore, the derivation unit 406 sets the application rate α of the first corrected image so that the larger S ave is, the smaller the synthesis ratio of the first corrected image is, and the smaller S ave is, the larger the synthesis ratio of the first corrected image is. Determine.

適用率αの決定は、例えば図6に示されるようなSaveと適用率αとの関係を示すLUTを参照して行われるものであってよい。図6の例では、Saveと適用率αは線形関係として示されているが、Saveが大きいほど第1の補正画像の適用率αが小さくなり、Saveが小さいほど第1の補正画像の適用率αが大きい傾向を示すのであれば、これに限られるものではない。導出部406は、適用率αを決定すると、当該適用率αの情報を合成部407に伝送する。 The application rate α may be determined, for example, by referring to an LUT as shown in FIG. 6, which shows the relationship between Save and the application rate α. In the example of FIG. 6, S ave and application rate α are shown as a linear relationship; however, the larger S ave is, the smaller the application rate α of the first corrected image is, and the smaller S ave is, the smaller the application rate α of the first corrected image is. The present invention is not limited to this, as long as the application rate α tends to be large. After determining the application rate α, the derivation unit 406 transmits information on the application rate α to the synthesis unit 407.

合成部407は、導出部406において決定された適用率αに基づいて、第1の補正画像及び第2の補正画像を合成して出力用の補正画像230を生成する。具体的には、合成部407は、補正画像230の座標(x,y)の画素値を、第1の補正画像の同座標の画素値Yafter1(x,y)と、第2の補正画像の同座標の画素値Yafter2(x,y)とを用いて、
で導出する。従って、可視光と赤外光の照射態様に違いがある場合には、補正画像230は第1の補正画像と第2の補正画像とが合成されることになるため、しみ、そばかす、毛穴等の補正残りを低減させた状態で出力される。即ち、可視光AC画像と赤外光AC画像の差分では好適に補正できなかったしみ、そばかす、毛穴等も、単純に可視光画像210のみで補正した第2の補正画像を合成するため、補正画像230で目立ちにくくなる。一方、可視光と赤外光の照射態様に違いがない場合には、補正画像230は第1の補正画像そのものになる。
The synthesizing unit 407 synthesizes the first corrected image and the second corrected image based on the application rate α determined by the deriving unit 406 to generate a corrected image 230 for output. Specifically, the combining unit 407 combines the pixel value at the coordinates (x, y) of the corrected image 230 with the pixel value Y after1 (x, y) at the same coordinates of the first corrected image and the second corrected image. Using the pixel value Y after2 (x, y) of the same coordinates,
Derive it as Therefore, if there is a difference in the irradiation mode of visible light and infrared light, the corrected image 230 will be a combination of the first corrected image and the second corrected image, so that stains, freckles, pores, etc. is output with the remaining correction amount reduced. In other words, stains, freckles, pores, etc. that could not be properly corrected using the difference between the visible light AC image and the infrared light AC image can be corrected by combining the second corrected image that is simply corrected using only the visible light image 210. The image 230 makes it less noticeable. On the other hand, if there is no difference in the irradiation mode of visible light and infrared light, the corrected image 230 becomes the first corrected image itself.

《美肌補正処理》
次に、このような構成をもつ本実施形態の撮像装置100で行われる美肌補正処理について、図7のフローチャートを用いて具体的な処理を説明する。該フローチャートに対応する処理は、システム制御部103のCPUが、例えばROMに記憶されている対応する処理プログラムを読み出し、RAMに展開して実行して画像処理部102の動作を制御することにより実現することができる。本美肌補正処理は、例えば撮像モードとして美肌補正モードが撮像装置100に設定されている状態で撮影動作が行われた際に開始されるものとして説明する。
《Beautiful skin correction processing》
Next, the skin beauty correction process performed by the imaging device 100 of this embodiment having such a configuration will be described in detail with reference to the flowchart of FIG. 7. The processing corresponding to the flowchart is realized by the CPU of the system control unit 103 reading a corresponding processing program stored in, for example, a ROM, loading it into a RAM, and executing it to control the operation of the image processing unit 102. can do. This beautiful skin correction process will be explained assuming that it is started, for example, when a photographing operation is performed in a state where the beautiful skin correction mode is set as the imaging mode in the imaging apparatus 100.

S701で、対象領域検出部201は、撮影により得られた可視光画像210から対象領域を検出する。対象領域検出部201は対象領域を検出すると、対象領域情報410を出力する。 In S701, the target area detection unit 201 detects a target area from the visible light image 210 obtained by photographing. When the target area detection unit 201 detects the target area, it outputs target area information 410.

S702で、第1照射検出部202は、可視光画像210の対象領域の画像に基づいて可視光照射情報420を生成する。また並行して第1照射検出部202は、S703で、赤外光画像220の対象領域の画像に基づいて赤外光照射情報430を生成する。 In S<b>702 , the first irradiation detection unit 202 generates visible light irradiation information 420 based on the image of the target area of the visible light image 210 . In parallel, the first irradiation detection unit 202 generates infrared light irradiation information 430 based on the image of the target area of the infrared light image 220 in S703.

S704で、第1AC成分抽出部401は、可視光画像210からAC成分を抽出して可視光AC画像を生成する。また第2AC成分抽出部402は、S705で、赤外光画像220からAC成分を抽出して赤外光AC画像を生成する。 In S704, the first AC component extraction unit 401 extracts an AC component from the visible light image 210 to generate a visible light AC image. Further, in S705, the second AC component extraction unit 402 extracts an AC component from the infrared light image 220 to generate an infrared light AC image.

S706で、AC成分比較部403は、可視光AC画像と赤外光AC画像に基づいて、第1補正部404における補正処理用の補正係数を導出する。 In S706, the AC component comparison unit 403 derives a correction coefficient for correction processing in the first correction unit 404 based on the visible light AC image and the infrared light AC image.

S707で、第1補正部404は、S706で導出された補正係数に基づいて第1の補正画像を生成する。より詳しくは、第1補正部404は、可視光AC画像の対象領域の画素値の絶対値に補正係数を乗じることで補正後の対象領域のAC成分の画像を生成する。また第1補正部404は、可視光画像210から可視光AC画像を減算することで可視光画像210のDC成分の画像を生成し、これに補正後の対象領域のAC成分の画像を加算することで第1の補正画像を生成する。 In S707, the first correction unit 404 generates a first corrected image based on the correction coefficient derived in S706. More specifically, the first correction unit 404 generates an image of the AC component of the target area after correction by multiplying the absolute value of the pixel value of the target area of the visible light AC image by a correction coefficient. The first correction unit 404 also generates an image of the DC component of the visible light image 210 by subtracting the visible light AC image from the visible light image 210, and adds the AC component image of the target area after correction to this. This generates the first corrected image.

また並行して第2補正部405は、S708で、可視光画像210の対象領域に対して所定のフィルタリング処理を適用することで、第2の補正画像を生成する。 In parallel, the second correction unit 405 generates a second corrected image by applying a predetermined filtering process to the target area of the visible light image 210 in S708.

S709で、導出部406は、可視光照射情報420と赤外光照射情報430とに基づいて、第1の補正画像の適用率αを導出する。 In S709, the derivation unit 406 derives the application rate α of the first corrected image based on the visible light irradiation information 420 and the infrared light irradiation information 430.

S710で、合成部407は、S709で導出された適用率αに基づいて第1の補正画像と第2の補正画像を合成して、補正画像230を生成して本美肌補正処理を完了する。 In S710, the synthesis unit 407 synthesizes the first corrected image and the second corrected image based on the application rate α derived in S709, generates the corrected image 230, and completes the main beautiful skin correction process.

このようにすることで、本実施形態の画像処理装置によれば、光源の照射態様に応じた画像補正を行い、好適な態様でしみ、そばかす、毛穴等を低減させた美肌補正画像を生成することができる。 In this manner, the image processing device of this embodiment performs image correction according to the irradiation mode of the light source, and generates a beautiful skin corrected image in which spots, freckles, pores, etc. are reduced in a suitable manner. be able to.

[変形例1]
上述した実施形態では、顔領域中の肌の色を示す領域を対象領域とするものとして説明したが、本発明の実施はこれに限られるものではない。例えば、可視光もしくは赤外光の照射領域を対象領域とするものであってもよい。この場合、赤外光が照射された画像と赤外光が照射されていない画像について画素値の差分を導出し、差分の大きい領域を対象領域として抽出すればよい。
[Modification 1]
In the above-described embodiment, the target area is an area indicating the skin color in the face area, but the implementation of the present invention is not limited to this. For example, the target area may be an area irradiated with visible light or infrared light. In this case, a difference in pixel values between an image irradiated with infrared light and an image not irradiated with infrared light may be derived, and a region with a large difference may be extracted as a target region.

[変形例2]
上述した実施形態では、可視光照射情報及び赤外光照射情報の導出にあたり、各ブロック内の平均輝度値を顔領域全体の平均輝度値で正規化した値を用いるものとして説明したが、本発明の実施はこれに限られるものではない。
[Modification 2]
In the embodiment described above, when deriving the visible light irradiation information and the infrared light irradiation information, the average brightness value in each block is normalized by the average brightness value of the entire face area. However, the present invention The implementation is not limited to this.

例えば、各照射情報は、各ブロックにおける輝度の分散値を導出し、分散値が閾値以内である分割領域のみの輝度のヒストグラムとして構成されるものであってもよい。この場合も、照射情報は、顔領域内での照射態様の分布を示すことができ、可視光と赤外光とでその差分をとることで、照射態様の差異を導出することができる。 For example, each piece of irradiation information may be configured as a luminance histogram of only divided regions whose variance value is within a threshold value by deriving the variance value of brightness in each block. In this case as well, the irradiation information can indicate the distribution of the irradiation mode within the face area, and by taking the difference between visible light and infrared light, the difference in the irradiation mode can be derived.

あるいは、各照射情報は、例えばブロックごとの輝度のヒストグラムの最頻値に基づいて構成されるものであってもよい。この場合、ブロック座標(i,j)で示されるブロックの可視光の照射状態を示す値BYmodenorm(i,j)は、当該ブロック内の最頻値BYmode(i,j)と、顔領域内の輝度の最頻値の平均BYmodeaveを用いて、
で導出してもよい。
Alternatively, each piece of irradiation information may be configured based on, for example, the mode of a brightness histogram for each block. In this case, the value BYmode norm (i, j) indicating the visible light irradiation state of the block indicated by the block coordinates (i, j) is the mode value BYmode (i, j) within the block and the value BYmode norm (i, j) within the face area. Using the average BYmode ave of the mode of brightness,
It can also be derived as

[変形例3]
上述した実施形態では、第1補正部404における可視光画像の補正のための補正係数k(x,y)を、可視光AC画像と赤外光AC画像をそのまま用いて導出する方法を説明したが、本発明の実施はこれに限られるものではない。例えば、AC成分比較部403は、可視光AC画像と赤外光AC画像とを明るさ合わせした上で補正係数k(x,y)を導出するものとしてもよい。明るさ合わせは、例えば輝度信号の平均値を用いて行われるものであってよい。この場合、補正係数k(x,y)は、可視光画像210全体の輝度信号の平均値Yaveと赤外光画像220全体の輝度信号の平均値IRaveを用いて、
で導出すればよい。この他、明るさ合わせは、着目画素(x,y)周辺の平均値を用いて行われてもよい。
[Modification 3]
In the embodiment described above, the method of deriving the correction coefficient k (x, y) for correcting the visible light image in the first correction unit 404 using the visible light AC image and the infrared light AC image as is has been described. However, implementation of the present invention is not limited to this. For example, the AC component comparison unit 403 may derive the correction coefficient k(x,y) after matching the brightness of the visible light AC image and the infrared light AC image. The brightness adjustment may be performed using, for example, the average value of the brightness signal. In this case, the correction coefficient k(x, y) is calculated using the average value Y ave of the luminance signals of the entire visible light image 210 and the average value IR ave of the luminance signals of the entire infrared light image 220.
It can be derived by In addition, brightness matching may be performed using an average value around the pixel of interest (x, y).

[変形例4]
上述した実施形態及び変形例では、第1補正部404における可視光画像の補正のための補正係数k(x,y)を、可視光AC画像と赤外光AC画像との画素値の比に基づいて導出するものとして説明したが、本発明の実施はこれに限られるものではない。例えば、しみ、そばかす、毛穴等ではないが顔の特徴たり得る要素が表れる領域は、赤外光AC画像においても高コントラストになり得る。従って、赤外光AC画像において閾値以上の画素値を示す領域については、補正係数k(x,y)を0とするよう制御してもよい。このようにすることで、赤外光画像220側のAC成分に特徴があるような領域について、第1補正部404における補正を行わせないようにすることができる。
[Modification 4]
In the embodiments and modified examples described above, the correction coefficient k(x,y) for correcting the visible light image in the first correction unit 404 is set to the ratio of the pixel values of the visible light AC image and the infrared light AC image. Although the description has been given as deriving based on the above, the implementation of the present invention is not limited to this. For example, areas where features that are not spots, freckles, pores, etc., but may be facial features, can have high contrast even in an infrared light AC image. Therefore, the correction coefficient k(x, y) may be controlled to be 0 for areas in the infrared light AC image that exhibit pixel values equal to or greater than the threshold value. By doing so, it is possible to prevent the first correction unit 404 from performing correction on a region where the AC component on the infrared light image 220 side has a characteristic.

[変形例5]
上述した実施形態では、第1の補正画像の適用率αの導出に際して、可視光照射情報と赤外光照射情報のブロックの差分絶対値和の平均値Saveを導出する態様を説明したが、本発明の実施はこれに限られるものではない。顔領域には、例えば眼球部等、その他の肌とは乖離した色を示したり、照射された光の拡散傾向が異なる器官が存在する。従って、適用率αの導出に際して参照する差分絶対値和の平均値は、このような器官が表れる領域を除外して導出されてもよい。
[Modification 5]
In the embodiment described above, when deriving the application rate α of the first corrected image, a mode was explained in which the average value S ave of the sum of absolute differences between blocks of visible light irradiation information and infrared light irradiation information is derived. The implementation of the present invention is not limited to this. In the facial region, there are organs such as eyeballs that exhibit a color that is different from the rest of the skin or have a different tendency to diffuse irradiated light. Therefore, the average value of the sum of absolute differences referred to when deriving the application rate α may be derived excluding the region where such an organ appears.

図5(a)に示した実施形態の例では顔領域中の眼球部が含まれる領域も含めたが、本変形例では、図5(b)に示されるように眼球が含まれる器官領域については、差分絶対値和の平均値の導出に際して除外する。この場合、顔領域に含まれるm個のブロックのうち、器官領域を除いたn個のブロックについて得られる差分絶対値和の平均値Save_normは、器官領域を除いたブロックの差分絶対値和Snormを用いて、
で導出することができる。ただし、n≦mである。
In the example of the embodiment shown in FIG. 5(a), the area including the eyeball part in the face area is also included, but in this modified example, as shown in FIG. 5(b), the organ area including the eyeball is included. are excluded when deriving the average value of the sum of absolute differences. In this case, the average value S ave_norm of the sum of absolute differences obtained for n blocks excluding the organ area among the m blocks included in the face area is the sum of absolute differences S ave_norm of the blocks excluding the organ area. Using norm ,
It can be derived as However, n≦m.

また上述した実施形態及び本変形例では、可視光照射情報と赤外光照射情報の差分絶対値和の平均値を用いて照射態様の差異を評価するものとして説明したが、本発明の実施はこれに限られるものではなく、例えば差分二乗和の平均等を用いてもよい。 Furthermore, in the above-described embodiment and this modified example, it has been explained that the difference in the irradiation mode is evaluated using the average value of the sum of absolute differences between the visible light irradiation information and the infrared light irradiation information. The value is not limited to this, and for example, the average of the sum of squared differences may be used.

[変形例6]
上述した実施形態では、第1の補正画像と第2の補正画像とを合成することで補正画像230を生成する態様を説明したが、本発明の実施はこれに限られるものではない。本発明の実施に係り、第2の補正画像の生成は必須の構成ではなく、合成部407における合成は、第1の補正画像と可視光画像210とに基づいて行われるものであってもよい。即ち、補正画像230の座標(x,y)の画素値Yafter(x,y)は、第1の補正画像の同座標の画素値Yafter1(x,y)と、可視光画像210の同座標の画素値Yin2(x,y)とを用いて、
で導出されるものとしてもよい。
[Modification 6]
In the above-described embodiment, a mode has been described in which the corrected image 230 is generated by combining the first corrected image and the second corrected image, but the implementation of the present invention is not limited to this. According to the implementation of the present invention, the generation of the second corrected image is not an essential configuration, and the synthesis in the combining unit 407 may be performed based on the first corrected image and the visible light image 210. . That is, the pixel value Y after (x, y) at the coordinates (x, y) of the corrected image 230 is the same as the pixel value Y after1 (x, y) at the same coordinates of the first corrected image and the same coordinates of the visible light image 210. Using the coordinate pixel value Y in2 (x, y),
It may be derived as follows.

[変形例7]
上述した実施形態及び変形例では、可視光画像と赤外光画像を取得し、それらのAC成分の差異に基づいて可視光画像を補正することで第1の補正画像を得るものとして説明したが、本発明の実施はこれに限られるものではない。しみ、そばかす、毛穴等の影響は、一般に600nm以上の波長の撮像画像において目立ちにくくなるものであるため、例えば所定の波長以上の波長域の光を通過させるフィルタを適用して撮像された画像を赤外光画像に代えて用いることもできる。
[Modification 7]
In the above-described embodiments and modified examples, the first corrected image is obtained by acquiring a visible light image and an infrared light image and correcting the visible light image based on the difference in their AC components. However, the implementation of the present invention is not limited to this. The effects of spots, freckles, pores, etc. are generally less noticeable in captured images with wavelengths of 600 nm or more. It can also be used in place of an infrared image.

[実施形態及び変形例のまとめ]
本明細書の開示は、以下の画像処理装置、制御方法及びプログラムを含む。
(項目1)
被写体について、第1の波長域の光を撮像した第1の撮像画像と、前記第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得手段と、
前記第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定手段
前記第1の撮像画像と前記第2の撮像画像との差分に基づいて、前記第1の撮像画像の前記対象領域の画像を補正した第1の補正画像を生成する第1の補正手段と、
前記第1の補正手段により生成された前記第1の補正画像と前記第1の撮像画像とを合成することで、出力用の補正画像を生成する合成手段と、
前記第1の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第1の照射態様と、前記第2の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、前記合成手段の合成における前記第1の補正画像の適用率を制御する制御手段と、
を有することを特徴とする画像処理装置。
(項目2)
前記第1の補正手段は、前記第1の撮像画像のAC成分と前記第2の撮像画像のAC成分との差分に基づいて、前記第1の撮像画像の前記対象領域の画像のAC成分を低減させることで、前記第1の補正画像を生成することを特徴とする項目1に記載の画像処理装置。
(項目3)
前記第1の補正手段は、前記第2の撮像画像のAC成分において予め定められた閾値以上の画素値を示す領域については、前記第1の撮像画像を補正しないことを特徴とする項目1または2に記載の画像処理装置。
(項目4)
前記合成手段は、前記第2の撮像画像を参照せずに前記第1の撮像画像の前記対象領域の画像を補正した第2の補正画像を生成する第2の補正手段を含み、前記第1の補正画像と前記第2の補正画像を合成することで、前記出力用の補正画像を生成することを特徴とする項目1乃至3のいずれか1項目に記載の画像処理装置。
(項目5)
前記第2の補正手段は、前記第2の撮像画像を参照せずに前記第1の撮像画像のAC成分を低減させることを特徴とする項目4に記載の画像処理装置。
(項目6)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像の輝度の差異に基づいて、前記対象領域の被写体に対する前記第1の照射態様と前記第2の照射態様の差異を特定することを特徴とする項目1乃至5のいずれか1項目に記載の画像処理装置。
(項目7)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの平均輝度の分布を生成し、前記第1の撮像画像と前記第2の撮像画像の平均輝度の分布の差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする項目6に記載の画像処理装置。
(項目8)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの輝度のヒストグラムを生成し、前記第1の撮像画像と前記第2の撮像画像の輝度のヒストグラムの差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする項目6に記載の画像処理装置。
(項目9)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの輝度の最頻値を特定し、前記第1の撮像画像と前記第2の撮像画像の輝度の最頻値の差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする項目6に記載の画像処理装置。
(項目10)
前記制御手段は、前記第1の撮像画像と前記第2の撮像画像の明るさを合わせた上で、前記対象領域の被写体に対する前記第1の波長域の光と前記第2の波長域の光との照射態様の差異を特定することを特徴とする項目6乃至9のいずれか1項目に記載の画像処理装置。
(項目11)
前記対象領域は、人物の顔の肌領域であり、
前記制御手段は、前記対象領域中の分割領域のうちの、顔を構成する所定の器官の領域を除外した分割領域の輝度の差異に基づいて、前記第1の照射態様と前記第2の照射態様の差異を特定する
ことを特徴とする項目6乃至10のいずれか1項目に記載の画像処理装置。
(項目12)
前記対象領域は、前記第1の波長域の光及び前記第2の波長域の光の少なくともいずれかが照射されている領域であることを特徴とする項目1乃至10のいずれか1項目に記載の画像処理装置。
(項目13)
前記第2の波長域の光は、波長が600nm以上の光であることを特徴とする項目1乃至12のいずれか1項目に記載の画像処理装置。
(項目14)
前記第1の波長域の光は、可視光であり、
前記第2の波長域の光は、赤外光である
ことを特徴とする項目13に記載の画像処理装置。
(項目15)
前記第1の波長域の光を撮像する第1の撮像手段と、
前記第2の波長域の光を撮像する第2の撮像手段と、
をさらに有することを特徴とする項目1乃至14のいずれか1項目に記載の画像処理装置。
(項目16)
被写体について、第1の波長域の光を撮像した第1の撮像画像と、前記第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得工程と、
前記第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定工程
前記第1の撮像画像と前記第2の撮像画像との差分に基づいて、前記第1の撮像画像の前記対象領域の画像を補正した第1の補正画像を生成する第1の補正工程と、
前記第1の補正工程において生成された前記第1の補正画像と前記第1の撮像画像とを合成することで、出力用の補正画像を生成する合成工程と、
前記第1の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第1の照射態様と、前記第2の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、前記合成工程の合成における前記第1の補正画像の適用率を制御する制御工程と、
を有することを特徴とする画像処理装置の制御方法。
(項目17)
コンピュータを、項目1乃至14のいずれか1項目に記載の画像処理装置の各手段として機能させるためのプログラム。
[Summary of embodiments and modifications]
The disclosure of this specification includes the following image processing device, control method, and program.
(Item 1)
For the subject, a first captured image is captured of light in a first wavelength range, and a second captured image is captured of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition means to
Setting means for setting a target area to be corrected based on the first captured image; and setting means for setting a target area to be corrected in the first captured image based on a difference between the first captured image and the second captured image. a first correction means that generates a first corrected image by correcting the image of the region;
a combining unit that generates a corrected image for output by combining the first corrected image generated by the first correcting unit and the first captured image;
a first irradiation mode showing a distribution of intensity with which a subject in the target area is irradiated with light in the first wavelength range; and a distribution of intensity with which a subject in the target area is irradiated with light in the second wavelength range. A control means for controlling an application rate of the first corrected image in the synthesis of the synthesis means based on a difference in a second irradiation mode showing the distribution;
An image processing device comprising:
(Item 2)
The first correction means adjusts the AC component of the image of the target area of the first captured image based on the difference between the AC component of the first captured image and the AC component of the second captured image. The image processing device according to item 1, wherein the first corrected image is generated by reducing the amount of image.
(Item 3)
Item 1 or 2, wherein the first correction means does not correct the first captured image for a region in which the AC component of the second captured image shows a pixel value equal to or higher than a predetermined threshold. 2. The image processing device according to 2.
(Item 4)
The synthesizing means includes a second correcting means that generates a second corrected image by correcting the image of the target area of the first captured image without referring to the second captured image, 4. The image processing apparatus according to any one of items 1 to 3, wherein the output corrected image is generated by combining the corrected image with the second corrected image.
(Item 5)
5. The image processing device according to item 4, wherein the second correction means reduces the AC component of the first captured image without referring to the second captured image.
(Item 6)
The control means specifies a difference between the first irradiation mode and the second irradiation mode for the subject in the target area based on a difference in brightness between the first captured image and the second captured image. The image processing device according to any one of items 1 to 5, characterized in that:
(Item 7)
The control means generates an average luminance distribution for each divided area in the target area for each of the first captured image and the second captured image, and The image processing device according to item 6, characterized in that a difference in distribution of average luminance of the captured image is specified as a difference between the first irradiation mode and the second irradiation mode.
(Item 8)
The control means generates a brightness histogram for each divided area in the target area for each of the first captured image and the second captured image, and 7. The image processing apparatus according to item 6, wherein a difference in a histogram of brightness of the image is specified as a difference between the first irradiation mode and the second irradiation mode.
(Item 9)
The control means specifies the mode of brightness for each divided area in the target area for each of the first captured image and the second captured image, and 7. The image processing apparatus according to item 6, wherein the difference in the mode of luminance of the captured image is specified as the difference between the first irradiation mode and the second irradiation mode.
(Item 10)
The control means matches the brightness of the first captured image and the second captured image, and then controls the light in the first wavelength range and the light in the second wavelength range to the subject in the target area. 10. The image processing apparatus according to any one of items 6 to 9, characterized in that the image processing apparatus specifies a difference in irradiation mode between the image processing apparatus and the image processing apparatus.
(Item 11)
The target area is a skin area of a person's face,
The control means controls the first irradiation mode and the second irradiation mode based on a difference in brightness between divided regions in the target region excluding a region of a predetermined organ constituting the face. The image processing device according to any one of items 6 to 10, characterized in that a difference in aspect is specified.
(Item 12)
According to any one of items 1 to 10, the target area is an area irradiated with at least one of light in the first wavelength range and light in the second wavelength range. image processing device.
(Item 13)
The image processing device according to any one of items 1 to 12, wherein the light in the second wavelength range is light with a wavelength of 600 nm or more.
(Item 14)
The light in the first wavelength range is visible light,
14. The image processing device according to item 13, wherein the light in the second wavelength range is infrared light.
(Item 15)
a first imaging means for imaging light in the first wavelength range;
a second imaging means for imaging light in the second wavelength range;
15. The image processing device according to any one of items 1 to 14, further comprising:
(Item 16)
For the subject, a first captured image is captured of light in a first wavelength range, and a second captured image is captured of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition process to
A setting step of setting a target area to be corrected based on the first captured image; and a setting step of setting a target area to be corrected based on the first captured image. a first correction step of generating a first corrected image in which the image of the region is corrected;
a combining step of generating a corrected image for output by combining the first corrected image generated in the first correcting step and the first captured image;
a first irradiation mode showing a distribution of intensity with which a subject in the target area is irradiated with light in the first wavelength range; and a distribution of intensity with which a subject in the target area is irradiated with light in the second wavelength range. a control step of controlling an application rate of the first corrected image in the synthesis of the synthesis step based on a difference in a second irradiation mode showing the distribution;
A method for controlling an image processing device, comprising:
(Item 17)
A program for causing a computer to function as each means of the image processing apparatus described in any one of items 1 to 14.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various changes and modifications can be made without departing from the spirit and scope of the invention. Therefore, the following claims are hereby appended to disclose the scope of the invention.

100:撮像装置、101:撮像部、102:画像処理部、103:システム制御部、201:対象領域検出部、202:第1照射検出部202、203:第2照射検出部、204:補正部、401:第1AC成分抽出部、402:第2AC成分抽出部、403:AC成分比較部、404:第1補正部、405:第2補正部、406:導出部、407:合成部 100: Imaging device, 101: Imaging unit, 102: Image processing unit, 103: System control unit, 201: Target area detection unit, 202: First irradiation detection unit 202, 203: Second irradiation detection unit, 204: Correction unit , 401: first AC component extraction section, 402: second AC component extraction section, 403: AC component comparison section, 404: first correction section, 405: second correction section, 406: derivation section, 407: synthesis section

Claims (17)

被写体について、第1の波長域の光を撮像した第1の撮像画像と、前記第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得手段と、
前記第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定手段
前記第1の撮像画像と前記第2の撮像画像との差分に基づいて、前記第1の撮像画像の前記対象領域の画像を補正した第1の補正画像を生成する第1の補正手段と、
前記第1の補正手段により生成された前記第1の補正画像と前記第1の撮像画像とを合成することで、出力用の補正画像を生成する合成手段と、
前記第1の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第1の照射態様と、前記第2の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、前記合成手段の合成における前記第1の補正画像の適用率を制御する制御手段と、
を有することを特徴とする画像処理装置。
For the subject, a first captured image is captured of light in a first wavelength range, and a second captured image is captured of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition means to
Setting means for setting a target area to be corrected based on the first captured image; and setting means for setting a target area to be corrected in the first captured image based on a difference between the first captured image and the second captured image. a first correction means that generates a first corrected image by correcting the image of the region;
a combining unit that generates a corrected image for output by combining the first corrected image generated by the first correcting unit and the first captured image;
a first irradiation mode showing a distribution of intensity with which a subject in the target area is irradiated with light in the first wavelength range; and a distribution of intensity with which a subject in the target area is irradiated with light in the second wavelength range; A control means for controlling an application rate of the first corrected image in the synthesis of the synthesis means based on a difference in a second irradiation mode showing the distribution;
An image processing device comprising:
前記第1の補正手段は、前記第1の撮像画像のAC成分と前記第2の撮像画像のAC成分との差分に基づいて、前記第1の撮像画像の前記対象領域の画像のAC成分を低減させることで、前記第1の補正画像を生成することを特徴とする請求項1に記載の画像処理装置。 The first correction means adjusts the AC component of the image of the target area of the first captured image based on the difference between the AC component of the first captured image and the AC component of the second captured image. The image processing apparatus according to claim 1, wherein the first corrected image is generated by reducing the amount of the image. 前記第1の補正手段は、前記第2の撮像画像のAC成分において予め定められた閾値以上の画素値を示す領域については、前記第1の撮像画像を補正しないことを特徴とする請求項1に記載の画像処理装置。 1 . The first correction means does not correct the first captured image for a region in which an AC component of the second captured image exhibits a pixel value equal to or greater than a predetermined threshold value. The image processing device described in . 前記合成手段は、前記第2の撮像画像を参照せずに前記第1の撮像画像の前記対象領域の画像を補正した第2の補正画像を生成する第2の補正手段を含み、前記第1の補正画像と前記第2の補正画像を合成することで、前記出力用の補正画像を生成することを特徴とする請求項1に記載の画像処理装置。 The synthesizing means includes a second correcting means that generates a second corrected image by correcting the image of the target area of the first captured image without referring to the second captured image, The image processing apparatus according to claim 1, wherein the output corrected image is generated by combining the corrected image with the second corrected image. 前記第2の補正手段は、前記第2の撮像画像を参照せずに前記第1の撮像画像のAC成分を低減させることを特徴とする請求項4に記載の画像処理装置。 5. The image processing apparatus according to claim 4, wherein the second correction means reduces the AC component of the first captured image without referring to the second captured image. 前記制御手段は、前記第1の撮像画像と前記第2の撮像画像の輝度の差異に基づいて、前記対象領域の被写体に対する前記第1の照射態様と前記第2の照射態様の差異を特定することを特徴とする請求項1に記載の画像処理装置。 The control means specifies a difference between the first irradiation mode and the second irradiation mode for the subject in the target area based on a difference in brightness between the first captured image and the second captured image. The image processing device according to claim 1, characterized in that: 前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの平均輝度の分布を生成し、前記第1の撮像画像と前記第2の撮像画像の平均輝度の分布の差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする請求項6に記載の画像処理装置。 The control means generates an average luminance distribution for each divided area in the target area for each of the first captured image and the second captured image, and 7. The image processing apparatus according to claim 6, wherein a difference in distribution of average luminance of the captured image is specified as a difference between the first irradiation mode and the second irradiation mode. 前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの輝度のヒストグラムを生成し、前記第1の撮像画像と前記第2の撮像画像の輝度のヒストグラムの差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする請求項6に記載の画像処理装置。 The control means generates a brightness histogram for each divided area in the target area for each of the first captured image and the second captured image, and 7. The image processing apparatus according to claim 6, wherein a difference in a histogram of brightness of the image is specified as a difference between the first irradiation mode and the second irradiation mode. 前記制御手段は、前記第1の撮像画像と前記第2の撮像画像のそれぞれについて、前記対象領域中の分割領域ごとの輝度の最頻値を特定し、前記第1の撮像画像と前記第2の撮像画像の輝度の最頻値の差分を、前記第1の照射態様と前記第2の照射態様の差異として特定することを特徴とする請求項6に記載の画像処理装置。 The control means specifies the mode of brightness for each divided area in the target area for each of the first captured image and the second captured image, and 7. The image processing apparatus according to claim 6, wherein the difference in the mode of brightness of the captured images is specified as the difference between the first irradiation mode and the second irradiation mode. 前記制御手段は、前記第1の撮像画像と前記第2の撮像画像の明るさを合わせた上で、前記対象領域の被写体に対する前記第1の波長域の光と前記第2の波長域の光との照射態様の差異を特定することを特徴とする請求項6に記載の画像処理装置。 The control means matches the brightness of the first captured image and the second captured image, and then controls the light in the first wavelength range and the light in the second wavelength range to the subject in the target area. 7. The image processing apparatus according to claim 6, wherein the image processing apparatus specifies a difference in irradiation mode from the irradiation mode. 前記対象領域は、人物の顔の肌領域であり、
前記制御手段は、前記対象領域中の分割領域のうちの、顔を構成する所定の器官の領域を除外した分割領域の輝度の差異に基づいて、前記第1の照射態様と前記第2の照射態様の差異を特定する
ことを特徴とする請求項6に記載の画像処理装置。
The target area is a skin area of a person's face,
The control means controls the first irradiation mode and the second irradiation mode based on a difference in brightness between divided regions in the target region excluding a region of a predetermined organ constituting the face. The image processing apparatus according to claim 6, characterized in that a difference in aspect is specified.
前記対象領域は、前記第1の波長域の光及び前記第2の波長域の光の少なくともいずれかが照射されている領域であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the target area is an area that is irradiated with at least one of light in the first wavelength range and light in the second wavelength range. 前記第2の波長域の光は、波長が600nm以上の光であることを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the light in the second wavelength range is light with a wavelength of 600 nm or more. 前記第1の波長域の光は、可視光であり、
前記第2の波長域の光は、赤外光である
ことを特徴とする請求項13に記載の画像処理装置。
The light in the first wavelength range is visible light,
The image processing apparatus according to claim 13, wherein the light in the second wavelength range is infrared light.
前記第1の波長域の光を撮像する第1の撮像手段と、
前記第2の波長域の光を撮像する第2の撮像手段と、
をさらに有することを特徴とする請求項1に記載の画像処理装置。
a first imaging means for imaging light in the first wavelength range;
a second imaging means for imaging light in the second wavelength range;
The image processing apparatus according to claim 1, further comprising: an image processing apparatus;
被写体について、第1の波長域の光を撮像した第1の撮像画像と、前記第1の波長域よりも長い波長を含む第2の波長域の光を撮像した第2の撮像画像とを取得する取得工程と、
前記第1の撮像画像に基づいて、補正対象となる対象領域を設定する設定工程
前記第1の撮像画像と前記第2の撮像画像との差分に基づいて、前記第1の撮像画像の前記対象領域の画像を補正した第1の補正画像を生成する第1の補正工程と、
前記第1の補正工程において生成された前記第1の補正画像と前記第1の撮像画像とを合成することで、出力用の補正画像を生成する合成工程と、
前記第1の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第1の照射態様と、前記第2の波長域の光により前記対象領域の被写体が照射される強度の分布を示す第2の照射態様の差異に基づき、前記合成工程の合成における前記第1の補正画像の適用率を制御する制御工程と、
を有することを特徴とする画像処理装置の制御方法。
For the subject, a first captured image is captured of light in a first wavelength range, and a second captured image is captured of light in a second wavelength range including a wavelength longer than the first wavelength range. an acquisition process to
A setting step of setting a target area to be corrected based on the first captured image; and a setting step of setting a target area to be corrected based on the first captured image. a first correction step of generating a first corrected image in which the image of the region is corrected;
a combining step of generating a corrected image for output by combining the first corrected image generated in the first correcting step and the first captured image;
a first irradiation mode showing a distribution of intensity with which a subject in the target area is irradiated with light in the first wavelength range; and a distribution of intensity with which a subject in the target area is irradiated with light in the second wavelength range; a control step of controlling an application rate of the first corrected image in the synthesis of the synthesis step based on a difference in a second irradiation mode showing the distribution;
A method for controlling an image processing device, comprising:
コンピュータを、請求項1乃至14のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 14.
JP2022124106A 2022-08-03 2022-08-03 Image processing device, control method and program Pending JP2024021344A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022124106A JP2024021344A (en) 2022-08-03 2022-08-03 Image processing device, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022124106A JP2024021344A (en) 2022-08-03 2022-08-03 Image processing device, control method and program

Publications (1)

Publication Number Publication Date
JP2024021344A true JP2024021344A (en) 2024-02-16

Family

ID=89855619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022124106A Pending JP2024021344A (en) 2022-08-03 2022-08-03 Image processing device, control method and program

Country Status (1)

Country Link
JP (1) JP2024021344A (en)

Similar Documents

Publication Publication Date Title
US9858666B2 (en) Medical skin examination device and method for processing and enhancing an image of a skin lesion
US6993200B2 (en) System and method for effectively rendering high dynamic range images
CN105144233B (en) Reference picture selection for moving ghost image filtering
EP1400921B1 (en) Enhancing the tonal characteristics of digital images using inflection points in a tone scale function
US20180069996A1 (en) Method and electronic device for producing composite image
US8289421B2 (en) Image-signal processing device and image signal processing program
CN110458787B (en) Image fusion method and device and computer storage medium
JP2021128791A (en) Image processing apparatus, image processing method, and program
JP7114335B2 (en) IMAGE PROCESSING DEVICE, CONTROL METHOD FOR IMAGE PROCESSING DEVICE, AND PROGRAM
JP2000242775A (en) Method and device for processing image, and recording medium
JP2016193107A (en) Image processing system
JP2024021344A (en) Image processing device, control method and program
JP2000341499A (en) Color reproducing apparatus
JP2009100936A (en) Image processor
JP2006350621A (en) Image processor and image processing program
JP3149297B2 (en) Color balance adjustment device and adjustment method
JP2005128600A (en) Image processing method and object photographing system
JP7383891B2 (en) Image processing device, image processing method, and program
JP7400198B2 (en) Image processing device, image processing method, and program
JP2010283690A (en) Image processing device, image processing method, program, and storage medium
JP2008294969A (en) Video image conversion apparatus, method, and program
JP7449459B1 (en) Method and system for analyzing objects
TW200950533A (en) Control system and method for adjusting color temperature of high dynamic range images
JP7462464B2 (en) Image processing device and method, program, and storage medium
EP4210324A1 (en) Method and apparatus for aligning images in a sequence of image frames