JP2024013339A - Image processing device, image processing method, image processing program and recording medium - Google Patents

Image processing device, image processing method, image processing program and recording medium Download PDF

Info

Publication number
JP2024013339A
JP2024013339A JP2022115353A JP2022115353A JP2024013339A JP 2024013339 A JP2024013339 A JP 2024013339A JP 2022115353 A JP2022115353 A JP 2022115353A JP 2022115353 A JP2022115353 A JP 2022115353A JP 2024013339 A JP2024013339 A JP 2024013339A
Authority
JP
Japan
Prior art keywords
image data
image
brightness
polarized
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022115353A
Other languages
Japanese (ja)
Inventor
いまり 佐藤
Imari Satou
祐太 浅野
yuta Asano
巧 西澤
Takumi Nishizawa
大樹 梶田
Daiki Kajita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Research Organization of Information and Systems
Original Assignee
Research Organization of Information and Systems
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research Organization of Information and Systems filed Critical Research Organization of Information and Systems
Priority to JP2022115353A priority Critical patent/JP2024013339A/en
Publication of JP2024013339A publication Critical patent/JP2024013339A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

To provide an image processing device which can visualize a living body surface such as a skin surface of a human with high accuracy in comparison with a conventional technique.SOLUTION: An image processing device according to the present invention comprises: an image sensor which images a surface of a processing object to generate polarization image data and non-polarization image data; a first calculation unit which calculates and outputs a ratio of luminance or a difference of luminance for each pixel between the polarization image data and the non-polarization image data; a background extraction processing unit which extracts and outputs background image data related to a background image from image data being any of (1) image data including the ratio of luminance for each pixel from the first calculation unit, (2) image data including the difference of luminance for each pixel from the first calculation unit, (3) the polarization image data and (4) the non-polarization image data; and a second calculation unit which subtracts the background image data from the background extraction processing unit from the image data including the ratio of luminance or the difference of luminance for each pixel from the first calculation unit to generate image data including the difference for each pixel.SELECTED DRAWING: Figure 1

Description

本発明は、例えば生体表面の凹凸状態を可視化するための画像処理装置、画像処理方法、画像処理プログラム、並びに、前記画像処理プログラムを格納した記録媒体に関する。 The present invention relates to an image processing device, an image processing method, an image processing program, and a recording medium storing the image processing program, for example, for visualizing the uneven state of a living body surface.

例えば人間(人体)の皮膚は医学的には外的要因から体内を守り、恒常性を保つ役割を担う器官であるが、美容的な観点からもその性状の評価が重要視されている。皮膚の性状は、化粧のり、くすみ、又は透明感など様々な言葉で表現されるが、病的な皮膚所見を診断する一般皮膚科診療と異なり、医学には正常の範疇に含まれるような皮膚の微妙な変化を美容的な観点で定量的に捉えるのは困難であり、未だ実用的な方法が確立されていないのが現状である。 For example, from a medical perspective, the human skin is an organ that protects the body from external factors and maintains homeostasis, but evaluation of its properties is also important from a cosmetic perspective. Skin conditions can be expressed in various terms, such as the appearance of makeup, dullness, or translucence, but unlike general dermatology, which diagnoses pathological skin findings, medical treatment uses skin that is included in the normal category. It is difficult to quantitatively capture subtle changes in skin conditions from a cosmetic perspective, and a practical method has not yet been established.

人間の皮膚を拡大して観察すると表面には、いわゆる「シワ」又は「キメ」と呼ばれる、細かな紋様の凹凸の形状のパターンが見られる。 When human skin is observed under magnification, a pattern of fine irregularities called "wrinkles" or "texture" can be seen on the surface.

特表2010-515489号公報Special Publication No. 2010-515489

Feichtinger, Hans, G. et al., "Gabor analysis and algorithms: Theory and applications," Springer Science & Business Media, 2012.Feichtinger, Hans, G. et al., "Gabor analysis and algorithms: Theory and applications," Springer Science & Business Media, 2012.

人間の皮膚表面には、格子状の深さ10~20μm程度の溝であるシワ及びキメが多数存在する。このシワ及びキメの分布を容易に取得するために、従来は目視による確認方法が用いられてきたが、精度やコストの問題から、シワ及びキメの分布情報を高精度で、且つ低コストに自動取得可能な手法が必要である。皮膚情報を容易に取得するには、RGBカメラで皮膚表面を撮影することが一般的ではあるが、シワ及びキメ箇所は周囲と色が酷似しているため、RGB画像(例えば非偏光画像)のみを用いて正確に可視化することは困難である。 On the surface of human skin, there are many wrinkles and textures that are grid-like grooves with a depth of about 10 to 20 μm. Conventionally, visual confirmation methods have been used to easily obtain the distribution of wrinkles and texture, but due to accuracy and cost issues, it is possible to automatically obtain wrinkle and texture distribution information with high precision and at low cost. A method that can be used to obtain such data is needed. To easily obtain skin information, it is common to photograph the skin surface with an RGB camera, but since wrinkles and textured areas are very similar in color to their surroundings, only RGB images (for example, non-polarized images) are required. It is difficult to visualize accurately using

例えば、肌表面を正確に可視化するために、従来例の撮像装置が開示されている(例えば、特許文献1参照)。この非侵襲性の撮像装置のシステム及び方法には、皮膚上に光を導く入射光源を含む照明源と、当該皮膚から反射された光の偏向の度合いを検出するための検出器とを含む。また、肌状態を判定するためのシステム及び方法は、前記反射された光の前記偏向の一態様に基づくものとする。すなわち、当該従来例の撮像装置では、反射光の偏光の態様に基づいて、肌状態を判定することが開示されている。 For example, a conventional imaging device has been disclosed in order to accurately visualize the skin surface (see, for example, Patent Document 1). The non-invasive imaging system and method includes an illumination source including an incident light source that directs light onto the skin and a detector for detecting the degree of deflection of the light reflected from the skin. The system and method for determining skin condition is also based on one aspect of the polarization of the reflected light. That is, it is disclosed that the conventional imaging device determines the skin condition based on the polarization mode of the reflected light.

しかしながら、当該従来例の撮像装置においても、高精度で人間の肌状態などの撮影対象物の表面の凹凸状態を可視化することはできていない、という問題点があった。 However, even in this conventional imaging device, there is a problem in that it is not possible to visualize the uneven state of the surface of the object to be photographed, such as the state of human skin, with high precision.

本発明の第1の目的は以上の問題点を解決し、従来技術に比較して高精度で、例えば人間の肌表面等の生体表面などの撮影対象物の表面の凹凸状態を可視化できる画像処理装置、画像処理方法、画像処理プログラム、並びに前記画像処理プログラムを格納した記録媒体を提供することにある。 A first object of the present invention is to solve the above-mentioned problems, and provide image processing that is capable of visualizing the unevenness of the surface of an object to be photographed, such as a biological surface such as a human skin surface, with higher accuracy than conventional techniques. An object of the present invention is to provide an apparatus, an image processing method, an image processing program, and a recording medium storing the image processing program.

本発明の第2の目的は、従来技術に比較して高精度で、例えば人間の肌表面等の生体表面などの撮影対象物の表面の凹凸状態を、所定の特徴量を用いて解析できる画像処理装置、画像処理方法、画像処理プログラム、並びに前記画像処理プログラムを格納した記録媒体を提供することにある。 A second object of the present invention is to provide an image that can analyze the uneven state of the surface of an object to be photographed, such as a biological surface such as a human skin surface, using predetermined feature quantities with higher accuracy than the conventional technology. The present invention provides a processing device, an image processing method, an image processing program, and a recording medium storing the image processing program.

本発明の第1の態様に係る画像処理装置は、
処理対象物の表面を撮像して、偏光画像データ及び非偏光画像データを生成する画像センサと、
前記偏光画像データ及び非偏光画像データの間の各画素毎の輝度の比又は輝度の差を計算して出力する第1の計算部と、
(1)前記第1の計算部からの各画素毎の輝度の比を含む画像データと、
(2)前記第1の計算部からの各画素毎の輝度の差を含む画像データと、
(3)前記偏光画像データと、
(4)前記非偏光画像データと、
のうちのいずれかの画像データから背景画像に係る背景画像データを抽出して出力する背景抽出処理部と、
前記第1の計算部からの各画素毎の輝度の比又は輝度の差を含む画像データから、前記背景抽出処理部からの背景画像データを減算して各画素毎の差を含む画像データを生成する第2の計算部とを備える。
The image processing device according to the first aspect of the present invention includes:
an image sensor that images the surface of the object to be processed and generates polarized image data and non-polarized image data;
a first calculation unit that calculates and outputs a brightness ratio or brightness difference for each pixel between the polarized image data and the non-polarized image data;
(1) image data including a brightness ratio for each pixel from the first calculation unit;
(2) image data including a difference in brightness for each pixel from the first calculation unit;
(3) the polarization image data;
(4) the non-polarized image data;
a background extraction processing unit that extracts and outputs background image data related to a background image from any of the image data;
Subtracting the background image data from the background extraction processing unit from the image data including the brightness ratio or difference in brightness for each pixel from the first calculation unit to generate image data including the difference for each pixel. and a second calculation unit.

本発明の第2の態様に係る画像処理装置は、前記第1の態様に係る画像処理装置において、
前記後置処理部からの画像データに対して、ガポールフィルタを用いて、角度と周期とのうちの少なくとも1つを変化させてガポール特徴量を計算することにより、輝度値の角度分布と、輝度値の周期分布と、角度及び周期の2次元平面における輝度値分布を生成する特徴量解析部をさらに備える。
An image processing device according to a second aspect of the present invention is the image processing device according to the first aspect, comprising:
By using a Gapol filter on the image data from the post-processing unit and calculating Gapol features by changing at least one of the angle and the period, the angular distribution of brightness values and the brightness are calculated. The apparatus further includes a feature amount analysis unit that generates a periodic distribution of values and a luminance value distribution in a two-dimensional plane of angle and period.

従って、本発明の第1の態様に係る画像処理装置等によれば、従来技術に比較して高精度で、例えば人間の肌表面等の生体表面などの撮影対象物の表面の凹凸状態を可視化できる。 Therefore, according to the image processing device and the like according to the first aspect of the present invention, the uneven state of the surface of the object to be photographed, such as the surface of a living body such as the surface of human skin, can be visualized with higher precision than in the prior art. can.

また、本発明の第2の態様に係る画像処理装置等によれば、従来技術に比較して高精度で、例えば人間の肌表面等の生体表面などの撮影対象物の表面の凹凸状態を、所定の特徴量を用いて解析できる。 Further, according to the image processing apparatus and the like according to the second aspect of the present invention, the uneven state of the surface of the object to be photographed, such as the surface of a living body such as the surface of human skin, can be detected with higher precision than in the prior art. It can be analyzed using predetermined feature quantities.

実施形態1に係る画像処理システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of an image processing system according to a first embodiment; FIG. 図1の画像処理部12により実行される画像処理を示すフローチャートである。2 is a flowchart showing image processing performed by the image processing unit 12 of FIG. 1. FIG. 画像処理対象である人間(人体)の皮膚であって、キメが整った肌表面を示す撮像画像である。This is a captured image showing a well-textured skin surface of a human (human body) that is the subject of image processing. 画像処理対象である人間(人体)の皮膚であって、キメが乱れた肌表面を示す撮像画像である。This is a captured image of the skin of a human being (human body) that is the subject of image processing, and shows the surface of the skin with disordered texture. 図1のカメラ1により撮像された偏光画像を示す撮像画像である。2 is a captured image showing a polarized light image captured by camera 1 in FIG. 1. FIG. 図1のカメラ1により撮像された非偏光画像を示す撮像画像である。2 is a captured image showing a non-polarized image captured by camera 1 in FIG. 1. FIG. 別の紫外線(UV)カメラにより撮像されたUV画像を示す撮像画像である。This is a captured image showing a UV image captured by another ultraviolet (UV) camera. 図4Aの偏光画像を示す撮像画像である。4A is a captured image showing the polarization image of FIG. 4A. 図4Aの偏光画像のR(赤)チャンネルの画像を示す撮像画像である。4A is a captured image showing an image of the R (red) channel of the polarization image of FIG. 4A. 図4Aの偏光画像のG(緑)チャンネルの画像を示す撮像画像である。4A is a captured image showing an image of the G (green) channel of the polarization image of FIG. 4A. 図4Aの偏光画像のB(青)チャンネルの画像を示す撮像画像である。4A is a captured image showing an image of the B (blue) channel of the polarization image of FIG. 4A. 図4Bの非偏光画像を示す撮像画像である。4B is a captured image showing the non-polarized image of FIG. 4B. 図4Bの非偏光画像のR(赤)チャンネルの画像を示す撮像画像である。4B is a captured image showing an image of the R (red) channel of the non-polarized image of FIG. 4B. 図4Bの非偏光画像のG(緑)チャンネルの画像を示す撮像画像である。4B is a captured image showing a G (green) channel image of the non-polarized image of FIG. 4B. 図4Bの非偏光画像のB(青)チャンネルの画像を示す撮像画像である。4B is a captured image showing an image of the B (blue) channel of the non-polarized image of FIG. 4B. シワ又はキメの可視化を考察するための撮像画像であって、偏光画像のBチャンネルの画像を示す撮像画像である。This is a captured image for considering the visualization of wrinkles or texture, and is a captured image showing a B channel image of a polarized light image. シワ又はキメの可視化を考察するための撮像画像であって、非偏光画像のBチャンネルの画像を示す撮像画像である。This is a captured image for considering the visualization of wrinkles or texture, and is a captured image showing a B channel image of a non-polarized light image. 図2の画像処理を、撮像画像及び画像処理画像を用いて示す画像処理の概念図である。FIG. 3 is a conceptual diagram of image processing showing the image processing of FIG. 2 using a captured image and an image-processed image. 可視化例1に係る画像であって、処理対象の偏光画像を示す撮像画像である。This is an image according to Visualization Example 1, and is a captured image showing a polarization image to be processed. 可視化例1に係る画像であって、処理対象の非偏光画像を示す撮像画像である。This is an image according to Visualization Example 1, and is a captured image showing a non-polarized image to be processed. 可視化例1に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。This is an image according to Visualization Example 1, which is a visualized image after the image processing of FIGS. 2 and 8. 可視化例2に係る画像であって、処理対象の偏光画像を示す撮像画像である。This is an image related to Visualization Example 2, and is a captured image showing a polarized image to be processed. 可視化例2に係る画像であって、処理対象の非偏光画像を示す撮像画像である。This is an image related to Visualization Example 2, and is a captured image showing a non-polarized image to be processed. 可視化例2に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。This is an image according to Visualization Example 2, which is a visualized image after the image processing of FIGS. 2 and 8. 可視化例3に係る画像であって、処理対象の偏光画像を示す撮像画像である。This is an image related to Visualization Example 3, and is a captured image showing a polarized image to be processed. 可視化例3に係る画像であって、処理対象の非偏光画像を示す撮像画像である。This is an image related to Visualization Example 3, and is a captured image showing a non-polarized image to be processed. 可視化例3に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。This is an image according to Visualization Example 3, which is a visualized image after the image processing of FIGS. 2 and 8. 可視化例4に係る画像であって、処理対象の偏光画像を示す撮像画像である。This is an image related to Visualization Example 4, and is a captured image showing a polarization image to be processed. 可視化例4に係る画像であって、処理対象の非偏光画像を示す撮像画像である。This is an image related to Visualization Example 4, and is a captured image showing a non-polarized image to be processed. 可視化例4に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。This is an image related to Visualization Example 4, which is a visualized image after the image processing of FIGS. 2 and 8. 可視化例5に係る画像であって、処理対象の偏光画像を示す撮像画像である。This is an image related to Visualization Example 5, and is a captured image showing a polarized light image to be processed. 可視化例5に係る画像であって、処理対象の非偏光画像を示す撮像画像である。This is an image according to Visualization Example 5, and is a captured image showing a non-polarized image to be processed. 可視化例5に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。This is an image according to Visualization Example 5, which is a visualized image after the image processing of FIGS. 2 and 8. 可視化例6に係る画像であって、処理対象の偏光画像を示す撮像画像である。This is an image related to Visualization Example 6, and is a captured image showing a polarization image to be processed. 可視化例6に係る画像であって、処理対象の非偏光画像を示す撮像画像である。This is an image related to Visualization Example 6, and is a captured image showing a non-polarized image to be processed. 可視化例6に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。This is an image according to Visualization Example 6, which is a visualized image after the image processing of FIGS. 2 and 8. 可視化例7に係る画像であって、処理対象の偏光画像を示す撮像画像である。This is an image related to Visualization Example 7, and is a captured image showing a polarized image to be processed. 可視化例7に係る画像であって、処理対象の非偏光画像を示す撮像画像である。This is an image related to Visualization Example 7, and is a captured image showing a non-polarized image to be processed. 可視化例7に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。This is an image according to Visualization Example 7, which is a visualized image after the image processing of FIGS. 2 and 8. 実施形態2に係る画像処理システムの構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an image processing system according to a second embodiment. 図16の画像処理部12Aにより実行される画像処理を示すフローチャートである。17 is a flowchart showing image processing performed by the image processing unit 12A of FIG. 16. 図16の画像処理部12Aの特徴量解析部27において用いる1次元ガポール関数の概念を説明するための図である。17 is a diagram for explaining the concept of a one-dimensional Gapore function used in the feature quantity analysis section 27 of the image processing section 12A in FIG. 16. FIG. 図16の画像処理部12Aの特徴量解析部27において用いる2次元ガポール関数の概念を説明するための図である。17 is a diagram for explaining the concept of a two-dimensional Gapore function used in the feature quantity analysis section 27 of the image processing section 12A in FIG. 16. FIG. 特徴量解析部27の解析例1(方向性)を示す画像であって、線形フィルタリング前の可視化処理画像(DWE(Dermo Wrinkle Emphasis)画像)である。This is an image showing analysis example 1 (directivity) of the feature amount analysis unit 27, and is a visualization processed image (DWE (Dermo Wrinkle Emphasis) image) before linear filtering. 特徴量解析部27の解析例1(方向性)を示す画像であって、線形フィルタリング後の分析処理画像である。This is an image showing analysis example 1 (directivity) of the feature amount analysis unit 27, and is an analysis processed image after linear filtering. 特徴量解析部27の解析例2(方向性)を示すグラフであって、線形フィルタリング後の平均輝度の角度分布を示すグラフである。It is a graph showing analysis example 2 (directivity) of the feature quantity analysis unit 27, and is a graph showing the angular distribution of average luminance after linear filtering. 特徴量解析部27の解析例2(方向性)を示すグラフであって、線形フィルタリング後の最大輝度Lmax時の分析処理画像である。It is a graph showing analysis example 2 (directivity) of the feature amount analysis unit 27, and is an analysis processed image at maximum brightness Lmax after linear filtering. 特徴量解析部27の解析例2(方向性)を示すグラフであって、線形フィルタリング後の最小輝度Lmin時の分析処理画像である。It is a graph showing analysis example 2 (directivity) of the feature amount analysis unit 27, and is an analysis processed image when the minimum brightness Lmin is obtained after linear filtering. 特徴量解析部27の解析例3(周期性)を示す画像であって、線形フィルタリング前の可視化処理画像(DWE画像)である。This is an image showing analysis example 3 (periodicity) by the feature quantity analysis unit 27, and is a visualization processed image (DWE image) before linear filtering. 特徴量解析部27の解析例3(周期性)を示す画像であって、線形フィルタリング後の分析処理画像である。This is an image showing analysis example 3 (periodicity) of the feature quantity analysis unit 27, and is an analysis processed image after linear filtering. 特徴量解析部27の解析例4(周期性)を示すグラフであって、線形フィルタリング後の平均輝度の周期分布を示すグラフである。It is a graph showing analysis example 4 (periodicity) of the feature amount analysis unit 27, and is a graph showing a periodic distribution of average luminance after linear filtering. 特徴量解析部27の解析例4(周期性)を示すグラフであって、線形フィルタリング後の最大輝度Lmax時の分析処理画像である。It is a graph showing analysis example 4 (periodicity) of the feature amount analysis unit 27, and is an analysis processed image at the time of maximum brightness Lmax after linear filtering. 特徴量解析部27の解析例5(方向性及び周期性)を示すグラフであって、方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。This is a graph showing analysis example 5 (directivity and periodicity) of the feature quantity analysis unit 27, and is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periodicity with respect to the angle of directionality. 特徴量解析部27の解析例5(方向性及び周期性)を示す画像であって、処理前のRGB画像(特許図面のために白黒画像で示す)である。This is an image showing analysis example 5 (directivity and periodicity) of the feature amount analysis unit 27, and is an RGB image before processing (shown as a black and white image for patent drawings). 特徴量解析部27の解析例5(方向性及び周期性)を示す画像であって、可視化処理後の可視化処理画像(DWE画像)である。This is an image showing analysis example 5 (directivity and periodicity) of the feature quantity analysis unit 27, and is a visualization processed image (DWE image) after visualization processing. 特徴量解析部27の解析例5(方向性及び周期性)を示すグラフであって、方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。This is a graph showing analysis example 5 (directivity and periodicity) of the feature quantity analysis unit 27, and is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periodicity with respect to the angle of directionality. 特徴量解析部27の解析例5(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の角度分布を示すグラフである。It is a graph showing analysis example 5 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing the angular distribution of average luminance after linear filtering. 特徴量解析部27の解析例5(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の周期分布を示すグラフである。It is a graph showing analysis example 5 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing a periodic distribution of average luminance after linear filtering. 特徴量解析部27の解析例6(方向性及び周期性)を示す画像であって、処理前のRGB画像である。This is an image showing analysis example 6 (directivity and periodicity) of the feature quantity analysis unit 27, and is an RGB image before processing. 特徴量解析部27の解析例6(方向性及び周期性)を示す画像であって、可視化処理後の可視化処理画像(DWE画像)である。This is an image showing analysis example 6 (directivity and periodicity) of the feature quantity analysis unit 27, and is a visualization processed image (DWE image) after visualization processing. 特徴量解析部27の解析例6(方向性及び周期性)を示すグラフであって、方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。This is a graph showing analysis example 6 (directivity and periodicity) of the feature quantity analysis unit 27, and is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periodicity with respect to the angle of directionality. 特徴量解析部27の解析例6(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の角度分布を示すグラフである。It is a graph showing analysis example 6 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing the angular distribution of average luminance after linear filtering. 特徴量解析部27の解析例6(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の周期分布を示すグラフである。It is a graph showing analysis example 6 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing a periodic distribution of average luminance after linear filtering. 特徴量解析部27の解析例7(方向性及び周期性)を示す画像であって、処理前のRGB画像である。This is an image showing analysis example 7 (directivity and periodicity) of the feature quantity analysis unit 27, and is an RGB image before processing. 特徴量解析部27の解析例7(方向性及び周期性)を示す画像であって、可視化処理後の可視化処理画像(DWE画像)である。This is an image showing analysis example 7 (directivity and periodicity) of the feature amount analysis unit 27, and is a visualization processed image (DWE image) after visualization processing. 特徴量解析部27の解析例7(方向性及び周期性)を示すグラフであって、方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。This is a graph showing analysis example 7 (directivity and periodicity) of the feature quantity analysis unit 27, and is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periodicity with respect to the angle of directionality. 特徴量解析部27の解析例7(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の角度分布を示すグラフである。It is a graph showing analysis example 7 (directivity and periodicity) of the feature quantity analysis unit 27, and is a graph showing the angular distribution of average luminance after linear filtering. 特徴量解析部27の解析例7(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の周期分布を示すグラフである。It is a graph showing analysis example 7 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing a periodic distribution of average luminance after linear filtering. 特徴量解析部27の解析例8(方向性及び周期性)を示す画像であって、処理前のRGB画像である。This is an image showing analysis example 8 (directivity and periodicity) of the feature amount analysis unit 27, and is an RGB image before processing. 特徴量解析部27の解析例8(方向性及び周期性)を示す画像であって、可視化処理後の可視化処理画像(DWE画像)である。This is an image showing analysis example 8 (directivity and periodicity) of the feature quantity analysis unit 27, and is a visualization processed image (DWE image) after visualization processing. 特徴量解析部27の解析例8(方向性及び周期性)を示すグラフであって、方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。This is a graph showing analysis example 8 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periodicity with respect to the angle of directionality. 特徴量解析部27の解析例8(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の角度分布を示すグラフである。It is a graph showing analysis example 8 (directivity and periodicity) of the feature quantity analysis unit 27, and is a graph showing the angular distribution of average luminance after linear filtering. 特徴量解析部27の解析例8(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の周期分布を示すグラフである。It is a graph showing analysis example 8 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing a periodic distribution of average luminance after linear filtering. 特徴量解析部27の解析例9(方向性及び周期性)を示す画像であって、処理前のRGB画像である。This is an image showing analysis example 9 (directivity and periodicity) of the feature quantity analysis unit 27, and is an RGB image before processing. 特徴量解析部27の解析例9(方向性及び周期性)を示す画像であって、可視化処理後の可視化処理画像(DWE画像)である。This is an image showing analysis example 9 (directivity and periodicity) of the feature quantity analysis unit 27, and is a visualization processed image (DWE image) after visualization processing. 特徴量解析部27の解析例9(方向性及び周期性)を示すグラフであって、方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。This is a graph showing analysis example 9 (directivity and periodicity) of the feature quantity analysis unit 27, and is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periodicity with respect to the angle of directionality. 特徴量解析部27の解析例9(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の角度分布を示すグラフである。It is a graph showing analysis example 9 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing the angular distribution of average luminance after linear filtering. 特徴量解析部27の解析例9(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の周期分布を示すグラフである。It is a graph showing analysis example 9 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing a periodic distribution of average luminance after linear filtering. 実施形態3に係る画像処理システムの構成例を示すブロック図である。FIG. 3 is a block diagram illustrating a configuration example of an image processing system according to a third embodiment.

以下、本発明に係る実施形態及び変形例について図面を参照して説明する。なお、同一又は同様の構成要素については同一の符号を付している。 Embodiments and modifications of the present invention will be described below with reference to the drawings. Note that the same or similar components are given the same reference numerals.

(発明者の知見)
例えば人間の皮膚などの皮膚情報を容易に取得するには、RGBカメラで皮膚表面を撮影することが一般的ではあるが、シワ及びキメ箇所は周囲と色が酷似しているため、RGB画像(例えば非偏光画像)のみを用いて正確に可視化することは困難であった。
(Inventor's knowledge)
For example, in order to easily obtain skin information such as human skin, it is common to photograph the skin surface with an RGB camera, but since wrinkles and textured areas are very similar in color to their surroundings, RGB images ( For example, it has been difficult to visualize accurately using only non-polarized light images.

そこで、本発明では、一般的なRGBカメラ画像ではなく、偏光画像及び非偏光画像を同時に取得可能なダーモカメラ(登録商標)を用いて撮影された皮膚の接写画像を処理することで、シワ及びキメの可視化を試みた。非偏光画像は偏光を考慮しない一般的なRGB画像であり、偏光画像は偏光させた光を対象に当て、偏光板を透過した光を撮影したもので、皮膚表面での直接反射光を抑え、皮膚内面の情報を取得しやすい画像である。 Therefore, in the present invention, wrinkles and texture are reduced by processing a close-up image of the skin taken using a dermo camera (registered trademark) that can simultaneously obtain polarized and non-polarized images, rather than a general RGB camera image. I tried to visualize it. A non-polarized image is a general RGB image that does not take polarization into account, while a polarized image is a photograph of the light that has passed through a polarizing plate by shining polarized light on the subject, suppressing the direct reflection of light on the skin surface, This image makes it easy to obtain information about the inner surface of the skin.

格子状の溝であるシワ及びキメでは、複雑に光の反射が起こり、また微妙に肌色が異なるため、非偏光画像にはシワ及びキメとそれ以外の箇所の間に微小な輝度差が存在する。一方、偏光画像は主に表面下散乱した光を撮影するため、シワ及びキメの情報が画像に含まれにくい。そのため、この二枚の画像の差異は主に皮膚表面での直接反射光の有無で、それはシワ及びキメにおける反射光による輝度情報に相当する。また、偏光画像、非偏光画像共にRGBの情報が含まれるが、シワ及びキメの微小な溝の形状に起因する光学特性や皮膚色により、G、Rチャンネルに比べ、Bチャンネル画像にシワ及びキメ箇所の輝度差が大きい。そこで、Bチャンネル情報のみを可視化処理に活用する。 Wrinkles and texture, which are lattice-like grooves, reflect light in a complex manner, and the skin color differs slightly, so there is a slight difference in brightness between wrinkles and texture and other areas in non-polarized images. . On the other hand, since a polarized image mainly captures light scattered below the surface, information about wrinkles and texture is less likely to be included in the image. Therefore, the difference between these two images is mainly the presence or absence of direct reflected light on the skin surface, which corresponds to brightness information from reflected light at wrinkles and texture. In addition, although both polarized and non-polarized images contain RGB information, wrinkles and texture are more visible in B channel images than in G and R channels due to optical characteristics and skin color caused by the shape of microscopic grooves in wrinkles and texture. There is a large difference in brightness between parts. Therefore, only the B channel information is used for visualization processing.

以下、本発明の実施形態では、皮膚の健康状態をより的確に診断することを目指して、所定の画像処理を用いて皮膚のシワ及びキメを正確に可視化した上で、シワ及びキメのパターンについて解析できる画像処理装置を考案した。 In the following embodiments of the present invention, with the aim of more accurately diagnosing the health condition of the skin, we will use predetermined image processing to accurately visualize the wrinkles and texture of the skin, and then analyze the wrinkle and texture patterns. We devised an image processing device that can perform analysis.

(実施形態1)
図1は、実施形態1に係る画像処理システムの構成例を示すブロック図である。図1の画像信号処理システムは、カメラ1と、画像処理装置10と、ディスプレイ2とを備えて構成される。ここで、画像処理装置10は、画像メモリ11mを有する画像インターフェース11と、画像処理部12と、画像メモリ13mを有する画像インターフェース13とを備えて構成される。画像処理部12は、輝度比計算部21と、背景抽出処理部22と、画像メモリ23と、輝度差計算部24と、後置処理部25と、前記処理部等21~25の動作を制御する制御部20とを備えて構成される。
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration example of an image processing system according to the first embodiment. The image signal processing system shown in FIG. 1 includes a camera 1, an image processing device 10, and a display 2. Here, the image processing device 10 includes an image interface 11 having an image memory 11m, an image processing section 12, and an image interface 13 having an image memory 13m. The image processing unit 12 controls the operations of the brightness ratio calculation unit 21, the background extraction processing unit 22, the image memory 23, the brightness difference calculation unit 24, the post-processing unit 25, and the processing units 21 to 25. The control unit 20 is configured to include a control unit 20 that

図1において、カメラ1は例えばカシオ計算機株式会社製のDZ-D100型皮膚観察及び撮影カメラである「ダーモカメラ」(登録商標)であって、例えば人間の皮膚表面の偏光画像と非偏光画像を撮像してそれらの画像データを、画像インターフェース11を介して輝度比計算部21に出力する。ここで、「ダーモカメラ」(登録商標)は、偏光画像及び非偏光画像に加えて、紫外線(UV)画像を撮像することができるが、本発明の実施形態では、UV画像を撮像することは必須ではない。すなわち、カメラ1は、撮影対象物の偏光画像及び非偏光画像を撮像出来るものであればよく、偏光画像と非偏光画像とを別体の画像センサ等で撮像してもよい。 In FIG. 1, camera 1 is, for example, "Dermo Camera" (registered trademark), which is a DZ-D100 skin observation and photographing camera manufactured by Casio Computer Co., Ltd., and is capable of capturing, for example, polarized and non-polarized images of the human skin surface. Then, the image data is outputted to the brightness ratio calculation section 21 via the image interface 11. Here, "Dermo Camera" (registered trademark) can capture ultraviolet (UV) images in addition to polarized and non-polarized images, but in the embodiment of the present invention, it is essential to capture UV images. isn't it. That is, the camera 1 only needs to be capable of capturing a polarized image and a non-polarized image of the object to be photographed, and the polarized image and the non-polarized image may be captured using separate image sensors or the like.

ここで、偏光画像の撮像は、一般的に、光の反射を抑え、皮膚の薄皮のすぐ下にある皮膚内部の色や構造を撮影できることに特徴があり、非偏光画像の撮像は、一般的に、皮膚の表面の病変部を撮影できることに特徴があり、UV画像の撮像は、一般的に、偏光画像では浮き出てこない、隠れた「シミ」や、ぼやけた「ほくろ」などの辺縁部を撮影できることに特徴がある。「ダーモカメラ」はこれら3種類の画像を同一画角で撮影可能である。 Here, polarized light imaging is generally characterized by suppressing light reflection and being able to capture the color and structure inside the skin just beneath the skin's thin layer, whereas non-polarized light imaging is generally It is unique in that it can photograph lesions on the surface of the skin, and UV images are generally used to capture peripheral areas such as hidden "spots" and blurred "moles" that do not come out with polarized light images. It is characterized by being able to take pictures of The "dermo camera" can capture these three types of images at the same angle of view.

画像インターフェース11は入力される画像データを内蔵の画像メモリ11mに格納した後、格納した画像データに対して所定の画像形式の変換を行って次段の輝度比計算部21に出力する。また、画像インターフェース13は入力される画像データを内蔵の画像メモリ13mに格納した後、格納した画像データに対して所定の画像形式の変換を行って次段のディスプレイ2に出力する。 The image interface 11 stores input image data in a built-in image memory 11m, converts the stored image data into a predetermined image format, and outputs the converted image data to the brightness ratio calculation section 21 at the next stage. Further, the image interface 13 stores input image data in a built-in image memory 13m, converts the stored image data into a predetermined image format, and outputs the converted image data to the next stage display 2.

図2は図1の画像処理部12により実行される画像処理を示すフローチャートである。 FIG. 2 is a flowchart showing image processing performed by the image processing section 12 of FIG.

図2のステップS1において、輝度比計算部21は、カメラ1により撮像された偏光画像データ及び非偏光画像データを、画像インターフェース11を介して入力し、偏光画像データ及び非偏光画像データの各対応する画素の輝度比(輝度値の比)の値を計算して、各画素において輝度比の値を有する画像データを生成して出力する。次いで、ステップS2において、背景抽出処理部22は、輝度比計算部21から出力される画像データに対して、例えばガウシアンフィルタなどの平滑化フィルタを用いて背景抽出処理を実行することにより、背景色を抽出して保持した画像データを生成して出力する。 In step S1 of FIG. 2, the brightness ratio calculation unit 21 inputs the polarized image data and non-polarized image data captured by the camera 1 via the image interface 11, and The luminance ratio (ratio of luminance values) of each pixel is calculated, and image data having a luminance ratio value for each pixel is generated and output. Next, in step S2, the background extraction processing unit 22 performs a background extraction process on the image data output from the brightness ratio calculation unit 21 using a smoothing filter such as a Gaussian filter, thereby determining the background color. Generate and output image data that is extracted and retained.

さらに、ステップS3において、輝度差計算部24は、背景抽出処理部22から出力される画像データと、輝度比計算部21から画像メモリ23を介して出力される画像データとの各対応する画素の輝度差(輝度値の差分)を計算することにより、背景色を削除しかつシワ又はキメ情報を強調した、各画素において輝度差を有する画像データを生成して出力する。ステップS4において、後置処理部25は、輝度差計算部24から出力される画像データに対して、2値化処理及びクロージング処理を含む後置処理を実行することにより、シワ又はキメ情報を可視化した画像データを生成して、画像インターフェース13を介してディスプレイ2に出力して表示して、当該画像処理を終了する。 Furthermore, in step S3, the brightness difference calculation unit 24 calculates each corresponding pixel between the image data output from the background extraction processing unit 22 and the image data output from the brightness ratio calculation unit 21 via the image memory 23. By calculating the brightness difference (difference in brightness values), image data having a brightness difference in each pixel, in which the background color is deleted and wrinkles or texture information is emphasized, is generated and output. In step S4, the post-processing unit 25 visualizes wrinkles or texture information by performing post-processing including binarization processing and closing processing on the image data output from the brightness difference calculation unit 24. The generated image data is output and displayed on the display 2 via the image interface 13, and the image processing is completed.

以上の図1の輝度比計算部21は、偏光画像データ及び非偏光画像データの各対応する画素の輝度比(輝度値の比)の値を計算しているが、本発明はこれに限らず、偏光画像データ及び非偏光画像データの各対応する画素の輝度差(輝度値の差分)を計算してもよい。このことは、偏光画像データ及び非偏光画像データの各対応する画素の輝度比は、相対的にそれらの差分に対応する場合があるためである。 Although the brightness ratio calculation unit 21 in FIG. 1 calculates the brightness ratio (ratio of brightness values) of each corresponding pixel of polarized image data and non-polarized image data, the present invention is not limited to this. , the brightness difference (difference in brightness value) between each corresponding pixel of the polarized image data and the non-polarized image data may be calculated. This is because the brightness ratio of each corresponding pixel of polarized image data and non-polarized image data may correspond to a relative difference between them.

次いで、以上の画像処理について以下に詳細説明する。 Next, the above image processing will be explained in detail below.

図3Aは画像処理対象である人間(人体)の皮膚であって、キメが整った肌表面を示す撮像画像である。また、図3Bは画像処理対象である人間(人体)の皮膚であって、キメが乱れた肌表面を示す撮像画像である。 FIG. 3A is a captured image of the skin of a human being (human body) that is the subject of image processing, showing a well-textured skin surface. Further, FIG. 3B is a captured image of the skin of a human being (human body) that is the subject of image processing, showing the surface of the skin with disordered texture.

人間の肌のキメが失われる要因としては、紫外線による皮膚の光老化、肌の乾燥、血行の悪化、新陳代謝の鈍化などが考えられる。従って、皮膚のシワ及びキメ情報は、皮膚の健康状態の評価に有用であるといえる。従来技術に係る皮膚のシワ及びキメを測定方法としては、以下があった。
(1)RGBカメラで撮影された肌画像に基づいて皮膚のシワ及びキメを測定する。この場合において、肌の色ムラがある、もしくはシワ及びキメ部分とそれ以外の部分の色情報が似ているという特徴を有する。
(2)3次元スキャナーで計測された肌の3次元データを用いて皮膚のシワ及びキメを測定する。この場合において、測定器が高価であって、計測時間が長い、膨大なデータ量という特徴を有する。
Possible causes of loss of human skin texture include photoaging of the skin due to ultraviolet rays, dryness of the skin, deterioration of blood circulation, and slowing of metabolism. Therefore, it can be said that skin wrinkle and texture information is useful for evaluating the health condition of the skin. Conventional methods for measuring skin wrinkles and texture include the following.
(1) Measure wrinkles and texture of the skin based on a skin image taken with an RGB camera. In this case, there is a characteristic that the skin color is uneven, or that the color information of wrinkles and textured areas is similar to that of other areas.
(2) Measure the wrinkles and texture of the skin using three-dimensional data of the skin measured with a three-dimensional scanner. In this case, the measuring equipment is expensive, the measurement time is long, and the amount of data is enormous.

従って、従来技術に係る測定方法では、安価でかつ容易に肌のシワ及びキメ情報を取得することは難しい、という課題があった。 Therefore, with the measurement method according to the conventional technology, there is a problem that it is difficult to obtain skin wrinkle and texture information easily and inexpensively.

図4Aは図1のカメラ1により撮像された偏光画像を示す撮像画像である。また、図4Bは図1のカメラ1により撮像された非偏光画像を示す撮像画像である。さらに、図4Cは別の紫外線(UV)カメラにより撮像されたUV画像を示す撮像画像である。図4Aから、皮膚内部の色や構造は見えるが、シワやキメが見えないことがわかる。また、図4Bから、皮膚表面の情報は見え、シワやキメが多少見える。図4Cから、「シミ」や「ほくろ」などが見え、「シワ」や「キメ」も見える。 FIG. 4A is a captured image showing a polarized light image captured by the camera 1 of FIG. Further, FIG. 4B is a captured image showing a non-polarized light image captured by the camera 1 of FIG. Further, FIG. 4C is a captured image showing a UV image captured by another ultraviolet (UV) camera. From FIG. 4A, it can be seen that the color and structure inside the skin are visible, but wrinkles and texture are not visible. Further, from FIG. 4B, information on the skin surface is visible, and some wrinkles and texture are visible. From FIG. 4C, "spots" and "moles" can be seen, as well as "wrinkles" and "texture".

図5Aは図4Aの偏光画像を示す撮像画像であり、図5Bは図4Aの偏光画像のRチャンネルの画像を示す撮像画像であり、図5Cは図4Aの偏光画像のGチャンネルの画像を示す撮像画像であり、図5Dは図4Aの偏光画像のBチャンネルの画像を示す撮像画像である。図4Aの偏光画像をRGBの各チャンネルの画像に分離して表示した画像が図5B~図5Dである。これにより、皮膚表面の反射光が抑えられている偏光画像にも短波長側のBチャンネル画像には多少皮膚表面の情報が含まれることがわかった。すなわち、本実施形態では、Bチャンネル画像を用いて人体の皮膚表面の凹凸を検出することが好ましいといえ、図1の輝度比計算部21に入力する画像データもBチャンネルの偏光画像データと非偏光画像データを用いることが好ましい。 5A is a captured image showing the polarization image of FIG. 4A, FIG. 5B is a captured image showing the R channel image of the polarization image of FIG. 4A, and FIG. 5C is a captured image showing the G channel image of the polarization image of FIG. 4A. FIG. 5D is a captured image showing an image of the B channel of the polarization image of FIG. 4A. 5B to 5D are images in which the polarized light image in FIG. 4A is separated into images of each RGB channel and displayed. As a result, it was found that even in polarized images in which reflected light from the skin surface is suppressed, the B channel image on the short wavelength side contains some information about the skin surface. That is, in this embodiment, it is preferable to detect the unevenness of the human skin surface using the B channel image, and the image data input to the brightness ratio calculation unit 21 in FIG. 1 is also different from the B channel polarization image data. Preferably, polarized image data is used.

図6Aは図4Bの非偏光画像を示す撮像画像であり、図6Bは図4Bの非偏光画像のRチャンネルの画像を示す撮像画像であり、図6Cは図4Bの非偏光画像のGチャンネルの画像を示す撮像画像であり、図6Dは図4Bの非偏光画像のBチャンネルの画像を示す撮像画像である。図4Bの非偏光画像をRGBの各チャンネルの画像に分離して表示した画像が図6B~図6Dである。これより、偏光画像に比べて、非偏光画像の方が皮膚表面の情報が多く含まれていることがわかった。すなわち、本実施形態では、非偏光画像を用いて人体の皮膚表面の凹凸を検出することが好ましいといえ、図1の画像処理部12では、非偏光画像データの情報を抽出するように構成することが好ましい。 6A is a captured image showing the non-polarized image in FIG. 4B, FIG. 6B is a captured image showing the R channel image in the non-polarized image in FIG. 4B, and FIG. 6C is a captured image showing the G channel image in the non-polarized image in FIG. 4B. FIG. 6D is a captured image showing the B channel image of the non-polarized image of FIG. 4B. 6B to 6D are images in which the non-polarized image in FIG. 4B is separated into images of each RGB channel and displayed. The results show that non-polarized images contain more information about the skin surface than polarized images. That is, in this embodiment, it is preferable to detect the unevenness of the human skin surface using a non-polarized image, and the image processing unit 12 in FIG. 1 is configured to extract information from the non-polarized image data. It is preferable.

図7Aはシワ又はキメの可視化を考察するための撮像画像であって、偏光画像のBチャンネルの画像を示す撮像画像である。また、図7Bはシワ又はキメの可視化を考察するための撮像画像であって、非偏光画像のBチャンネルの画像を示す撮像画像である。図7Aの偏光画像のBチャンネル画像では、シワ及びキメの情報は少ないが、皮膚内部の色情報が十分に含まれているといえる。一方、図7Bの非偏光画像のBチャンネル画像では、シワ及びキメの情報を含み、皮膚内部の色情報も十分に含まれている。従って、本実施形態では、偏光画像と非偏光画像のBチャンネルの情報から、シワ及びキメの可視化を行う。なお、UV画像はシワ及びキメ以外のしみ情報によりシワ及びキメ可視化に不向きであるといえる。 FIG. 7A is a captured image for considering the visualization of wrinkles or texture, and is a captured image showing an image of the B channel of a polarized light image. Further, FIG. 7B is a captured image for considering visualization of wrinkles or texture, and is a captured image showing a B channel image of a non-polarized image. Although the B channel image of the polarized image in FIG. 7A has little information on wrinkles and texture, it can be said that it contains sufficient color information inside the skin. On the other hand, the B channel image of the non-polarized image shown in FIG. 7B includes information on wrinkles and texture, and also includes sufficient color information inside the skin. Therefore, in this embodiment, wrinkles and texture are visualized from the B channel information of the polarized image and the non-polarized image. Note that it can be said that UV images are unsuitable for visualizing wrinkles and texture because of the information on spots other than wrinkles and texture.

図8は、図2の画像処理を、撮像画像及び画像処理画像を用いて示す画像処理の概念図である。 FIG. 8 is a conceptual diagram of image processing showing the image processing of FIG. 2 using a captured image and an image-processed image.

図8において、まず、偏光画像及び非偏光画像のBチャンネルの各画素の輝度比画像を算出する。シワ及びキメ以外の箇所は、偏光画像と非偏光画像が酷似しているため、輝度比は小さいが、シワ及びキメ箇所は輝度比が大きくなるため、輝度比画像ではシワ及びキメが強調される。次に、輝度比画像に含まれる皮膚の色ムラや入射光の当たり方による陰影を削除するために、輝度比画像に対して、ガウシアンフィルタなどの平滑化フィルタの背景抽出処理を適用した後、適用前後の輝度比画像の差分を取ることで、シワ及びキメ箇所のみが顕著に強調された画像を生成する。最後に、二値化処理及びクロージング処理を含む後置処理を施すことで、シワ及びキメの可視化画像(DWE(Dermo Wrinkle Emphasis)画像)を生成することができる。 In FIG. 8, first, a brightness ratio image of each pixel of the B channel of a polarized image and a non-polarized image is calculated. For areas other than wrinkles and texture, the polarized image and non-polarized image are very similar, so the brightness ratio is small, but the brightness ratio for wrinkles and texture is large, so wrinkles and texture are emphasized in the brightness ratio image. . Next, in order to remove uneven skin color and shadows caused by the way the incident light hits the brightness ratio image, a background extraction process using a smoothing filter such as a Gaussian filter is applied to the brightness ratio image. By taking the difference between the brightness ratio images before and after application, an image in which only wrinkles and textured areas are significantly emphasized is generated. Finally, by performing post-processing including binarization processing and closing processing, a visualized image of wrinkles and texture (DWE (Dermo Wrinkle Emphasis) image) can be generated.

さらに、以上説明した画像処理装置10において使用した、反射光及び散乱光の画像について以下に補足説明する。 Further, the images of reflected light and scattered light used in the image processing apparatus 10 described above will be supplementally explained below.

非偏光画像は、一般的な光を撮影した画像であって、対象物体表面で反射した反射光及び対象物体の表層で散乱した散乱光をカメラ1の画像センサが受光することで撮像されて画像データを含む画像信号が生成される。また、偏光画像は、主に、対象物体の表層で散乱した光を撮影した画像である。直線偏光された光を対象物体に照射し、同じ方向の偏光状態の光をカットする向きに設置された偏光板を透過した光をカメラ1の画像センサが受光することで撮像されて画像データを含む画像信号が生成される。 A non-polarized image is an image taken of general light, and is captured by the image sensor of the camera 1 receiving the reflected light reflected from the surface of the target object and the scattered light scattered by the surface layer of the target object. An image signal containing data is generated. Moreover, a polarized light image is an image obtained mainly by photographing light scattered on the surface layer of a target object. Linearly polarized light is irradiated onto the target object, and the image sensor of camera 1 receives the light that passes through a polarizing plate installed in a direction that cuts off light polarized in the same direction, and the image is captured and image data is generated. An image signal containing the image is generated.

対象物体表面で反射した反射光は、偏光方向に変化がないため、偏光板を透過しないが、散乱した散乱光は偏光方向が変化するため、偏光板を透過する。これにより、偏光画像は対象物体の表層で散乱した光のみを捉えることが可能である。また、短波長の光(RGB画像のBチャンネル)は、長波長の光(RGB画像のRチャンネル)に比べ、対象物体内部に透過する割合が低く、対象物体表面で反射しやすい傾向があり、Bチャンネル画像には対象物体表面の微小な凸凹の情報を多く含む。そのため、本実施形態では、Bチャンネル画像を用いて皮膚のシワ及びキメの可視化を行うことが好ましい。また、皮膚以外の対象物体を可視化する場合には、対象物体表層の散乱特性に応じて、活用する波長情報(RGB情報)を変更する必要があると考えられる。 The reflected light reflected from the surface of the target object does not pass through the polarizing plate because its polarization direction does not change, but the scattered light does not pass through the polarizing plate because its polarization direction changes. Thereby, the polarized light image can capture only the light scattered on the surface layer of the target object. In addition, short-wavelength light (B channel of an RGB image) has a lower rate of penetration into the target object than long-wavelength light (R channel of an RGB image), and tends to be more likely to be reflected on the surface of the target object. The B channel image contains a lot of information about minute irregularities on the surface of the target object. Therefore, in this embodiment, it is preferable to visualize the wrinkles and texture of the skin using the B channel image. Furthermore, when visualizing a target object other than the skin, it is considered necessary to change the wavelength information (RGB information) to be utilized depending on the scattering characteristics of the surface layer of the target object.

さらに、実施形態1に係る画像処理装置10を用いた画像処理の可視化例について以下に説明する。 Furthermore, an example of visualization of image processing using the image processing apparatus 10 according to the first embodiment will be described below.

(可視化例1)
図9Aは可視化例1に係る画像であって、処理対象の偏光画像を示す撮像画像であり、図9Bは可視化例1に係る画像であって、処理対象の非偏光画像を示す撮像画像である。また、図9Cは可視化例1に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。図9Cから明らかなように、シワ及びキメが強調されて可視化された画像を得ることができることがわかる。
(Visualization example 1)
FIG. 9A is an image according to visualization example 1, which is a captured image showing a polarized image to be processed, and FIG. 9B is an image related to visualization example 1, which is a captured image showing a non-polarized image to be processed. . Further, FIG. 9C is an image according to Visualization Example 1, which is a visualized image after the image processing of FIGS. 2 and 8. As is clear from FIG. 9C, it is possible to obtain an image in which wrinkles and texture are emphasized and visualized.

(可視化例2)
図10Aは可視化例2に係る画像であって、処理対象の偏光画像を示す撮像画像であり、図10Bは可視化例2に係る画像であって、処理対象の非偏光画像を示す撮像画像である。また、図10Cは可視化例2に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。図10Cから明らかなように、シワ及びキメが強調されて可視化された画像を得ることができることがわかる。
(Visualization example 2)
FIG. 10A is an image according to visualization example 2, which is a captured image showing a polarized image to be processed, and FIG. 10B is an image related to visualization example 2, which is a captured image showing a non-polarized image to be processed. . Further, FIG. 10C is an image according to visualization example 2, which is a visualized image after the image processing of FIGS. 2 and 8. As is clear from FIG. 10C, it is possible to obtain an image in which wrinkles and texture are emphasized and visualized.

(可視化例3)
図11Aは可視化例3に係る画像であって、処理対象の偏光画像を示す撮像画像であり、図11Bは可視化例3に係る画像であって、処理対象の非偏光画像を示す撮像画像である。また、図11Cは可視化例3に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。図11Cから明らかなように、シワ及びキメが強調されて可視化された画像を得ることができることがわかる。
(Visualization example 3)
FIG. 11A is an image according to visualization example 3, which is a captured image showing a polarized image to be processed, and FIG. 11B is an image related to visualization example 3, which is a captured image showing a non-polarized image to be processed. . Further, FIG. 11C is an image according to visualization example 3, which is a visualized image after the image processing of FIGS. 2 and 8. As is clear from FIG. 11C, it is possible to obtain an image in which wrinkles and texture are emphasized and visualized.

(可視化例4)
図12Aは可視化例4に係る画像であって、処理対象の偏光画像を示す撮像画像であり、図12Bは可視化例4に係る画像であって、処理対象の非偏光画像を示す撮像画像である。また、図12Cは可視化例4に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。図12Cから明らかなように、シワ及びキメが強調されて可視化された画像を得ることができることがわかる。
(Visualization example 4)
FIG. 12A is an image related to Visualization Example 4, which is a captured image showing a polarized image to be processed, and FIG. 12B is an image related to Visualization Example 4, which is a captured image showing a non-polarized image to be processed. . Further, FIG. 12C is an image according to visualization example 4, which is a visualized image after the image processing of FIGS. 2 and 8. As is clear from FIG. 12C, it is possible to obtain an image in which wrinkles and texture are emphasized and visualized.

(可視化例5)
図13Aは可視化例5に係る画像であって、処理対象の偏光画像を示す撮像画像であり、図13Bは可視化例5に係る画像であって、処理対象の非偏光画像を示す撮像画像である。また、図13Cは可視化例5に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。図13Cから明らかなように、シワ及びキメが強調されて可視化された画像を得ることができることがわかる。
(Visualization example 5)
FIG. 13A is an image according to visualization example 5, which is a captured image showing a polarized image to be processed, and FIG. 13B is an image related to visualization example 5, which is a captured image showing a non-polarized image to be processed. . Further, FIG. 13C is an image according to visualization example 5, which is a visualized image after the image processing of FIGS. 2 and 8. As is clear from FIG. 13C, it is possible to obtain an image in which wrinkles and texture are emphasized and visualized.

(可視化例6)
図14Aは可視化例6に係る画像であって、処理対象の偏光画像を示す撮像画像であり、図14Bは可視化例6に係る画像であって、処理対象の非偏光画像を示す撮像画像である。また、図14Cは可視化例6に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。図14Cから明らかなように、シワ及びキメが強調されて可視化された画像を得ることができることがわかる。
(Visualization example 6)
FIG. 14A is an image related to visualization example 6, which is a captured image showing a polarized image to be processed, and FIG. 14B is an image related to visualization example 6, which is a captured image showing a non-polarized image to be processed. . Further, FIG. 14C is an image according to visualization example 6, which is a visualized image after the image processing of FIGS. 2 and 8. As is clear from FIG. 14C, it is possible to obtain an image in which wrinkles and texture are emphasized and visualized.

(可視化例7)
図15Aは可視化例7に係る画像であって、処理対象の偏光画像を示す撮像画像であり、図15Bは可視化例7に係る画像であって、処理対象の非偏光画像を示す撮像画像である。また、図15Cは可視化例7に係る画像であって、図2及び図8の画像処理後の可視化処理画像である。図15Cから明らかなように、シワ及びキメが強調されて可視化された画像を得ることができることがわかる。
(Visualization example 7)
FIG. 15A is an image according to visualization example 7, which is a captured image showing a polarized image to be processed, and FIG. 15B is an image related to visualization example 7, which is a captured image showing a non-polarized image to be processed. . Further, FIG. 15C is an image according to visualization example 7, which is a visualized image after the image processing of FIGS. 2 and 8. As is clear from FIG. 15C, it is possible to obtain an image in which wrinkles and texture are emphasized and visualized.

(実施形態1のまとめ)
以上説明したように、本実施形態に係る手法によりシワ及びキメを可視化することができ、特に、偏光画像及び非偏光画像のBチャンネルの輝度の差異情報に基づく特徴量を活用することで、皮膚のシワ及びキメの可視化できることが分かる。すなわち、実施形態1に係る画像処理装置10によれば、従来技術に比較して高精度で、例えば人間の肌表面等の生体表面などの撮影対象物の表面の凹凸状態を可視化できる。
(Summary of Embodiment 1)
As explained above, wrinkles and texture can be visualized by the method according to the present embodiment, and in particular, by utilizing the feature amount based on the brightness difference information of the B channel of the polarized image and the non-polarized image, the skin texture can be visualized. It can be seen that wrinkles and texture can be visualized. That is, according to the image processing device 10 according to the first embodiment, it is possible to visualize the uneven state of the surface of an object to be imaged, such as a biological surface such as a human skin surface, with higher accuracy than in the conventional technology.

(変形例)
以上の実施形態1では、後置処理部25において後置処理を行っているが、本発明はこれに限らず、これを省略してもよい。また、後置処理は少なくとも二値化処理のみを行ってもよい。
(Modified example)
In the first embodiment described above, post-processing is performed in the post-processing section 25, but the present invention is not limited to this, and this may be omitted. Furthermore, the post-processing may include at least binarization processing.

以上の実施形態1において、画像処理部12は例えば画像メモリを有するデジタル計算機(コンピュータ)により構成することができる。図2の画像処理については、画像処理プログラムとして構成し、ハードウエアであるCPUにより実行させてもよい。また、前記画像処理プログラムを、光ディスクなどのコンピュータにより読み出し可能な記録媒体(プログラム製品)に記録し、当該記憶媒体を光ディスクドライブ装置に挿入して読み出してコンピュータにより実行させてもよい。 In the first embodiment described above, the image processing section 12 can be configured by, for example, a digital computer having an image memory. The image processing in FIG. 2 may be configured as an image processing program and executed by a CPU, which is hardware. Alternatively, the image processing program may be recorded on a computer-readable recording medium (program product) such as an optical disk, and the storage medium may be inserted into an optical disk drive device, read out, and executed by the computer.

以上の実施形態1においては、好ましくは、Bチャンネルの偏光画像及び非偏光画像を用いて輝度の差異情報に基づく特徴量を使用することで、皮膚のシワ及びキメの可視化しているが、本発明はこれに限らず、Rチャンネル又はGチャンネルのほか他の波長の各画像を用いて輝度の差異情報に基づく特徴量を使用してもよく、この場合でも、従来技術に比較して高精度で皮膚のシワ及びキメの可視化できる。 In the first embodiment described above, skin wrinkles and texture are preferably visualized by using features based on brightness difference information using B channel polarized images and non-polarized images. The invention is not limited to this, and features based on luminance difference information may be used using images of other wavelengths in addition to the R channel or G channel. Even in this case, the accuracy is higher than that of the conventional technology. You can visualize wrinkles and texture of the skin.

(実施形態2)
図16は実施形態2に係る画像処理システムの構成例を示すブロック図である。図16の画像処理システムは、図1の画像処理システムに比較して以下の点が異なる。
(1)画像処理部12に代えて、後置処理部25と画像インターフェース13との間に、画像メモリ26及び特徴量解析部27を備えた画像処理部12Aを備えた。
(2)画像処理部12Aは、制御部20に代えて制御部20Aを備えた。
(3)画像処理装置10に代えて、画像処理部12Aを備えた画像処理装置10Aを備えた。
以下、相違点について説明する。
(Embodiment 2)
FIG. 16 is a block diagram showing a configuration example of an image processing system according to the second embodiment. The image processing system in FIG. 16 differs from the image processing system in FIG. 1 in the following points.
(1) Instead of the image processing section 12, an image processing section 12A including an image memory 26 and a feature quantity analysis section 27 is provided between the post-processing section 25 and the image interface 13.
(2) The image processing section 12A includes a control section 20A instead of the control section 20.
(3) In place of the image processing device 10, an image processing device 10A including an image processing section 12A is provided.
The differences will be explained below.

図17は図16の画像処理部12Aにより実行される画像処理を示すフローチャートである。図17の画像処理は、図2の画像処理に比較して以下の点が異なる。
(1)ステップS4の処理に代えて、ステップS4Aの処理を実行する。
(2)ステップS4Aの処理の後、ステップS5の処理を実行する。
以下、相違点について説明する。
FIG. 17 is a flowchart showing image processing performed by the image processing section 12A of FIG. 16. The image processing in FIG. 17 differs from the image processing in FIG. 2 in the following points.
(1) Instead of the process in step S4, the process in step S4A is executed.
(2) After the process in step S4A, the process in step S5 is executed.
The differences will be explained below.

図17のステップS4Aにおいて、後置処理部25は、輝度差計算部24から出力される画像データに対して、2値化処理及びクロージング処理を含む後置処理を実行することにより、シワ又はキメ情報を可視化した画像データを生成して、画像メモリ26を介して特徴量解析部27に出力するとともに、画像メモリ26及び画像インターフェース13を介してディスプレイ2に出力する。次いで、ステップS5において、特徴量解析部27は、後置処理部25から画像メモリ26を介して出力される画像データに対して、ガポールフィルタを用いた特徴量解析を実行することにより、(1)平均輝度値の角度分布を示すグラフ画像と、(2)平均輝度値の周期分布を示すグラフ画像と、(3)角度及び周期の2次元平面における平均輝度値(平均輝度値の分布)を示す濃淡(又はカラー)画像(例えば、等高線ヒートマップ図であってもよい)とを生成して、画像インターフェース13を介してディスプレイ2に出力する。ここで、当該3つの画像のうち、ユーザが指定する少なくとも1つの画像を生成して出力してもよい。 In step S4A in FIG. 17, the post-processing unit 25 performs post-processing including binarization processing and closing processing on the image data output from the brightness difference calculation unit 24 to remove wrinkles or texture. Image data that visualizes the information is generated and output to the feature analysis unit 27 via the image memory 26 and to the display 2 via the image memory 26 and the image interface 13. Next, in step S5, the feature amount analysis unit 27 performs feature amount analysis using a Gapore filter on the image data output from the post-processing unit 25 via the image memory 26, thereby obtaining (1 ) a graph image showing the angular distribution of the average brightness value, (2) a graph image showing the periodic distribution of the average brightness value, and (3) a graph image showing the average brightness value (distribution of the average brightness value) in a two-dimensional plane of angle and period. A gray scale (or color) image (for example, it may be a contour heat map diagram) is generated and output to the display 2 via the image interface 13. Here, at least one image designated by the user among the three images may be generated and output.

図18Aは図16の画像処理部12Aの特徴量解析部27において用いる1次元ガポール関数の概念を説明するための図であり、図18Bは図16の画像処理部12Aの特徴量解析部27において用いる2次元ガポール関数の概念を説明するための図である。 FIG. 18A is a diagram for explaining the concept of a one-dimensional Gapor function used in the feature amount analysis section 27 of the image processing section 12A in FIG. FIG. 3 is a diagram for explaining the concept of a two-dimensional Gapore function to be used.

実施形態2では、皮膚のシワ及びキメの空間分布(間隔(周期)及び方向性)を、ガボール特徴量を用いて検出することを特徴としている。具体的には、画像処理のテクスチャー解析等に用いられる線形フィルタである、例えば非特許文献1において開示されたガボールフィルタ(Gabor filter)を用いて、画像の各点周りの局所領域において、方向毎に特定の周波数成分を抽出する。当該ガボールフィルタは、図18Aに示すように、正規分布のガウス関数と、余弦波の三角関数とを乗算することで生成したガポール関数を用いる。本実施形態では、特に、顔、虹彩、指紋認証など生体認識に利用する。ここで、ガボールフィルタは人間の脳での初期視覚処理のモデルと言われている。 Embodiment 2 is characterized in that the spatial distribution (interval (period) and directionality) of skin wrinkles and texture is detected using Gabor features. Specifically, a linear filter used for texture analysis in image processing, for example, the Gabor filter disclosed in Non-Patent Document 1, is used to calculate the Extract specific frequency components. As shown in FIG. 18A, the Gabor filter uses a Gabor function generated by multiplying a Gaussian function of a normal distribution and a trigonometric function of a cosine wave. In this embodiment, it is particularly used for biometric recognition such as face, iris, and fingerprint authentication. Here, the Gabor filter is said to be a model of early visual processing in the human brain.

次いで、ガボールフィルタの周期と角度を含むパラメータについて以下に説明する。 Next, parameters including the period and angle of the Gabor filter will be explained below.

(1)ガボールフィルタのパラメータ
皮膚のシワ及びキメの可視化画像に対して適用するガボールフィルタにおいて、周期と角度のパラメータを設定することができる。本実施形態では、可視化画像に対して、白黒パターン(sin/cos関数をガウス関数で局在化したカーネル)の周期と角度を変更して、ガボールフィルタを適用した際の応答値(平均輝度)の強さから、可視化画像に含まれる白黒パターンの方向と角度を検出する。
(1) Gabor filter parameters In the Gabor filter applied to the visualized image of skin wrinkles and texture, the period and angle parameters can be set. In this embodiment, the response value (average brightness) when a Gabor filter is applied to a visualized image by changing the period and angle of a black and white pattern (kernel in which a sin/cos function is localized with a Gaussian function) The direction and angle of the black and white pattern included in the visualized image are detected from the strength of the image.

(2)ガボールフィルタの周期
可視化画像上のシワ及びキメの間隔(連続する白線の間隔)とガボールフィルタの白黒パターンの間隔が最も近似した際に、ガボールフィルタを適用した際の応答が強くなる。つまり、シワ及びキメの可視化画像に対して、様々な周期のガボールフィルタを適用した際に、最大の応答を示すガボールフィルタの周期パラメータがシワ及びキメの間隔に相当する。
(2) Period of Gabor filter When the interval between wrinkles and textures on the visualized image (interval between continuous white lines) and the interval between the black and white patterns of the Gabor filter are most similar, the response when applying the Gabor filter will be strong. In other words, when Gabor filters with various periods are applied to visualized images of wrinkles and texture, the period parameter of the Gabor filter that shows the maximum response corresponds to the interval between wrinkles and texture.

(3)ガボールフィルタの角度
可視化画像上のシワ及びキメの方向(連続する白線の方向)とガボールフィルタの白黒パターンの方向が最も近似した際に、ガボールフィルタを適用した際の応答が強くなる。最大の応答値(フィルタ適用後の平均輝度)と最小の応答値(フィルタ適用後の平均輝度)の差が、シワ及びキメの方向性の強さに相当する。最大の応答値(フィルタ適用後の平均輝度)と最小の応答値(フィルタ適用後の平均輝度)の差が少ない場合は、任意の方向に同等のシワ及びキメが入っていることになる。つまり、シワ及びキメが歪んでいない状態である。最大の応答値(フィルタ適用後の平均輝度)と最小の応答値(フィルタ適用後の平均輝度)の差が大きい場合は、ある方向にはシワ及びキメが強く入っており、ある方向にはシワ及びキメが弱く入っていることになる。つまり、シワ及びキメが歪んでいる状態となる。
(3) Angle of Gabor filter When the direction of wrinkles and texture on the visualized image (direction of continuous white lines) and the direction of the black and white pattern of the Gabor filter are most similar, the response when applying the Gabor filter will be strong. The difference between the maximum response value (average brightness after applying the filter) and the minimum response value (average brightness after applying the filter) corresponds to the strength of the directionality of wrinkles and texture. If the difference between the maximum response value (average brightness after applying the filter) and the minimum response value (average brightness after applying the filter) is small, it means that the same wrinkles and texture are present in any direction. In other words, wrinkles and texture are not distorted. If the difference between the maximum response value (average brightness after applying the filter) and the minimum response value (average brightness after applying the filter) is large, there are strong wrinkles and texture in one direction, and wrinkles and texture in another direction. And the texture is weak. In other words, wrinkles and texture become distorted.

(解析例1)
図19Aは特徴量解析部27の解析例1(方向性)を示す画像であって、線形フィルタリング前の可視化処理画像(DWE画像)であり、図19Bは特徴量解析部27の解析例1(方向性)を示す画像であって、線形フィルタリング後の分析処理画像である。図19Aの可視化処理画像(DWE画像)に対して、ガボールフィルタの周期を固定して方向を変化させて様々な方向のガボールフィルタを適用したときのDWE画像(周期:20ピクセル/サイクル)を図19Bに示す。これにより、シワ及びキメの方向性の強さを検出できることがわかる。
(Analysis example 1)
FIG. 19A is an image showing analysis example 1 (directivity) of the feature amount analysis unit 27, which is a visualization processed image (DWE image) before linear filtering, and FIG. 19B is an image showing analysis example 1 (directivity) of the feature amount analysis unit 27. This is an image showing the directionality) and is an analysis processed image after linear filtering. The figure shows a DWE image (period: 20 pixels/cycle) when Gabor filters in various directions are applied to the visualized image (DWE image) in FIG. 19A by fixing the period of the Gabor filter and changing the direction. Shown in 19B. This shows that the strength of the directionality of wrinkles and texture can be detected.

(解析例2)
図20Aは特徴量解析部27の解析例2(方向性)を示すグラフであって、線形フィルタリング後の平均輝度の角度分布を示すグラフである。また、図20Bは特徴量解析部27の解析例2(方向性)を示すグラフであって、線形フィルタリング後の最大輝度Lmax時の分析処理画像である。さらに、図20Cは特徴量解析部27の解析例2(方向性)を示すグラフであって、線形フィルタリング後の最小輝度Lmin時の分析処理画像である。ここで、輝度差ΔL=Lmax-Lminである。
(Analysis example 2)
FIG. 20A is a graph showing analysis example 2 (directivity) of the feature quantity analysis unit 27, and is a graph showing the angular distribution of average luminance after linear filtering. Further, FIG. 20B is a graph showing analysis example 2 (directivity) of the feature quantity analysis unit 27, and is an analysis processed image at the maximum brightness Lmax after linear filtering. Further, FIG. 20C is a graph showing analysis example 2 (directivity) of the feature amount analysis unit 27, and is an analysis processed image at the minimum brightness Lmin after linear filtering. Here, the luminance difference ΔL=Lmax−Lmin.

図20A~図20Cから明らかなように、角度が56度で最大輝度値(最大応答値)Lmaxを示し、角度が157度で最小輝度値(最小応答値)Lminを示していることがわかる。すなわち、角度56度のガボールフィルタの適用時に強い応答を検出し、シワ及びキメの方向性の強さを検出できることがわかる。 As is clear from FIGS. 20A to 20C, the maximum brightness value (maximum response value) Lmax is shown at an angle of 56 degrees, and the minimum brightness value (minimum response value) Lmin is shown at an angle of 157 degrees. That is, it can be seen that a strong response is detected when the Gabor filter with an angle of 56 degrees is applied, and the strength of the directionality of wrinkles and texture can be detected.

(解析例3)
図21Aは特徴量解析部27の解析例3(周期性)を示す画像であって、線形フィルタリング前の可視化処理画像(DWE画像)である。また、図21Bは特徴量解析部27の解析例3(周期性)を示す画像であって、線形フィルタリング後の分析処理画像である。図21Aの可視化処理画像(DWE画像)に対して、ガボールフィルタの方向(角度)を固定して周期を変化させて様々な周期のガボールフィルタを適用したときのDWE画像(角度:55度)を図21Bに示す。これにより、シワ及びキメの出現間隔(出現周期)の強さを検出できることがわかる。
(Analysis example 3)
FIG. 21A is an image showing analysis example 3 (periodicity) by the feature quantity analysis unit 27, and is a visualization processed image (DWE image) before linear filtering. Further, FIG. 21B is an image showing analysis example 3 (periodicity) by the feature amount analysis unit 27, and is an analysis processed image after linear filtering. DWE images (angle: 55 degrees) are obtained by applying Gabor filters with various periods while fixing the direction (angle) of the Gabor filter and changing the period to the visualization processed image (DWE image) in FIG. 21A. Shown in FIG. 21B. This shows that the strength of the appearance interval (appearance period) of wrinkles and texture can be detected.

(解析例4)
図22Aは特徴量解析部27の解析例4(周期性)を示すグラフであって、線形フィルタリング後の平均輝度の周期分布を示すグラフである。また、図22Bは特徴量解析部27の解析例4(周期性)を示すグラフであって、線形フィルタリング後の最大輝度Lmax時の分析処理画像である。
(Analysis example 4)
FIG. 22A is a graph showing analysis example 4 (periodicity) by the feature amount analysis unit 27, and is a graph showing a periodic distribution of average luminance after linear filtering. Further, FIG. 22B is a graph showing analysis example 4 (periodicity) by the feature amount analysis unit 27, and is an analysis processed image at the maximum brightness Lmax after linear filtering.

図22A~図22Bから明らかなように、周期が86ピクセル/サイクルで、最大輝度が87.4であり、周期が86であるガボールフィルタ適用時に強い応答を検出している。これにより、シワ及びキメの出現間隔(=出現周期)の強さを検出できることがわかる。 As is clear from FIGS. 22A and 22B, the period is 86 pixels/cycle, the maximum brightness is 87.4, and a strong response is detected when the Gabor filter with the period 86 is applied. This shows that it is possible to detect the strength of the appearance interval (=appearance period) of wrinkles and texture.

(解析例5)
図23は特徴量解析部27の解析例5(方向性及び周期性)を示すグラフであって、方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。図23は、ガボールフィルタを適用したDWE画像の輝度変化を示すものであって、ガボールフィルタの方向と周期をともに変化させた際の応答値をヒートマップ表示(等高線表示)によりDWE画像の特徴量を可視化したものである。ここで、特許図面を白黒画像で示すために、クロスハッチング又はハッチングの間隔で応答値を変化させているが、当該図23は、黄色が強く青が弱いヒートマップ表示のグラフ画像を、特許図面用に書き直したものであり、図24以降も同様である。
(Analysis example 5)
FIG. 23 is a graph showing analysis example 5 (directivity and periodicity) of the feature quantity analysis unit 27, and is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periodicity with respect to directionality angle. be. FIG. 23 shows the luminance change of a DWE image to which a Gabor filter is applied, and the response values when both the direction and period of the Gabor filter are changed are displayed as a heat map (contour line display) to show the feature amount of the DWE image. This is a visualization of the Here, in order to show the patent drawing as a black and white image, the response values are changed by cross hatching or hatching intervals. The same applies to FIG. 24 and subsequent figures.

図24A~図24Eは特徴量解析部27の解析例5(方向性及び周期性)を示す画像であって、図24Aは処理前のRGB画像(特許図面のために白黒画像で示す)であり、図24Bは可視化処理後の可視化処理画像(DWE画像)であり、図24Cは方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。また、図24Dは線形フィルタリング後の平均輝度の角度分布を示すグラフであり、図24Eは線形フィルタリング後の平均輝度の周期分布を示すグラフである。図24A及び図24Bにおいて、画像内の矩形は解析対象領域を示す。 24A to 24E are images showing analysis example 5 (directivity and periodicity) of the feature quantity analysis unit 27, and FIG. 24A is an RGB image before processing (shown as a black and white image for patent drawings). , FIG. 24B is a visualized image (DWE image) after the visualization process, and FIG. 24C is a graph image representing brightness values in a contour heat map format in a two-dimensional plane of periodicity with respect to directional angle. Further, FIG. 24D is a graph showing the angular distribution of average brightness after linear filtering, and FIG. 24E is a graph showing the periodic distribution of average brightness after linear filtering. In FIGS. 24A and 24B, the rectangle within the image indicates the area to be analyzed.

図24C及び図24Dから明らかなように、角度分布の輝度差が大きい角度を検出することができ、ある方向にだけ強いシワ及びキメを確認できることがわかる。また、図24C及び図24Eから明らかなように、強い応答のある周期を検出することができ、図24C及び図24Eからは、シワ及びキメの間隔が幅広いことがわかる。 As is clear from FIGS. 24C and 24D, it is possible to detect angles where the brightness difference in the angular distribution is large, and it is possible to confirm strong wrinkles and texture only in a certain direction. Furthermore, as is clear from FIGS. 24C and 24E, a period with a strong response can be detected, and it can be seen from FIGS. 24C and 24E that the intervals between wrinkles and textures are wide.

(解析例6)
図25A~図25Eは特徴量解析部27の解析例6(方向性及び周期性)を示す画像であって、図25Aは処理前のRGB画像であり、図25Bは可視化処理後の可視化処理画像(DWE画像)であり、図25Cは方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。また、図25Dは線形フィルタリング後の平均輝度の角度分布を示すグラフであり、図25Eは線形フィルタリング後の平均輝度の周期分布を示すグラフである。図25A及び図25Bにおいて、画像内の矩形は解析対象領域を示す。
(Analysis example 6)
25A to 25E are images showing analysis example 6 (directivity and periodicity) of the feature quantity analysis unit 27, in which FIG. 25A is an RGB image before processing, and FIG. 25B is a visualized image after visualization processing. (DWE image), and FIG. 25C is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periodicity with respect to directional angle. Further, FIG. 25D is a graph showing the angular distribution of the average brightness after linear filtering, and FIG. 25E is a graph showing the periodic distribution of the average brightness after linear filtering. In FIGS. 25A and 25B, the rectangle within the image indicates the area to be analyzed.

図25C及び図25Dから明らかなように、角度分布の輝度差が小さく、ピーク位置がバラバラであることを検出できる。これにより、シワ及びキメ方向性が弱いことがわかる。また、図25C及び図25Eから明らかなように、周期分布のピーク位置が一か所(Lmax)のみであって、シワ及びキメの間隔が揃っていることがわかる。 As is clear from FIGS. 25C and 25D, it can be detected that the brightness difference in the angular distribution is small and the peak positions are scattered. This shows that wrinkles and texture directionality are weak. Furthermore, as is clear from FIGS. 25C and 25E, the periodic distribution has only one peak position (Lmax), and the intervals between wrinkles and textures are uniform.

(解析例7)
図26A~図26Eは特徴量解析部27の解析例7(方向性及び周期性)を示す画像であって、図26Aは処理前のRGB画像であり、図26Bは可視化処理後の可視化処理画像(DWE画像)であり、図26Cは方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。また、図26Dは線形フィルタリング後の平均輝度の角度分布を示すグラフであり、図26Eは線形フィルタリング後の平均輝度の周期分布を示すグラフである。図26A及び図26Bにおいて、画像内の矩形は解析対象領域を示す。
(Analysis example 7)
26A to 26E are images showing analysis example 7 (directivity and periodicity) of the feature quantity analysis unit 27, in which FIG. 26A is an RGB image before processing, and FIG. 26B is a visualized image after visualization processing. (DWE image), and FIG. 26C is a graph image in which brightness values are expressed in a contour heat map format in a two-dimensional plane of periods with respect to directional angles. Further, FIG. 26D is a graph showing the angular distribution of the average brightness after linear filtering, and FIG. 26E is a graph showing the periodic distribution of the average brightness after linear filtering. In FIGS. 26A and 26B, the rectangle within the image indicates the area to be analyzed.

図26C及び図26Dから明らかなように、角度分布の輝度差が多少あることがわかり、シワ及びキメ方向性が少しあることがわかる。また、図26C及び図26Eから明らかなように、周期分布のピーク位置が一か所(Lmax)のみであって、シワ及びキメの間隔が揃っていることがわかる。 As is clear from FIGS. 26C and 26D, it can be seen that there is some brightness difference in the angular distribution, and it can be seen that there are some wrinkles and texture directionality. Furthermore, as is clear from FIGS. 26C and 26E, the periodic distribution has only one peak position (Lmax), and the intervals between wrinkles and textures are uniform.

(解析例8)
図27A~図27Eは人間の左肩甲部(縫合後の瘢痕)に対する特徴量解析部27の解析例8(方向性及び周期性)を示す画像であって、図27Aは処理前のRGB画像であり、図27Bは可視化処理後の可視化処理画像(DWE画像)であり、図27Cは方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。また、図27Dは線形フィルタリング後の平均輝度の角度分布を示すグラフであり、図27Eは線形フィルタリング後の平均輝度の周期分布を示すグラフである。図27A及び図27Bにおいて、画像内の矩形は解析対象領域を示す。
(Analysis example 8)
27A to 27E are images showing analysis example 8 (directivity and periodicity) of the feature amount analysis unit 27 for the human left shoulder blade (scar after suturing), and FIG. 27A is an RGB image before processing. 27B is a visualized image (DWE image) after the visualization process, and FIG. 27C is a graph image representing the luminance value in a contour heat map format in a two-dimensional plane of the period with respect to the directional angle. Further, FIG. 27D is a graph showing the angular distribution of the average brightness after linear filtering, and FIG. 27E is a graph showing the periodic distribution of the average brightness after linear filtering. In FIGS. 27A and 27B, the rectangle within the image indicates the area to be analyzed.

図27C及び図27Dから明らかなように、角度分布の輝度差が小さいことがわかり、これにより、シワ又はキメの方向性(角度変化)が弱い(角度変化が小さい)ことがわかる。また、図27C及び図27Eから明らかなように、周期分布のピーク位置が小さいことがわかり、これにより、シワ及びキメの間隔が狭い(周期が小さい)ことがわかる。 As is clear from FIGS. 27C and 27D, it can be seen that the brightness difference in the angular distribution is small, which indicates that the directionality (angular change) of wrinkles or texture is weak (angular change is small). Furthermore, as is clear from FIGS. 27C and 27E, it can be seen that the peak position of the periodic distribution is small, which indicates that the intervals between wrinkles and textures are narrow (the period is small).

(解析例9)
図28A~図28Eは人間の左肩甲部(縫合後の瘢痕)に対する特徴量解析部27の解析例9(方向性及び周期性)を示す画像であって、図28Aは理前のRGB画像であり、図28Bは可視化処理後の可視化処理画像(DWE画像)であり、図28Cは方向性の角度に対する周期の2次元平面において輝度値を等高線ヒートマップ形式で表したグラフ画像である。また、図28Dは特徴量解析部27の解析例9(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の角度分布を示すグラフであり、図28Eは特徴量解析部27の解析例9(方向性及び周期性)を示すグラフであって、線形フィルタリング後の平均輝度の周期分布を示すグラフである。図28A及び図28Bにおいて、画像内の矩形は解析対象領域を示す。
(Analysis example 9)
28A to 28E are images showing analysis example 9 (directivity and periodicity) of the feature quantity analysis unit 27 for the human left shoulder blade (scar after suturing), and FIG. 28A is an RGB image of Rizen. 28B is a visualized image (DWE image) after the visualization process, and FIG. 28C is a graph image representing the luminance value in a contour heat map format in a two-dimensional plane of the period with respect to the directional angle. Further, FIG. 28D is a graph showing analysis example 9 (directivity and periodicity) of the feature amount analysis unit 27, and is a graph showing the angular distribution of the average luminance after linear filtering, and FIG. 28E is a graph showing the angular distribution of the average luminance after linear filtering. 27 is a graph showing analysis example 9 (directivity and periodicity), and is a graph showing a periodic distribution of average luminance after linear filtering. In FIGS. 28A and 28B, the rectangle within the image indicates the area to be analyzed.

図28C及び図28Dから明らかなように、角度分布の輝度差が小さく、ピークの二か所が存在することがわかる。これにより、シワ及びキメ方向性が弱いが、2つの方向に輝度が強い傾向があることがわかる。また、図28C及び図28Eから明らかなように、周囲のピーク位置は少し小さめであることがわかり、これにより、シワ及びキメの間隔が少し狭い(周期が少し小さい)ことがわかる。 As is clear from FIGS. 28C and 28D, the brightness difference in the angular distribution is small and there are two peaks. This shows that although wrinkles and texture directionality are weak, brightness tends to be strong in two directions. Furthermore, as is clear from FIGS. 28C and 28E, it can be seen that the surrounding peak positions are slightly smaller, which indicates that the intervals between wrinkles and textures are slightly narrower (the period is slightly smaller).

(実施形態2のまとめ)
以上説明したように、実施形態2によれば、シワ及びキメの間隔及び方向性についてガボールフィルタを用いたガボール特徴量の解析を行った。ここで、ガボールフィルタは、画像処理のテクスチャー解析等に用いられる線形フィルタで、方向毎の特定の周波数成分を抽出する。シワ及びキメの可視化画像に対して、任意の方向及び周期のガボールフィルタを適用した際の応答値(平均輝度値)を算出し、シワ及びキメの格子パターンの歪み方や間隔の定量評価を行った。パターンの歪み方については、任意の方向のガボールフィルタを適用した際の応答の強弱に着目し、最大と最小の応答の差異が、パターンの歪み量に相当する。シワ及びキメの間隔については、任意の周期のガボールフィルタを適用した際の応答の強弱に着目し、最大応答時のガボールフィルタの周期パラメータ(ピクセル/サイクル)を間隔に相当すると考えられる。
(Summary of Embodiment 2)
As described above, according to the second embodiment, the Gabor feature amount using the Gabor filter was analyzed regarding the interval and directionality of wrinkles and texture. Here, the Gabor filter is a linear filter used for texture analysis in image processing, etc., and extracts specific frequency components for each direction. We calculated the response value (average brightness value) when applying a Gabor filter of arbitrary direction and period to the visualized image of wrinkles and texture, and quantitatively evaluated the distortion and spacing of the lattice pattern of wrinkles and texture. Ta. Regarding the pattern distortion, we focused on the strength of the response when applying a Gabor filter in an arbitrary direction, and the difference between the maximum and minimum responses corresponds to the amount of pattern distortion. Regarding the intervals between wrinkles and textures, attention is paid to the strength of the response when a Gabor filter with an arbitrary period is applied, and the period parameter (pixel/cycle) of the Gabor filter at the time of maximum response is considered to correspond to the interval.

ここで、特に、(1)図25A~図25E(解析例6)、(2)図27A~図27E(解析例8)、(3)図28A~図28E(解析例9)の場合について説明する。 Here, we will particularly explain the cases of (1) FIGS. 25A to 25E (analysis example 6), (2) FIGS. 27A to 27E (analysis example 8), and (3) FIGS. 28A to 28E (analysis example 9). do.

表1に最大応答時の角度、周期、及び応答の差異を示す。だたし、角度は撮影時のカメラの向きに依存する。ここで、解析例8及び9は縫合後瘢痕の例であって、解析例8に係る縫合部の周囲と、解析例9に係る縫合部では、シワ及びキメの間隔や歪み方が異なることが、可視化画像及びガボール特徴量から確認できる。これらの結果から、シワ及びキメの格子パターンの歪み方や間隔に相当するパラメータから定量評価が可能で、ガボールフィルタを用いたシワ及びキメの特徴解析が有用であることが分かる。 Table 1 shows the angle, period, and difference in response at maximum response. However, the angle depends on the direction of the camera when shooting. Here, analysis examples 8 and 9 are examples of scars after suturing, and the distance between wrinkles and textures and the way of distortion are different between the periphery of the sutured part according to analysis example 8 and the sutured part according to analysis example 9. , can be confirmed from the visualized image and Gabor features. These results show that quantitative evaluation is possible from parameters corresponding to the distortion and spacing of the lattice pattern of wrinkles and texture, and that feature analysis of wrinkles and texture using a Gabor filter is useful.

Figure 2024013339000002
Figure 2024013339000002

実施形態2では、ダーモカメラで撮影された皮膚の偏光画像及び非偏光画像のBチャンネル情報を用いたシワ及びキメの可視化処理手法を提案した。そして、可視化画像についてのガボール特徴量を用いて、シワ及びキメの間隔や方向性を評価した。また、皮膚の疾患箇所の診断において、本提案手法による評価の有用性が示唆された。 In the second embodiment, a method for visualizing wrinkles and texture using B channel information of polarized and non-polarized images of the skin taken with a dermo camera was proposed. Then, the intervals and directionality of wrinkles and texture were evaluated using the Gabor feature amount of the visualized image. Furthermore, the effectiveness of evaluation using the proposed method in diagnosing diseased areas of the skin was suggested.

以上説明したように、実施形態2に係る画像処理装置10Aによれば、従来技術に比較して高精度で、例えば人間の肌表面等の生体表面などの撮影対象物の表面の凹凸状態を、所定の特徴量を用いて解析できる。 As explained above, according to the image processing device 10A according to the second embodiment, the uneven state of the surface of the object to be photographed, such as the surface of a biological body such as the surface of human skin, can be detected with higher precision than that of the conventional technology. It can be analyzed using predetermined feature quantities.

特に、実施形態1及び2により、医療的にどのような判断又は診断ができるかについて以下に説明する。一般的に皮膚のシワ及びキメの状態を可視化することは困難であるため、可視化されたシワ及びキメ情報は皮膚の健康状態の診断や、美容的な判断に有用である。皮膚の部位によって、シワ及びキメの出現は様々であり、それぞれの部位で健康的なシワ及びキメの出現があるので、異常なシワ及びキメの出現を検証することで疾患箇所を診断することが可能であると思料する。特に、瘢痕箇所の治癒過程の診断にシワ及びキメの可視化情報が有用であり、瘢痕箇所は治癒後に傷跡が目立つ場合と目立たない場合があり、治癒過程でのシワ及びキメの状態(皮膚が引っ張られている、シワ及びキメの凹凸の有無など)についての画像診断や定量評価(ガボールフィルタを用いた特徴量解析)が経過観察に有用であると考えられる。 In particular, what kind of medical judgment or diagnosis can be made according to Embodiments 1 and 2 will be described below. Generally, it is difficult to visualize the state of skin wrinkles and texture, so visualized wrinkle and texture information is useful for diagnosing the health state of the skin and making cosmetic decisions. The appearance of wrinkles and texture varies depending on the area of the skin, and healthy wrinkles and texture appear in each area, so it is possible to diagnose diseased areas by examining the appearance of abnormal wrinkles and texture. I think it is possible. In particular, visual information on wrinkles and texture is useful for diagnosing the healing process of scarred areas. Scarred areas may have noticeable scars or not after healing, and the state of wrinkles and texture during the healing process (when the skin is stretched Imaging diagnosis and quantitative evaluation (feature analysis using Gabor filters) are considered useful for follow-up observation.

以上の実施形態2において、後置処理部25は、二値化処理及びクロージング処理を実行しているが、本発明はこれに限らず、少なくとも二値化処理のみを実行することにより、凹凸の状態を高精度で出現させることができる。 In the above-described second embodiment, the post-processing unit 25 executes the binarization process and the closing process, but the present invention is not limited to this. The state can be expressed with high precision.

(実施形態3)
図29は実施形態3に係る画像処理システムの構成例を示すブロック図である。図29の画像処理システムは、図1の画像処理システムと比較して以下の点が異なる。
(1)画像処理部12に代えて、画像処理部12Bを備えた。
(2)画像処理部12Bは、制御部20に代えて制御部20Bを備えた。
(3)画像処理装置10に代えて、画像処理部12B及び外部インターフェース14を備えた画像処理装置10Bを備えた。
(4)外部インターフェース14に接続されて光ディスク31が挿入される光ディスクドライブ30をさらに備えた。
以下、相違点について説明する。
(Embodiment 3)
FIG. 29 is a block diagram showing a configuration example of an image processing system according to the third embodiment. The image processing system in FIG. 29 differs from the image processing system in FIG. 1 in the following points.
(1) In place of the image processing section 12, an image processing section 12B was provided.
(2) The image processing section 12B includes a control section 20B instead of the control section 20.
(3) In place of the image processing device 10, an image processing device 10B including an image processing section 12B and an external interface 14 is provided.
(4) An optical disk drive 30 connected to the external interface 14 and into which an optical disk 31 is inserted is further provided.
The differences will be explained below.

実施形態3では、図2又は図17の前記画像処理プログラムを、例えばCD、DVD等の光ディスク、SSD(Solid State Drive)などの、コンピュータにより読み出し可能な記録媒体(プログラム製品)に記録し、当該記憶媒体を例えば光ディスクドライブ30等のドライブ装置に挿入して読み出して、外部インターフェース14を介して制御部20Bのメモリにロードして、制御部20B(コンピュータ)により実行させてもよい。 In the third embodiment, the image processing program shown in FIG. 2 or FIG. For example, the storage medium may be inserted into a drive device such as the optical disk drive 30, read out, loaded into the memory of the control unit 20B via the external interface 14, and executed by the control unit 20B (computer).

以上の実施形態2では、実施形態1の画像処理システムに対して外部インターフェース14及び光ディスクドライブ30を備えているが、本発明はこれに限らず、実施形態2の画像処理システムに対して外部インターフェース14及び光ディスクドライブ30を備えてもよい。 In the second embodiment described above, the image processing system of the first embodiment is provided with the external interface 14 and the optical disk drive 30, but the present invention is not limited to this. 14 and an optical disk drive 30.

(他の変形例)
以上の実施形態では、背景抽出処理部22は、輝度比計算部21からの画像データ(もしくは、各画素毎の輝度の差を含む画像データ(変形例))から背景画像データを抽出しているが、本発明はこれに限らず、輝度比計算部21に入力される偏光画像データ又は非偏光画像データから、背景画像データを抽出してもよい。すなわち、背景抽出処理部22は、
(1)輝度比計算部21からの各画素毎の輝度の比を含む画像データと、
(2)当該各画素毎の輝度の差を含む画像データと、
(3)輝度比計算部21に入力される偏光画像データと、
(4)輝度比計算部21に入力される非偏光画像データと、
のうちのいずれかの画像データから背景画像に係る背景画像データを抽出して出力してもよい。
(Other variations)
In the above embodiment, the background extraction processing unit 22 extracts background image data from the image data from the brightness ratio calculation unit 21 (or image data including the difference in brightness for each pixel (modified example)). However, the present invention is not limited to this, and background image data may be extracted from polarized image data or non-polarized image data input to the brightness ratio calculation section 21. That is, the background extraction processing unit 22
(1) Image data including the brightness ratio of each pixel from the brightness ratio calculation unit 21,
(2) image data including the difference in brightness for each pixel;
(3) Polarization image data input to the brightness ratio calculation unit 21;
(4) non-polarized image data input to the brightness ratio calculation unit 21;
Background image data related to a background image may be extracted from any of the image data and output.

以上の実施形態では、後置処理部25において後置処理を行っているが、本発明はこれに限らず、これを省略してもよい。また、後置処理は少なくとも二値化処理のみを行ってもよい。 In the above embodiment, post-processing is performed in the post-processing section 25, but the present invention is not limited to this, and this may be omitted. Furthermore, the post-processing may include at least binarization processing.

以上の実施形態において、画像処理部12,12A,12Bは例えば画像メモリを有するデジタル計算機(コンピュータ)により構成することができる。図2、図17の画像処理については、画像処理プログラムとして構成し、ハードウエアであるCPUにより実行させてもよい。 In the embodiments described above, the image processing sections 12, 12A, and 12B can be configured by, for example, a digital computer having an image memory. The image processing in FIGS. 2 and 17 may be configured as an image processing program and executed by a CPU, which is hardware.

以上詳述したように、本発明によれば、従来技術に比較して高精度で、例えば人間の肌表面などの生体表面を可視化できる画像処理装置及び画像処理方法を提供することにある。また、本発明によれば、従来技術に比較して高精度で、例えば人間の肌表面などの生体表面を所定のパラメータを用いて分析できる画像処理装置及び画像処理方法を提供できる。 As detailed above, according to the present invention, it is an object of the present invention to provide an image processing device and an image processing method that can visualize a living body surface, such as a human skin surface, with higher precision than in the prior art. Further, according to the present invention, it is possible to provide an image processing device and an image processing method that can analyze a biological surface, such as a human skin surface, using predetermined parameters with higher precision than in the prior art.

本発明において、画像処理すべき撮影対象として適用可能なものは以下の通りである。基本的には、人体、動物、生物を含む生体の皮膚又は表面のように、表面にある程度の細かい凸凹があり、所定の高い透明度を有するものであれば、撮影対象として適用できる。具体的には、人間の皮膚、動物の皮膚、生物の葉、きのこなどの表面等の凸凹の状態を可視化できる。 In the present invention, the following photographic objects can be used for image processing. Basically, anything that has a certain degree of fine irregularities on its surface and has a predetermined high degree of transparency, such as the skin or surface of a living body including a human body, an animal, or a living thing, can be used as an object to be photographed. Specifically, it is possible to visualize the unevenness of the surfaces of human skin, animal skin, leaves of living things, mushrooms, and the like.

1 カメラ
2 ディスプレイ
10,10A,10B 画像処理装置
11画像インターフェース
11m 画像メモリ
12,12A,12B 画像処理部
13 画像インターフェース
13m 画像メモリ
14 外部インターフェース
20,20A 制御部
21 輝度比計算部
22 背景抽出処理部
23 画像メモリ
24 輝度差計算部
25 後置処理部
26 画像メモリ
27 特徴量解析部
30 光ディスクドライブ
31 光ディスク
1 Camera 2 Display 10, 10A, 10B Image processing device 11 Image interface 11m Image memory 12, 12A, 12B Image processing section 13 Image interface 13m Image memory 14 External interface 20, 20A Control section 21 Brightness ratio calculation section 22 Background extraction processing section 23 Image memory 24 Brightness difference calculation section 25 Post-processing section 26 Image memory 27 Feature amount analysis section 30 Optical disk drive 31 Optical disk

Claims (24)

処理対象物の表面を撮像して、偏光画像データ及び非偏光画像データを生成する画像センサと、
前記偏光画像データ及び非偏光画像データの間の各画素毎の輝度の比又は輝度の差を計算して出力する第1の計算部と、
(1)前記第1の計算部からの各画素毎の輝度の比を含む画像データと、
(2)前記第1の計算部からの各画素毎の輝度の差を含む画像データと、
(3)前記偏光画像データと、
(4)前記非偏光画像データと、
のうちのいずれかの画像データから背景画像に係る背景画像データを抽出して出力する背景抽出処理部と、
前記第1の計算部からの各画素毎の輝度の比又は輝度の差を含む画像データから、前記背景抽出処理部からの背景画像データを減算して各画素毎の差を含む画像データを生成する第2の計算部と、
を備える画像処理装置。
an image sensor that images the surface of the object to be processed and generates polarized image data and non-polarized image data;
a first calculation unit that calculates and outputs a brightness ratio or brightness difference for each pixel between the polarized image data and the non-polarized image data;
(1) image data including a brightness ratio for each pixel from the first calculation unit;
(2) image data including a difference in brightness for each pixel from the first calculation unit;
(3) the polarization image data;
(4) the non-polarized image data;
a background extraction processing unit that extracts and outputs background image data related to a background image from any of the image data;
Subtracting the background image data from the background extraction processing unit from the image data including the brightness ratio or difference in brightness for each pixel from the first calculation unit to generate image data including the difference for each pixel. a second calculation unit that performs
An image processing device comprising:
前記第1の計算部は、前記偏光画像データ及び非偏光画像データのうち、前記偏光画像データのB(青)チャンネル画像データと、前記非偏光画像データのB(青)チャンネル画像データとの間の各画素毎の輝度の比又は輝度の差を計算する、請求項1に記載の画像処理装置。 The first calculation unit is configured to calculate the difference between B (blue) channel image data of the polarized image data and B (blue) channel image data of the non-polarized image data among the polarized image data and the non-polarized image data. The image processing device according to claim 1, wherein the image processing device calculates a brightness ratio or a brightness difference for each pixel. 前記背景抽出処理部は、ガウシアンフィルタを用いて、前記画像データから背景画像に係る背景画像データを抽出する、請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the background extraction processing unit extracts background image data related to a background image from the image data using a Gaussian filter. 前記第2の計算部からの画像データに対して二値化処理を行って出力する後置処理部をさらに備える、請求項1に記載の画像処理装置。 The image processing device according to claim 1, further comprising a post-processing unit that performs binarization processing on the image data from the second calculation unit and outputs the result. 前記後置処理部は、前記第2の計算部からの画像データに対して二値化処理及びクロージング処理を行って出力する、請求項4に記載の画像処理装置。 The image processing device according to claim 4, wherein the post-processing section performs binarization processing and closing processing on the image data from the second calculation section and outputs the resultant data. 前記後置処理部からの画像データに対して、ガポールフィルタを用いて、角度と周期とのうちの少なくとも1つを変化させてガポール特徴量を計算することにより、輝度値の角度分布と、輝度値の周期分布と、角度及び周期の2次元平面における輝度値分布を生成する特徴量解析部をさらに備える、請求項4又は5に記載の画像処理装置。 By using a Gapol filter on the image data from the post-processing unit and calculating Gapol features by changing at least one of the angle and the period, the angular distribution of brightness values and the brightness are calculated. The image processing device according to claim 4 or 5, further comprising a feature amount analysis unit that generates a periodic distribution of values and a luminance value distribution in a two-dimensional plane of angles and periods. 画像センサが、処理対象物の表面を撮像して、偏光画像データ及び非偏光画像データを生成するステップと、
第1の計算部が、前記偏光画像データ及び非偏光画像データの間の各画素毎の輝度の比又は輝度の差を計算して出力するステップと、
背景抽出処理部が、
(1)前記第1の計算部からの各画素毎の輝度の比を含む画像データと、
(2)前記第1の計算部からの各画素毎の輝度の差を含む画像データと、
(3)前記偏光画像データと、
(4)前記非偏光画像データと、
のうちのいずれかの画像データから背景画像に係る背景画像データを抽出して出力するステップと、
第2の計算部が、前記第1の計算部からの各画素毎の輝度の比又は輝度の差を含む画像データから、前記背景抽出処理部からの背景画像データを減算して各画素毎の差を含む画像データを生成するステップと、
を含む画像処理方法。
an image sensor capturing an image of the surface of the object to be processed to generate polarized image data and non-polarized image data;
a first calculation unit calculating and outputting a brightness ratio or brightness difference for each pixel between the polarized image data and the non-polarized image data;
The background extraction processing section
(1) image data including a brightness ratio for each pixel from the first calculation unit;
(2) image data including a difference in brightness for each pixel from the first calculation unit;
(3) the polarization image data;
(4) the non-polarized image data;
extracting and outputting background image data related to a background image from any of the image data;
A second calculation unit subtracts the background image data from the background extraction processing unit from the image data including the brightness ratio or difference in brightness for each pixel from the first calculation unit to obtain an image for each pixel. generating image data including a difference;
image processing methods including;
前記輝度の比又は輝度の差を計算するステップは、前記偏光画像データ及び非偏光画像データのうち、前記偏光画像データのB(青)チャンネル画像データと、前記非偏光画像データのB(青)チャンネル画像データとの間の各画素毎の輝度の比又は輝度の差を計算することを含む、
請求項7に記載の画像処理方法。
The step of calculating the brightness ratio or brightness difference includes calculating the B (blue) channel image data of the polarized image data and the B (blue) channel image data of the non-polarized image data among the polarized image data and non-polarized image data. calculating a brightness ratio or brightness difference for each pixel between channel image data;
The image processing method according to claim 7.
前記背景画像データを抽出するステップは、ガウシアンフィルタを用いて、前記画像データから背景画像に係る背景画像データを抽出することを含む、
請求項7に記載の画像処理方法。
The step of extracting the background image data includes extracting background image data related to the background image from the image data using a Gaussian filter.
The image processing method according to claim 7.
後置処理部が、前記第2の計算部からの画像データに対して二値化処理を行って出力するステップをさらに含む、請求項7に記載の画像処理方法。 8. The image processing method according to claim 7, further comprising a step in which the post-processing section performs binarization processing on the image data from the second calculation section and outputs the result. 前記二値化処理を行って出力するステップは、前記第2の計算部からの画像データに対して二値化処理及びクロージング処理を行って出力することを含む、
請求項10に記載の画像処理方法。
The step of performing binarization processing and outputting includes performing binarization processing and closing processing on the image data from the second calculation unit and outputting the resultant image data.
The image processing method according to claim 10.
特徴量解析部が、前記後置処理部からの画像データに対して、ガポールフィルタを用いて、角度と周期とのうちの少なくとも1つを変化させてガポール特徴量を計算することにより、輝度値の角度分布と、輝度値の周期分布と、角度及び周期の2次元平面における輝度値分布を生成するステップをさらに含む、請求項10又は11に記載の画像処理方法。 The feature quantity analysis unit calculates the luminance value by using a Gapol filter on the image data from the post-processing unit and changing at least one of the angle and the period. 12. The image processing method according to claim 10, further comprising the step of generating an angular distribution of , a periodic distribution of brightness values, and a brightness value distribution of angles and periods in a two-dimensional plane. コンピュータにより実行される画像処理プログラムであって、
画像センサが、処理対象物の表面を撮像して、偏光画像データ及び非偏光画像データを生成するステップと、
第1の計算部が、前記偏光画像データ及び非偏光画像データの間の各画素毎の輝度の比又は輝度の差を計算して出力するステップと、
背景抽出処理部が、
(1)前記第1の計算部からの各画素毎の輝度の比を含む画像データと、
(2)前記第1の計算部からの各画素毎の輝度の差を含む画像データと、
(3)前記偏光画像データと、
(4)前記非偏光画像データと、
のうちのいずれかの画像データから背景画像に係る背景画像データを抽出して出力するステップと、
第2の計算部が、前記第1の計算部からの各画素毎の輝度の比又は輝度の差を含む画像データから、前記背景抽出処理部からの背景画像データを減算して各画素毎の差を含む画像データを生成するステップと、
を含む画像処理プログラム。
An image processing program executed by a computer,
an image sensor capturing an image of the surface of the object to be processed to generate polarized image data and non-polarized image data;
a first calculation unit calculating and outputting a brightness ratio or brightness difference for each pixel between the polarized image data and the non-polarized image data;
The background extraction processing section
(1) image data including a brightness ratio for each pixel from the first calculation unit;
(2) image data including a difference in brightness for each pixel from the first calculation unit;
(3) the polarization image data;
(4) the non-polarized image data;
extracting and outputting background image data related to a background image from any of the image data;
A second calculation unit subtracts the background image data from the background extraction processing unit from the image data including the brightness ratio or difference in brightness for each pixel from the first calculation unit to obtain an image for each pixel. generating image data including a difference;
image processing programs including;
前記輝度の比又は輝度の差を計算するステップは、前記偏光画像データ及び非偏光画像データのうち、前記偏光画像データのB(青)チャンネル画像データと、前記非偏光画像データのB(青)チャンネル画像データとの間の各画素毎の輝度の比又は輝度の差を計算することを含む、
請求項13に記載の画像処理プログラム。
The step of calculating the brightness ratio or brightness difference includes calculating the B (blue) channel image data of the polarized image data and the B (blue) channel image data of the non-polarized image data among the polarized image data and non-polarized image data. calculating a brightness ratio or brightness difference for each pixel between channel image data;
The image processing program according to claim 13.
前記背景画像データを抽出するステップは、ガウシアンフィルタを用いて、前記画像データから背景画像に係る背景画像データを抽出することを含む、
請求項13に記載の画像処理プログラム。
The step of extracting the background image data includes extracting background image data related to the background image from the image data using a Gaussian filter.
The image processing program according to claim 13.
後置処理部が、前記第2の計算部からの画像データに対して二値化処理を行って出力するステップをさらに含む、請求項13に記載の画像処理プログラム。 14. The image processing program according to claim 13, further comprising a step in which the post-processing section performs binarization processing on the image data from the second calculation section and outputs the result. 前記二値化処理を行って出力するステップは、前記第2の計算部からの画像データに対して二値化処理及びクロージング処理を行って出力することを含む、
請求項16に記載の画像処理プログラム。
The step of performing binarization processing and outputting includes performing binarization processing and closing processing on the image data from the second calculation unit and outputting the resultant image data.
The image processing program according to claim 16.
特徴量解析部が、前記後置処理部からの画像データに対して、ガポールフィルタを用いて、角度と周期とのうちの少なくとも1つを変化させてガポール特徴量を計算することにより、輝度値の角度分布と、輝度値の周期分布と、角度及び周期の2次元平面における輝度値分布を生成するステップをさらに含む、請求項16又は17に記載の画像処理プログラム。 The feature quantity analysis unit calculates the luminance value by using a Gapol filter on the image data from the post-processing unit and changing at least one of the angle and the period. 18. The image processing program according to claim 16, further comprising the step of generating an angular distribution of , a periodic distribution of brightness values, and a brightness value distribution of angles and periods in a two-dimensional plane. コンピュータにより読み出し可能な画像処理プログラムを格納する記録媒体であって、
前記画像処理プログラムは、
画像センサが、処理対象物の表面を撮像して、偏光画像データ及び非偏光画像データを生成するステップと、
第1の計算部が、前記偏光画像データ及び非偏光画像データの間の各画素毎の輝度の比又は輝度の差を計算して出力するステップと、
背景抽出処理部が、
(1)前記第1の計算部からの各画素毎の輝度の比を含む画像データと、
(2)前記第1の計算部からの各画素毎の輝度の差を含む画像データと、
(3)前記偏光画像データと、
(4)前記非偏光画像データと、
のうちのいずれかの画像データから背景画像に係る背景画像データを抽出して出力するステップと、
第2の計算部が、前記第1の計算部からの各画素毎の輝度の比又は輝度の差を含む画像データから、前記背景抽出処理部からの背景画像データを減算して各画素毎の差を含む画像データを生成するステップと、
を含む記録媒体。
A recording medium that stores an image processing program readable by a computer,
The image processing program includes:
an image sensor capturing an image of the surface of the object to be processed to generate polarized image data and non-polarized image data;
a first calculation unit calculating and outputting a brightness ratio or brightness difference for each pixel between the polarized image data and the non-polarized image data;
The background extraction processing section
(1) image data including a brightness ratio for each pixel from the first calculation unit;
(2) image data including a difference in brightness for each pixel from the first calculation unit;
(3) the polarization image data;
(4) the non-polarized image data;
extracting and outputting background image data related to a background image from any of the image data;
A second calculation unit subtracts the background image data from the background extraction processing unit from the image data including the brightness ratio or difference in brightness for each pixel from the first calculation unit to obtain an image for each pixel. generating image data including a difference;
Recording media including.
前記輝度の比又は輝度の差を計算するステップは、前記偏光画像データ及び非偏光画像データのうち、前記偏光画像データのB(青)チャンネル画像データと、前記非偏光画像データのB(青)チャンネル画像データとの間の各画素毎の輝度の比又は輝度の差を計算することを含む、
請求項19に記載の記録媒体。
The step of calculating the brightness ratio or brightness difference includes calculating the B (blue) channel image data of the polarized image data and the B (blue) channel image data of the non-polarized image data among the polarized image data and non-polarized image data. calculating a brightness ratio or brightness difference for each pixel between channel image data;
The recording medium according to claim 19.
前記背景画像データを抽出するステップは、ガウシアンフィルタを用いて、前記画像データから背景画像に係る背景画像データを抽出することを含む、
請求項19に記載の記録媒体。
The step of extracting the background image data includes extracting background image data related to the background image from the image data using a Gaussian filter.
The recording medium according to claim 19.
前記画像処理プログラムは、
後置処理部が、前記第2の計算部からの画像データに対して二値化処理を行って出力するステップをさらに含む、請求項19に記載の記録媒体。
The image processing program includes:
20. The recording medium according to claim 19, further comprising a step in which the post-processing section performs binarization processing on the image data from the second calculation section and outputs the result.
前記二値化処理を行って出力するステップは、前記第2の計算部からの画像データに対して二値化処理及びクロージング処理を行って出力することを含む、
請求項22に記載の記録媒体。
The step of performing binarization processing and outputting includes performing binarization processing and closing processing on the image data from the second calculation unit and outputting the resultant image data.
The recording medium according to claim 22.
前記画像処理プログラムは、
特徴量解析部が、前記後置処理部からの画像データに対して、ガポールフィルタを用いて、角度と周期とのうちの少なくとも1つを変化させてガポール特徴量を計算することにより、輝度値の角度分布と、輝度値の周期分布と、角度及び周期の2次元平面における輝度値分布を生成するステップをさらに含む、請求項22又は23に記載の記録媒体。
The image processing program includes:
The feature quantity analysis unit calculates the luminance value by using a Gapol filter on the image data from the post-processing unit and changing at least one of the angle and the period. The recording medium according to claim 22 or 23, further comprising the step of generating an angular distribution of , a periodic distribution of brightness values, and a brightness value distribution of angles and periods in a two-dimensional plane.
JP2022115353A 2022-07-20 2022-07-20 Image processing device, image processing method, image processing program and recording medium Pending JP2024013339A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022115353A JP2024013339A (en) 2022-07-20 2022-07-20 Image processing device, image processing method, image processing program and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022115353A JP2024013339A (en) 2022-07-20 2022-07-20 Image processing device, image processing method, image processing program and recording medium

Publications (1)

Publication Number Publication Date
JP2024013339A true JP2024013339A (en) 2024-02-01

Family

ID=89718741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022115353A Pending JP2024013339A (en) 2022-07-20 2022-07-20 Image processing device, image processing method, image processing program and recording medium

Country Status (1)

Country Link
JP (1) JP2024013339A (en)

Similar Documents

Publication Publication Date Title
US9706929B2 (en) Method and apparatus for imaging tissue topography
US11769265B2 (en) Skin assessment using image fusion
JP4485837B2 (en) Method and system for computer analysis of skin images
US8334900B2 (en) Apparatus and method of optical imaging for medical diagnosis
JP7229996B2 (en) Speckle contrast analysis using machine learning to visualize flow
US7454046B2 (en) Method and system for analyzing skin conditions using digital images
EP1958150B1 (en) Surface analysis method and system
EP1693003A1 (en) Device and method for demonstrating and quantifying skin texture
KR20100117039A (en) Method and apparatus for characterizing pigment spots, and its application in a method of assessing the pigmenting or depigmenting effect of a cosmetic, dermatological or pharmaceutical product
JP2007252891A (en) Estimation method of evaluation value by visual recognition of beauty of skin
JP6380988B2 (en) Skin evaluation apparatus, method and program
JP2019058641A (en) Skin inner structure estimation method, skin inner structure estimation program, and skin inner structure estimation device
JP2011118671A (en) Apparatus, method and system for processing image, skin evaluation method
EP4216808A1 (en) Acne severity grading methods and apparatuses
JP2024013339A (en) Image processing device, image processing method, image processing program and recording medium
JP5398354B2 (en) Evaluation method of skin surface condition
JP2007252892A (en) Estimation method of evaluation value by visual recognition of three-dimensional shape of skin surface
JP2007020956A (en) Imaging probe
JP5408527B2 (en) Creating a melanoma diagnostic image
Kumar et al. Pioneering Skin Health: Harnessing Thermal Images for Cutting-Edge Computer-Aided Diagnosis
TW202147258A (en) Image processing device, image processing method, and program
IES85695Y1 (en) Method and apparatus for imaging tissue topography
IE20100104U1 (en) Method and apparatus for imaging tissue topography