JP2021189979A - Information processing device, information processing method and information processing program - Google Patents

Information processing device, information processing method and information processing program Download PDF

Info

Publication number
JP2021189979A
JP2021189979A JP2020097324A JP2020097324A JP2021189979A JP 2021189979 A JP2021189979 A JP 2021189979A JP 2020097324 A JP2020097324 A JP 2020097324A JP 2020097324 A JP2020097324 A JP 2020097324A JP 2021189979 A JP2021189979 A JP 2021189979A
Authority
JP
Japan
Prior art keywords
image
information processing
color region
region
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020097324A
Other languages
Japanese (ja)
Inventor
陽介 井上
Yosuke Inoue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kao Corp
Original Assignee
Kao Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kao Corp filed Critical Kao Corp
Priority to JP2020097324A priority Critical patent/JP2021189979A/en
Publication of JP2021189979A publication Critical patent/JP2021189979A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To accurately visualize or/and digitizing a specific color region of an evaluation object imaged under various environmental light.SOLUTION: An information processing device includes an image acquisition part for acquiring a first image including an evaluation object having a specific color region in a ground color region, an image generation part for performing smoothing processing of the acquired first image and generating a second image, an image arithmetic part for subtracting or dividing each component of the first image and a component of the second image corresponding to each component of the first image and generating a third image, a threshold determination part for statistically processing a color distribution of an arbitrary region in the first image to calculate a statistic value, and determining a threshold for binarizing the third image on the basis of the statistic value, and an extraction part for extracting the specific color region with the third image as a binarized image obtained by correcting a variation component by using the determined threshold.SELECTED DRAWING: Figure 1

Description

本発明は、特定色領域を抽出する情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing apparatus for extracting a specific color region, an information processing method, and an information processing program.

上記技術分野において、特許文献1には、解像度の異なる画像データ間で差分データを生成し、生成した差分データを所定閾値により2値化することにより、画像処理に用いられる基準データを生成する技術が開示されている。 In the above technical field, Patent Document 1 describes a technique for generating reference data used for image processing by generating difference data between image data having different resolutions and binarizing the generated difference data with a predetermined threshold value. Is disclosed.

また、特許文献2には、カラーLCDパネルにおいて、黒欠陥の中に白欠陥が存在する色シミだけを検出するために、原画像データとシェーディング画像データとの差分画像データを作成する。そして、作成した差分画像データに対して経験的に求めた閾値を適用して白欠陥および黒欠陥の位置を示す2値画像データをそれぞれ作成し、作成した2値画像データから、黒欠陥の中に白欠陥を含む黒欠陥のみを抽出する技術が開示されている。 Further, in Patent Document 2, in a color LCD panel, difference image data between original image data and shading image data is created in order to detect only color stains in which white defects are present in black defects. Then, the thresholds obtained empirically are applied to the created difference image data to create binary image data indicating the positions of the white defect and the black defect, respectively, and from the created binary image data, the inside of the black defect Discloses a technique for extracting only black defects including white defects.

さらに、特許文献3には、郵便物処理装置において、郵便物の表面に赤色で印刷された郵便番号記入枠を抽出するために、書状のドロップアウト画像と非ドロップアウト画像とを取得する。そして、ドロップアウト画像の各画素値からオフセット値を引いた値を閾値として、非ドロップアウト画像の対応する画素の画素値を2値化して、赤色領域を抽出する技術が開示されている。 Further, in Patent Document 3, in the mail processing apparatus, a dropout image and a non-dropout image of a letter are acquired in order to extract a postal code entry frame printed in red on the surface of the mail. Then, a technique is disclosed in which a red region is extracted by binarizing the pixel values of the corresponding pixels of a non-dropout image with a value obtained by subtracting an offset value from each pixel value of the dropout image as a threshold value.

また、特許文献4には、シミ欠陥を検出するために、検査対象画像の各画素の輝度値の統計データとして、平均値、標準偏差、最大値および最小値を計算し、所定の計算式から白シミ閾値および黒シミ閾値を自動的に決定する技術が開示されている。 Further, in Patent Document 4, in order to detect a stain defect, an average value, a standard deviation, a maximum value and a minimum value are calculated as statistical data of the luminance value of each pixel of the inspection target image, and the average value, the standard deviation, the maximum value and the minimum value are calculated from a predetermined calculation formula. A technique for automatically determining a white spot threshold and a black spot threshold is disclosed.

特開2008−99273号公報Japanese Unexamined Patent Publication No. 2008-99273 特開平9−329527号公報Japanese Unexamined Patent Publication No. 9-329527 特開平8−98006号公報Japanese Unexamined Patent Publication No. 8-98006 特開2004−226272号公報Japanese Unexamined Patent Publication No. 2004-226272

しかしながら、上記文献に記載の技術では、評価対象物が撮像された環境の環境光の影響を考慮していないので、各種環境光下にて撮像された評価対象物の特定色領域を正確に可視化または/及び数値化することができなかった。 However, since the technique described in the above document does not consider the influence of the ambient light of the environment in which the evaluation object is imaged, the specific color region of the evaluation object imaged under various ambient lights is accurately visualized. Or / and could not be quantified.

したがって、本発明の目的は、上述の課題を解決する技術を提供することにある。 Therefore, an object of the present invention is to provide a technique for solving the above-mentioned problems.

上記目的を達成するため、本発明に係る情報処理装置は、
地色領域に特定色領域を有する評価対象物を含む第1画像を取得する画像取得部と、
取得した前記第1画像を平滑化処理して、第2画像を生成する画像生成部と、
前記第1画像の各成分と、前記第1画像の各成分に対応する前記第2画像の成分と、を減算または除算して、第3画像を生成する画像演算部と、
前記第1画像における任意領域の色分布を統計処理して統計値を求め、前記統計値に基づいて前記第3画像を2値化するための閾値を決定する閾値決定部と、
決定した前記閾値を用いて、前記第3画像を、変動成分を補正した2値化画像として、前記特定色領域を抽出する抽出部と、
を備える。
In order to achieve the above object, the information processing apparatus according to the present invention is
An image acquisition unit that acquires a first image including an evaluation object having a specific color region in the ground color region, and an image acquisition unit.
An image generation unit that smoothes the acquired first image to generate a second image,
An image calculation unit that generates a third image by subtracting or dividing each component of the first image and the component of the second image corresponding to each component of the first image.
A threshold value determining unit that statistically processes the color distribution of an arbitrary region in the first image to obtain a statistical value and determines a threshold value for binarizing the third image based on the statistical value.
Using the determined threshold value, the third image is used as a binarized image corrected for variable components, and an extraction unit for extracting the specific color region.
To prepare for.

上記目的を達成するため、本発明に係る情報処理方法は、
地色領域に特定色領域を有する評価対象物を含む第1画像を取得する画像取得ステップと、
取得した前記第1画像を平滑化処理して、第2画像を生成する画像生成ステップと、
前記第1画像の各成分と、前記第1画像の各成分に対応する前記第2画像の成分と、を減算または除算して、第3画像を生成する画像演算ステップと、
前記第1画像における任意領域の色分布を統計処理して統計値を求め、前記統計値に基づき前記第3画像を2値化するための閾値を決定する閾値決定ステップと、
決定した前記閾値を用いて、前記第3画像を、変動成分を補正した2値化画像として、前記特定色領域を抽出する抽出ステップと、
を含む。
In order to achieve the above object, the information processing method according to the present invention is:
An image acquisition step of acquiring a first image including an evaluation object having a specific color region in the ground color region, and
An image generation step of smoothing the acquired first image to generate a second image, and
An image calculation step for generating a third image by subtracting or dividing each component of the first image and the component of the second image corresponding to each component of the first image.
A threshold determination step of statistically processing the color distribution of an arbitrary region in the first image to obtain a statistical value and determining a threshold value for binarizing the third image based on the statistical value.
Using the determined threshold value, the third image is used as a binarized image corrected for variable components, and an extraction step of extracting the specific color region.
including.

上記目的を達成するため、本発明に係る情報処理プログラムは、
地色領域に特定色領域を有する評価対象物を含む第1画像を取得する画像取得ステップと、
取得した前記第1画像を平滑化処理して、第2画像を生成する画像生成ステップと、
前記第1画像の各成分と、前記第1画像の各成分に対応する前記第2画像の成分と、を減算または除算して、第3画像を生成する画像演算ステップと、
前記第1画像における任意領域の色分布を統計処理して統計値を求め、前記統計値に基づき前記第3画像を2値化するための閾値を決定する閾値決定ステップと、
決定した前記閾値を用いて、前記第3画像を、変動成分を補正した2値化画像として、前記特定色領域を抽出する抽出ステップと、
をコンピュータに実行させる。
In order to achieve the above object, the information processing program according to the present invention is
An image acquisition step of acquiring a first image including an evaluation object having a specific color region in the ground color region, and
An image generation step of smoothing the acquired first image to generate a second image, and
An image calculation step for generating a third image by subtracting or dividing each component of the first image and the component of the second image corresponding to each component of the first image.
A threshold determination step of statistically processing the color distribution of an arbitrary region in the first image to obtain a statistical value and determining a threshold value for binarizing the third image based on the statistical value.
Using the determined threshold value, the third image is used as a binarized image corrected for variable components, and an extraction step of extracting the specific color region.
Let the computer run.

本発明によれば、各種環境光下にて撮像された評価対象物の特定色領域を正確に可視化または/及び数値化することができる。 According to the present invention, it is possible to accurately visualize and / or quantify a specific color region of an evaluation target imaged under various ambient lights.

本発明の第1実施形態に係る情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る情報処理装置の動作の概要を説明するための図である。It is a figure for demonstrating the outline of operation of the information processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る情報処理装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the information processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る情報処理装置が有する閾値テーブルの一例を説明するための図である。It is a figure for demonstrating an example of the threshold value table which the information processing apparatus which concerns on 2nd Embodiment of this invention has. 本発明の第2実施形態に係る情報処理装置のハードウェア構成を説明するためのブロック図である。It is a block diagram for demonstrating the hardware configuration of the information processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る情報処理装置の処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the processing procedure of the information processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る情報処理装置の構成を説明するためのブロック図である。It is a block diagram for demonstrating the structure of the information processing apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る情報処理装置が有するスコア化テーブルの一例を説明するための図である。It is a figure for demonstrating an example of the scoring table which the information processing apparatus which concerns on 3rd Embodiment of this invention has. 本発明の第3実施形態に係る情報処理装置のハードウェア構成を説明するためのブロック図である。It is a block diagram for demonstrating the hardware configuration of the information processing apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る情報処理装置の処理手順を説明するためのフローチャートである。It is a flowchart for demonstrating the processing procedure of the information processing apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る情報処理装置の実施例1を説明するための図である。It is a figure for demonstrating Example 1 of the information processing apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る情報処理装置の実施例1を説明するための図である。It is a figure for demonstrating Example 1 of the information processing apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る情報処理装置の実施例2を説明するための図である。It is a figure for demonstrating Example 2 of the information processing apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る情報処理装置の実施例3を説明するための図である。It is a figure for demonstrating Example 3 of the information processing apparatus which concerns on 3rd Embodiment of this invention.

以下に、本発明を実施するための形態について、図面を参照して、例示的に詳しく説明記載する。ただし、以下の実施の形態に記載されている、構成、数値、処理の流れ、機能要素などは一例であり、本発明の技術範囲を以下の記載に限定する趣旨のものではない。 Hereinafter, embodiments for carrying out the present invention will be described in detail exemplary with reference to the drawings. However, the configurations, numerical values, processing flows, functional elements, and the like described in the following embodiments are examples, and the technical scope of the present invention is not intended to be limited to the following descriptions.

[第1実施形態]
本発明の第1実施形態としての情報処理装置100について、図1を用いて説明する。情報処理装置100は、取得した画像から特定色領域を抽出する装置である。
[First Embodiment]
The information processing apparatus 100 as the first embodiment of the present invention will be described with reference to FIG. The information processing device 100 is a device that extracts a specific color region from the acquired image.

情報処理装置100は、画像取得部101、画像生成部102、画像演算部103、閾値決定部104および抽出部105を備える。画像取得部101は、地色領域に特定色領域を有する評価対象物を含む第1画像111を取得する。画像生成部102は、取得した第1画像111を平滑化処理して、第2画像121を生成する。画像演算部103は、第1画像111の各成分と、第1画像111の各成分に対応する第2画像121の成分と、を減算または除算して、第3画像131を生成する。閾値決定部104は、第1画像111における任意領域の色分布を統計処理して統計値141を求め、統計値141に基づいて第3画像131を2値化するための閾値142を決定する。抽出部105は、決定した閾値142を用いて、第3画像131を、変動成分を補正した2値化画像として、特定色領域151を抽出する。 The information processing apparatus 100 includes an image acquisition unit 101, an image generation unit 102, an image calculation unit 103, a threshold value determination unit 104, and an extraction unit 105. The image acquisition unit 101 acquires a first image 111 including an evaluation object having a specific color region in the ground color region. The image generation unit 102 smoothes the acquired first image 111 to generate a second image 121. The image calculation unit 103 generates the third image 131 by subtracting or dividing each component of the first image 111 and the component of the second image 121 corresponding to each component of the first image 111. The threshold value determination unit 104 statistically processes the color distribution of the arbitrary region in the first image 111 to obtain the statistical value 141, and determines the threshold value 142 for binarizing the third image 131 based on the statistical value 141. The extraction unit 105 uses the determined threshold value 142 to extract the specific color region 151 from the third image 131 as a binarized image corrected for variable components.

本実施形態によれば、各種環境光下にて撮像された評価対象物の特定色領域を正確に可視化または/及び数値化することができる。 According to this embodiment, it is possible to accurately visualize and / or quantify a specific color region of an evaluation target imaged under various ambient lights.

[第2実施形態]
次に本発明の第2実施形態に係る情報処理装置200について、図2乃至図6を用いて説明する。図2を参照して、情報処理装置200の動作の概要を説明する。
[Second Embodiment]
Next, the information processing apparatus 200 according to the second embodiment of the present invention will be described with reference to FIGS. 2 to 6. An outline of the operation of the information processing apparatus 200 will be described with reference to FIG.

ユーザは、自身が所持するスマートフォンやタブレット端末などの携帯端末210を用いて、携帯端末210のディスプレイに表示された枠211の半分以上の領域に評価対象物が入るように、ユーザが評価を得たい対象である評価対象物220を撮像する。なお、図2では、評価対象物220は、ユーザの左前腕部分としているが、これには限定されない。 Using a mobile terminal 210 such as a smartphone or tablet terminal owned by the user, the user obtains an evaluation so that the evaluation target is placed in an area of more than half of the frame 211 displayed on the display of the mobile terminal 210. The evaluation object 220, which is the object to be evaluated, is imaged. In FIG. 2, the evaluation object 220 is the left forearm portion of the user, but the evaluation object 220 is not limited to this.

携帯端末210は、撮像された画像212を情報処理装置200へと送信する。情報処理装置200は、受信した画像212に対して種々の画像処理を行い、特定色領域213を画像212に重畳した重畳画像201を携帯端末210へと送信する。 The mobile terminal 210 transmits the captured image 212 to the information processing device 200. The information processing apparatus 200 performs various image processing on the received image 212, and transmits the superimposed image 201 in which the specific color region 213 is superimposed on the image 212 to the mobile terminal 210.

枠211の中に特定色領域213が含まれていても、含まれていなくてもよいが、含まれていない方が好ましい。そのため、携帯端末210のディスプレイに枠211を表示することにより、地色領域214が、画像212内のどの部分なのかを特定し易くしている。したがって、枠211の中に特定色領域213が含まれていない方が好ましい。また、枠211の大きさは、撮像された画像212の全画素の0.01%〜30%が含まれていることが好ましいが、全画素の0.2%〜15%が含まれていることがより好ましい。また、枠211の半分以上の領域に評価対象物が入るように撮像することが好ましいが、全ての領域に評価対象物が入るように撮像することがより好ましい。なお、携帯端末210に設けられているカメラから評価対象物220までの距離は、2cm〜2mであることが好ましいが、カメラレンズの性能に依存する。 The specific color region 213 may or may not be included in the frame 211, but it is preferable that the frame 211 is not included. Therefore, by displaying the frame 211 on the display of the mobile terminal 210, it is easy to identify which part of the image 212 the ground color region 214 is. Therefore, it is preferable that the frame 211 does not include the specific color region 213. Further, the size of the frame 211 is preferably 0.01% to 30% of all the pixels of the captured image 212, but includes 0.2% to 15% of all the pixels. Is more preferable. Further, it is preferable to take an image so that the evaluation object is contained in a region of half or more of the frame 211, but it is more preferable to take an image so that the evaluation object is contained in all the regions. The distance from the camera provided in the mobile terminal 210 to the evaluation object 220 is preferably 2 cm to 2 m, but it depends on the performance of the camera lens.

ユーザが、評価対象物220を含む画像212を撮像する条件は、様々であり、例えば、屋外の太陽光下で撮像したり、室内の蛍光灯光下やLED(Light Emitting Diode)光下で撮像したりする。すなわち、ユーザは、様々な照明環境(環境光)下で評価対象物220の撮像を行うが、照明環境により、特定色領域213の色味が変動するため、特定色領域213の抽出の成否は、照明環境に依存する。 There are various conditions for the user to image the image 212 including the evaluation object 220. For example, the image is taken under outdoor sunlight, indoor fluorescent light, or LED (Light Emitting Diode) light. Or something. That is, the user takes an image of the evaluation object 220 under various lighting environments (ambient light), but the color tone of the specific color region 213 changes depending on the lighting environment, so the success or failure of the extraction of the specific color region 213 is , Depends on the lighting environment.

そのため、情報処理装置200においては、受信した画像212に対して、照明環境による影響を低減するための画像処理を行う。情報処理装置200は、まず初めに、照明によるムラを低減させるため、画像212に対して、照明ムラ補正を行う。その後、情報処理装置200は、照明ムラ補正画像に対して、閾値を用いて2値化して、2値化画像を生成し、2値化画像から特定色領域213を抽出する。また、枠211の領域の色分布に基づき、地色領域214を抽出する。そして、情報処理装置200は、抽出された地色領域214に存在する特定色領域213を画像212に重畳した重畳画像201を生成して、携帯端末210へ送信する。携帯端末210は、受信した重畳画像201をディスプレイに表示する。これにより、ユーザは、評価対象物220のうち特定色領域213がどの部分に存在するかを容易に認識できる。 Therefore, in the information processing apparatus 200, the received image 212 is subjected to image processing for reducing the influence of the lighting environment. First, the information processing apparatus 200 corrects the illumination unevenness of the image 212 in order to reduce the unevenness due to the illumination. After that, the information processing apparatus 200 binarizes the illumination unevenness correction image using a threshold value to generate a binarized image, and extracts a specific color region 213 from the binarized image. Further, the ground color region 214 is extracted based on the color distribution of the region of the frame 211. Then, the information processing apparatus 200 generates a superimposed image 201 in which the specific color region 213 existing in the extracted ground color region 214 is superimposed on the image 212, and transmits the superimposed image 201 to the mobile terminal 210. The mobile terminal 210 displays the received superimposed image 201 on the display. As a result, the user can easily recognize in which portion of the evaluation object 220 the specific color region 213 exists.

次に、図3を参照して、情報処理装置200の構成について説明する。情報処理装置200は、画像取得部301、画像生成部302、画像演算部303、閾値決定部304、抽出部305および出力制御部306を備える。 Next, the configuration of the information processing apparatus 200 will be described with reference to FIG. The information processing apparatus 200 includes an image acquisition unit 301, an image generation unit 302, an image calculation unit 303, a threshold value determination unit 304, an extraction unit 305, and an output control unit 306.

画像取得部301は、地色領域214に特定色領域213を有する評価対象物220を含む画像212を取得する。なお、ここでは、特定色領域213は、赤み領域として説明するが、特定色領域213の色は、赤には限定されない。また、画像212は、RGB色空間の画像である、RGB画像である。 The image acquisition unit 301 acquires an image 212 including an evaluation object 220 having a specific color region 213 in the ground color region 214. Although the specific color region 213 is described here as a reddish region, the color of the specific color region 213 is not limited to red. Further, the image 212 is an RGB image, which is an image in the RGB color space.

画像生成部302は、取得した画像212を平滑化処理して、平滑化画像321を生成する。具体的には、画像生成部302は、まず、RGB画像である画像212をL色空間の画像であるL画像(以下、「Lab画像」と省略する)に変換する。 The image generation unit 302 smoothes the acquired image 212 to generate a smoothed image 321. Specifically, the image generation unit 302 first converts the RGB image 212 into an L * a * b * color space image L * a * b * image (hereinafter abbreviated as "Lab image"). Convert to.

そして、画像生成部302は、RGB画像をLab画像に変換した後に、変換されたLab画像のa値に対してフィルタ処理を行う。ここで、フィルタ処理は、平滑化処理であり、例えば、平均値フィルタや、ガウシアンフィルタ、移動平均フィルタ、メディアンフィルタ、荷重平均フィルタ、ローパスフィルタなどを含む。平滑化処理により、画像の輝度値が均され、画像の輝度ムラの低減に使用できる。 Then, the image generation unit 302 converts the RGB image into a Lab image, and then performs a filter process on the a * value of the converted Lab image. Here, the filtering process is a smoothing process, and includes, for example, an average value filter, a Gaussian filter, a moving average filter, a median filter, a load average filter, a low pass filter, and the like. By the smoothing process, the brightness value of the image is leveled, and it can be used to reduce the brightness unevenness of the image.

なお、RGB画像からの画像変換は、色相や色空間の変換、例えばL変換、グレースケール変換、HSV変換、YCbCr変換、XYZ変換、L変換、CMY変換、HLS変換であってもよく、これに限定されるものではない。そして、検出したい色味に応じて使用する画像変換(色変換)を変えることで、検出対象の色味を確実に検出できる。 The image conversion from the RGB image includes hue and color space conversion, such as L * a * b * conversion, grayscale conversion, HSV conversion, YCbCr conversion, XYZ conversion, L * u * v * conversion, and CMY conversion. It may be an HLS conversion, and is not limited to this. Then, by changing the image conversion (color conversion) to be used according to the color to be detected, the color to be detected can be reliably detected.

画像演算部303は、画像212の各成分と、画像212の各成分に対応する平滑化画像321の成分と、を減算または除算して、画像331(減除算画像)を生成する。ここで、画像演算部303による演算は、画像212から平滑化画像321を減算または除算しても、これとは反対に、平滑化画像321から画像212を減算または除算してもよい。画像演算部303は、平滑化処理前のa値の画像に対して、平滑化処理後のa画像を減算または除算する。これにより、画像212の照明ムラ補正ができる。例えば、a値により高い赤みを検出する場合には、画像212から平滑化画像321を減算するのが好ましい。なお、平滑化する画像は、L画像またはb画像であってもよい。 The image calculation unit 303 generates an image 331 (subtracted image) by subtracting or dividing each component of the image 212 and the component of the smoothed image 321 corresponding to each component of the image 212. Here, in the calculation by the image calculation unit 303, the smoothed image 321 may be subtracted or divided from the image 212, or conversely, the image 212 may be subtracted or divided from the smoothed image 321. The image calculation unit 303 subtracts or divides the a * image after the smoothing process from the image with the a * value before the smoothing process. As a result, the illumination unevenness of the image 212 can be corrected. For example, when detecting a high redness based on the a * value, it is preferable to subtract the smoothed image 321 from the image 212. The image to be smoothed may be an L * image or a b * image.

閾値決定部304は、画像212における枠211の領域の色分布を統計処理して統計値341を求め、統計値341に基づいて、画像331を2値化するための閾値342を決定する。閾値決定部304は、画像212をLab画像に変換した画像の枠211の領域のa値の中央値(統計値341)に対応する閾値342を決定する。 The threshold value determination unit 304 statistically processes the color distribution of the region of the frame 211 in the image 212 to obtain the statistical value 341, and determines the threshold value 342 for binarizing the image 331 based on the statistical value 341. The threshold value determination unit 304 determines the threshold value 342 corresponding to the median value (statistical value 341) of the a * value in the region of the frame 211 of the image obtained by converting the image 212 into a Lab image.

ここで、閾値342は、いくつかのa値の中央値に対して経験的に決められる値であり、a値の中央値に対してある値を閾値342とした場合の結果から導き出される。例えば、a値の中央値のいくつかに対して、経験的に得られる閾値342を割り当て、その結果から、最もよい結果を得られる閾値342をグラフ上にプロットする。そして、グラフ上にプロットされた閾値342に対して、指数近似、直線近似、対数近似、多項式近似などの各種近似を用いて、検量線を導出する。これにより、a値の中央値のそれぞれに対応する閾値342が導出される。このように、予めそれぞれのa値の中央値に対応する閾値342を決定しておくことで、その都度、閾値342を計算する必要がない。 Here, the threshold value 342 is the number of values empirically determined with respect to the median of the a * value is derived from the result of the case of the threshold 342 value with respect to the median of the a * value .. For example, an empirically obtained threshold value 342 is assigned to some of the medians of a * values, and the threshold value 342 that gives the best result is plotted on the graph. Then, a calibration curve is derived from the threshold value 342 plotted on the graph by using various approximations such as exponential approximation, straight line approximation, logarithmic approximation, and polynomial approximation. As a result, the threshold value 342 corresponding to each of the median a * values is derived. In this way, by determining the threshold value 342 corresponding to the median value of each a * value in advance, it is not necessary to calculate the threshold value 342 each time.

抽出部305は、決定した閾値342を用いて、画像331を、環境光条件およびカメラパラメータの少なくともいずれかの影響により変動する成分の影響が低減するように補正した2値化画像として、特定色領域213を抽出する。ここで、変動成分の補正は、例えば、画像331から色調補正値(環境光やホワイトバランス)による影響を除去することをいうが、これには限定されない。 The extraction unit 305 uses the determined threshold value 342 to correct the image 331 as a binarized image in which the influence of a component that fluctuates due to the influence of at least one of the ambient light condition and the camera parameter is reduced, as a specific color. Region 213 is extracted. Here, the correction of the fluctuation component means, for example, removing the influence of the color tone correction value (ambient light or white balance) from the image 331, but is not limited to this.

また、抽出部305は、枠211の領域の色分布に基づいて、地色を抽出する。これにより、地色領域214が決定される。地色領域214の抽出は、例えば、RGB画像である画像212をHSV画像に変換して行われる。すなわち、変換されたHSV画像の各輝度値の最大値および最小値を用いて、地色領域214の抽出を行う。具体的には、枠211の領域の、H値の最小値−20からH値の最大値+20,S値の最小値−20からS値の最大値+20,V値の最小値―20からV値の最大値+20の範囲を地色として、この範囲にある領域を二値化された地色領域214として抽出する。なお、ここでは、RGB画像をHSV画像に変換して地色領域214を抽出する例で説明したが、RGB画像の変換方法は、HSV変換には限定されない。HSV変換を用いる他に、例えば、L変換、YCbCr変換、XYZ変換、L変換、CMY変換およびHLS変換の平均値、中央値、最頻値、第一四分位数、第三四分位数、標準偏差、最大値、最小値、分散などから地色領域214を抽出してもよい。 Further, the extraction unit 305 extracts the ground color based on the color distribution in the region of the frame 211. As a result, the ground color region 214 is determined. The extraction of the ground color region 214 is performed, for example, by converting the image 212, which is an RGB image, into an HSV image. That is, the ground color region 214 is extracted using the maximum value and the minimum value of each luminance value of the converted HSV image. Specifically, in the area of the frame 211, the minimum value of the H value -20 to the maximum value of the H value +20, the minimum value of the S value -20 to the maximum value of the S value +20, and the minimum value of the V value -20 to V. The range of the maximum value +20 of the value is taken as the ground color, and the area in this range is extracted as the binarized ground color area 214. Although the example described here by converting an RGB image into an HSV image and extracting the ground color region 214, the conversion method of the RGB image is not limited to the HSV conversion. In addition to using HSV conversion, for example, L * a * b * conversion, YCbCr conversion, XYZ conversion, L * u * v * conversion, CMY conversion and HLS conversion mean, median, mode, quartile. The ground color region 214 may be extracted from the quantiles, the third quartile, the standard deviation, the maximum value, the minimum value, the variance, and the like.

出力制御部306は、抽出された地色領域214に存在する特定色領域213を画像212に重畳して出力する。携帯端末210は、出力制御部306が出力した重畳画像201をディスプレイに表示する。なお、特定色領域213が重畳される元の画像212は、静止画には限定されず、動画であってもよい。すなわち、出力制御部306は、ユーザが撮像した映像やライブ映像(画像212)に対して特定色領域213を重畳した映像を出力してもよい。 The output control unit 306 superimposes and outputs the specific color region 213 existing in the extracted ground color region 214 on the image 212. The mobile terminal 210 displays the superimposed image 201 output by the output control unit 306 on the display. The original image 212 on which the specific color region 213 is superimposed is not limited to a still image and may be a moving image. That is, the output control unit 306 may output an image in which the specific color region 213 is superimposed on the image captured by the user or the live image (image 212).

図4を参照して、情報処理装置200が有する閾値テーブル401の一例について説明する。閾値テーブル401は、中央値411に関連付けて閾値342を記憶する。中央値411は、a値の中央値である。閾値342は、画像331を2値化して、2値化画像を得るために用いられる基準値である。そして、閾値決定部304は、閾値テーブル401を参照して閾値342を決定する。 An example of the threshold table 401 included in the information processing apparatus 200 will be described with reference to FIG. The threshold table 401 stores the threshold 342 in association with the median 411. The median value 411 is the median value of the a * value. The threshold value 342 is a reference value used for binarizing the image 331 to obtain a binarized image. Then, the threshold value determination unit 304 determines the threshold value 342 with reference to the threshold value table 401.

図5を参照して、情報処理装置200のハードウェア構成について説明する。CPU(Central Processing Unit)510は、演算制御用のプロセッサであり、プログラムを実行することで図3の情報処理装置200の各機能構成を実現する。CPU510は複数のプロセッサを有し、異なるプログラムやモジュール、タスク、スレッドなどを並行して実行してもよい。ROM(Read Only Memory)520は、初期データおよびプログラムなどの固定データおよびその他のプログラムを記憶する。また、ネットワークインタフェース530は、ネットワークを介して他の装置などと通信する。なお、CPU510は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPU(Graphics Processing Unit)を含んでもよい。また、ネットワークインタフェース530は、CPU510とは独立したCPUを有して、RAM(Random Access Memory)540の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM540とストレージ550との間でデータを転送するDMAC(Direct Memory Access Controller)を設けるのが望ましい(図示なし)。さらに、CPU510は、RAM540にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU510は、処理結果をRAM540に準備し、後の送信あるいは転送はネットワークインタフェース530やDMACに任せる。 The hardware configuration of the information processing apparatus 200 will be described with reference to FIG. The CPU (Central Processing Unit) 510 is a processor for arithmetic control, and realizes each functional configuration of the information processing apparatus 200 of FIG. 3 by executing a program. The CPU 510 has a plurality of processors, and different programs, modules, tasks, threads, and the like may be executed in parallel. The ROM (Read Only Memory) 520 stores fixed data such as initial data and programs, and other programs. Further, the network interface 530 communicates with other devices and the like via the network. The CPU 510 is not limited to one, and may be a plurality of CPUs or may include a GPU (Graphics Processing Unit) for image processing. Further, it is desirable that the network interface 530 has a CPU independent of the CPU 510 and writes or reads transmission / reception data in the area of the RAM (Random Access Memory) 540. Further, it is desirable to provide a DMAC (Direct Memory Access Controller) for transferring data between the RAM 540 and the storage 550 (not shown). Further, the CPU 510 recognizes that the data has been received or transferred to the RAM 540 and processes the data. Further, the CPU 510 prepares the processing result in the RAM 540, and the subsequent transmission or transfer is left to the network interface 530 or the DMAC.

RAM540は、CPU510が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM540には、本実施形態の実現に必要なデータを記憶する領域が確保されている。画像データ541は、画像取得部301が取得した画像212に関するデータである。平滑化画像データ542は、画像212を平滑化処理して得られる平滑化画像321に関するデータである。減除算画像データ543は、画像212の各成分と、それに対応する平滑化画像321の成分と、を減算または除算して得られる画像331に関するデータである。閾値データ544は、閾値テーブル400から読み出された閾値に関するデータである。2値化画像データ545は、閾値342を用いて画像331を2値化した2値化画像に関するデータである。 The RAM 540 is a random access memory used by the CPU 510 as a temporary storage work area. The RAM 540 secures an area for storing data necessary for realizing the present embodiment. The image data 541 is data related to the image 212 acquired by the image acquisition unit 301. The smoothed image data 542 is data related to the smoothed image 321 obtained by smoothing the image 212. The subtraction / division image data 543 is data related to the image 331 obtained by subtracting or dividing each component of the image 212 and the corresponding component of the smoothed image 321. The threshold data 544 is data relating to the threshold value read from the threshold table 400. The binarized image data 545 is data relating to a binarized image obtained by binarizing the image 331 using the threshold value 342.

送受信データ546は、ネットワークインタフェース530を介して送受信されるデータである。また、RAM540は、各種アプリケーションモジュールを実行するためのアプリケーション実行領域547を有する。 The transmission / reception data 546 is data transmitted / received via the network interface 530. Further, the RAM 540 has an application execution area 547 for executing various application modules.

ストレージ550には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。ストレージ550は、閾値テーブル401を格納する。閾値テーブル401は、図4に示した中央値411と閾値342との関係を管理するテーブルである。 The storage 550 stores a database, various parameters, and the following data or programs necessary for realizing the present embodiment. The storage 550 stores the threshold table 401. The threshold table 401 is a table that manages the relationship between the median value 411 and the threshold value 342 shown in FIG.

ストレージ550は、さらに、画像取得モジュール551、画像生成モジュール552、画像演算モジュール553、閾値決定モジュール554および抽出モジュール555を格納する。画像取得モジュール551は、地色領域214に特定色領域213を有する評価対象物220を含む画像212を取得するモジュールである。画像生成モジュール552は、画像212を平滑化処理して平滑化画像321を生成するモジュールである。画像演算モジュール553は、画像212と平滑化画像321とを減算または除算して、画像331を生成するモジュールである。閾値決定モジュール554は、画像212における枠211の領域の色分布を統計処理した統計値から画像331を2値化するための閾値342を決定するモジュールである。抽出モジュール555は、閾値342を用いて、画像331を、変動成分を補正した2値化画像として、特定色領域213を抽出するモジュールである。抽出モジュール555は、枠211の領域の色分布に基づいて、地色領域214を抽出するモジュールである。これらのモジュール551〜555は、CPU510によりRAM540のアプリケーション実行領域547に読み出され、実行される。制御プログラム556は、情報処理装置200の全体を制御するためのプログラムである。 The storage 550 further stores an image acquisition module 551, an image generation module 552, an image calculation module 553, a threshold determination module 554, and an extraction module 555. The image acquisition module 551 is a module for acquiring an image 212 including an evaluation object 220 having a specific color region 213 in the ground color region 214. The image generation module 552 is a module that smoothes the image 212 to generate a smoothed image 321. The image calculation module 553 is a module that generates an image 331 by subtracting or dividing an image 212 and a smoothed image 321. The threshold value determination module 554 is a module that determines a threshold value 342 for binarizing the image 331 from the statistical value obtained by statistically processing the color distribution of the region of the frame 211 in the image 212. The extraction module 555 is a module that extracts a specific color region 213 as a binarized image in which the image 331 is corrected for fluctuation components by using the threshold value 342. The extraction module 555 is a module that extracts the ground color region 214 based on the color distribution of the region of the frame 211. These modules 551 to 555 are read by the CPU 510 into the application execution area 547 of the RAM 540 and executed. The control program 556 is a program for controlling the entire information processing apparatus 200.

入出力インタフェース560は、入出力機器との入出力データをインタフェースする。入出力インタフェース560には、表示部561、操作部562、が接続される。また、入出力インタフェース560には、さらに、記憶媒体564が接続されてもよい。さらに、音声出力部であるスピーカ563や、音声入力部であるマイク(図示せず)、あるいは、GPS位置判定部が接続されてもよい。なお、図5に示したRAM540やストレージ550には、情報処理装置200が有する汎用の機能や他の実現可能な機能に関するプログラムやデータは図示されていない。 The input / output interface 560 interfaces input / output data with an input / output device. A display unit 561 and an operation unit 562 are connected to the input / output interface 560. Further, a storage medium 564 may be further connected to the input / output interface 560. Further, a speaker 563 which is an audio output unit, a microphone (not shown) which is an audio input unit, or a GPS position determination unit may be connected. The RAM 540 and the storage 550 shown in FIG. 5 do not show programs or data related to general-purpose functions and other feasible functions of the information processing apparatus 200.

図6のフローチャートを参照して、情報処理装置200の処理手順について説明する。このフローチャートは、図5のCPU510がRAM540を使用して実行し、図3の情報処理装置200の各機能構成を実現する。ステップS601において、画像取得部301は、画像212を取得する。ステップS603において、画像生成部302は、画像212を平滑化処理して、平滑化画像321を生成する。ステップS605において、減除算画像を生成する。ステップS607において、閾値決定部304は、画像212における枠211の領域の色分布を統計処理して統計値341を求める。ステップS609において、閾値決定部304は、統計値341に基づいて閾値342を決定する。ステップS611において、抽出部305は、画像331から変動成分を補正した2値化画像を生成する。ステップS613において、抽出部305は、特定色領域213を抽出する。ステップS615において、抽出部305は、地色領域214を抽出する。ステップS617において、出力制御部306は、重畳画像201を出力する。 The processing procedure of the information processing apparatus 200 will be described with reference to the flowchart of FIG. This flowchart is executed by the CPU 510 of FIG. 5 using the RAM 540, and realizes each functional configuration of the information processing apparatus 200 of FIG. In step S601, the image acquisition unit 301 acquires the image 212. In step S603, the image generation unit 302 smoothes the image 212 to generate a smoothed image 321. In step S605, a division / division image is generated. In step S607, the threshold value determination unit 304 statistically processes the color distribution of the region of the frame 211 in the image 212 to obtain the statistical value 341. In step S609, the threshold value determination unit 304 determines the threshold value 342 based on the statistical value 341. In step S611, the extraction unit 305 generates a binarized image in which the variation component is corrected from the image 331. In step S613, the extraction unit 305 extracts the specific color region 213. In step S615, the extraction unit 305 extracts the ground color region 214. In step S617, the output control unit 306 outputs the superimposed image 201.

本実施形態によれば、評価対象物220に含まれる特定色領域213を元の画像212に重畳して表示するので、特定色領域213の存在する場所を視覚的に容易に認識できる。また、照明環境の影響を排除して、特定色領域213の抽出を行うので、どのような照明環境であっても特定色領域213の抽出を精度高く行える。 According to the present embodiment, since the specific color region 213 included in the evaluation object 220 is superimposed and displayed on the original image 212, the location where the specific color region 213 exists can be easily visually recognized. Further, since the specific color region 213 is extracted by eliminating the influence of the lighting environment, the specific color region 213 can be extracted with high accuracy in any lighting environment.

なお、上述の説明では、情報処理装置200として、サーバを例に説明をしたが、情報処理装置200が備える各機能構成は、例えば、スマートフォンやタブレット端末、PC(Personal Computer)に実装されてもよい。各機能構成がスマートフォンやタブレット端末などの携帯端末に実装される場合は、携帯端末とサーバとの間の通信は不要となる。 In the above description, the information processing device 200 has been described by taking a server as an example, but each functional configuration included in the information processing device 200 may be mounted on, for example, a smartphone, a tablet terminal, or a PC (Personal Computer). good. When each functional configuration is implemented in a mobile terminal such as a smartphone or tablet terminal, communication between the mobile terminal and the server becomes unnecessary.

[第3実施形態]
次に本発明の第3実施形態に係る情報処理装置700について、図7〜図10を用いて説明する。図7は、本実施形態に係る情報処理装置700の構成を示すブロック図である。本実施形態に係る情報処理装置700は、上記第2実施形態と比べると、スコア化部701を有する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
[Third Embodiment]
Next, the information processing apparatus 700 according to the third embodiment of the present invention will be described with reference to FIGS. 7 to 10. FIG. 7 is a block diagram showing the configuration of the information processing apparatus 700 according to the present embodiment. The information processing apparatus 700 according to the present embodiment is different from the second embodiment in that it has a scoring unit 701. Since other configurations and operations are the same as those in the second embodiment, the same configurations and operations are designated by the same reference numerals and detailed description thereof will be omitted.

情報処理装置700は、スコア化部701を有する。スコア化部701は、地色領域214に対する特定色領域213の割合に基づいて、特定色領域213の存在の程度をスコア化する。具体的には、スコア化部701は、地色領域214に占める特定色領域213の割合(P)に基づいて、スコア(S)を算出する。スコア化部701は、例えば、P=0〜0.1%の場合、S=0、P=0.1%〜1.0%の場合、S=1、P=1.0%〜5.0%の場合、S=2、P>5.0%の場合、S=3とする。なお、ここでは、0〜3の4段階で評価したが、例えば、10段階評価をしても、あるいは、A〜Eなどのランク評価をしても、0〜100の点数評価をしてもよく、これらには限定されない。 The information processing apparatus 700 has a scoring unit 701. The scoring unit 701 scores the degree of existence of the specific color region 213 based on the ratio of the specific color region 213 to the ground color region 214. Specifically, the scoring unit 701 calculates the score (S) based on the ratio (P) of the specific color region 213 to the ground color region 214. The scoring unit 701 is, for example, S = 0 when P = 0 to 0.1%, S = 1 when P = 0.1% to 1.0%, and P = 1.0% to 5. In the case of 0%, S = 2, and in the case of P> 5.0%, S = 3. Here, the evaluation is made on a 4-point scale of 0 to 3, but for example, a 10-point evaluation, a rank evaluation such as A to E, or a score evaluation of 0 to 100 is also possible. Well, but not limited to these.

図8を参照して、情報処理装置700が有するスコア化テーブル801の一例について説明する。スコア化テーブル801は、特定色領域割合811に関連付けてスコア812を記憶する。特定色領域割合811は、地色領域214に占める特定色領域213の割合(P)である。スコア812は、割合(P)に基づいて決められる値である。ここでは、0〜3までの4段階でスコア化しているが、スコア化の手法はこれには限定されない。 An example of the scoring table 801 included in the information processing apparatus 700 will be described with reference to FIG. The scoring table 801 stores the score 812 in association with the specific color region ratio 811. The specific color region ratio 811 is the ratio (P) of the specific color region 213 to the ground color region 214. The score 812 is a value determined based on the ratio (P). Here, scoring is performed in four stages from 0 to 3, but the scoring method is not limited to this.

図9を参照して、情報処理装置700のハードウェア構成について説明する。RAM940は、CPU510が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM940には、本実施形態の実現に必要なデータを記憶する領域が確保されている。割合データ941は、地色領域214に占める特定色領域213の割合を表すデータである。スコアデータ942は、割合(P)に対応して決定されるスコアに関するデータである。 The hardware configuration of the information processing apparatus 700 will be described with reference to FIG. 9. The RAM 940 is a random access memory used by the CPU 510 as a temporary storage work area. The RAM 940 secures an area for storing data necessary for realizing the present embodiment. The ratio data 941 is data representing the ratio of the specific color region 213 to the ground color region 214. The score data 942 is data relating to the score determined corresponding to the ratio (P).

ストレージ950は、スコア化テーブル801を格納する。スコア化テーブル801は、特定色領域割合811とスコア812との関係を管理するテーブルである。ストレージ950は、さらに、スコア化モジュール951を格納する。スコア化モジュール951は、地色領域214に対する特定色領域213の割合に基づき、特定色領域213の存在の程度をスコア化するモジュールである。 The storage 950 stores the scoring table 801. The scoring table 801 is a table that manages the relationship between the specific color region ratio 811 and the score 812. The storage 950 further stores the scoring module 951. The scoring module 951 is a module for scoring the degree of existence of the specific color region 213 based on the ratio of the specific color region 213 to the ground color region 214.

図10のフローチャートを参照して、情報処理装置700の処理手順について説明する。このフローチャートは、図9のCPU510がRAM940を使用して実行し、図7の情報処理装置700の各機能構成を実現する。ステップS1001において、スコア化部701は、地色領域214に占める特定色領域213の割合を算出する。ステップS1003において、スコア化部701は、算出した割合に基づいて、特定色領域213の存在の程度をスコア化する。ステップS1005において、出力制御部306は、重畳画像201にさらにスコアを重畳して出力する。 The processing procedure of the information processing apparatus 700 will be described with reference to the flowchart of FIG. This flowchart is executed by the CPU 510 of FIG. 9 using the RAM 940, and realizes each functional configuration of the information processing apparatus 700 of FIG. In step S1001, the scoring unit 701 calculates the ratio of the specific color region 213 to the ground color region 214. In step S1003, the scoring unit 701 scores the degree of existence of the specific color region 213 based on the calculated ratio. In step S1005, the output control unit 306 further superimposes the score on the superposed image 201 and outputs the score.

本実施形態によれば、評価対象物の特定色領域の割合をスコア化するので、肌の改善の度合いを容易に把握できる。 According to this embodiment, since the ratio of the specific color region of the evaluation target is scored, the degree of skin improvement can be easily grasped.

[実施例1]
次に、図11A〜図11Bを参照して本実施形態の実施例1について説明する。なお、本実施例においては、肌領域(地色領域214)の赤み領域(特定色領域213)を抽出する例で説明する。情報処理装置700は、肌を写した肌画像をRGB画像からLab画像へと変換する(1101→1102)。次に、情報処理装置700は、変換されたLab画像のa値に対してフィルタ処理として平滑化処理を行う(1103)。そして、情報処理装置700は、平滑化処理前のa値画像(1102)に対して、平滑化処理後のa値画像(1103)を減算する(1104)。画像の任意領域(枠211の領域)の色分布を統計処理して統計値を求め、求めた統計値に基づいて2値化するための閾値342を算出する(1105)。閾値342の算出には、予め異なる撮影条件で撮影された同一の画像に存在する特定色領域の面積が、各枠211の領域のa*値の中央値に応じて同値となるように閾値342を割り当てて、検量線1151を作成し、作成した検量線1151から閾値342を算出する。そして、減算された画像(1104)に対して、算出した閾値342を用いて、2値化して赤み領域を検出する(1104→1106)。すなわち、減算された画像(1104)において、所定輝度値以上の値を持つ画素と、所定輝度値未満の値を持つ画素とを峻別することにより、2値化された画像(1106)を生成し、赤み領域を検出する。
[Example 1]
Next, the first embodiment of the present embodiment will be described with reference to FIGS. 11A to 11B. In this embodiment, an example of extracting a reddish region (specific color region 213) of the skin region (ground color region 214) will be described. The information processing apparatus 700 converts a skin image showing the skin from an RGB image to a Lab image (1101 → 1102). Next, the information processing apparatus 700 performs a smoothing process as a filter process on the a * value of the converted Lab image (1103). Then, the information processing apparatus 700, to the pre-smoothing process a * value image (1102), subtracts the post-smoothing a * value image (1103) (1104). The color distribution of an arbitrary region (the region of the frame 211) of the image is statistically processed to obtain a statistical value, and a threshold value 342 for binarization is calculated based on the obtained statistical value (1105). In the calculation of the threshold value 342, the threshold value 342 is set so that the area of the specific color region existing in the same image shot under different shooting conditions in advance becomes the same value according to the median a * value of the region of each frame 211. Is assigned, a calibration curve 1151 is created, and a threshold value 342 is calculated from the created calibration curve 1151. Then, the subtracted image (1104) is binarized using the calculated threshold value 342 to detect the reddish region (1104 → 1106). That is, in the subtracted image (1104), a binarized image (1106) is generated by distinguishing a pixel having a value equal to or more than a predetermined luminance value and a pixel having a value less than a predetermined luminance value. , Detects reddish areas.

次に、情報処理装置700は、肌が写っている画像の任意領域(枠211の領域)の色分布から肌領域を検出した二値化画像を生成する(1101→1108)。肌領域の検出は、RGB画像をHSV画像に変換した画像を用いて行われる。そして、肌領域は、例えば、任意領域(枠211の領域)のH値の最小値―20からH値の最大値+20,S値の最小値−20からS値の最大値+20,V値の最小値―20からV値の最小値+20の範囲の領域として検出される。そして、赤み領域を検出した画像と肌部位を検出した画像を乗算する(1106×1108=1109)。これにより、赤み領域のみを含む画像が得られる。そして、情報処理装置700は、得られた赤み領域(1109)の画像を元の画像(1101)に重畳して、重畳画像201を出力する。次に、情報処理装置700は、肌色領域(1108)の面積に対する赤み領域(1109)の面積の割合を算出する。そして、算出された赤み領域の割合に応じて赤みスコアを決定する。決定された赤みスコアは、重畳画像201とともに出力される。 Next, the information processing apparatus 700 generates a binarized image in which the skin region is detected from the color distribution of the arbitrary region (the region of the frame 211) of the image in which the skin is captured (1101 → 1108). The detection of the skin region is performed using an image obtained by converting an RGB image into an HSV image. The skin region is, for example, from the minimum value of H value -20 to the maximum value of H value +20 in the arbitrary region (the region of the frame 211), the minimum value of S value -20 to the maximum value of S value +20, and the V value. It is detected as a region in the range of the minimum value -20 to the minimum value +20 of the V value. Then, the image in which the reddish region is detected is multiplied by the image in which the skin portion is detected (1106 × 1108 = 1109). As a result, an image containing only the reddish region can be obtained. Then, the information processing apparatus 700 superimposes the obtained image of the reddish region (1109) on the original image (1101) and outputs the superposed image 201. Next, the information processing apparatus 700 calculates the ratio of the area of the reddish region (1109) to the area of the skin color region (1108). Then, the redness score is determined according to the calculated ratio of the redness region. The determined redness score is output together with the superimposed image 201.

[実施例2]
次に、図12を参照して本実施形態の実施例2について説明する。本実施例は、異なる3つの環境光下において、肌領域(地色領域214)の赤み領域(特定色領域213)を抽出する例である。図12の上段が、ユーザが撮像した画像であり、図12の下段が、検出結果を示す図である。なお、赤み領域の検出のプロセスは、上記実施例1と同様であるので、説明を省略し、結果のみを提示している。
[Example 2]
Next, a second embodiment of the present embodiment will be described with reference to FIG. This embodiment is an example of extracting a reddish region (specific color region 213) of a skin region (ground color region 214) under three different ambient lights. The upper part of FIG. 12 is an image captured by the user, and the lower part of FIG. 12 is a diagram showing a detection result. Since the process of detecting the reddish region is the same as that of the first embodiment, the description thereof is omitted and only the result is presented.

ここで、画像1201は、人工光源環境であり、昼光色照明(色温度:5700K〜7100K)の下で撮像された画像である。画像1202は、自然光源環境であり、太陽光(色温度:5000K〜6000K)の下で、画像1203は、人工光源環境であり、電球色照明(色温度:2600K〜3250K)の下で撮像された画像である。図12の下段に示したように、様々な環境光下であっても、赤み領域を正確に検出し、重畳画像1204,1205,1206として出力できている。 Here, the image 1201 is an artificial light source environment, and is an image captured under daylight color illumination (color temperature: 5700K to 7100K). Image 1202 is a natural light source environment and is imaged under sunlight (color temperature: 5000K to 6000K), and image 1203 is an artificial light source environment and is imaged under light bulb color lighting (color temperature: 2600K to 3250K). It is an image. As shown in the lower part of FIG. 12, even under various ambient lights, the reddish region can be accurately detected and output as a superposed image 1204, 1205, 1206.

[実施例3]
次に、図13を参照して本実施形態の実施例3について説明する。本実施例は、異なる3つの環境光下において、肌領域(地色領域214)から赤み領域(特定色領域213)を抽出する例である。本実施例は、上記実施例2と異なり、様々な環境光下で撮像された画像の枠211の中に赤み領域(特定色領域1311,1321,1331)が写り込んでいる画像から、赤み領域を抽出する例である。図13の上段が、ユーザが撮像した画像であり、図13の下段が、検出結果を示す図である。なお、赤み領域の検出のプロセスは、上記実施例1と同様であるので、説明を省略し、結果のみを提示している。
[Example 3]
Next, a third embodiment of the present embodiment will be described with reference to FIG. This embodiment is an example of extracting a reddish region (specific color region 213) from a skin region (ground color region 214) under three different ambient lights. Unlike the second embodiment, this embodiment is different from the second embodiment in that the reddish region (specific color region 1311, 1321, 1331) is reflected in the frame 211 of the image captured under various ambient lights. Is an example of extracting. The upper part of FIG. 13 is an image captured by the user, and the lower part of FIG. 13 is a diagram showing a detection result. Since the process of detecting the reddish region is the same as that of the first embodiment, the description thereof is omitted and only the result is presented.

ここで、画像1301,1302、1303における環境光は、図12に示した、画像1201,1202,1203のそれぞれと対応している。そして、図13の下段に示したように、枠211の中に赤み領域が入り込んでいても、赤み領域を正確に検出し、重畳画像1304,1305,1306として出力できている。 Here, the ambient light in the images 1301, 1302, 1303 corresponds to each of the images 1201, 1202, 1203 shown in FIG. Then, as shown in the lower part of FIG. 13, even if the reddish region is included in the frame 211, the reddish region can be accurately detected and output as superimposed images 1304, 1305, 1306.

[他の実施形態]
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。
[Other embodiments]
Although the invention of the present application has been described above with reference to the embodiments, the invention of the present application is not limited to the above-described embodiment. Various changes that can be understood by those skilled in the art can be made within the scope of the present invention in terms of the configuration and details of the present invention. Also included in the scope of the present invention are systems or devices in which the different features contained in each embodiment are combined in any way.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する情報処理プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。 Further, the present invention may be applied to a system composed of a plurality of devices, or may be applied to a single device. Furthermore, the present invention is also applicable when the information processing program that realizes the functions of the embodiment is directly or remotely supplied to the system or device. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium containing the program, and a WWW (World Wide Web) server for downloading the program are also included in the scope of the present invention. .. In particular, at least a non-transitory computer readable medium containing a program for causing a computer to execute the processing steps included in the above-described embodiment is included in the scope of the present invention.

100 情報処理装置
101 画像取得部
111 第1画像
102 画像生成部
121 第2画像
103 画像演算部
131 第3画像
104 閾値決定部
141 統計値
142 閾値
105 抽出部
151 特定色領域
200 情報処理装置
201 重畳画像
210 携帯端末
211 枠
212 画像
213 特定色領域
214 地色領域
220 評価対象物
301 画像取得部
302 画像生成部
321 平滑化画像
303 画像演算部
331 画像
304 閾値決定部
341 統計値
342 閾値
305 抽出部
351 重畳画像
306 出力制御部
401 閾値テーブル
510 CPU
520 ROM
530 ネットワークインタフェース
540 RAM
550 ストレージ
560 入出力インタフェース
700 情報処理装置
701 スコア化部
801 スコア化テーブル
940 RAM
950 ストレージ
100 Information processing device 101 Image acquisition unit 111 Image acquisition unit 111 First image 102 Image generation unit 121 Second image 103 Image calculation unit 131 Third image 104 Threshold determination unit 141 Statistical value 142 Threshold 105 Extraction unit 151 Specific color area 200 Information processing device 201 Superimposition Image 210 Mobile terminal 211 Frame 212 Image 213 Specific color area 214 Ground color area 220 Evaluation target 301 Image acquisition unit 302 Image generation unit 321 Smoothed image 303 Image calculation unit 331 Image 304 Threshold determination unit 341 Statistical value 342 Threshold 305 Extraction unit 351 Superimposed image 306 Output control unit 401 Threshold table 510 CPU
520 ROM
530 network interface 540 RAM
550 Storage 560 I / O interface 700 Information processing device 701 Scoring unit 801 Scoring table 940 RAM
950 storage

Claims (13)

地色領域に特定色領域を有する評価対象物を含む第1画像を取得する画像取得部と、
取得した前記第1画像を平滑化処理して、第2画像を生成する画像生成部と、
前記第1画像の各成分と、前記第1画像の各成分に対応する前記第2画像の成分と、を減算または除算して、第3画像を生成する画像演算部と、
前記第1画像における任意領域の色分布を統計処理して統計値を求め、前記統計値に基づいて前記第3画像を2値化するための閾値を決定する閾値決定部と、
決定した前記閾値を用いて、前記第3画像を、変動成分を補正した2値化画像として、前記特定色領域を抽出する抽出部と、
を備える情報処理装置。
An image acquisition unit that acquires a first image including an evaluation object having a specific color region in the ground color region, and an image acquisition unit.
An image generation unit that smoothes the acquired first image to generate a second image,
An image calculation unit that generates a third image by subtracting or dividing each component of the first image and the component of the second image corresponding to each component of the first image.
A threshold value determining unit that statistically processes the color distribution of an arbitrary region in the first image to obtain a statistical value and determines a threshold value for binarizing the third image based on the statistical value.
Using the determined threshold value, the third image is used as a binarized image corrected for variable components, and an extraction unit for extracting the specific color region.
Information processing device equipped with.
前記抽出部は、前記任意領域の色分布に基づいて、前記地色領域を抽出する請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the extraction unit extracts the ground color region based on the color distribution of the arbitrary region. 前記第1画像は、RGB画像であり、
前記抽出部は、RGB画像をHSV画像に変換した後に、前記地色領域を抽出する請求項2に記載の情報処理装置。
The first image is an RGB image and is an RGB image.
The information processing apparatus according to claim 2, wherein the extraction unit extracts the ground color region after converting an RGB image into an HSV image.
抽出された前記地色領域に存在する前記特定色領域を前記第1画像に重畳して出力する出力制御部をさらに備える請求項1〜3のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, further comprising an output control unit that superimposes and outputs the specific color region existing in the extracted ground color region on the first image. 前記地色領域に対する前記特定色領域の割合に基づき、前記特定色領域の存在の程度をスコア化するスコア化部をさらに備える請求項1〜4のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 4, further comprising a scoring unit for scoring the degree of existence of the specific color region based on the ratio of the specific color region to the ground color region. 予め決定されている、前記統計値と前記閾値との関係に基づいて、前記閾値決定部は、前記閾値決定部で求められた前記統計値から前記閾値を決定する、請求項1〜5のいずれか1項に記載の情報処理装置。 Any of claims 1 to 5, wherein the threshold value determination unit determines the threshold value from the statistical value obtained by the threshold value determination unit based on a predetermined relationship between the statistical value and the threshold value. The information processing apparatus according to item 1. 前記第1画像は、RGB画像であり、
前記画像生成部は、RGB画像をL画像に変換した後に、平滑化処理を行う、請求項1〜6のいずれか1項に記載の情報処理装置。
The first image is an RGB image and is an RGB image.
The information processing apparatus according to any one of claims 1 to 6, wherein the image generation unit performs smoothing processing after converting an RGB image into an L * a * b * image.
前記色分布は、L画像である請求項1〜7のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the color distribution is an L * a * b * image. 前記統計値は、a値の中央値である請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8, wherein the statistical value is the median value of a * value. 前記画像生成部は、L画像、a画像またはb画像のいずれか1画像に平滑化処理を行う、請求項1〜9のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9, wherein the image generation unit performs smoothing processing on any one of L * image, a * image, and b * image. 前記変動成分は、環境光条件およびカメラパラメータの少なくともいずれかの影響により変動する成分である請求項1〜10のいずれか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 10, wherein the variable component is a component that fluctuates due to the influence of at least one of an ambient light condition and a camera parameter. 地色領域に特定色領域を有する評価対象物を含む第1画像を取得する画像取得ステップと、
取得した前記第1画像を平滑化処理して、第2画像を生成する画像生成ステップと、
前記第1画像の各成分と、前記第1画像の各成分に対応する前記第2画像の成分と、を減算または除算して、第3画像を生成する画像演算ステップと、
前記第1画像における任意領域の色分布を統計処理して統計値を求め、前記統計値に基づき前記第3画像を2値化するための閾値を決定する閾値決定ステップと、
決定した前記閾値を用いて、前記第3画像を、変動成分を補正した2値化画像として、前記特定色領域を抽出する抽出ステップと、
を含む情報処理方法。
An image acquisition step of acquiring a first image including an evaluation object having a specific color region in the ground color region, and
An image generation step of smoothing the acquired first image to generate a second image, and
An image calculation step for generating a third image by subtracting or dividing each component of the first image and the component of the second image corresponding to each component of the first image.
A threshold determination step of statistically processing the color distribution of an arbitrary region in the first image to obtain a statistical value and determining a threshold value for binarizing the third image based on the statistical value.
Using the determined threshold value, the third image is used as a binarized image corrected for variable components, and an extraction step of extracting the specific color region.
Information processing methods including.
地色領域に特定色領域を有する評価対象物を含む第1画像を取得する画像取得ステップと、
取得した前記第1画像を平滑化処理して、第2画像を生成する画像生成ステップと、
前記第1画像の各成分と、前記第1画像の各成分に対応する前記第2画像の成分と、を減算または除算して、第3画像を生成する画像演算ステップと、
前記第1画像における任意領域の色分布を統計処理して統計値を求め、前記統計値に基づき前記第3画像を2値化するための閾値を決定する閾値決定ステップと、
決定した前記閾値を用いて、前記第3画像を、変動成分を補正した2値化画像として、前記特定色領域を抽出する抽出ステップと、
をコンピュータに実行させる情報処理プログラム。
An image acquisition step of acquiring a first image including an evaluation object having a specific color region in the ground color region, and
An image generation step of smoothing the acquired first image to generate a second image, and
An image calculation step for generating a third image by subtracting or dividing each component of the first image and the component of the second image corresponding to each component of the first image.
A threshold determination step of statistically processing the color distribution of an arbitrary region in the first image to obtain a statistical value and determining a threshold value for binarizing the third image based on the statistical value.
Using the determined threshold value, the third image is used as a binarized image corrected for variable components, and an extraction step of extracting the specific color region.
An information processing program that causes a computer to execute.
JP2020097324A 2020-06-04 2020-06-04 Information processing device, information processing method and information processing program Pending JP2021189979A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020097324A JP2021189979A (en) 2020-06-04 2020-06-04 Information processing device, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020097324A JP2021189979A (en) 2020-06-04 2020-06-04 Information processing device, information processing method and information processing program

Publications (1)

Publication Number Publication Date
JP2021189979A true JP2021189979A (en) 2021-12-13

Family

ID=78850002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020097324A Pending JP2021189979A (en) 2020-06-04 2020-06-04 Information processing device, information processing method and information processing program

Country Status (1)

Country Link
JP (1) JP2021189979A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7334922B1 (en) * 2023-04-20 2023-08-29 株式会社中京メディカル Image processing device, image processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7334922B1 (en) * 2023-04-20 2023-08-29 株式会社中京メディカル Image processing device, image processing method and program

Similar Documents

Publication Publication Date Title
CN111986178A (en) Product defect detection method and device, electronic equipment and storage medium
CN109856164B (en) Optimization device for acquiring large-range images by machine vision and detection method thereof
US8559713B2 (en) Computer readable storage medium, image correction apparatus, and image correction method
CN108876742B (en) Image color enhancement method and device
JP6779688B2 (en) Image processing equipment, image processing method, computer program
CN113902641B (en) Data center hot zone judging method and system based on infrared image
CN111712021A (en) Intelligent adjusting method, device and system for lamplight of art gallery
US20200292463A1 (en) Apparatus for optimizing inspection of exterior of target object and method thereof
CN113192027B (en) Detection method and application of high-power LED module packaging defects
JP2021189979A (en) Information processing device, information processing method and information processing program
JP2015092643A (en) Image processing device, image processing method thereof, computer program and image processing system
CN116823674B (en) Cross-modal fusion underwater image enhancement method
CN107424134B (en) Image processing method, image processing device, computer-readable storage medium and computer equipment
CN114155179A (en) Light source defect detection method, device, equipment and storage medium
CN116402820A (en) Detection method, detection device, detection equipment and storage medium
CN114023249A (en) LED display screen image light point extraction method and device and LED display screen correction method
CN115002320B (en) Light intensity adjusting method, device and system based on visual detection and processing equipment
JP2005346474A (en) Image processing method and image processor and program and storage medium
CN115479891A (en) Automatic detection system and method for circuit board mounted components based on image recognition
KR101383827B1 (en) System and method for automatic extraction of soldering regions in pcb
JP4961370B2 (en) Inspection method and inspection apparatus
JP2007025901A (en) Image processor and image processing method
JP6565513B2 (en) Color correction device, color correction method, and computer program for color correction
JP2015092301A (en) Image processing apparatus and image processing method of the same, and computer program and image processing system
CN117237939B (en) Image data-based detection method and device for food maturity of young cooker