JP2009003842A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2009003842A
JP2009003842A JP2007166101A JP2007166101A JP2009003842A JP 2009003842 A JP2009003842 A JP 2009003842A JP 2007166101 A JP2007166101 A JP 2007166101A JP 2007166101 A JP2007166101 A JP 2007166101A JP 2009003842 A JP2009003842 A JP 2009003842A
Authority
JP
Japan
Prior art keywords
image
specific object
processing unit
labeling
reduced image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007166101A
Other languages
Japanese (ja)
Inventor
Koji Kita
耕次 北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Noritsu Koki Co Ltd
Original Assignee
Noritsu Koki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Noritsu Koki Co Ltd filed Critical Noritsu Koki Co Ltd
Priority to JP2007166101A priority Critical patent/JP2009003842A/en
Publication of JP2009003842A publication Critical patent/JP2009003842A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor having a labeling function for surely extracting a specific object in a short time from an image, without causing an overflow, even when having a stack memory of small capacity. <P>SOLUTION: This image processor has a reduction processing part 20 for generating a reduction image by reducing an original image at a reduction rate determined according to an expected pixel size of the specific object included in the original image, a reduction image labeling processing part 24 for extracting a specific object area included in the reduction image by attaching the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the reduction image, and an object identifying processing part 26 identifying an object as the specific object included in the original image by enlarging the specific object area extracted by the reduction image labeling processing part 24 into a size of the original image. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、画像に含まれる特定オブジェクトの領域を抽出するラベリング処理部を備えた画像処理装置または画像処理方法に関し、特に、撮像装置で撮影された人の顔画像情報に基づいて、染み、毛穴、皺等、顔の肌の変色部位の特性情報を抽出するための画像処理装置及び画像処理方法に関する。   The present invention provides an image processing apparatus or image having a labeling processing unit that extracts a region of a specific object included in an image by attaching the same label to a plurality of continuous pixels having the same attribute among pixels constituting the image. More particularly, the present invention relates to an image processing apparatus and an image processing method for extracting characteristic information of discolored parts of facial skin such as stains, pores, wrinkles, and the like based on human face image information captured by an imaging apparatus. .

美容外科やエステティックサロン等では、染み、毛穴の汚れ、皺等、顔の肌の状態を改善する美容施術の前後に、肌の状態がどの程度改善されたかを客観的に判断するため、撮像装置で人の顔画像を撮影し、撮影した顔画像に対して所定の画像処理を行なって、染み、毛穴の汚れ、皺等の状態を評価する必要がある。   In cosmetic surgery and esthetic salons, an imaging device is used to objectively determine how much the skin condition has improved before and after cosmetic treatments that improve the skin condition of the face, such as stains, pore dirt, wrinkles, etc. Thus, it is necessary to take a human face image, perform predetermined image processing on the taken face image, and evaluate the state of stain, pore dirt, wrinkles, and the like.

そのため、特許文献1では、デジタルカメラで撮影した顔全体の撮影画像データに少なくとも1個の処理領域を設定して処理領域の画像データを切り出し、切り出した処理領域の画像データを処理して皮膚のパラメータを演算するデジタルズーム肌診断装置において、撮像素子の画素数が多いデジタルカメラで出力データサイズの大きな顔全体の高解像度画像を撮影し、画像上で任意に配置を設定可能な解析線を重ねた処理領域の拡大画像と並べて、この解析線に沿った濃度分布のグラフをモニタ画面に表示し、このグラフ上で設定したしきい値に基づいて濃度分布の凹凸をカウントすることにより皮膚のパラメータを求めることを特徴とするデジタルズーム肌診断装置が提案されている。   Therefore, in Patent Document 1, at least one processing region is set in the captured image data of the entire face captured by the digital camera, the processing region image data is cut out, and the cut out processing region image data is processed to process the skin. In a digital zoom skin diagnostic device that calculates parameters, a high-resolution image of the entire face with a large output data size is taken with a digital camera with a large number of pixels of the image sensor, and analysis lines that can be arbitrarily arranged on the image are superimposed Along with the enlarged image of the processing area, a graph of the concentration distribution along this analysis line is displayed on the monitor screen, and the skin parameters are determined by counting the unevenness of the concentration distribution based on the threshold value set on this graph. There has been proposed a digital zoom skin diagnostic apparatus characterized by the demand.

上述の装置では、撮影画像データから切り取った拡大画像を処理領域として、処理領域のR画像データからXY二次元の濃度分布を作成し、閾値を変化させて二値化して染みを抽出し、抽出した染みの大きさと数から染みのパラメータを演算するものであった。   In the above-described apparatus, an enlarged image cut out from the photographed image data is used as a processing region, an XY two-dimensional density distribution is created from the R image data in the processing region, and a threshold is changed to binarize and extract a stain and extract. The stain parameters were calculated from the size and number of stains.

染みの大きさを演算する場合には、画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、画像に含まれるオブジェクトの領域、ここでは染みの領域を抽出するラベリング処理が一般的に用いられる。
特許第3530523号特許公報
When calculating the size of the stain, the same label is attached to a plurality of continuous pixels having the same attribute among the pixels constituting the image, thereby extracting the region of the object included in the image, here the stain region. A labeling process is generally used.
Japanese Patent No. 3530523

しかし、手続きの中で再び当該手続き自身を呼び出す再帰呼び出し処理を伴なうラベリング処理を実行すると、処理時間が極めて長くなるという問題や、オブジェクトの画素サイズが大きくなるほど再帰呼び出し処理の数が増加するため、大容量のスタックメモリを準備していないと、オーバーフローが生じて処理が中断され、システムの安定性を損なうという問題があった。   However, if a labeling process accompanied by a recursive call process that calls the procedure itself again is executed in the procedure, the processing time becomes extremely long, and the number of recursive call processes increases as the pixel size of the object increases. For this reason, if a large-capacity stack memory is not prepared, an overflow occurs and processing is interrupted, resulting in a problem that the stability of the system is impaired.

そこで、再帰呼び出し処理の数を制限すると、容量の限られたスタックメモリであっても、オーバーフローの発生を回避することができるが、特定オブジェクトの領域の大きさが正確に検出できなくなるという問題が生じる。   Therefore, if the number of recursive call processes is limited, the occurrence of overflow can be avoided even with a stack memory with a limited capacity, but the problem is that the size of the area of a specific object cannot be detected accurately. Arise.

また、オブジェクトの探索範囲を制限すると、その範囲を超えるオブジェクトが検出できず、同一のオブジェクトであっても複数のオブジェクトとしてカウントされるという問題も生じる。   Further, when the search range of the object is limited, an object exceeding the range cannot be detected, and the same object is counted as a plurality of objects.

このような問題は、顔画像から染み等の領域サイズを検出する場合のみならず、写真撮影されたコマ画像からある特定のオブジェクトをラベリング処理により抽出する場合等、様々な局面で現れる。   Such a problem appears not only in the case of detecting a region size such as a stain from a face image, but also in various situations such as when a specific object is extracted from a photographed frame image by a labeling process.

本発明は、上述した従来の問題点に鑑みてなされたものであり、容量が小さなスタックメモリを備える場合であってもオーバーフローの発生を回避し、画像から短時間で確実に特定オブジェクトを抽出することができるラベリング処理が可能な画像処理装置及び画像処理方法を提供することを目的とする。   The present invention has been made in view of the above-described conventional problems. Even when a stack memory having a small capacity is provided, the occurrence of overflow is avoided, and a specific object is reliably extracted from an image in a short time. An object of the present invention is to provide an image processing apparatus and an image processing method capable of labeling.

上述の目的を達成するため、本発明による画像処理装置の特徴構成は、特許請求の範囲の書類の請求項1に記載した通り、原画像に含まれる特定オブジェクトの想定画素サイズに対応して決定される縮小率で、前記原画像を縮小した縮小画像を生成する縮小処理部と、前記縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理部と、前記縮小画像ラベリング処理部で抽出された特定オブジェクトの領域を前記原画像のサイズに拡大処理して、前記原画像に含まれる特定オブジェクトとして同定するオブジェクト同定処理部を備えている点にある。   In order to achieve the above object, the characteristic configuration of the image processing apparatus according to the present invention is determined according to the assumed pixel size of the specific object included in the original image, as described in claim 1 of the document of the claims. A reduction processing unit that generates a reduced image obtained by reducing the original image at a reduced rate, and a plurality of consecutive pixels having the same attribute among the pixels constituting the reduced image, by attaching the same label. A reduced image labeling processing unit that extracts a region of a specific object included in an image, and a region of the specific object extracted by the reduced image labeling processing unit is enlarged to the size of the original image, and is included in the original image An object identification processing unit for identifying a specific object is provided.

上述の構成によれば、原画像に含まれる特定オブジェクトが大きな領域であっても、縮小処理部によって特定オブジェクトの想定画素サイズに対応して決定される縮小率で生成された縮小画像に対して、縮小画像ラベリング処理部によってラベリング処理が実行されるため、ラベリング処理の対象画素数が減少する。その結果、縮小画像ラベリング処理部ではスタックメモリのオーバーフローの発生を招くことなく、高速にラベリング処理が実行できるようになる。そして、縮小画像ラベリング処理部により縮小画像から抽出された特定オブジェクトが、オブジェクト同定処理部により拡大処理されて、原画像に含まれる特定オブジェクトとして同定される。   According to the above-described configuration, even if the specific object included in the original image is a large area, the reduced image is generated by the reduction processing unit with the reduction rate determined according to the assumed pixel size of the specific object. Since the labeling process is executed by the reduced image labeling processing unit, the number of target pixels for the labeling process decreases. As a result, the reduced image labeling processing unit can execute the labeling process at high speed without causing an overflow of the stack memory. The specific object extracted from the reduced image by the reduced image labeling processing unit is enlarged by the object identification processing unit and identified as a specific object included in the original image.

同第二の特徴構成は、同請求項2に記載した通り、上述の第一特徴構成に加えて、前記縮小画像ラベリング処理部は、前記縮小処理部で生成された縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の小さな縮小画像に対するラベリング処理時に、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いてラベリング処理を実行する点にある。   In the second feature configuration, as described in claim 2, in addition to the first feature configuration described above, the reduced image labeling processing unit uses a reduced image generated by the reduction processing unit and having a large reduction rate. The labeling process is executed in the order of the reduced images with the smaller reduction ratios, and the labeling process is executed except for the specific object extracted from the reduced images with the higher reduction ratio and the surrounding area when the reduced images with the lower reduction ratios are labeled. It is in.

縮小処理部では、原画像に含まれる特定オブジェクトの想定画素サイズに対応した縮小率が決定されるが、当該特定オブジェクトの実際の画素サイズは様々であり、縮小率が大きすぎると縮小画像ラベリング処理部によって当該特定オブジェクトが抽出できない虞もある。   In the reduction processing unit, the reduction ratio corresponding to the assumed pixel size of the specific object included in the original image is determined. However, the actual pixel size of the specific object varies, and if the reduction ratio is too large, the reduction image labeling process is performed. There is a possibility that the specific object cannot be extracted by the part.

そこで、縮小画像ラベリング処理部によって縮小率の異なる複数の縮小画像に対してラベリング処理を実行する必要が生じる場合がある。そのような場合に、縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いて、縮小率の小さな縮小画像に対するラベリング処理を実行すれば、同一の特定オブジェクトに対する重複したラベリング処理が省略されるようになり、確実に特定オブジェクトが抽出でき、しかも、高速にラベリング処理を実行することが可能になる。   Therefore, it may be necessary to perform labeling processing on a plurality of reduced images having different reduction ratios by the reduced image labeling processing unit. In such a case, the labeling process is performed in the order of a reduced image with a large reduction ratio and a reduced image with a low reduction ratio, and the reduction ratio is reduced except for a specific object extracted in the reduced image with a large reduction ratio and its surrounding area. If labeling processing is performed on a small reduced image, duplicate labeling processing on the same specific object can be omitted, the specific object can be extracted reliably, and the labeling processing can be executed at high speed. .

同第三の特徴構成は、同請求項3に記載した通り、上述の第一または第二特徴構成に加えて、前記オブジェクト同定処理部で同定された特定オブジェクトの輪郭領域に対して、前記特定オブジェクトと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する輪郭領域ラベリング処理部を備えている点にある。   In the third feature configuration, in addition to the first or second feature configuration described above, the specific feature is defined with respect to the contour region of the specific object identified by the object identification processing unit. An outline region labeling processing unit that extracts the region of the specific object included in the original image by attaching the same label to a plurality of continuous pixels having the same attribute as the object is provided.

縮小画像に対するラベリング処理で抽出された特定オブジェクトを拡大処理すると、縮小時の欠落画素の影響で原画像に存在する特定オブジェクトの輪郭が正確に抽出できない場合がある。そのような場合に、オブジェクト同定処理部で同定された特定オブジェクトの輪郭領域に対して輪郭領域ラベリング処理部がラベリング処理すれば、原画像の特定オブジェクトの輪郭が正確に抽出できるようになる。この場合、輪郭領域ラベリング処理部のラベリング処理対象画素はオブジェクト同定処理部で同定された特定オブジェクトの輪郭領域に限定されるため、輪郭領域ラベリング処理部ではスタックメモリのオーバーフローの発生を招くことなく、高速にラベリング処理が実行できるようになる。   When the specific object extracted by the labeling process for the reduced image is enlarged, the outline of the specific object existing in the original image may not be extracted accurately due to the influence of the missing pixel at the time of reduction. In such a case, if the contour region labeling processing unit performs labeling processing on the contour region of the specific object identified by the object identification processing unit, the contour of the specific object in the original image can be accurately extracted. In this case, since the labeling processing target pixels of the contour region labeling processing unit are limited to the contour region of the specific object identified by the object identification processing unit, the contour region labeling processing unit does not cause an overflow of the stack memory, Labeling processing can be executed at high speed.

同第四の特徴構成は、同請求項4に記載した通り、上述の第一から第三の何れかの特徴構成に加えて、前記原画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記原画像に含まれる特定オブジェクトの領域を抽出する原画像ラベリング処理部を備え、前記原画像に含まれる特定オブジェクトの想定画素サイズに基づいて、前記縮小処理部と前記縮小画像ラベリング処理部と前記オブジェクト同定処理部を作動させるか、前記原画像ラベリング処理部を作動させるかを切り替える切替処理部を備えている点にある。   In the fourth feature configuration, in addition to any one of the first to third feature configurations described above, a plurality of pixels having the same attribute among the pixels constituting the original image may be provided. An original image labeling processing unit for extracting a region of a specific object included in the original image by attaching the same label to continuous pixels, and the reduction processing based on an assumed pixel size of the specific object included in the original image And a switching processing unit that switches between operating the reduced image labeling processing unit and the object identification processing unit or operating the original image labeling processing unit.

縮小画像に対してラベリング処理を行なう必要があるのは、原画像に含まれる特定オブジェクトの画素数が多く、スタックメモリのオーバーフロー等の不都合を招く虞のある場合である。従って、そのような不都合が発生する虞の無い場合には、切替処理部により原画像ラベリング処理部を作動させることにより、原画像から正確に特定オブジェクトを抽出できるようになり、そのような不都合が発生する虞の有る場合には、切替処理部により縮小処理部と縮小画像ラベリング処理部とオブジェクト同定処理部を作動させることにより、安定且つ高速に特定オブジェクトを抽出できるようになる。   The labeling process needs to be performed on the reduced image when the number of pixels of the specific object included in the original image is large and there is a possibility that inconvenience such as overflow of the stack memory may occur. Therefore, when there is no possibility that such an inconvenience will occur, a specific object can be accurately extracted from the original image by operating the original image labeling processing unit by the switching processing unit. When there is a possibility of occurrence, the switching processing unit operates the reduction processing unit, the reduced image labeling processing unit, and the object identification processing unit, so that a specific object can be extracted stably and at high speed.

同第五の特徴構成は、同請求項5に記載した通り、上述の第一から第三の何れかの特徴構成に加えて、前記特定オブジェクトが、人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域である点にある。   In the fifth feature configuration, in addition to any one of the first to third feature configurations described above, the specific object is a stain, pore, It is in a point that is a discoloration region of skin such as wrinkles.

人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域を特定オブジェクトとする場合に、第一から第三の何れかの特徴構成を備えた画像処理装置が好適に機能する。   When a skin discoloration region such as a stain, pore, or wrinkle included in a human face image is used as a specific object, an image processing apparatus having any one of the first to third characteristic configurations functions suitably.

同第六の特徴構成は、同請求項6に記載した通り、上述の第四特徴構成に加えて、前記特定オブジェクトが、人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域であり、前記切替処理部は、毛穴を特定オブジェクトとするときに原画像ラベリング処理部を作動させ、染みを特定オブジェクトとするときに前記縮小処理部と前記縮小画像ラベリング処理部と前記オブジェクト同定処理部を作動させるように切り替える点にある。   In the sixth feature configuration, as described in claim 6, in addition to the fourth feature configuration described above, the specific object is a skin discoloration region such as a stain, pore, or wrinkle included in a human face image. The switching processing unit operates the original image labeling processing unit when the pore is a specific object, and the reduction processing unit, the reduced image labeling processing unit, and the object identification processing when the stain is a specific object. It is in the point which switches so that a part may be operated.

本発明による画像処理方法の第一の特徴構成は、同請求項7に記載した通り、原画像に含まれる特定オブジェクトの想定画素サイズに対応して決定される縮小率で、前記原画像を縮小した縮小画像を生成する縮小処理ステップと、前記縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理ステップと、前記縮小画像ラベリング処理ステップで抽出された特定オブジェクトの領域を前記原画像のサイズに拡大処理して、前記原画像に含まれる特定オブジェクトを同定するオブジェクト同定処理ステップを備えている点にある。   According to the first characteristic configuration of the image processing method of the present invention, as described in claim 7, the original image is reduced at a reduction rate determined in accordance with an assumed pixel size of a specific object included in the original image. A reduction processing step for generating a reduced image, and extracting a region of a specific object included in the reduced image by attaching the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the reduced image. A reduced image labeling processing step; and an object identification processing step for enlarging the region of the specific object extracted in the reduced image labeling processing step to the size of the original image to identify a specific object included in the original image. There is in point.

同第二の特徴構成は、同請求項8に記載した通り、上述の第一特徴構成に加えて、前記縮小画像ラベリング処理ステップは、前記縮小処理ステップで生成された縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の小さな縮小画像に対するラベリング処理時に、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いてラベリング処理を実行する点にある。   In the second feature configuration, as described in claim 8, in addition to the first feature configuration described above, the reduced image labeling processing step includes a reduction image having a large reduction ratio generated in the reduction processing step. The labeling process is executed in the order of the reduced images with the smaller reduction ratios, and the labeling process is executed except for the specific object extracted from the reduced images with the higher reduction ratio and the surrounding area when the reduced images with the lower reduction ratios are labeled. It is in.

同第三の特徴構成は、同請求項9に記載した通り、上述の第一または第二特徴構成に加えて、前記オブジェクト同定処理ステップで同定された特定オブジェクトの輪郭領域に対して、前記特定オブジェクトと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する輪郭領域ラベリング処理ステップを備えている点にある。   According to the third feature configuration, in addition to the first or second feature configuration described above, the specific feature is defined with respect to the contour region of the specific object identified in the object identification processing step. An outline region labeling process step for extracting a region of a specific object included in the original image by attaching the same label to a plurality of continuous pixels having the same attribute as the object is provided.

以上説明した通り、本発明によれば、容量が小さなスタックメモリを備える場合であってもオーバーフローの発生を回避し、画像から短時間で確実に特定オブジェクトを抽出することができるラベリング処理が可能な画像処理装置及び画像処理方法を提供することができるようになった。   As described above, according to the present invention, even when a stack memory having a small capacity is provided, the occurrence of overflow can be avoided, and a labeling process that can reliably extract a specific object from an image in a short time is possible. An image processing apparatus and an image processing method can be provided.

以下に本発明による画像処理装置が組み込まれた画像診断システムの実施の形態を説明する。   Embodiments of an image diagnosis system incorporating an image processing apparatus according to the present invention will be described below.

図1に示すように、画像診断システムは、依頼人の顔画像を撮影する撮像装置1と、撮像装置1で撮影され、電子データに変換された依頼人の顔画像を格納するハードディスク等で構成されたメモリ2と、液晶画面を備えた表示部3と、パーソナルコンピュータに本発明を具現化するアプリケーションプログラムがインストールされた画像処理装置4を備えて構成されている。   As shown in FIG. 1, the diagnostic imaging system includes an imaging device 1 that captures a client's face image, and a hard disk that stores the client's facial image that has been captured by the imaging device 1 and converted into electronic data. And a display unit 3 having a liquid crystal screen, and an image processing apparatus 4 in which an application program embodying the present invention is installed in a personal computer.

撮像装置1は、依頼人の顔を一定姿勢に保つ顎ガイドと頭部ガイドを備えた顔保持部1aと、顔保持部1aで保持された依頼人の顔を照明する照明装置1bと、照明装置1bで照明された依頼人の顔を撮影する撮像部1cを備えている。   The imaging device 1 includes a face holding unit 1a having a chin guide and a head guide for keeping the client's face in a fixed posture, an illumination device 1b for illuminating the client's face held by the face holding unit 1a, An imaging unit 1c that captures the face of the client illuminated by the apparatus 1b is provided.

画像処理装置4は、依頼人の顔画像領域に解析対象要素つまり解析対象領域を画定する解析対象領域生成部4aと、顔画像全体を構成する画素群または解析対象領域生成部4aで生成された解析対象要素を構成する画素群の画素値に基づいて、染み、毛穴の汚れ、皺等、肌の変色部位である特性情報を抽出する肌特性抽出処理部4bと、肌特性抽出処理部4bで抽出された肌の特性情報に基づいて肌状態を診断する診断処理部4cを備えている。   The image processing device 4 is generated by an analysis target region generation unit 4a that defines an analysis target element, that is, an analysis target region, in the client's face image region, and a pixel group or analysis target region generation unit 4a that constitutes the entire face image. A skin characteristic extraction processing unit 4b that extracts characteristic information that is a discolored part of the skin such as a stain, pore dirt, wrinkles, and the like based on the pixel values of the pixel group that constitutes the analysis target element, and a skin characteristic extraction processing unit 4b A diagnostic processing unit 4c for diagnosing the skin condition based on the extracted skin characteristic information is provided.

撮像装置1で撮影された依頼人の顔画像は原画像としてメモリ2に格納され、画像処理装置4によってメモリ2から読み出されて表示部3に表示される。解析対象領域生成部4aにより、表示部3に表示された依頼人の顔画像の肌に、図2に示すような解析対象要素Rつまり解析対象領域が画定される。解析対象要素Rとして、具体的には、額領域R1、頬領域R2、鼻領域R3、顎領域R4が画定されるのであるが、これに限るものではなく、目尻の周辺領域等、適宜設定することができる。   The client's face image captured by the imaging device 1 is stored as an original image in the memory 2, read from the memory 2 by the image processing device 4, and displayed on the display unit 3. The analysis target region generation unit 4a defines an analysis target element R, that is, an analysis target region as shown in FIG. 2 on the skin of the client's face image displayed on the display unit 3. Specifically, as the analysis target element R, a forehead region R1, a cheek region R2, a nose region R3, and a chin region R4 are demarcated. be able to.

肌特性抽出処理部4bは、顔画像領域に画定された解析対象要素の構成画素データから所定範囲の肌色領域を特定し、肌色領域を構成する複数の画素の青色成分値が所定の閾値より大であるか小であるかを、ラベリング法を用いて判別し、図3(b)に示すような顔の染みd1、毛穴の汚れd2、皺d3等の発生領域を抽出する。   The skin characteristic extraction processing unit 4b specifies a predetermined range of skin color areas from the constituent pixel data of the analysis target element defined in the face image area, and the blue component values of a plurality of pixels constituting the skin color area are larger than a predetermined threshold value. Or small, using a labeling method, and extracting areas where facial stains d1, pore stains d2, wrinkles d3, etc. as shown in FIG. 3B are extracted.

後に詳述するが、ラベリング処理は、図7(a)から(c)に示すように、染み、毛穴の汚れ、皺等の抽出対象オブジェクトの夫々に対して適切に設定された閾値で解析対象要素R内の画素を二値化処理した後に、解析対象要素Rを抽出対象オブジェクトの最大サイズより大きな複数領域Ra,Rb,Rc,Rdに分割し、分割領域Ra,Rb,Rc,Rd内で閾値より下回る画素値(ここでは、二値化処理で1に設定され、図中、灰色で示されている)を有する任意の画素に特定のラベルTn(nは正整数で同一領域では同一の値となる)を付し、さらに、ラベルTnを付した画素と隣接する画素であって、同様に閾値より下回る隣接画素に同一ラベルTnを付す処理を、閾値より下回る隣接画素が無くなるまで繰り返す再帰呼び出し処理で、解析対象要素R内の全ての画素に対してラベリング処理を行なうことにより、染み、毛穴の汚れ、皺に対応した単一または複数の領域が抽出される。   As will be described in detail later, as shown in FIGS. 7 (a) to 7 (c), the labeling process is an analysis target with thresholds appropriately set for extraction target objects such as stains, pore dirt, and wrinkles. After the pixels in the element R are binarized, the analysis target element R is divided into a plurality of regions Ra, Rb, Rc, Rd larger than the maximum size of the extraction target object, and within the divided regions Ra, Rb, Rc, Rd A specific label Tn (n is a positive integer and is the same in the same region) for any pixel having a pixel value below the threshold (here, set to 1 in the binarization process and shown in gray in the figure) Is repeated, and the process of attaching the same label Tn to the pixels adjacent to the pixel to which the label Tn is attached, which is similarly below the threshold, is repeated until there are no adjacent pixels below the threshold. Call processing , By performing labeling processing for all the pixels in the analyzed elements R, stains, pores dirt, single or a plurality of areas corresponding to the wrinkles are extracted.

その結果、図7に示す例では、領域RaにラベルT1で示されるオブジェクトが抽出され、領域RbにラベルT2で示されるオブジェクトが抽出され、領域RcにラベルT3で示されるオブジェクトが抽出され、領域RdにラベルT4で示されるオブジェクトが抽出される。領域間に跨る領域(ラベルT3,T4で示される領域)は、その後、分割領域の境界部に存在するオブジェクトの連続性が、二値化された画素値に基づいて連続性が判断され、連続する場合には同一領域として統合される。   As a result, in the example shown in FIG. 7, the object indicated by the label T1 is extracted from the region Ra, the object indicated by the label T2 is extracted from the region Rb, the object indicated by the label T3 is extracted from the region Rc, and the region An object indicated by a label T4 is extracted from Rd. In the region between the regions (the regions indicated by labels T3 and T4), the continuity of the object existing at the boundary of the divided region is subsequently determined based on the binarized pixel values, and the continuous If they do, they are integrated as the same area.

ラベリング処理の過程で、対象画素毎に特定のラベルを付すか否かを判断するアルゴリズムが繰り返し実行されるため、現在実行中のアルゴリズムが対象とする画素の座標データ等、処理を実行するために必要な複数のパラメータが、パーソナルコンピュータのメモリ領域に画定されたスタック領域にスタックされながら処理が実行される。   During the labeling process, an algorithm that repeatedly determines whether or not to attach a specific label to each target pixel is repeatedly executed. The processing is executed while a plurality of necessary parameters are stacked in a stack area defined in the memory area of the personal computer.

診断処理部4cは、肌特性抽出処理部4bで抽出された領域の面積(画素数)、形状、画素値等に基づいて、染み、毛穴の汚れ、皺の何れであるかを判別し、解析対象要素内における夫々の位置、面積、解析対象要素Rに対する面積比、画素値等でなる特性情報を生成する。   Based on the area (number of pixels), shape, pixel value, etc. of the region extracted by the skin characteristic extraction processing unit 4b, the diagnosis processing unit 4c determines whether the stain is a stain, pore dirt, or wrinkle, and performs analysis Characteristic information including each position, area in the target element, an area ratio with respect to the analysis target element R, a pixel value, and the like is generated.

このとき、表示部3に表示された顔画像のうち、肌特性抽出処理部4bにより抽出された変色部位の表示色を、周辺の肌領域と識別可能な色に変えて表示することにより視覚的に容易に認識できるようになる。   At this time, by changing the display color of the discolored part extracted by the skin characteristic extraction processing unit 4b from the face image displayed on the display unit 3 to a color distinguishable from the surrounding skin region, the visual image is displayed. Can be easily recognized.

例えば、800万画素の顔画像では、3×3画素から7×7画素程度の面積が毛穴に相当するため、それより画素数が大きな領域は染みまたは皺と判別でき、領域の直交方向の連続画素値のうち、小さい方の連続画素値が数画素から十数画素で、且つ、小さい方の連続画素値と大きい方の連続画素値が所定値以上であれば皺であると判別できる。   For example, in a face image of 8 million pixels, an area of about 3 × 3 pixels to 7 × 7 pixels corresponds to a pore, so that an area with a larger number of pixels can be determined as a stain or a wrinkle, and the areas in the orthogonal direction are continuous. Of the pixel values, if the smaller continuous pixel value is several pixels to a dozen pixels and the smaller continuous pixel value and the larger continuous pixel value are equal to or greater than a predetermined value, it can be determined that it is a habit.

一般に、上述した肌の特性を抽出する場合、画素を構成する赤、緑、青の各色成分のうち、青成分の値を採用することが好適である。皮膚の深層部の状況が青成分に現れるからである。従って、照明装置1bの光源に青色の透過フィルタや紫外線ランプを用いることが好ましい。   In general, when extracting the above-described skin characteristics, it is preferable to employ the value of the blue component among the red, green, and blue color components constituting the pixel. This is because the condition of the deep part of the skin appears in the blue component. Therefore, it is preferable to use a blue transmission filter or an ultraviolet lamp as the light source of the illumination device 1b.

解析対象領域生成部4aにより画定された解析対象要素R、肌特性抽出処理部4bで抽出された肌の特性情報、及び、診断処理部4cで診断された診断情報は、依頼人を特定するIDデータ、診断日、施術内容等と関連付けられてメモリ2に格納される。   The analysis target element R defined by the analysis target region generation unit 4a, the skin characteristic information extracted by the skin characteristic extraction processing unit 4b, and the diagnosis information diagnosed by the diagnosis processing unit 4c are IDs for identifying the client. It is stored in the memory 2 in association with data, diagnosis date, treatment contents, and the like.

診断処理部4cは、メモリ2に格納された依頼人の過去の肌の特性情報と今回の特性情報に基づいて肌の状態が改善されているか否かの診断情報を生成する。医師、エスティシャン、美容カウンセラーは、当該診断情報に基づいてどのような施術または処方が好ましいか、どのような化粧品が好ましいか等を判断して、適切に対応する。   The diagnostic processing unit 4c generates diagnostic information as to whether or not the skin condition has been improved based on the client's past skin characteristic information and current characteristic information stored in the memory 2. A doctor, an esthetician, or a beauty counselor determines what treatment or prescription is preferable or what cosmetic is preferable based on the diagnosis information and appropriately responds.

解析対象領域生成部4aは、図1(b)に示すように、複数のサンプル顔画像を統計処理することにより得られた顔を構成する標準顔要素の配置情報及び標準解析対象要素の配置情報で規定された標準顔画像A(図3(a)参照)と、撮像装置で撮影された解析対象顔画像B(図3(b)参照)を、表示部3に重ね合わせて表示する(図3(c)参照)顔画像表示処理部10と、表示部3に表示された解析対象顔画像Bの特定顔要素Eの表示位置に、対応する特定標準顔要素eを移動させる標準顔要素移動処理部12と、標準顔要素移動処理部12で移動された標準解析対象要素rを、解析対象顔画像Bに対する解析対象要素Rとして解析対象顔画像Bと関連付けて記憶部2に記憶する解析対象要素生成処理部18を備えている。   As illustrated in FIG. 1B, the analysis target region generation unit 4a includes the arrangement information of the standard face elements and the arrangement information of the standard analysis target elements constituting the face obtained by statistically processing a plurality of sample face images. And the analysis target face image B (see FIG. 3B) photographed by the imaging device and displayed on the display unit 3 in a superimposed manner (see FIG. 3). 3 (c)) Standard face element movement for moving the corresponding specific standard face element e to the display position of the face image display processing unit 10 and the specific face element E of the analysis target face image B displayed on the display unit 3 The analysis target stored in the storage unit 2 in association with the analysis target face image B as the analysis target element R for the analysis target face image B, the processing unit 12 and the standard analysis target element r moved by the standard face element movement processing unit 12 An element generation processing unit 18 is provided.

さらに、標準顔要素移動処理部12に、特定標準顔要素eを中心とする所定範囲Sに位置する他の標準顔要素e´及び標準解析対象要素rを抽出する移動要素抽出処理部14と、移動要素抽出処理部14で抽出された他の標準顔要素e´及び標準解析対象要素rを、特定標準顔要素eの移動に伴って、所定の移動関数Fに基づいて算出された移動方向及び移動距離だけ移動させる要素移動処理部16を備えている。   Further, the standard face element movement processing unit 12 extracts another standard face element e ′ and standard analysis target element r located in a predetermined range S centered on the specific standard face element e, and a movement element extraction processing unit 14 that extracts the standard analysis target element r. The other standard face element e ′ and the standard analysis target element r extracted by the movement element extraction processing unit 14 are moved along the movement direction calculated based on a predetermined movement function F along with the movement of the specific standard face element e, and An element movement processing unit 16 that moves the movement distance is provided.

標準顔要素e及び標準解析対象要素rの配置情報は、複数の基準点pと各基準点pを接続する接続線qで定義され、移動関数Fは、特定標準顔要素eの移動前の基準点p1と他の標準顔要素e´または標準解析対象要素rの基準点pとを結ぶ要素間距離L1及び特定標準顔要素eの基準点の移動距離ΔLに対して、ΔL≦L1のときに当該他の標準顔要素e´の基準点pの移動距離Lが、ΔL/L1を変数として導出され、特定標準顔要素eの移動後の基準点p2と他の標準顔要素e´または標準解析対象要素rの基準点とを結ぶ直線上で、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pから離隔するときに接近させ、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pに接近するときに離隔させる関数として定義されている。   The arrangement information of the standard face element e and the standard analysis target element r is defined by a plurality of reference points p and a connection line q connecting the reference points p, and the movement function F is a reference before the movement of the specific standard face element e. When ΔL ≦ L1 with respect to the inter-element distance L1 connecting the point p1 and another standard face element e ′ or the reference point p of the standard analysis target element r and the movement distance ΔL of the reference point of the specific standard face element e The movement distance L of the reference point p of the other standard face element e ′ is derived using ΔL / L1 as a variable, and the reference point p2 after movement of the specific standard face element e and another standard face element e ′ or standard analysis When the reference point p2 after the movement of the specific standard face element e moves away from the other standard face element e 'or the reference point p of the standard analysis target element r on a straight line connecting the reference point of the target element r , The reference point p2 after the movement of the specific standard face element e is another standard face element e 'or a standard solution It is defined as a function to be separated when approaching the reference point p of the analysis target element r.

図3(a)に示す標準顔画像Aは、予め収集した多数のサンプル顔画像に対して、顔を構成する輪郭、髪の生え際、眉、目、耳、鼻、口といった顔要素の大きさや相対距離を計測し、その結果を統計処理して標準的な顔要素の大きさ、位置を算出して、算出した値に基づいて標準顔要素を配置した標準顔画像を生成し、生成した標準顔画像に対して、オペレータがマウス等のポインティングデバイスを手動操作して、肌の変色等の特性の状態を探る解析対象要素r、つまり解析対象領域を画定して得られた画像で、標準的な輪郭、髪の生え際、眉、目、耳、鼻、口といった顔要素、つまり標準顔要素eの配置情報及び標準解析対象要素rの配置情報で規定された画像である。   A standard face image A shown in FIG. 3A is obtained by comparing the size of face elements such as contours, hairline, eyebrows, eyes, ears, nose, and mouth constituting a face with respect to a large number of sample face images collected in advance. Relative distance is measured, and the result is statistically processed to calculate the size and position of standard face elements. Based on the calculated values, a standard face image with standard face elements arranged is generated. An image obtained by demarcating an analysis target element r, that is, an analysis target area, in which an operator manually operates a pointing device such as a mouse to search for a state of characteristics such as discoloration of the skin. This is an image defined by the face information such as the outline, the hairline, the eyebrows, the eyes, the ears, the nose and the mouth, that is, the placement information of the standard face element e and the placement information of the standard analysis target element r.

ここで、配置情報は、所定のX,Y二次元座標系で基準点pが位置する座標と、接続線qの属性情報で構成され、属性情報には接続線qの両端の基準点pを特定する基準点特定情報と、接続線が直線か曲線か特定する線種情報、曲線の場合にはその曲率等の情報が含まれる。   Here, the arrangement information is composed of coordinates where the reference point p is located in a predetermined X, Y two-dimensional coordinate system and attribute information of the connection line q. The attribute information includes reference points p at both ends of the connection line q. Reference point specifying information to be specified, line type information to specify whether the connecting line is a straight line or a curve, and information such as curvature in the case of a curve are included.

顔画像表示処理部10により、予めメモリ2に格納された標準顔画像Aと解析対象顔画像Bが読み出されて、図3(c)に示すように表示部3に重ね合わせて表示されるのである。   The standard face image A and the analysis target face image B stored in advance in the memory 2 are read out by the face image display processing unit 10 and displayed superimposed on the display unit 3 as shown in FIG. It is.

このような標準顔要素e及び標準解析対象要素rの配置情報は、図4(a)に示すように、複数の基準点pと各基準点pを接続する接続線qで定義されている。標準顔要素移動処理部12は、オペレータにより基準点pまたは接続線qがマウスでドラッグ操作された状態で移動され、ドロップ操作されると、基準点pまたは接続線qをその位置まで移動処理する。   The arrangement information of the standard face element e and the standard analysis target element r is defined by a plurality of reference points p and a connection line q connecting the reference points p as shown in FIG. The standard face element movement processing unit 12 moves the reference point p or the connection line q while being dragged with the mouse by the operator, and when the drop operation is performed, moves the reference point p or the connection line q to that position. .

図4(b)に示すように、基準点pが移動操作されると、当該基準点pのみを移動し、移動操作されなかった基準点pと移動操作された基準点pを結ぶように接続線qを変更し、図4(c)に示すように、接続線qが移動操作されると、接続線qと当該接続線qにより接続された全ての基準点pを位置関係を保った状態で移動する。   As shown in FIG. 4B, when the reference point p is moved, only the reference point p is moved, and the reference point p that is not moved is connected to the moved reference point p. When the line q is changed and the connection line q is moved as shown in FIG. 4C, the connection line q and all the reference points p connected by the connection line q are maintained in a positional relationship. Move with.

このとき、移動要素抽出処理部14は、図4(d)に示すように、特定標準顔要素eを中心とする所定範囲Sに位置する他の標準顔要素e´及び標準解析対象要素rを、特定標準顔要素eの移動に伴なって同時に移動処理する対象として抽出する。所定範囲Sは、特定標準顔要素eの移動距離、つまり、一つの基準点のみが移動されるときには当該基準点Pの移動距離ΔL、接続線qが移動されるときには当該接続線の移動距離ΔLの関数で定めることができ、例えば、移動前の基準点の位置または接続線qの中心位置を中心として半径がN×ΔLの範囲に含まれる円領域に設定される。   At this time, as shown in FIG. 4D, the moving element extraction processing unit 14 extracts other standard face elements e ′ and standard analysis target elements r located in a predetermined range S centering on the specific standard face element e. As a specific standard face element e, it is extracted as an object to be moved at the same time. The predetermined range S is the movement distance of the specific standard face element e, that is, the movement distance ΔL of the reference point P when only one reference point is moved, and the movement distance ΔL of the connection line when the connection line q is moved. For example, it is set to a circular area whose radius is in the range of N × ΔL with the position of the reference point before movement or the center position of the connection line q as the center.

また、移動前の基準点Pの位置または接続線qの中心位置を中心として一辺の長さがN×ΔLの矩形領域に設定されるものであってもよい。ここに、Nは自然数であり、標準的には2〜3が選択されるが、対象画像の画素数により適宜変更設定するものであってもよい。   Moreover, the length of one side centering on the position of the reference point P before the movement or the center position of the connection line q may be set to a rectangular area of N × ΔL. Here, N is a natural number, and typically 2 to 3 is selected, but may be appropriately changed depending on the number of pixels of the target image.

つまり、上述した所定範囲Sが、特定標準顔要素eの移動距離ΔLに基づいて可変に設定されるのである。従って、特定標準顔要素eの移動距離ΔLが長ければそれだけ影響を受ける他の標準顔要素e´及び標準解析対象要素rが多くなり、特定標準顔要素eの移動距離ΔLが短ければそれだけ影響を受ける他の標準顔要素e´及び標準解析対象要素rが少なくなる。尚、簡易的には、上述した所定範囲Sを固定範囲とすることも可能である。   That is, the predetermined range S described above is variably set based on the movement distance ΔL of the specific standard face element e. Therefore, if the movement distance ΔL of the specific standard face element e is long, the number of other standard face elements e ′ and standard analysis target elements r that are affected increases, and if the movement distance ΔL of the specific standard face element e is short, the influence is increased. Other standard face elements e ′ and standard analysis target elements r received are reduced. For simplicity, the predetermined range S described above can be set as a fixed range.

要素移動処理部16は、移動要素抽出処理部14で抽出された他の標準顔要素e´及び標準解析対象要素rを、特定標準顔要素eの移動に伴って、上述の移動関数Fに基づいて算出された移動方向及び移動距離だけ移動させる。   The element movement processing unit 16 converts the other standard face element e ′ and the standard analysis target element r extracted by the movement element extraction processing unit 14 based on the movement function F described above with the movement of the specific standard face element e. The moving direction and the moving distance calculated as described above are moved.

図5は、標準顔要素の眉、目(閉じた状態)、標準解析対象要素の鼻領域に対して、移動関数Fの特性を説明する図である。図5(a)に示すように、移動関数Fは、特定標準顔要素eの移動前の基準点p1と他の標準顔要素e´の基準点P(または接続線の中心位置)、または、特定標準顔要素eの移動前の基準点p1と標準解析対象要素rの基準点p(または接続線の中心位置)とを結ぶ要素間距離L1及び特定標準顔要素eの基準点の移動距離ΔLに対して、ΔL≦L1のときに当該他の標準顔要素e´の基準点pまたは標準解析対象要素rの基準点pの移動距離Lを、L=a×(ΔL/L1)+b(a,bは定数)の数式に基づいて導出し、特定標準顔要素eの移動後の基準点p2と他の標準顔要素e´または標準解析対象要素rの基準点pとを結ぶ直線上で、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pから離隔するときに接近させ、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pに接近するときに離隔させる関数として定義されている。尚、本実施形態では、a=1,b=0に設定しているが、解析対象画像の画素数に基づいて適宜設定すればよい。また、基準点pの移動距離LはX,Y二次元座標系でX成分及びY成分毎に演算される。   FIG. 5 is a diagram for explaining the characteristics of the transfer function F with respect to the eyebrows and eyes (closed state) of the standard face element and the nose region of the standard analysis target element. As shown in FIG. 5 (a), the movement function F is determined by the reference point p1 before the movement of the specific standard face element e and the reference point P (or the center position of the connecting line) of the other standard face element e ', or The inter-element distance L1 connecting the reference point p1 before the movement of the specific standard face element e and the reference point p of the standard analysis target element r (or the center position of the connecting line) and the movement distance ΔL of the reference point of the specific standard face element e On the other hand, when ΔL ≦ L1, the movement distance L of the reference point p of the other standard face element e ′ or the reference point p of the standard analysis target element r is expressed as L = a × (ΔL / L1) + b (a , B are constants) on the straight line connecting the reference point p2 after the movement of the specific standard face element e and the reference point p of the other standard face element e ′ or the standard analysis target element r, Is the reference point p2 after the movement of the specific standard face element e is the reference point p of another standard face element e 'or the standard analysis target element r? It is defined as a function that allows the reference point p2 after the movement of the specific standard face element e to move away from the reference point p2 and move away from the reference point p of the other standard face element e ′ or the standard analysis target element r. Yes. In the present embodiment, a = 1 and b = 0 are set, but may be set as appropriate based on the number of pixels of the analysis target image. The movement distance L of the reference point p is calculated for each X component and Y component in the X, Y two-dimensional coordinate system.

さらに、移動関数Fは、ΔL>L1のときに当該他の標準顔要素e´の基準点pの移動距離LをΔLに設定し、特定標準顔要素eの移動後の基準点p2と他の標準顔要素e´または標準解析対象要素rの基準点とを結ぶ直線上で、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pから離隔するときに接近させ、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pに接近するときに離隔させる関数として定義されている。つまり、図5(b)に示すように、要素移動処理部16は、ΔL>L1のときには、特定標準顔要素eの移動前の基準点p1と他の標準顔要素e´の基準点pの離間距離を保った状態で移動させる。   Further, the movement function F sets the movement distance L of the reference point p of the other standard face element e ′ to ΔL when ΔL> L1, and the reference point p2 after the movement of the specific standard face element e and other reference face p2 On the straight line connecting the standard face element e ′ or the reference point of the standard analysis target element r, the reference point p2 after the movement of the specific standard face element e is the reference point of another standard face element e ′ or the standard analysis target element r. It is defined as a function that is approached when moving away from p, and moved away when the reference point p2 after the movement of the specific standard face element e approaches another reference face element e 'or the reference point p of the standard analysis target element r. ing. That is, as shown in FIG. 5B, when ΔL> L1, the element movement processing unit 16 sets the reference point p1 before the movement of the specific standard face element e and the reference point p of another standard face element e ′. Move while keeping the separation distance.

ここで、ΔL≦L1のときに、基準点pまたは接続線qの移動操作量ΔLが微小な値のときには、当該基準点pまたは接続線qのみを移動させ、他の標準顔要素e´の基準点pまたは標準解析対象要素rの基準点pの位置はそのまま元の位置を維持するように移動関数Fを定義してもよい。   Here, when ΔL ≦ L1, if the movement amount ΔL of the reference point p or the connection line q is a minute value, only the reference point p or the connection line q is moved, and the other standard face elements e ′ are moved. The movement function F may be defined so that the position of the reference point p or the reference point p of the standard analysis target element r is maintained as it is.

例えば、顔画像の全画素数に対して予め正整数Kが設定され、移動操作された基準点pまたは接続線qの直近に位置する他の標準顔要素e´の基準点pまたは標準解析対象要素rの基準点pに対する要素間距離Lと移動距離ΔLにL1/ΔL≧K(Kは正整数)の関係があるときに、他の標準顔要素e´の基準点pまたは標準解析対象要素rの基準点pの位置を移動させることなく、そのまま元の位置を維持するように移動関数を定義するのである。   For example, a positive integer K is set in advance with respect to the total number of pixels of the face image, and the reference point p of the other standard face element e ′ positioned closest to the moved reference point p or the connection line q or the standard analysis target When there is a relationship of L1 / ΔL ≧ K (K is a positive integer) between the inter-element distance L and the movement distance ΔL with respect to the reference point p of the element r, the reference point p of the other standard face element e ′ or the standard analysis target element The movement function is defined so as to maintain the original position as it is without moving the position of the reference point p of r.

図6に示すように、標準顔要素移動処理部12によって、標準顔画像Aの夫々の標準顔要素eが解析対象顔画像Bの対応する顔要素Eの位置に移動処理されることにより、標準顔要素eの移動処理に伴なって移動処理された標準解析対象要素rが、解析対象顔画像Bの解析対象要素Rつまり解析対象領域として画定される。   As shown in FIG. 6, the standard face element movement processing unit 12 moves each standard face element e of the standard face image A to the position of the corresponding face element E of the analysis target face image B. The standard analysis target element r that has been moved along with the movement process of the face element e is defined as the analysis target element R of the analysis target face image B, that is, the analysis target area.

尚、上述した解析対象顔画像Bに対する解析対象領域の画定処理以外に、解析対象領域生成部4aに描画処理部を設けて、オペレータがマウスを用いて入力した複数点を、描画処理部により接続線で接続することにより解析対象領域を画定するように構成するものであってもよい。   In addition to the analysis target area defining process for the analysis target face image B described above, a drawing processing unit is provided in the analysis target area generating unit 4a, and a plurality of points input by an operator using a mouse are connected by the drawing processing unit. The analysis target area may be defined by connecting with a line.

このようにして、解析対象顔画像Bに画定された適切な解析対象要素Rが、当該依頼人を特定するIDデータ、診断日、施術内容等と関連付けられてメモリ2に格納される。   In this way, an appropriate analysis target element R defined in the analysis target face image B is stored in the memory 2 in association with ID data, diagnosis date, treatment contents, and the like that specify the client.

そして、それ以降に新たに当該依頼人の顔を撮影した場合には、メモリ2に格納された解析対象要素Rが読み出され、当該依頼人の新たな顔画像に当該解析対象要素Rが画定される。尚、顔画像の画素数、倍率、基準座標は、当該解析対象要素Rの倍率、基準座標と整合される必要があることはいうまでもない。   When the client's face is newly photographed thereafter, the analysis target element R stored in the memory 2 is read, and the analysis target element R is defined in the client's new face image. Is done. Needless to say, the number of pixels, magnification, and reference coordinates of the face image need to be matched with the magnification and reference coordinates of the analysis target element R.

以下、本発明による画像処理装置または画像処理方法が採用される肌特性抽出処理部4bの構成及び動作について詳述する。   Hereinafter, the configuration and operation of the skin characteristic extraction processing unit 4b in which the image processing apparatus or the image processing method according to the present invention is employed will be described in detail.

図1(b)に示すように、肌特性抽出処理部4bは、原画像に含まれる特定オブジェクトの想定画素サイズに対応して決定される縮小率で、原画像を縮小した縮小画像を生成する縮小処理部20と、縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理部22と、縮小画像ラベリング処理部22で抽出された特定オブジェクトの領域を原画像のサイズに拡大処理して、原画像に含まれる特定オブジェクトとして同定するオブジェクト同定処理部24と、オブジェクト同定処理部24で同定された特定オブジェクトの輪郭領域に対して、特定オブジェクトと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する輪郭領域ラベリング処理部26を備えている。   As shown in FIG. 1B, the skin characteristic extraction processing unit 4b generates a reduced image obtained by reducing the original image at a reduction rate determined in accordance with the assumed pixel size of the specific object included in the original image. A reduction processing unit 20, a reduction image labeling processing unit 22 that extracts a region of a specific object included in the reduction image by attaching the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the reduction image; The object identification processing unit 24 that enlarges the area of the specific object extracted by the reduced image labeling processing unit 22 to the size of the original image and identifies it as a specific object included in the original image, and the object identification processing unit 24 identifies The same label is attached to a plurality of continuous pixels having the same attribute as the specific object with respect to the contour region of the specific object. , And a contour region labeling processing unit 26 for extracting a region of a specific object included in the original image.

さらに、肌特性抽出処理部4bは、原画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する原画像ラベリング処理部28を備え、原画像に含まれる特定オブジェクトの想定画素サイズに基づいて、縮小処理部20と縮小画像ラベリング処理部22とオブジェクト同定処理部24と輪郭領域ラベリング処理部26を順に作動させるか、原画像ラベリング処理部28を作動させるかを切り替える切替処理部29を備えている。   Further, the skin characteristic extraction processing unit 4b attaches the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the original image, thereby extracting an original image labeling that extracts a specific object region included in the original image. A processing unit 28 is provided, and the reduction processing unit 20, the reduced image labeling processing unit 22, the object identification processing unit 24, and the contour region labeling processing unit 26 are sequentially operated based on the assumed pixel size of the specific object included in the original image. A switching processing unit 29 for switching whether to operate the original image labeling processing unit 28 is provided.

切替処理部29は、具体的には、画素数が少ない毛穴や皺等を特定オブジェクトとするときに原画像ラベリング処理部28を作動させ、画素数が多い染み等を特定オブジェクトとするときに縮小処理部20と縮小画像ラベリング処理部22とオブジェクト同定処理部24と輪郭領域ラベリング処理部26を順に作動させるように切り替える。   Specifically, the switching processing unit 29 operates the original image labeling processing unit 28 when a pore or wrinkle having a small number of pixels is set as a specific object, and reduces when a stain or the like having a large number of pixels is set as a specific object. The processing unit 20, the reduced image labeling processing unit 22, the object identification processing unit 24, and the outline region labeling processing unit 26 are switched to operate in order.

原画像ラベリング処理部28は、毛穴を特定オブジェクトとするとき、解析対象顔画像Bとしての原画像B1の肌領域を毛穴を抽出するための青成分の閾値を下回る画素値を有する画素を1に、閾値以上の画素値を有する画素を0に設定する二値化処理を施した後に、例えば、図8(a)に示すように、10×10画素程度の画素サイズに分割して、各分割画素群に対してラベリング処理を実行する。その結果、3×3画素から7×7画素程度の毛穴領域d2が抽出される。   When the original image labeling processing unit 28 sets a pore as a specific object, the pixel having a pixel value lower than the threshold value of the blue component for extracting the pore from the skin region of the original image B1 as the analysis target face image B is set to 1. After performing binarization processing for setting pixels having pixel values equal to or greater than the threshold value to 0, for example, as shown in FIG. 8A, each pixel is divided into pixel sizes of about 10 × 10 pixels. A labeling process is performed on the pixel group. As a result, a pore region d2 of about 3 × 3 pixels to 7 × 7 pixels is extracted.

しかし、図8(b)に示すように、数百画素×数百画素に及ぶ可能性がある染み領域d1を特定オブジェクトとするとき、図2に示すような、解析対象顔画像Bとしての原画像B1全体または各解析対象要素R内の肌領域を、染みを抽出するための青成分の閾値に基づいて二値化処理を施した後に、数百画素×数百画素の画素サイズに分割して、各分割画素群に対してラベリング処理を実行する場合には、スタックがオーバーフローして処理が中断される虞がある。   However, as shown in FIG. 8B, when a specific area is a stain area d1 that may cover several hundred pixels × several hundred pixels, the original face image B as the analysis target face image B as shown in FIG. The entire image B1 or the skin area in each analysis target element R is subjected to a binarization process based on a blue component threshold value for extracting a stain, and then divided into a pixel size of several hundred pixels × several hundred pixels. When the labeling process is executed for each divided pixel group, the stack may overflow and the process may be interrupted.

そこで、切替処理部29により縮小処理部20が起動される。解析対象顔画像Bとしての原画像B1に含まれる染みを特定オブジェクトとする場合に、縮小処理部20は、例えば、比較的大きな染みのサイズである10000画素(100×100画素)を想定画素サイズとして、その1/100である100画素(10×10画素)に原画像B1全体または解析対象要素Rを縮小した縮小画像B2を生成する。つまり、縮小率を1/10に設定するのである。このときの縮小処理アルゴリズムはニアレストネイバー法を用いれば十分であり高速に縮小処理ができる。尚、ニアレストネイバー法以外の縮小拡大アルゴリズムを採用するものであってもよい。   Therefore, the reduction processing unit 20 is activated by the switching processing unit 29. When the stain included in the original image B1 as the analysis target face image B is a specific object, the reduction processing unit 20 assumes, for example, a relatively large stain size of 10,000 pixels (100 × 100 pixels) as an assumed pixel size. As a result, a reduced image B2 in which the entire original image B1 or the analysis target element R is reduced to 100 pixels (10 × 10 pixels) that is 1/100 of that is generated. That is, the reduction ratio is set to 1/10. As the reduction processing algorithm at this time, it is sufficient to use the nearest neighbor method, and the reduction processing can be performed at high speed. Note that a reduction / enlargement algorithm other than the nearest neighbor method may be employed.

例えば、図9(a)に示すような約2300×3500画素で構成される800万画素の原画像B1に対して、図9(b)に示すような約230×350画素の縮小画像B2を生成する。   For example, a reduced image B2 of about 230 × 350 pixels as shown in FIG. 9B is converted to an original image B1 of 8 million pixels made up of about 2300 × 3500 pixels as shown in FIG. 9A. Generate.

縮小画像ラベリング処理部22は、縮小画像B2の画素を、染みを抽出するための青成分の閾値に基づいて二値化処理を施した後に、図10(a)に示すように、10×10画素の画素サイズに分割して、各分割画素群に対して同一属性、つまり、二値化された画素が1の値を示す複数の連続画素に同一ラベルT2を付すことにより、縮小画像に含まれる特定オブジェクトの領域U2を抽出する。   The reduced image labeling processing unit 22 performs binarization processing on the pixels of the reduced image B2 based on the threshold value of the blue component for extracting the stain, and then, as shown in FIG. Included in the reduced image by dividing the pixel size of the pixel and assigning the same label T2 to a plurality of continuous pixels having the same attribute for each divided pixel group, that is, a binarized pixel having a value of 1. The region U2 of the specific object to be extracted is extracted.

つまり、ラベリング処理の対象となる分割領域の画素数を1/100に減少させることにより、原画像B1であれば100×100画素単位でラベリング処理を実行する必要があるところを、縮小画像B2であれば10×10画素単位でラベリング処理を実行することができるようになり、メモリ容量を増加させることなくスタックのオーバーフローの発生が回避されるのである。また、ラベリング処理の対象画素数が減少することにより、高速にラベリング処理を実行することができるようにもなる。   In other words, by reducing the number of pixels in the division area to be labeled to 1/100, if the original image B1, it is necessary to execute the labeling process in units of 100 × 100 pixels in the reduced image B2. If so, the labeling process can be executed in units of 10 × 10 pixels, and the occurrence of stack overflow can be avoided without increasing the memory capacity. Further, since the number of target pixels for the labeling process is reduced, the labeling process can be executed at high speed.

オブジェクト同定処理部24は、図10(b)に示すように、縮小画像ラベリング処理部22により抽出された染み領域を、当該縮小率(1/100)に基づいて、100倍に拡大処理し、原画像B1における染み領域の座標に対応付けることにより、原画像B1に含まれる特定オブジェクトU1、つまり染みの領域として同定する。   As shown in FIG. 10B, the object identification processing unit 24 enlarges the stain area extracted by the reduced image labeling processing unit 22 by a factor of 100 based on the reduction ratio (1/100). By associating with the coordinates of the stain area in the original image B1, the specific object U1 included in the original image B1, that is, the stain area is identified.

尚、原画像における特定オブジェクトの想定画素サイズを10000画素とする場合に1/100の縮小率に設定すると、縮小画像では特定オブジェクトのサイズが1画素となり、より高速にラベリング処理できるがそれだけ誤差も増大する。縮小率を1/2に設定すると、縮小画像では特定オブジェクトのサイズが2500画素となり、精度がそれ程低下することなくラベリング処理ができるが、スタックの容量が問題になる。従って、縮小率はラベリング処理の精度とスタックの容量との観点で決定される必要がある。   When the assumed pixel size of the specific object in the original image is set to 10,000 pixels, if the reduction ratio is set to 1/100, the size of the specific object is 1 pixel in the reduced image, and the labeling process can be performed at a higher speed, but there is an error as much. Increase. If the reduction ratio is set to ½, the size of the specific object in the reduced image is 2500 pixels, and the labeling process can be performed without any significant decrease in accuracy, but the stack capacity becomes a problem. Therefore, the reduction ratio needs to be determined in terms of the accuracy of the labeling process and the capacity of the stack.

このようにして同定された原画像B1の特定オブジェクトU1は、縮小時の欠落画素の影響で原画像に存在する特定オブジェクトの輪郭が正確に抽出できない場合もあり、染みの正確な検出という点で不都合が生じる虞もある。   The specific object U1 of the original image B1 thus identified may not be able to accurately extract the contour of the specific object existing in the original image due to the effect of missing pixels at the time of reduction. There is a risk of inconvenience.

そこで、輪郭領域ラベリング処理部26は、オブジェクト同定処理部24で同定された特定オブジェクトU1の輪郭領域Vに対して、特定オブジェクトU1と同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する。   Therefore, the contour region labeling processing unit 26 attaches the same label to a plurality of continuous pixels having the same attribute as the specific object U1 with respect to the contour region V of the specific object U1 identified by the object identification processing unit 24. The area of the specific object included in the original image is extracted.

図10(c)に示すように、同定された特定オブジェクトU1のエッジ画素を中心として、例えば、左右上下に10画素の範囲を輪郭領域Vとして設定する。輪郭領域Vを設定する画素数は縮小率に応じて決定される値で、本実施形態では1/100の縮小率であるため、縦横に10画素の丸め込み誤差が発生することを考慮するものである。   As shown in FIG. 10C, for example, a range of 10 pixels is set as a contour region V around the edge pixel of the identified specific object U <b> 1 on the left and right and up and down. The number of pixels for setting the contour region V is a value determined in accordance with the reduction ratio. In this embodiment, the reduction ratio is 1/100. Therefore, it is considered that rounding errors of 10 pixels occur vertically and horizontally. is there.

輪郭領域ラベリング処理部26は、このような輪郭領域Vを、オブジェクト同定処理部24で同定された特定オブジェクトU1の任意のエッジ画素が中心に位置するように20×20画素の複数の領域に分割して、分割領域毎にラベリング処理を実行する。このようにして、図10(d)に示すような正確な特定オブジェクトUが検出される。尚、このとき、エッジ画素から特定オブジェクトU1側に最も離れた画素からラベリング処理を実行することにより、特定オブジェクトU1と連続する画素のみを正確且つ高速にラベリングできる。   The contour region labeling processing unit 26 divides such a contour region V into a plurality of regions of 20 × 20 pixels so that an arbitrary edge pixel of the specific object U1 identified by the object identification processing unit 24 is located at the center. Then, the labeling process is executed for each divided region. In this way, an accurate specific object U as shown in FIG. 10 (d) is detected. At this time, by performing the labeling process from the pixel farthest from the edge pixel toward the specific object U1, only the pixels that are continuous with the specific object U1 can be labeled accurately and at high speed.

尚、輪郭領域ラベリング処理は選択的処理として、オペレータによる選択操作に基づいて必要に応じて実行されるように構成してもよい。   Note that the contour region labeling process may be configured to be executed as necessary based on a selection operation by an operator as a selective process.

以上説明した肌特性抽出処理部4bにより、染みを抽出する際の画像処理方法の一例を、図11に示すフローチャートに基づいて概説する。   An example of an image processing method for extracting a stain by the skin characteristic extraction processing unit 4b described above will be outlined based on the flowchart shown in FIG.

表示部3の画面に、図12に示すように、解析対象要素Rが重畳された原画像の全体を間引き処理したモニタ画像B3の表示領域40と、縮小画像B2の表示領域41と、解析対象要素Rの一部を拡大した画像を表示する表示領域42が設定され、その右横に診断レポートの表示領域39が配置されている。   As shown in FIG. 12, the display area 40 of the monitor image B3 obtained by thinning the entire original image on which the analysis target element R is superimposed on the screen of the display unit 3, the display area 41 of the reduced image B2, and the analysis target A display area 42 for displaying an image obtained by enlarging a part of the element R is set, and a diagnostic report display area 39 is arranged on the right side thereof.

モニタ画像B3の表示領域40の下方には、特定オブジェクトとして、染み、皺、毛穴の何れかを選択するキー30,31,32が表示され、その右側に縮小倍率設定用のキー33,34,35が配置されている。画面中央の下部には特定オブジェクト抽出処理を開始するスタートキー36、直前に入力された操作を取り消す取消キー37、画面の表示内容を印刷する印刷キー38等が配置されている。   Below the display area 40 of the monitor image B3, keys 30, 31, and 32 for selecting one of stain, wrinkle, and pores are displayed as specific objects, and keys 33, 34, 35 is arranged. A start key 36 for starting the specific object extraction process, a cancel key 37 for canceling the operation input immediately before, a print key 38 for printing the display content of the screen, and the like are arranged at the lower center of the screen.

オペレータにより染みに対応するキー30が操作されると、切替処理部29により縮小処理部20が起動されて、画面上部のメッセージ表示欄43に、縮小倍率設定キーを操作してください、とのメッセージが表示され、縮小倍率の自動設定キー33または手動設定キー34がアクティブになる。自動設定キー33が選択されると1/10の縮小率に設定され、手動設定キー34が選択されるとキーボードから入力された数値が縮小率として設定され、縮小率表示部35に表示される。   When the operator operates the key 30 corresponding to the stain, the switching processing unit 29 activates the reduction processing unit 20, and a message that the operator should operate the reduction ratio setting key in the message display field 43 at the top of the screen. Is displayed, and the automatic reduction key 33 or manual setting key 34 for the reduction ratio is activated. When the automatic setting key 33 is selected, the reduction ratio is set to 1/10. When the manual setting key 34 is selected, a numerical value input from the keyboard is set as the reduction ratio and displayed on the reduction ratio display unit 35. .

オペレータにより、モニタ画像B3の表示領域40に表示された解析対象要素R(R1からR4)が選択操作され、スタートキー36が操作されると、縮小処理部20は、原画像B1を設定された縮小率で縮小処理して、縮小画像B2を縮小画像表示領域41に表示する縮小処理ステップを実行する(S1)。   When the operator selects the analysis target element R (R1 to R4) displayed in the display area 40 of the monitor image B3 and operates the start key 36, the reduction processing unit 20 sets the original image B1. A reduction processing step is executed to display the reduced image B2 in the reduced image display area 41 by performing reduction processing at the reduction ratio (S1).

縮小画像ラベリング処理部22は、選択された解析対象要素Rに対応する縮小画像領域に対して上述のラベリング処理を行ない、縮小画像B2に含まれる染みの領域U2を抽出する縮小画像ラベリング処理ステップを実行する(S2)。その結果が、縮小画像表示領域41に表示された縮小画像B2に反映され、該当する領域が他と異なる色で識別可能に表示される。   The reduced image labeling processing unit 22 performs the above-described labeling processing on the reduced image region corresponding to the selected analysis target element R, and performs a reduced image labeling processing step of extracting the stain region U2 included in the reduced image B2. Execute (S2). The result is reflected in the reduced image B2 displayed in the reduced image display area 41, and the corresponding area is displayed in a different color from the others.

オブジェクト同定処理部24は、縮小画像ラベリング処理ステップで抽出された染みの領域を原画像のサイズに拡大処理して、原画像に含まれる染みとして同定するオブジェクト同定処理ステップを実行し、原画像に同定された染みの領域を他と異なる色で識別可能に表示するとともに、拡大画像表示領域42に抽出した染みおよびその周辺の拡大画像を表示する(S3)。   The object identification processing unit 24 enlarges the stain area extracted in the reduced image labeling processing step to the size of the original image, and executes an object identification processing step that identifies the stain as included in the original image. The identified stain area is displayed so as to be identifiable with a color different from the others, and the extracted stain and its surrounding enlarged image are displayed in the enlarged image display area 42 (S3).

輪郭領域ラベリング処理部26は、オブジェクト同定処理ステップで同定された染みの輪郭領域(図10(c)の符号V参照)に対して、当該染みと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる染みの領域を抽出する輪郭領域ラベリング処理ステップを実行し、原画像に含まれる染みの領域を他と異なる色で識別可能に表示する(S4)。尚、このとき、輪郭領域Vを適宜複数の領域に分割して、各分割領域に対して輪郭領域ラベリング処理を行ない、その後、同一領域を統合してもよい。   The outline region labeling processing unit 26 applies the same label to a plurality of continuous pixels having the same attribute as the stain for the outline region of the stain identified in the object identification processing step (see reference numeral V in FIG. 10C). The contour region labeling processing step for extracting the stain area included in the original image is executed, and the stain area included in the original image is displayed in a different color from the others (S4). At this time, the contour region V may be appropriately divided into a plurality of regions, the contour region labeling process may be performed on each divided region, and then the same region may be integrated.

その結果、抽出された染み領域に対して、診断処理部4cによりその状態が診断され、表示領域39に診断レポートとして診断結果が表示される。   As a result, the state of the extracted stain area is diagnosed by the diagnosis processing unit 4c, and the diagnosis result is displayed in the display area 39 as a diagnosis report.

以下に別実施形態を説明する。上述の実施形態では、特定オブジェクトである染みのサイズが想定される場合を説明したが、染みのサイズが大小様々であるときには、縮小処理部20で縮小率の異なる複数の縮小画像を生成し、縮小画像ラベリング処理部22が、各縮小画像に対してラベリング処理を実行すればよい。   Another embodiment will be described below. In the above-described embodiment, the case where the size of the stain that is the specific object is assumed has been described. However, when the size of the stain is large or small, the reduction processing unit 20 generates a plurality of reduced images with different reduction rates, The reduced image labeling processing unit 22 may perform a labeling process for each reduced image.

このとき、縮小画像ラベリング処理部22が、縮小処理部20で生成された縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の小さな縮小画像に対するラベリング処理時に、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いてラベリング処理を実行するように構成すれば、同一の特定オブジェクトに対する重複したラベリング処理が省略されるようになり、確実に特定オブジェクトが抽出でき、しかも、高速にラベリング処理を実行することが可能になる。   At this time, the reduced image labeling processing unit 22 executes the labeling process in the order of the reduced image having the larger reduction rate generated from the reduction processing unit 20 and the reduced image having the lower reduction rate, and performs the labeling process on the reduced image having the lower reduction rate. If the configuration is such that the labeling process is executed by excluding the specific object extracted from the reduced image having a large reduction ratio and its peripheral area, the duplicate labeling process for the same specific object can be omitted. The specific object can be extracted and the labeling process can be executed at high speed.

上述した実施形態では、縮小処理部20が、原画像に含まれる特定オブジェクトである染みの想定画素サイズを10000画素として、縮小率を1/10に決定する例を説明したが、想定サイズ及び想定サイズに対応する縮小率はこのような値に限るものではなく、検出すべき染みのサイズに応じて適宜設定すればよい。さらに、染み以外の大きなサイズを有する特定オブジェクトを抽出する場合も同様である。   In the above-described embodiment, the example in which the reduction processing unit 20 determines the reduction rate to be 1/10 assuming that the assumed pixel size of the stain that is the specific object included in the original image is 10000 pixels is described. The reduction ratio corresponding to the size is not limited to such a value, and may be set as appropriate according to the size of the stain to be detected. The same applies to the case where a specific object having a large size other than a stain is extracted.

また、上述した実施形態では、特定オブジェクトである染みが、ほぼ円形状であることを想定して縮小率を決定したが、染みまたは他の特定オブジェクトが楕円形状等の他の形状である場合には、それを考慮して縮小率を決定すればよい。例えば、楕円形状の場合には短径に基づいて縮小率を決定すればよい。また、縦横の縮小率を異なる値に設定してもよい。   In the above-described embodiment, the reduction ratio is determined on the assumption that the stain that is the specific object has a substantially circular shape. However, when the stain or another specific object has another shape such as an elliptical shape. Therefore, the reduction rate may be determined in consideration of this. For example, in the case of an elliptical shape, the reduction ratio may be determined based on the minor axis. Also, the vertical and horizontal reduction ratios may be set to different values.

上述の場合には、ラベリング処理を実行する分割領域の縦横の画素数も異なる値に設定することにより、効率的に処理できる。   In the case described above, the number of pixels in the vertical and horizontal directions of the divided area where the labeling process is performed can be set to a different value to efficiently process.

また、画像処理装置を構成するパーソナルコンピュータの入力部を介したオペレータの設定操作により、縮小倍率の自動設定キーが選択されたときに自動選択される縮小率を可変設定できるような入力処理部を備えることも可能である。   An input processing unit that can variably set a reduction ratio that is automatically selected when an automatic setting key for reduction magnification is selected by an operator's setting operation via an input unit of a personal computer constituting the image processing apparatus. It is also possible to provide.

ラベリング処理の際の二値化閾値は、対象となる特定オブジェクトにより適宜設定される値であり、画像処理装置を構成するパーソナルコンピュータの入力部を介したオペレータの設定操作により可変設定できるような入力処理部を備えることも可能である。また、二値化閾値として上限値と下限値を設定し、上限値と下限値で規定される値を備えた画素を1、逸脱する値を備えた画素を0に設定するように構成してもよい。   The binarization threshold at the time of labeling processing is a value that is appropriately set depending on the target specific object, and is an input that can be variably set by an operator's setting operation via an input unit of a personal computer constituting the image processing apparatus. It is also possible to provide a processing unit. Further, an upper limit value and a lower limit value are set as the binarization threshold, and a pixel having a value defined by the upper limit value and the lower limit value is set to 1, and a pixel having a deviating value is set to 0. Also good.

尚、上述の実施形態では、画素を構成する赤、緑、青の色成分のうち、青成分に基づいて二値化するものを説明したが、特定オブジェクトの特性によっては、他の色成分に基づいて二値化するものであってもよいし、輝度値に基づいて二値化するものであってもよい。また、原画像を撮影する際に使用された光源の波長との関係で特定の色成分または輝度の何れを二値化すべきかを決定するものであってもよい。   In the above-described embodiment, among the red, green, and blue color components constituting the pixel, the binarization based on the blue component has been described. However, depending on the characteristics of the specific object, other color components may be used. The image may be binarized based on the luminance, or may be binarized based on the luminance value. Further, it may be determined which of specific color components or luminance should be binarized in relation to the wavelength of the light source used when photographing the original image.

上述した実施形態では、移動要素抽出処理部が特定標準顔要素を中心とする所定範囲に位置する他の標準顔要素及び標準解析対象要素を抽出するように構成するものを説明したが、移動要素抽出処理部を、特定標準顔要素と関連付けられた標準解析対象要素のみを抽出するように構成するものであってもよい。この場合、特定標準顔要素を中心とする所定範囲に位置する標準解析対象要素を抽出するように構成することにより、より自然且つ適切に解析対象要素を配置することができる。   In the above-described embodiment, the moving element extraction processing unit has been configured to extract other standard face elements and standard analysis target elements located in a predetermined range centered on a specific standard face element. The extraction processing unit may be configured to extract only the standard analysis target element associated with the specific standard face element. In this case, the analysis target element can be arranged more naturally and appropriately by configuring so as to extract the standard analysis target element located in a predetermined range centered on the specific standard face element.

この場合には、各標準顔要素と標準解析対象要素が予め関連付けられている必要があり、例えば、標準顔要素の眉を額領域R1の標準解析対象要素と関連付け、標準顔要素の目を鼻領域R3及び頬領域R2の標準解析対象要素と関連付け、標準顔要素の口を顎領域R4の標準解析対象要素と関連付け、各標準顔要素及び標準解析対象要素が夫々の関連付け情報とともにメモリ2に格納しておけばよい。   In this case, each standard face element and the standard analysis target element need to be associated in advance. For example, the eyebrow of the standard face element is associated with the standard analysis target element in the forehead region R1, and the eyes of the standard face element are nose The standard face element is associated with the standard analysis target element of the region R3 and the cheek region R2, the mouth of the standard face element is associated with the standard analysis target element of the jaw region R4, and each standard face element and the standard analysis target element are stored in the memory 2 together with the association information. You just have to.

尚、移動関数及び標準解析対象要素を抽出する所定領域は上述と同様に構成すればよい。   In addition, what is necessary is just to comprise the predetermined area | region which extracts a transfer function and a standard analysis object element similarly to the above-mentioned.

上述した実施形態では、特定オブジェクトが、人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域である例を説明したが、本発明による画像処理装置が対象とする特定オブジェクトは、そのようなものに限定されるものではなく、任意の画像に含まれる任意のオブジェクトを抽出する場合にも適用可能である。例えば、写真画像中に存在する人物の顔を抽出する場合等にも適用できる。   In the above-described embodiment, an example in which the specific object is a skin discoloration region such as a stain, a pore, or a wrinkle included in a human face image is described. However, the specific object targeted by the image processing apparatus according to the present invention is as follows. The present invention is not limited to such a case, and the present invention can also be applied when extracting an arbitrary object included in an arbitrary image. For example, the present invention can be applied to a case where a human face existing in a photographic image is extracted.

上述した実施形態は、本発明の一例に過ぎず、本発明の作用効果を奏する範囲において各機能ブロックの具体的構成等を適宜変更設計できることは言うまでもない。   The embodiment described above is merely an example of the present invention, and it goes without saying that the specific configuration and the like of each functional block can be changed and designed as appropriate within the scope of the effects of the present invention.

(a)は画像診断システムの機能ブロック構成図、(b)は画像処理装置のブロック構成図(A) is a functional block diagram of an image diagnostic system, (b) is a block diagram of an image processing apparatus. 顔画像の肌に画定される解析対象要素の説明図Explanatory drawing of the analysis target element defined in the skin of the face image (a)は表示部に表示された標準顔画像の説明図、(b)は表示部に表示された解析対象顔画像の説明図、(c)は表示部に重ね合わせて表示された標準顔画像と解析対象顔画像の説明図(A) is an explanatory diagram of a standard face image displayed on the display unit, (b) is an explanatory diagram of an analysis target face image displayed on the display unit, and (c) is a standard face displayed superimposed on the display unit. Illustration of the image and the face image to be analyzed (a)は標準顔要素及び標準解析対象要素の配置情報の説明図、(b)はオペレータにより基準点が移動操作されるときの標準顔要素及び標準解析対象要素の移動態様の説明図、(c)はオペレータにより接続線が移動操作されるときの標準顔要素及び標準解析対象要素の移動態様の説明図、(d)は特定標準顔要素とともに移動する他の標準顔要素及び標準解析対象要素が抽出される所定範囲の説明図(A) is an explanatory view of the arrangement information of the standard face element and the standard analysis target element, (b) is an explanatory view of the movement mode of the standard face element and the standard analysis target element when the reference point is moved by the operator. c) is an explanatory diagram of a movement mode of the standard face element and the standard analysis target element when the connection line is moved by the operator, and (d) is another standard face element and standard analysis target element that moves together with the specific standard face element. Explanatory drawing of the predetermined range where is extracted (a)はΔL≦L1のときに他の標準顔要素の基準点の移動距離及び方向を示す説明図、(b)はΔL>L1のときに他の標準顔要素及び標準解析対象要素の基準点の移動距離及び方向を示す説明図(A) is explanatory drawing which shows the movement distance and direction of the reference point of another standard face element when (DELTA) L <= L1, (b) is a reference | standard of another standard face element and a standard analysis object element when (DELTA) L> L1. Explanatory drawing showing the moving distance and direction of a point 解析対象顔画像に画定された解析対象要素の説明図Explanatory drawing of the analysis target element defined in the analysis target face image ラベリング処理の説明図Illustration of labeling process (a)は特定オブジェクトが毛穴であるときのラベリング処理の対象画素ブロック(黒丸は毛穴の画素)の説明図、(b)は特定オブジェクトが染みであるときのラベリング処理の対象画素ブロック(黒丸は毛穴の画素)の説明図(A) is an explanatory diagram of a target pixel block for labeling processing when the specific object is a pore (black circle is a pixel for pores), and (b) is a target pixel block for labeling processing when the specific object is a stain (black circle is Illustration of pore pixel) 原画像と縮小画像の説明図Illustration of original image and reduced image (a)は縮小画像に対するラベリング処理で得られた染み領域の説明図、(b)はオブジェクト同定処理で同定された染み領域の要部の説明図、(c)は輪郭領域ラベリング処理で設定される輪郭領域の要部の説明図、(d)は輪郭領域ラベリング処理の結果を示す要部の説明図(A) is an explanatory diagram of a stain area obtained by the labeling process on the reduced image, (b) is an explanatory diagram of a main part of the stain area identified by the object identification process, and (c) is set by the outline area labeling process. Explanatory drawing of the principal part of the outline area | region which shows, (d) is explanatory drawing of the principal part which shows the result of a contour area labeling process 肌特性抽出処理部の動作を説明するフローチャートFlowchart explaining operation of skin characteristic extraction processing unit 表示部に表示される画面の説明図Illustration of the screen displayed on the display

符号の説明Explanation of symbols

2:記憶部
3:表示部
4b:肌特性抽出処理部
20:縮小処理部
22:縮小画像ラベリング処理部
24:オブジェクト同定処理部
26:輪郭領域ラベリング処理部
28:原画像ラベリング処理部
29:切替処理部
2: Storage unit 3: Display unit 4b: Skin characteristic extraction processing unit 20: Reduction processing unit 22: Reduced image labeling processing unit 24: Object identification processing unit 26: Contour region labeling processing unit 28: Original image labeling processing unit 29: Switching Processing part

Claims (9)

原画像に含まれる特定オブジェクトの想定画素サイズに対応して決定される縮小率で、前記原画像を縮小した縮小画像を生成する縮小処理部と、
前記縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理部と、
前記縮小画像ラベリング処理部で抽出された特定オブジェクトの領域を前記原画像のサイズに拡大処理して、前記原画像に含まれる特定オブジェクトとして同定するオブジェクト同定処理部を備えている画像処理装置。
A reduction processing unit that generates a reduced image obtained by reducing the original image at a reduction rate determined in accordance with an assumed pixel size of a specific object included in the original image;
A reduced image labeling processing unit for extracting a region of a specific object included in the reduced image by attaching the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the reduced image;
An image processing apparatus comprising: an object identification processing unit that enlarges a region of a specific object extracted by the reduced image labeling processing unit to a size of the original image and identifies the specific object as a specific object included in the original image.
前記縮小画像ラベリング処理部は、前記縮小処理部で生成された縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の小さな縮小画像に対するラベリング処理時に、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いてラベリング処理を実行する請求項1記載の画像処理装置。   The reduced image labeling processing unit executes a labeling process in the order of a reduced image with a large reduction rate and a reduced image with a low reduction rate generated by the reduction processing unit, and performs a reduction rate during a labeling process for a reduced image with a low reduction rate. The image processing apparatus according to claim 1, wherein the labeling process is executed except for a specific object extracted from a large reduced image and a peripheral area thereof. 前記オブジェクト同定処理部で同定された特定オブジェクトの輪郭領域に対して、前記特定オブジェクトと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する輪郭領域ラベリング処理部を備えている請求項1または2記載の画像処理装置。   By extracting the same label from a plurality of continuous pixels having the same attribute as the specific object, the specific object area included in the original image is extracted from the contour area of the specific object identified by the object identification processing unit. The image processing apparatus according to claim 1, further comprising a contour region labeling processing unit. 前記原画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記原画像に含まれる特定オブジェクトの領域を抽出する原画像ラベリング処理部を備え、
前記原画像に含まれる特定オブジェクトの想定画素サイズに基づいて、前記縮小処理部と前記縮小画像ラベリング処理部と前記オブジェクト同定処理部を作動させるか、前記原画像ラベリング処理部を作動させるかを切り替える切替処理部を備えている請求項1から3の何れかに記載の画像処理装置。
An original image labeling processing unit for extracting a region of a specific object included in the original image by attaching the same label to a plurality of continuous pixels having the same attribute among pixels constituting the original image;
Switching between operating the reduction processing unit, the reduced image labeling processing unit, and the object identification processing unit or operating the original image labeling processing unit based on an assumed pixel size of a specific object included in the original image. The image processing apparatus according to claim 1, further comprising a switching processing unit.
前記特定オブジェクトが、人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域である請求項1から3の何れかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specific object is a skin discoloration region such as a stain, a pore, or a wrinkle included in a human face image. 前記特定オブジェクトが、人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域であり、前記切替処理部は、毛穴を特定オブジェクトとするときに原画像ラベリング処理部を作動させ、染みを特定オブジェクトとするときに前記縮小処理部と前記縮小画像ラベリング処理部と前記オブジェクト同定処理部を作動させるように切り替える請求項4記載の画像処理装置。   The specific object is a skin discoloration region such as a stain, a pore or a wrinkle included in a human face image, and the switching processing unit activates an original image labeling processing unit when the pore is a specific object, and stains The image processing apparatus according to claim 4, wherein the reduction processing unit, the reduced image labeling processing unit, and the object identification processing unit are switched to operate when the object is a specific object. 原画像に含まれる特定オブジェクトの想定画素サイズに対応して決定される縮小率で、前記原画像を縮小した縮小画像を生成する縮小処理ステップと、
前記縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理ステップと、
前記縮小画像ラベリング処理ステップで抽出された特定オブジェクトの領域を前記原画像のサイズに拡大処理して、前記原画像に含まれる特定オブジェクトとして同定するオブジェクト同定処理ステップを備えている画像処理方法。
A reduction processing step for generating a reduced image obtained by reducing the original image at a reduction ratio determined in accordance with an assumed pixel size of a specific object included in the original image;
A reduced image labeling processing step of extracting a region of a specific object included in the reduced image by attaching the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the reduced image;
An image processing method comprising: an object identification processing step for enlarging a region of a specific object extracted in the reduced image labeling processing step to a size of the original image and identifying the specific object as a specific object included in the original image.
前記縮小画像ラベリング処理ステップは、前記縮小処理ステップで生成された縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の小さな縮小画像に対するラベリング処理時に、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いてラベリング処理を実行する請求項7記載の画像処理方法。   The reduced image labeling processing step executes a labeling process in the order of a reduced image with a large reduction ratio and a reduced image with a small reduction ratio generated in the reduction processing step, and performs a reduction ratio during a labeling process for a reduced image with a small reduction ratio. The image processing method according to claim 7, wherein the labeling process is executed except for a specific object extracted from a large reduced image and a peripheral area thereof. 前記オブジェクト同定処理ステップで同定された特定オブジェクトの輪郭領域に対して、前記特定オブジェクトと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する輪郭領域ラベリング処理ステップを備えている請求項7または8記載の画像処理方法。   For the contour region of the specific object identified in the object identification processing step, the region of the specific object included in the original image is extracted by attaching the same label to a plurality of continuous pixels having the same attribute as the specific object. The image processing method according to claim 7, further comprising a contour region labeling processing step.
JP2007166101A 2007-06-25 2007-06-25 Image processor and image processing method Withdrawn JP2009003842A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007166101A JP2009003842A (en) 2007-06-25 2007-06-25 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007166101A JP2009003842A (en) 2007-06-25 2007-06-25 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2009003842A true JP2009003842A (en) 2009-01-08

Family

ID=40320135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007166101A Withdrawn JP2009003842A (en) 2007-06-25 2007-06-25 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2009003842A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015793A1 (en) * 2013-07-31 2015-02-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Skin analysis method, skin analysis device, and method for controlling skin analysis device
CN107125904A (en) * 2016-02-29 2017-09-05 松下知识产权经营株式会社 Image processing apparatus and image processing method
CN109381165A (en) * 2018-09-12 2019-02-26 维沃移动通信有限公司 A kind of skin detecting method and mobile terminal
KR20210040300A (en) * 2020-06-29 2021-04-13 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Image recognition method and apparatus, device, computer storage medium, and computer program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015015793A1 (en) * 2013-07-31 2015-02-05 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Skin analysis method, skin analysis device, and method for controlling skin analysis device
CN105407799A (en) * 2013-07-31 2016-03-16 松下电器(美国)知识产权公司 Skin analysis method, skin analysis device, and method for controlling skin analysis device
EP3028632A4 (en) * 2013-07-31 2016-07-27 Panasonic Ip Corp America Skin analysis method, skin analysis device, and method for controlling skin analysis device
JPWO2015015793A1 (en) * 2013-07-31 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Skin analysis method, skin analysis device, and control method of skin analysis device
US9875394B2 (en) 2013-07-31 2018-01-23 Panasonic Intellectual Property Corporation Of America Skin analysis method, skin analysis device, and method for controlling skin analysis device
CN107125904A (en) * 2016-02-29 2017-09-05 松下知识产权经营株式会社 Image processing apparatus and image processing method
JP2017153555A (en) * 2016-02-29 2017-09-07 パナソニックIpマネジメント株式会社 Image processing device and image processing method
CN107125904B (en) * 2016-02-29 2021-01-29 松下知识产权经营株式会社 Image processing apparatus and image processing method
CN109381165A (en) * 2018-09-12 2019-02-26 维沃移动通信有限公司 A kind of skin detecting method and mobile terminal
KR20210040300A (en) * 2020-06-29 2021-04-13 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Image recognition method and apparatus, device, computer storage medium, and computer program
US11687779B2 (en) 2020-06-29 2023-06-27 Beijing Baidu Netcom Science And Technology Co., Ltd. Image recognition method and apparatus, device, and computer storage medium
KR102597377B1 (en) * 2020-06-29 2023-11-01 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Image recognition method and apparatus, device, computer storage medium, and computer program

Similar Documents

Publication Publication Date Title
US10255482B2 (en) Interactive display for facial skin monitoring
US10255484B2 (en) Method and system for assessing facial skin health from a mobile selfie image
KR101159830B1 (en) Red eye false positive filtering using face location and orientation
JP4307496B2 (en) Facial part detection device and program
JP2020522807A (en) System and method for guiding a user to take a selfie
US8218862B2 (en) Automatic mask design and registration and feature detection for computer-aided skin analysis
JP4845698B2 (en) Eye detection device, eye detection method, and program
JP5080060B2 (en) Skin condition analysis method, skin condition analysis apparatus, skin condition analysis program, and recording medium on which the program is recorded
TWI526982B (en) Area segmentation method, computer program product and inspection device
US20190156483A1 (en) Image processing apparatus and image processing method
CN111212594B (en) Electronic device and method for determining conjunctival congestion degree by using electronic device
CN107368806B (en) Image rectification method, image rectification device, computer-readable storage medium and computer equipment
JP2008102902A (en) Visual line direction estimation device, visual line direction estimation method, and program for making computer execute visual line direction estimation method
JP2009000410A (en) Image processor and image processing method
JP2016112024A (en) Method for controlling information processing device and image processing method
JP2009048447A (en) Image processing device, image processing method, and image processing program
JP2009003842A (en) Image processor and image processing method
CN115601811A (en) Facial acne detection method and device
JP2019145011A (en) Operation determination device and operation determination method
JP2004041753A (en) Skin diagnostic apparatus using digital zooming
JP2009289210A (en) Device and method for recognizing important object and program thereof
JP2005316958A (en) Red eye detection device, method, and program
JP5242827B2 (en) Face image processing apparatus, face image processing method, electronic still camera, digital image processing apparatus, and digital image processing method
JP2004105748A (en) Digital zooming skin diagnosing device
JP2011055291A (en) Video display device and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100907