JP2009003842A - Image processor and image processing method - Google Patents
Image processor and image processing method Download PDFInfo
- Publication number
- JP2009003842A JP2009003842A JP2007166101A JP2007166101A JP2009003842A JP 2009003842 A JP2009003842 A JP 2009003842A JP 2007166101 A JP2007166101 A JP 2007166101A JP 2007166101 A JP2007166101 A JP 2007166101A JP 2009003842 A JP2009003842 A JP 2009003842A
- Authority
- JP
- Japan
- Prior art keywords
- image
- specific object
- processing unit
- labeling
- reduced image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、画像に含まれる特定オブジェクトの領域を抽出するラベリング処理部を備えた画像処理装置または画像処理方法に関し、特に、撮像装置で撮影された人の顔画像情報に基づいて、染み、毛穴、皺等、顔の肌の変色部位の特性情報を抽出するための画像処理装置及び画像処理方法に関する。 The present invention provides an image processing apparatus or image having a labeling processing unit that extracts a region of a specific object included in an image by attaching the same label to a plurality of continuous pixels having the same attribute among pixels constituting the image. More particularly, the present invention relates to an image processing apparatus and an image processing method for extracting characteristic information of discolored parts of facial skin such as stains, pores, wrinkles, and the like based on human face image information captured by an imaging apparatus. .
美容外科やエステティックサロン等では、染み、毛穴の汚れ、皺等、顔の肌の状態を改善する美容施術の前後に、肌の状態がどの程度改善されたかを客観的に判断するため、撮像装置で人の顔画像を撮影し、撮影した顔画像に対して所定の画像処理を行なって、染み、毛穴の汚れ、皺等の状態を評価する必要がある。 In cosmetic surgery and esthetic salons, an imaging device is used to objectively determine how much the skin condition has improved before and after cosmetic treatments that improve the skin condition of the face, such as stains, pore dirt, wrinkles, etc. Thus, it is necessary to take a human face image, perform predetermined image processing on the taken face image, and evaluate the state of stain, pore dirt, wrinkles, and the like.
そのため、特許文献1では、デジタルカメラで撮影した顔全体の撮影画像データに少なくとも1個の処理領域を設定して処理領域の画像データを切り出し、切り出した処理領域の画像データを処理して皮膚のパラメータを演算するデジタルズーム肌診断装置において、撮像素子の画素数が多いデジタルカメラで出力データサイズの大きな顔全体の高解像度画像を撮影し、画像上で任意に配置を設定可能な解析線を重ねた処理領域の拡大画像と並べて、この解析線に沿った濃度分布のグラフをモニタ画面に表示し、このグラフ上で設定したしきい値に基づいて濃度分布の凹凸をカウントすることにより皮膚のパラメータを求めることを特徴とするデジタルズーム肌診断装置が提案されている。 Therefore, in Patent Document 1, at least one processing region is set in the captured image data of the entire face captured by the digital camera, the processing region image data is cut out, and the cut out processing region image data is processed to process the skin. In a digital zoom skin diagnostic device that calculates parameters, a high-resolution image of the entire face with a large output data size is taken with a digital camera with a large number of pixels of the image sensor, and analysis lines that can be arbitrarily arranged on the image are superimposed Along with the enlarged image of the processing area, a graph of the concentration distribution along this analysis line is displayed on the monitor screen, and the skin parameters are determined by counting the unevenness of the concentration distribution based on the threshold value set on this graph. There has been proposed a digital zoom skin diagnostic apparatus characterized by the demand.
上述の装置では、撮影画像データから切り取った拡大画像を処理領域として、処理領域のR画像データからXY二次元の濃度分布を作成し、閾値を変化させて二値化して染みを抽出し、抽出した染みの大きさと数から染みのパラメータを演算するものであった。 In the above-described apparatus, an enlarged image cut out from the photographed image data is used as a processing region, an XY two-dimensional density distribution is created from the R image data in the processing region, and a threshold is changed to binarize and extract a stain and extract. The stain parameters were calculated from the size and number of stains.
染みの大きさを演算する場合には、画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、画像に含まれるオブジェクトの領域、ここでは染みの領域を抽出するラベリング処理が一般的に用いられる。
しかし、手続きの中で再び当該手続き自身を呼び出す再帰呼び出し処理を伴なうラベリング処理を実行すると、処理時間が極めて長くなるという問題や、オブジェクトの画素サイズが大きくなるほど再帰呼び出し処理の数が増加するため、大容量のスタックメモリを準備していないと、オーバーフローが生じて処理が中断され、システムの安定性を損なうという問題があった。 However, if a labeling process accompanied by a recursive call process that calls the procedure itself again is executed in the procedure, the processing time becomes extremely long, and the number of recursive call processes increases as the pixel size of the object increases. For this reason, if a large-capacity stack memory is not prepared, an overflow occurs and processing is interrupted, resulting in a problem that the stability of the system is impaired.
そこで、再帰呼び出し処理の数を制限すると、容量の限られたスタックメモリであっても、オーバーフローの発生を回避することができるが、特定オブジェクトの領域の大きさが正確に検出できなくなるという問題が生じる。 Therefore, if the number of recursive call processes is limited, the occurrence of overflow can be avoided even with a stack memory with a limited capacity, but the problem is that the size of the area of a specific object cannot be detected accurately. Arise.
また、オブジェクトの探索範囲を制限すると、その範囲を超えるオブジェクトが検出できず、同一のオブジェクトであっても複数のオブジェクトとしてカウントされるという問題も生じる。 Further, when the search range of the object is limited, an object exceeding the range cannot be detected, and the same object is counted as a plurality of objects.
このような問題は、顔画像から染み等の領域サイズを検出する場合のみならず、写真撮影されたコマ画像からある特定のオブジェクトをラベリング処理により抽出する場合等、様々な局面で現れる。 Such a problem appears not only in the case of detecting a region size such as a stain from a face image, but also in various situations such as when a specific object is extracted from a photographed frame image by a labeling process.
本発明は、上述した従来の問題点に鑑みてなされたものであり、容量が小さなスタックメモリを備える場合であってもオーバーフローの発生を回避し、画像から短時間で確実に特定オブジェクトを抽出することができるラベリング処理が可能な画像処理装置及び画像処理方法を提供することを目的とする。 The present invention has been made in view of the above-described conventional problems. Even when a stack memory having a small capacity is provided, the occurrence of overflow is avoided, and a specific object is reliably extracted from an image in a short time. An object of the present invention is to provide an image processing apparatus and an image processing method capable of labeling.
上述の目的を達成するため、本発明による画像処理装置の特徴構成は、特許請求の範囲の書類の請求項1に記載した通り、原画像に含まれる特定オブジェクトの想定画素サイズに対応して決定される縮小率で、前記原画像を縮小した縮小画像を生成する縮小処理部と、前記縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理部と、前記縮小画像ラベリング処理部で抽出された特定オブジェクトの領域を前記原画像のサイズに拡大処理して、前記原画像に含まれる特定オブジェクトとして同定するオブジェクト同定処理部を備えている点にある。 In order to achieve the above object, the characteristic configuration of the image processing apparatus according to the present invention is determined according to the assumed pixel size of the specific object included in the original image, as described in claim 1 of the document of the claims. A reduction processing unit that generates a reduced image obtained by reducing the original image at a reduced rate, and a plurality of consecutive pixels having the same attribute among the pixels constituting the reduced image, by attaching the same label. A reduced image labeling processing unit that extracts a region of a specific object included in an image, and a region of the specific object extracted by the reduced image labeling processing unit is enlarged to the size of the original image, and is included in the original image An object identification processing unit for identifying a specific object is provided.
上述の構成によれば、原画像に含まれる特定オブジェクトが大きな領域であっても、縮小処理部によって特定オブジェクトの想定画素サイズに対応して決定される縮小率で生成された縮小画像に対して、縮小画像ラベリング処理部によってラベリング処理が実行されるため、ラベリング処理の対象画素数が減少する。その結果、縮小画像ラベリング処理部ではスタックメモリのオーバーフローの発生を招くことなく、高速にラベリング処理が実行できるようになる。そして、縮小画像ラベリング処理部により縮小画像から抽出された特定オブジェクトが、オブジェクト同定処理部により拡大処理されて、原画像に含まれる特定オブジェクトとして同定される。 According to the above-described configuration, even if the specific object included in the original image is a large area, the reduced image is generated by the reduction processing unit with the reduction rate determined according to the assumed pixel size of the specific object. Since the labeling process is executed by the reduced image labeling processing unit, the number of target pixels for the labeling process decreases. As a result, the reduced image labeling processing unit can execute the labeling process at high speed without causing an overflow of the stack memory. The specific object extracted from the reduced image by the reduced image labeling processing unit is enlarged by the object identification processing unit and identified as a specific object included in the original image.
同第二の特徴構成は、同請求項2に記載した通り、上述の第一特徴構成に加えて、前記縮小画像ラベリング処理部は、前記縮小処理部で生成された縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の小さな縮小画像に対するラベリング処理時に、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いてラベリング処理を実行する点にある。
In the second feature configuration, as described in
縮小処理部では、原画像に含まれる特定オブジェクトの想定画素サイズに対応した縮小率が決定されるが、当該特定オブジェクトの実際の画素サイズは様々であり、縮小率が大きすぎると縮小画像ラベリング処理部によって当該特定オブジェクトが抽出できない虞もある。 In the reduction processing unit, the reduction ratio corresponding to the assumed pixel size of the specific object included in the original image is determined. However, the actual pixel size of the specific object varies, and if the reduction ratio is too large, the reduction image labeling process is performed. There is a possibility that the specific object cannot be extracted by the part.
そこで、縮小画像ラベリング処理部によって縮小率の異なる複数の縮小画像に対してラベリング処理を実行する必要が生じる場合がある。そのような場合に、縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いて、縮小率の小さな縮小画像に対するラベリング処理を実行すれば、同一の特定オブジェクトに対する重複したラベリング処理が省略されるようになり、確実に特定オブジェクトが抽出でき、しかも、高速にラベリング処理を実行することが可能になる。 Therefore, it may be necessary to perform labeling processing on a plurality of reduced images having different reduction ratios by the reduced image labeling processing unit. In such a case, the labeling process is performed in the order of a reduced image with a large reduction ratio and a reduced image with a low reduction ratio, and the reduction ratio is reduced except for a specific object extracted in the reduced image with a large reduction ratio and its surrounding area. If labeling processing is performed on a small reduced image, duplicate labeling processing on the same specific object can be omitted, the specific object can be extracted reliably, and the labeling processing can be executed at high speed. .
同第三の特徴構成は、同請求項3に記載した通り、上述の第一または第二特徴構成に加えて、前記オブジェクト同定処理部で同定された特定オブジェクトの輪郭領域に対して、前記特定オブジェクトと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する輪郭領域ラベリング処理部を備えている点にある。 In the third feature configuration, in addition to the first or second feature configuration described above, the specific feature is defined with respect to the contour region of the specific object identified by the object identification processing unit. An outline region labeling processing unit that extracts the region of the specific object included in the original image by attaching the same label to a plurality of continuous pixels having the same attribute as the object is provided.
縮小画像に対するラベリング処理で抽出された特定オブジェクトを拡大処理すると、縮小時の欠落画素の影響で原画像に存在する特定オブジェクトの輪郭が正確に抽出できない場合がある。そのような場合に、オブジェクト同定処理部で同定された特定オブジェクトの輪郭領域に対して輪郭領域ラベリング処理部がラベリング処理すれば、原画像の特定オブジェクトの輪郭が正確に抽出できるようになる。この場合、輪郭領域ラベリング処理部のラベリング処理対象画素はオブジェクト同定処理部で同定された特定オブジェクトの輪郭領域に限定されるため、輪郭領域ラベリング処理部ではスタックメモリのオーバーフローの発生を招くことなく、高速にラベリング処理が実行できるようになる。 When the specific object extracted by the labeling process for the reduced image is enlarged, the outline of the specific object existing in the original image may not be extracted accurately due to the influence of the missing pixel at the time of reduction. In such a case, if the contour region labeling processing unit performs labeling processing on the contour region of the specific object identified by the object identification processing unit, the contour of the specific object in the original image can be accurately extracted. In this case, since the labeling processing target pixels of the contour region labeling processing unit are limited to the contour region of the specific object identified by the object identification processing unit, the contour region labeling processing unit does not cause an overflow of the stack memory, Labeling processing can be executed at high speed.
同第四の特徴構成は、同請求項4に記載した通り、上述の第一から第三の何れかの特徴構成に加えて、前記原画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記原画像に含まれる特定オブジェクトの領域を抽出する原画像ラベリング処理部を備え、前記原画像に含まれる特定オブジェクトの想定画素サイズに基づいて、前記縮小処理部と前記縮小画像ラベリング処理部と前記オブジェクト同定処理部を作動させるか、前記原画像ラベリング処理部を作動させるかを切り替える切替処理部を備えている点にある。 In the fourth feature configuration, in addition to any one of the first to third feature configurations described above, a plurality of pixels having the same attribute among the pixels constituting the original image may be provided. An original image labeling processing unit for extracting a region of a specific object included in the original image by attaching the same label to continuous pixels, and the reduction processing based on an assumed pixel size of the specific object included in the original image And a switching processing unit that switches between operating the reduced image labeling processing unit and the object identification processing unit or operating the original image labeling processing unit.
縮小画像に対してラベリング処理を行なう必要があるのは、原画像に含まれる特定オブジェクトの画素数が多く、スタックメモリのオーバーフロー等の不都合を招く虞のある場合である。従って、そのような不都合が発生する虞の無い場合には、切替処理部により原画像ラベリング処理部を作動させることにより、原画像から正確に特定オブジェクトを抽出できるようになり、そのような不都合が発生する虞の有る場合には、切替処理部により縮小処理部と縮小画像ラベリング処理部とオブジェクト同定処理部を作動させることにより、安定且つ高速に特定オブジェクトを抽出できるようになる。 The labeling process needs to be performed on the reduced image when the number of pixels of the specific object included in the original image is large and there is a possibility that inconvenience such as overflow of the stack memory may occur. Therefore, when there is no possibility that such an inconvenience will occur, a specific object can be accurately extracted from the original image by operating the original image labeling processing unit by the switching processing unit. When there is a possibility of occurrence, the switching processing unit operates the reduction processing unit, the reduced image labeling processing unit, and the object identification processing unit, so that a specific object can be extracted stably and at high speed.
同第五の特徴構成は、同請求項5に記載した通り、上述の第一から第三の何れかの特徴構成に加えて、前記特定オブジェクトが、人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域である点にある。 In the fifth feature configuration, in addition to any one of the first to third feature configurations described above, the specific object is a stain, pore, It is in a point that is a discoloration region of skin such as wrinkles.
人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域を特定オブジェクトとする場合に、第一から第三の何れかの特徴構成を備えた画像処理装置が好適に機能する。 When a skin discoloration region such as a stain, pore, or wrinkle included in a human face image is used as a specific object, an image processing apparatus having any one of the first to third characteristic configurations functions suitably.
同第六の特徴構成は、同請求項6に記載した通り、上述の第四特徴構成に加えて、前記特定オブジェクトが、人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域であり、前記切替処理部は、毛穴を特定オブジェクトとするときに原画像ラベリング処理部を作動させ、染みを特定オブジェクトとするときに前記縮小処理部と前記縮小画像ラベリング処理部と前記オブジェクト同定処理部を作動させるように切り替える点にある。 In the sixth feature configuration, as described in claim 6, in addition to the fourth feature configuration described above, the specific object is a skin discoloration region such as a stain, pore, or wrinkle included in a human face image. The switching processing unit operates the original image labeling processing unit when the pore is a specific object, and the reduction processing unit, the reduced image labeling processing unit, and the object identification processing when the stain is a specific object. It is in the point which switches so that a part may be operated.
本発明による画像処理方法の第一の特徴構成は、同請求項7に記載した通り、原画像に含まれる特定オブジェクトの想定画素サイズに対応して決定される縮小率で、前記原画像を縮小した縮小画像を生成する縮小処理ステップと、前記縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理ステップと、前記縮小画像ラベリング処理ステップで抽出された特定オブジェクトの領域を前記原画像のサイズに拡大処理して、前記原画像に含まれる特定オブジェクトを同定するオブジェクト同定処理ステップを備えている点にある。 According to the first characteristic configuration of the image processing method of the present invention, as described in claim 7, the original image is reduced at a reduction rate determined in accordance with an assumed pixel size of a specific object included in the original image. A reduction processing step for generating a reduced image, and extracting a region of a specific object included in the reduced image by attaching the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the reduced image. A reduced image labeling processing step; and an object identification processing step for enlarging the region of the specific object extracted in the reduced image labeling processing step to the size of the original image to identify a specific object included in the original image. There is in point.
同第二の特徴構成は、同請求項8に記載した通り、上述の第一特徴構成に加えて、前記縮小画像ラベリング処理ステップは、前記縮小処理ステップで生成された縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の小さな縮小画像に対するラベリング処理時に、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いてラベリング処理を実行する点にある。 In the second feature configuration, as described in claim 8, in addition to the first feature configuration described above, the reduced image labeling processing step includes a reduction image having a large reduction ratio generated in the reduction processing step. The labeling process is executed in the order of the reduced images with the smaller reduction ratios, and the labeling process is executed except for the specific object extracted from the reduced images with the higher reduction ratio and the surrounding area when the reduced images with the lower reduction ratios are labeled. It is in.
同第三の特徴構成は、同請求項9に記載した通り、上述の第一または第二特徴構成に加えて、前記オブジェクト同定処理ステップで同定された特定オブジェクトの輪郭領域に対して、前記特定オブジェクトと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する輪郭領域ラベリング処理ステップを備えている点にある。 According to the third feature configuration, in addition to the first or second feature configuration described above, the specific feature is defined with respect to the contour region of the specific object identified in the object identification processing step. An outline region labeling process step for extracting a region of a specific object included in the original image by attaching the same label to a plurality of continuous pixels having the same attribute as the object is provided.
以上説明した通り、本発明によれば、容量が小さなスタックメモリを備える場合であってもオーバーフローの発生を回避し、画像から短時間で確実に特定オブジェクトを抽出することができるラベリング処理が可能な画像処理装置及び画像処理方法を提供することができるようになった。 As described above, according to the present invention, even when a stack memory having a small capacity is provided, the occurrence of overflow can be avoided, and a labeling process that can reliably extract a specific object from an image in a short time is possible. An image processing apparatus and an image processing method can be provided.
以下に本発明による画像処理装置が組み込まれた画像診断システムの実施の形態を説明する。 Embodiments of an image diagnosis system incorporating an image processing apparatus according to the present invention will be described below.
図1に示すように、画像診断システムは、依頼人の顔画像を撮影する撮像装置1と、撮像装置1で撮影され、電子データに変換された依頼人の顔画像を格納するハードディスク等で構成されたメモリ2と、液晶画面を備えた表示部3と、パーソナルコンピュータに本発明を具現化するアプリケーションプログラムがインストールされた画像処理装置4を備えて構成されている。
As shown in FIG. 1, the diagnostic imaging system includes an imaging device 1 that captures a client's face image, and a hard disk that stores the client's facial image that has been captured by the imaging device 1 and converted into electronic data. And a
撮像装置1は、依頼人の顔を一定姿勢に保つ顎ガイドと頭部ガイドを備えた顔保持部1aと、顔保持部1aで保持された依頼人の顔を照明する照明装置1bと、照明装置1bで照明された依頼人の顔を撮影する撮像部1cを備えている。
The imaging device 1 includes a
画像処理装置4は、依頼人の顔画像領域に解析対象要素つまり解析対象領域を画定する解析対象領域生成部4aと、顔画像全体を構成する画素群または解析対象領域生成部4aで生成された解析対象要素を構成する画素群の画素値に基づいて、染み、毛穴の汚れ、皺等、肌の変色部位である特性情報を抽出する肌特性抽出処理部4bと、肌特性抽出処理部4bで抽出された肌の特性情報に基づいて肌状態を診断する診断処理部4cを備えている。
The image processing device 4 is generated by an analysis target
撮像装置1で撮影された依頼人の顔画像は原画像としてメモリ2に格納され、画像処理装置4によってメモリ2から読み出されて表示部3に表示される。解析対象領域生成部4aにより、表示部3に表示された依頼人の顔画像の肌に、図2に示すような解析対象要素Rつまり解析対象領域が画定される。解析対象要素Rとして、具体的には、額領域R1、頬領域R2、鼻領域R3、顎領域R4が画定されるのであるが、これに限るものではなく、目尻の周辺領域等、適宜設定することができる。
The client's face image captured by the imaging device 1 is stored as an original image in the
肌特性抽出処理部4bは、顔画像領域に画定された解析対象要素の構成画素データから所定範囲の肌色領域を特定し、肌色領域を構成する複数の画素の青色成分値が所定の閾値より大であるか小であるかを、ラベリング法を用いて判別し、図3(b)に示すような顔の染みd1、毛穴の汚れd2、皺d3等の発生領域を抽出する。
The skin characteristic
後に詳述するが、ラベリング処理は、図7(a)から(c)に示すように、染み、毛穴の汚れ、皺等の抽出対象オブジェクトの夫々に対して適切に設定された閾値で解析対象要素R内の画素を二値化処理した後に、解析対象要素Rを抽出対象オブジェクトの最大サイズより大きな複数領域Ra,Rb,Rc,Rdに分割し、分割領域Ra,Rb,Rc,Rd内で閾値より下回る画素値(ここでは、二値化処理で1に設定され、図中、灰色で示されている)を有する任意の画素に特定のラベルTn(nは正整数で同一領域では同一の値となる)を付し、さらに、ラベルTnを付した画素と隣接する画素であって、同様に閾値より下回る隣接画素に同一ラベルTnを付す処理を、閾値より下回る隣接画素が無くなるまで繰り返す再帰呼び出し処理で、解析対象要素R内の全ての画素に対してラベリング処理を行なうことにより、染み、毛穴の汚れ、皺に対応した単一または複数の領域が抽出される。 As will be described in detail later, as shown in FIGS. 7 (a) to 7 (c), the labeling process is an analysis target with thresholds appropriately set for extraction target objects such as stains, pore dirt, and wrinkles. After the pixels in the element R are binarized, the analysis target element R is divided into a plurality of regions Ra, Rb, Rc, Rd larger than the maximum size of the extraction target object, and within the divided regions Ra, Rb, Rc, Rd A specific label Tn (n is a positive integer and is the same in the same region) for any pixel having a pixel value below the threshold (here, set to 1 in the binarization process and shown in gray in the figure) Is repeated, and the process of attaching the same label Tn to the pixels adjacent to the pixel to which the label Tn is attached, which is similarly below the threshold, is repeated until there are no adjacent pixels below the threshold. Call processing , By performing labeling processing for all the pixels in the analyzed elements R, stains, pores dirt, single or a plurality of areas corresponding to the wrinkles are extracted.
その結果、図7に示す例では、領域RaにラベルT1で示されるオブジェクトが抽出され、領域RbにラベルT2で示されるオブジェクトが抽出され、領域RcにラベルT3で示されるオブジェクトが抽出され、領域RdにラベルT4で示されるオブジェクトが抽出される。領域間に跨る領域(ラベルT3,T4で示される領域)は、その後、分割領域の境界部に存在するオブジェクトの連続性が、二値化された画素値に基づいて連続性が判断され、連続する場合には同一領域として統合される。 As a result, in the example shown in FIG. 7, the object indicated by the label T1 is extracted from the region Ra, the object indicated by the label T2 is extracted from the region Rb, the object indicated by the label T3 is extracted from the region Rc, and the region An object indicated by a label T4 is extracted from Rd. In the region between the regions (the regions indicated by labels T3 and T4), the continuity of the object existing at the boundary of the divided region is subsequently determined based on the binarized pixel values, and the continuous If they do, they are integrated as the same area.
ラベリング処理の過程で、対象画素毎に特定のラベルを付すか否かを判断するアルゴリズムが繰り返し実行されるため、現在実行中のアルゴリズムが対象とする画素の座標データ等、処理を実行するために必要な複数のパラメータが、パーソナルコンピュータのメモリ領域に画定されたスタック領域にスタックされながら処理が実行される。 During the labeling process, an algorithm that repeatedly determines whether or not to attach a specific label to each target pixel is repeatedly executed. The processing is executed while a plurality of necessary parameters are stacked in a stack area defined in the memory area of the personal computer.
診断処理部4cは、肌特性抽出処理部4bで抽出された領域の面積(画素数)、形状、画素値等に基づいて、染み、毛穴の汚れ、皺の何れであるかを判別し、解析対象要素内における夫々の位置、面積、解析対象要素Rに対する面積比、画素値等でなる特性情報を生成する。
Based on the area (number of pixels), shape, pixel value, etc. of the region extracted by the skin characteristic
このとき、表示部3に表示された顔画像のうち、肌特性抽出処理部4bにより抽出された変色部位の表示色を、周辺の肌領域と識別可能な色に変えて表示することにより視覚的に容易に認識できるようになる。
At this time, by changing the display color of the discolored part extracted by the skin characteristic
例えば、800万画素の顔画像では、3×3画素から7×7画素程度の面積が毛穴に相当するため、それより画素数が大きな領域は染みまたは皺と判別でき、領域の直交方向の連続画素値のうち、小さい方の連続画素値が数画素から十数画素で、且つ、小さい方の連続画素値と大きい方の連続画素値が所定値以上であれば皺であると判別できる。 For example, in a face image of 8 million pixels, an area of about 3 × 3 pixels to 7 × 7 pixels corresponds to a pore, so that an area with a larger number of pixels can be determined as a stain or a wrinkle, and the areas in the orthogonal direction are continuous. Of the pixel values, if the smaller continuous pixel value is several pixels to a dozen pixels and the smaller continuous pixel value and the larger continuous pixel value are equal to or greater than a predetermined value, it can be determined that it is a habit.
一般に、上述した肌の特性を抽出する場合、画素を構成する赤、緑、青の各色成分のうち、青成分の値を採用することが好適である。皮膚の深層部の状況が青成分に現れるからである。従って、照明装置1bの光源に青色の透過フィルタや紫外線ランプを用いることが好ましい。
In general, when extracting the above-described skin characteristics, it is preferable to employ the value of the blue component among the red, green, and blue color components constituting the pixel. This is because the condition of the deep part of the skin appears in the blue component. Therefore, it is preferable to use a blue transmission filter or an ultraviolet lamp as the light source of the
解析対象領域生成部4aにより画定された解析対象要素R、肌特性抽出処理部4bで抽出された肌の特性情報、及び、診断処理部4cで診断された診断情報は、依頼人を特定するIDデータ、診断日、施術内容等と関連付けられてメモリ2に格納される。
The analysis target element R defined by the analysis target
診断処理部4cは、メモリ2に格納された依頼人の過去の肌の特性情報と今回の特性情報に基づいて肌の状態が改善されているか否かの診断情報を生成する。医師、エスティシャン、美容カウンセラーは、当該診断情報に基づいてどのような施術または処方が好ましいか、どのような化粧品が好ましいか等を判断して、適切に対応する。
The diagnostic processing unit 4c generates diagnostic information as to whether or not the skin condition has been improved based on the client's past skin characteristic information and current characteristic information stored in the
解析対象領域生成部4aは、図1(b)に示すように、複数のサンプル顔画像を統計処理することにより得られた顔を構成する標準顔要素の配置情報及び標準解析対象要素の配置情報で規定された標準顔画像A(図3(a)参照)と、撮像装置で撮影された解析対象顔画像B(図3(b)参照)を、表示部3に重ね合わせて表示する(図3(c)参照)顔画像表示処理部10と、表示部3に表示された解析対象顔画像Bの特定顔要素Eの表示位置に、対応する特定標準顔要素eを移動させる標準顔要素移動処理部12と、標準顔要素移動処理部12で移動された標準解析対象要素rを、解析対象顔画像Bに対する解析対象要素Rとして解析対象顔画像Bと関連付けて記憶部2に記憶する解析対象要素生成処理部18を備えている。
As illustrated in FIG. 1B, the analysis target
さらに、標準顔要素移動処理部12に、特定標準顔要素eを中心とする所定範囲Sに位置する他の標準顔要素e´及び標準解析対象要素rを抽出する移動要素抽出処理部14と、移動要素抽出処理部14で抽出された他の標準顔要素e´及び標準解析対象要素rを、特定標準顔要素eの移動に伴って、所定の移動関数Fに基づいて算出された移動方向及び移動距離だけ移動させる要素移動処理部16を備えている。
Further, the standard face element
標準顔要素e及び標準解析対象要素rの配置情報は、複数の基準点pと各基準点pを接続する接続線qで定義され、移動関数Fは、特定標準顔要素eの移動前の基準点p1と他の標準顔要素e´または標準解析対象要素rの基準点pとを結ぶ要素間距離L1及び特定標準顔要素eの基準点の移動距離ΔLに対して、ΔL≦L1のときに当該他の標準顔要素e´の基準点pの移動距離Lが、ΔL/L1を変数として導出され、特定標準顔要素eの移動後の基準点p2と他の標準顔要素e´または標準解析対象要素rの基準点とを結ぶ直線上で、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pから離隔するときに接近させ、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pに接近するときに離隔させる関数として定義されている。 The arrangement information of the standard face element e and the standard analysis target element r is defined by a plurality of reference points p and a connection line q connecting the reference points p, and the movement function F is a reference before the movement of the specific standard face element e. When ΔL ≦ L1 with respect to the inter-element distance L1 connecting the point p1 and another standard face element e ′ or the reference point p of the standard analysis target element r and the movement distance ΔL of the reference point of the specific standard face element e The movement distance L of the reference point p of the other standard face element e ′ is derived using ΔL / L1 as a variable, and the reference point p2 after movement of the specific standard face element e and another standard face element e ′ or standard analysis When the reference point p2 after the movement of the specific standard face element e moves away from the other standard face element e 'or the reference point p of the standard analysis target element r on a straight line connecting the reference point of the target element r , The reference point p2 after the movement of the specific standard face element e is another standard face element e 'or a standard solution It is defined as a function to be separated when approaching the reference point p of the analysis target element r.
図3(a)に示す標準顔画像Aは、予め収集した多数のサンプル顔画像に対して、顔を構成する輪郭、髪の生え際、眉、目、耳、鼻、口といった顔要素の大きさや相対距離を計測し、その結果を統計処理して標準的な顔要素の大きさ、位置を算出して、算出した値に基づいて標準顔要素を配置した標準顔画像を生成し、生成した標準顔画像に対して、オペレータがマウス等のポインティングデバイスを手動操作して、肌の変色等の特性の状態を探る解析対象要素r、つまり解析対象領域を画定して得られた画像で、標準的な輪郭、髪の生え際、眉、目、耳、鼻、口といった顔要素、つまり標準顔要素eの配置情報及び標準解析対象要素rの配置情報で規定された画像である。 A standard face image A shown in FIG. 3A is obtained by comparing the size of face elements such as contours, hairline, eyebrows, eyes, ears, nose, and mouth constituting a face with respect to a large number of sample face images collected in advance. Relative distance is measured, and the result is statistically processed to calculate the size and position of standard face elements. Based on the calculated values, a standard face image with standard face elements arranged is generated. An image obtained by demarcating an analysis target element r, that is, an analysis target area, in which an operator manually operates a pointing device such as a mouse to search for a state of characteristics such as discoloration of the skin. This is an image defined by the face information such as the outline, the hairline, the eyebrows, the eyes, the ears, the nose and the mouth, that is, the placement information of the standard face element e and the placement information of the standard analysis target element r.
ここで、配置情報は、所定のX,Y二次元座標系で基準点pが位置する座標と、接続線qの属性情報で構成され、属性情報には接続線qの両端の基準点pを特定する基準点特定情報と、接続線が直線か曲線か特定する線種情報、曲線の場合にはその曲率等の情報が含まれる。 Here, the arrangement information is composed of coordinates where the reference point p is located in a predetermined X, Y two-dimensional coordinate system and attribute information of the connection line q. The attribute information includes reference points p at both ends of the connection line q. Reference point specifying information to be specified, line type information to specify whether the connecting line is a straight line or a curve, and information such as curvature in the case of a curve are included.
顔画像表示処理部10により、予めメモリ2に格納された標準顔画像Aと解析対象顔画像Bが読み出されて、図3(c)に示すように表示部3に重ね合わせて表示されるのである。
The standard face image A and the analysis target face image B stored in advance in the
このような標準顔要素e及び標準解析対象要素rの配置情報は、図4(a)に示すように、複数の基準点pと各基準点pを接続する接続線qで定義されている。標準顔要素移動処理部12は、オペレータにより基準点pまたは接続線qがマウスでドラッグ操作された状態で移動され、ドロップ操作されると、基準点pまたは接続線qをその位置まで移動処理する。
The arrangement information of the standard face element e and the standard analysis target element r is defined by a plurality of reference points p and a connection line q connecting the reference points p as shown in FIG. The standard face element
図4(b)に示すように、基準点pが移動操作されると、当該基準点pのみを移動し、移動操作されなかった基準点pと移動操作された基準点pを結ぶように接続線qを変更し、図4(c)に示すように、接続線qが移動操作されると、接続線qと当該接続線qにより接続された全ての基準点pを位置関係を保った状態で移動する。 As shown in FIG. 4B, when the reference point p is moved, only the reference point p is moved, and the reference point p that is not moved is connected to the moved reference point p. When the line q is changed and the connection line q is moved as shown in FIG. 4C, the connection line q and all the reference points p connected by the connection line q are maintained in a positional relationship. Move with.
このとき、移動要素抽出処理部14は、図4(d)に示すように、特定標準顔要素eを中心とする所定範囲Sに位置する他の標準顔要素e´及び標準解析対象要素rを、特定標準顔要素eの移動に伴なって同時に移動処理する対象として抽出する。所定範囲Sは、特定標準顔要素eの移動距離、つまり、一つの基準点のみが移動されるときには当該基準点Pの移動距離ΔL、接続線qが移動されるときには当該接続線の移動距離ΔLの関数で定めることができ、例えば、移動前の基準点の位置または接続線qの中心位置を中心として半径がN×ΔLの範囲に含まれる円領域に設定される。
At this time, as shown in FIG. 4D, the moving element
また、移動前の基準点Pの位置または接続線qの中心位置を中心として一辺の長さがN×ΔLの矩形領域に設定されるものであってもよい。ここに、Nは自然数であり、標準的には2〜3が選択されるが、対象画像の画素数により適宜変更設定するものであってもよい。 Moreover, the length of one side centering on the position of the reference point P before the movement or the center position of the connection line q may be set to a rectangular area of N × ΔL. Here, N is a natural number, and typically 2 to 3 is selected, but may be appropriately changed depending on the number of pixels of the target image.
つまり、上述した所定範囲Sが、特定標準顔要素eの移動距離ΔLに基づいて可変に設定されるのである。従って、特定標準顔要素eの移動距離ΔLが長ければそれだけ影響を受ける他の標準顔要素e´及び標準解析対象要素rが多くなり、特定標準顔要素eの移動距離ΔLが短ければそれだけ影響を受ける他の標準顔要素e´及び標準解析対象要素rが少なくなる。尚、簡易的には、上述した所定範囲Sを固定範囲とすることも可能である。 That is, the predetermined range S described above is variably set based on the movement distance ΔL of the specific standard face element e. Therefore, if the movement distance ΔL of the specific standard face element e is long, the number of other standard face elements e ′ and standard analysis target elements r that are affected increases, and if the movement distance ΔL of the specific standard face element e is short, the influence is increased. Other standard face elements e ′ and standard analysis target elements r received are reduced. For simplicity, the predetermined range S described above can be set as a fixed range.
要素移動処理部16は、移動要素抽出処理部14で抽出された他の標準顔要素e´及び標準解析対象要素rを、特定標準顔要素eの移動に伴って、上述の移動関数Fに基づいて算出された移動方向及び移動距離だけ移動させる。
The element
図5は、標準顔要素の眉、目(閉じた状態)、標準解析対象要素の鼻領域に対して、移動関数Fの特性を説明する図である。図5(a)に示すように、移動関数Fは、特定標準顔要素eの移動前の基準点p1と他の標準顔要素e´の基準点P(または接続線の中心位置)、または、特定標準顔要素eの移動前の基準点p1と標準解析対象要素rの基準点p(または接続線の中心位置)とを結ぶ要素間距離L1及び特定標準顔要素eの基準点の移動距離ΔLに対して、ΔL≦L1のときに当該他の標準顔要素e´の基準点pまたは標準解析対象要素rの基準点pの移動距離Lを、L=a×(ΔL/L1)+b(a,bは定数)の数式に基づいて導出し、特定標準顔要素eの移動後の基準点p2と他の標準顔要素e´または標準解析対象要素rの基準点pとを結ぶ直線上で、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pから離隔するときに接近させ、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pに接近するときに離隔させる関数として定義されている。尚、本実施形態では、a=1,b=0に設定しているが、解析対象画像の画素数に基づいて適宜設定すればよい。また、基準点pの移動距離LはX,Y二次元座標系でX成分及びY成分毎に演算される。 FIG. 5 is a diagram for explaining the characteristics of the transfer function F with respect to the eyebrows and eyes (closed state) of the standard face element and the nose region of the standard analysis target element. As shown in FIG. 5 (a), the movement function F is determined by the reference point p1 before the movement of the specific standard face element e and the reference point P (or the center position of the connecting line) of the other standard face element e ', or The inter-element distance L1 connecting the reference point p1 before the movement of the specific standard face element e and the reference point p of the standard analysis target element r (or the center position of the connecting line) and the movement distance ΔL of the reference point of the specific standard face element e On the other hand, when ΔL ≦ L1, the movement distance L of the reference point p of the other standard face element e ′ or the reference point p of the standard analysis target element r is expressed as L = a × (ΔL / L1) + b (a , B are constants) on the straight line connecting the reference point p2 after the movement of the specific standard face element e and the reference point p of the other standard face element e ′ or the standard analysis target element r, Is the reference point p2 after the movement of the specific standard face element e is the reference point p of another standard face element e 'or the standard analysis target element r? It is defined as a function that allows the reference point p2 after the movement of the specific standard face element e to move away from the reference point p2 and move away from the reference point p of the other standard face element e ′ or the standard analysis target element r. Yes. In the present embodiment, a = 1 and b = 0 are set, but may be set as appropriate based on the number of pixels of the analysis target image. The movement distance L of the reference point p is calculated for each X component and Y component in the X, Y two-dimensional coordinate system.
さらに、移動関数Fは、ΔL>L1のときに当該他の標準顔要素e´の基準点pの移動距離LをΔLに設定し、特定標準顔要素eの移動後の基準点p2と他の標準顔要素e´または標準解析対象要素rの基準点とを結ぶ直線上で、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pから離隔するときに接近させ、特定標準顔要素eの移動後の基準点p2が他の標準顔要素e´または標準解析対象要素rの基準点pに接近するときに離隔させる関数として定義されている。つまり、図5(b)に示すように、要素移動処理部16は、ΔL>L1のときには、特定標準顔要素eの移動前の基準点p1と他の標準顔要素e´の基準点pの離間距離を保った状態で移動させる。
Further, the movement function F sets the movement distance L of the reference point p of the other standard face element e ′ to ΔL when ΔL> L1, and the reference point p2 after the movement of the specific standard face element e and other reference face p2 On the straight line connecting the standard face element e ′ or the reference point of the standard analysis target element r, the reference point p2 after the movement of the specific standard face element e is the reference point of another standard face element e ′ or the standard analysis target element r. It is defined as a function that is approached when moving away from p, and moved away when the reference point p2 after the movement of the specific standard face element e approaches another reference face element e 'or the reference point p of the standard analysis target element r. ing. That is, as shown in FIG. 5B, when ΔL> L1, the element
ここで、ΔL≦L1のときに、基準点pまたは接続線qの移動操作量ΔLが微小な値のときには、当該基準点pまたは接続線qのみを移動させ、他の標準顔要素e´の基準点pまたは標準解析対象要素rの基準点pの位置はそのまま元の位置を維持するように移動関数Fを定義してもよい。 Here, when ΔL ≦ L1, if the movement amount ΔL of the reference point p or the connection line q is a minute value, only the reference point p or the connection line q is moved, and the other standard face elements e ′ are moved. The movement function F may be defined so that the position of the reference point p or the reference point p of the standard analysis target element r is maintained as it is.
例えば、顔画像の全画素数に対して予め正整数Kが設定され、移動操作された基準点pまたは接続線qの直近に位置する他の標準顔要素e´の基準点pまたは標準解析対象要素rの基準点pに対する要素間距離Lと移動距離ΔLにL1/ΔL≧K(Kは正整数)の関係があるときに、他の標準顔要素e´の基準点pまたは標準解析対象要素rの基準点pの位置を移動させることなく、そのまま元の位置を維持するように移動関数を定義するのである。 For example, a positive integer K is set in advance with respect to the total number of pixels of the face image, and the reference point p of the other standard face element e ′ positioned closest to the moved reference point p or the connection line q or the standard analysis target When there is a relationship of L1 / ΔL ≧ K (K is a positive integer) between the inter-element distance L and the movement distance ΔL with respect to the reference point p of the element r, the reference point p of the other standard face element e ′ or the standard analysis target element The movement function is defined so as to maintain the original position as it is without moving the position of the reference point p of r.
図6に示すように、標準顔要素移動処理部12によって、標準顔画像Aの夫々の標準顔要素eが解析対象顔画像Bの対応する顔要素Eの位置に移動処理されることにより、標準顔要素eの移動処理に伴なって移動処理された標準解析対象要素rが、解析対象顔画像Bの解析対象要素Rつまり解析対象領域として画定される。
As shown in FIG. 6, the standard face element
尚、上述した解析対象顔画像Bに対する解析対象領域の画定処理以外に、解析対象領域生成部4aに描画処理部を設けて、オペレータがマウスを用いて入力した複数点を、描画処理部により接続線で接続することにより解析対象領域を画定するように構成するものであってもよい。
In addition to the analysis target area defining process for the analysis target face image B described above, a drawing processing unit is provided in the analysis target
このようにして、解析対象顔画像Bに画定された適切な解析対象要素Rが、当該依頼人を特定するIDデータ、診断日、施術内容等と関連付けられてメモリ2に格納される。
In this way, an appropriate analysis target element R defined in the analysis target face image B is stored in the
そして、それ以降に新たに当該依頼人の顔を撮影した場合には、メモリ2に格納された解析対象要素Rが読み出され、当該依頼人の新たな顔画像に当該解析対象要素Rが画定される。尚、顔画像の画素数、倍率、基準座標は、当該解析対象要素Rの倍率、基準座標と整合される必要があることはいうまでもない。
When the client's face is newly photographed thereafter, the analysis target element R stored in the
以下、本発明による画像処理装置または画像処理方法が採用される肌特性抽出処理部4bの構成及び動作について詳述する。
Hereinafter, the configuration and operation of the skin characteristic
図1(b)に示すように、肌特性抽出処理部4bは、原画像に含まれる特定オブジェクトの想定画素サイズに対応して決定される縮小率で、原画像を縮小した縮小画像を生成する縮小処理部20と、縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理部22と、縮小画像ラベリング処理部22で抽出された特定オブジェクトの領域を原画像のサイズに拡大処理して、原画像に含まれる特定オブジェクトとして同定するオブジェクト同定処理部24と、オブジェクト同定処理部24で同定された特定オブジェクトの輪郭領域に対して、特定オブジェクトと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する輪郭領域ラベリング処理部26を備えている。
As shown in FIG. 1B, the skin characteristic
さらに、肌特性抽出処理部4bは、原画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する原画像ラベリング処理部28を備え、原画像に含まれる特定オブジェクトの想定画素サイズに基づいて、縮小処理部20と縮小画像ラベリング処理部22とオブジェクト同定処理部24と輪郭領域ラベリング処理部26を順に作動させるか、原画像ラベリング処理部28を作動させるかを切り替える切替処理部29を備えている。
Further, the skin characteristic
切替処理部29は、具体的には、画素数が少ない毛穴や皺等を特定オブジェクトとするときに原画像ラベリング処理部28を作動させ、画素数が多い染み等を特定オブジェクトとするときに縮小処理部20と縮小画像ラベリング処理部22とオブジェクト同定処理部24と輪郭領域ラベリング処理部26を順に作動させるように切り替える。
Specifically, the switching
原画像ラベリング処理部28は、毛穴を特定オブジェクトとするとき、解析対象顔画像Bとしての原画像B1の肌領域を毛穴を抽出するための青成分の閾値を下回る画素値を有する画素を1に、閾値以上の画素値を有する画素を0に設定する二値化処理を施した後に、例えば、図8(a)に示すように、10×10画素程度の画素サイズに分割して、各分割画素群に対してラベリング処理を実行する。その結果、3×3画素から7×7画素程度の毛穴領域d2が抽出される。
When the original image
しかし、図8(b)に示すように、数百画素×数百画素に及ぶ可能性がある染み領域d1を特定オブジェクトとするとき、図2に示すような、解析対象顔画像Bとしての原画像B1全体または各解析対象要素R内の肌領域を、染みを抽出するための青成分の閾値に基づいて二値化処理を施した後に、数百画素×数百画素の画素サイズに分割して、各分割画素群に対してラベリング処理を実行する場合には、スタックがオーバーフローして処理が中断される虞がある。 However, as shown in FIG. 8B, when a specific area is a stain area d1 that may cover several hundred pixels × several hundred pixels, the original face image B as the analysis target face image B as shown in FIG. The entire image B1 or the skin area in each analysis target element R is subjected to a binarization process based on a blue component threshold value for extracting a stain, and then divided into a pixel size of several hundred pixels × several hundred pixels. When the labeling process is executed for each divided pixel group, the stack may overflow and the process may be interrupted.
そこで、切替処理部29により縮小処理部20が起動される。解析対象顔画像Bとしての原画像B1に含まれる染みを特定オブジェクトとする場合に、縮小処理部20は、例えば、比較的大きな染みのサイズである10000画素(100×100画素)を想定画素サイズとして、その1/100である100画素(10×10画素)に原画像B1全体または解析対象要素Rを縮小した縮小画像B2を生成する。つまり、縮小率を1/10に設定するのである。このときの縮小処理アルゴリズムはニアレストネイバー法を用いれば十分であり高速に縮小処理ができる。尚、ニアレストネイバー法以外の縮小拡大アルゴリズムを採用するものであってもよい。
Therefore, the
例えば、図9(a)に示すような約2300×3500画素で構成される800万画素の原画像B1に対して、図9(b)に示すような約230×350画素の縮小画像B2を生成する。 For example, a reduced image B2 of about 230 × 350 pixels as shown in FIG. 9B is converted to an original image B1 of 8 million pixels made up of about 2300 × 3500 pixels as shown in FIG. 9A. Generate.
縮小画像ラベリング処理部22は、縮小画像B2の画素を、染みを抽出するための青成分の閾値に基づいて二値化処理を施した後に、図10(a)に示すように、10×10画素の画素サイズに分割して、各分割画素群に対して同一属性、つまり、二値化された画素が1の値を示す複数の連続画素に同一ラベルT2を付すことにより、縮小画像に含まれる特定オブジェクトの領域U2を抽出する。
The reduced image
つまり、ラベリング処理の対象となる分割領域の画素数を1/100に減少させることにより、原画像B1であれば100×100画素単位でラベリング処理を実行する必要があるところを、縮小画像B2であれば10×10画素単位でラベリング処理を実行することができるようになり、メモリ容量を増加させることなくスタックのオーバーフローの発生が回避されるのである。また、ラベリング処理の対象画素数が減少することにより、高速にラベリング処理を実行することができるようにもなる。 In other words, by reducing the number of pixels in the division area to be labeled to 1/100, if the original image B1, it is necessary to execute the labeling process in units of 100 × 100 pixels in the reduced image B2. If so, the labeling process can be executed in units of 10 × 10 pixels, and the occurrence of stack overflow can be avoided without increasing the memory capacity. Further, since the number of target pixels for the labeling process is reduced, the labeling process can be executed at high speed.
オブジェクト同定処理部24は、図10(b)に示すように、縮小画像ラベリング処理部22により抽出された染み領域を、当該縮小率(1/100)に基づいて、100倍に拡大処理し、原画像B1における染み領域の座標に対応付けることにより、原画像B1に含まれる特定オブジェクトU1、つまり染みの領域として同定する。
As shown in FIG. 10B, the object
尚、原画像における特定オブジェクトの想定画素サイズを10000画素とする場合に1/100の縮小率に設定すると、縮小画像では特定オブジェクトのサイズが1画素となり、より高速にラベリング処理できるがそれだけ誤差も増大する。縮小率を1/2に設定すると、縮小画像では特定オブジェクトのサイズが2500画素となり、精度がそれ程低下することなくラベリング処理ができるが、スタックの容量が問題になる。従って、縮小率はラベリング処理の精度とスタックの容量との観点で決定される必要がある。 When the assumed pixel size of the specific object in the original image is set to 10,000 pixels, if the reduction ratio is set to 1/100, the size of the specific object is 1 pixel in the reduced image, and the labeling process can be performed at a higher speed, but there is an error as much. Increase. If the reduction ratio is set to ½, the size of the specific object in the reduced image is 2500 pixels, and the labeling process can be performed without any significant decrease in accuracy, but the stack capacity becomes a problem. Therefore, the reduction ratio needs to be determined in terms of the accuracy of the labeling process and the capacity of the stack.
このようにして同定された原画像B1の特定オブジェクトU1は、縮小時の欠落画素の影響で原画像に存在する特定オブジェクトの輪郭が正確に抽出できない場合もあり、染みの正確な検出という点で不都合が生じる虞もある。 The specific object U1 of the original image B1 thus identified may not be able to accurately extract the contour of the specific object existing in the original image due to the effect of missing pixels at the time of reduction. There is a risk of inconvenience.
そこで、輪郭領域ラベリング処理部26は、オブジェクト同定処理部24で同定された特定オブジェクトU1の輪郭領域Vに対して、特定オブジェクトU1と同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる特定オブジェクトの領域を抽出する。
Therefore, the contour region
図10(c)に示すように、同定された特定オブジェクトU1のエッジ画素を中心として、例えば、左右上下に10画素の範囲を輪郭領域Vとして設定する。輪郭領域Vを設定する画素数は縮小率に応じて決定される値で、本実施形態では1/100の縮小率であるため、縦横に10画素の丸め込み誤差が発生することを考慮するものである。 As shown in FIG. 10C, for example, a range of 10 pixels is set as a contour region V around the edge pixel of the identified specific object U <b> 1 on the left and right and up and down. The number of pixels for setting the contour region V is a value determined in accordance with the reduction ratio. In this embodiment, the reduction ratio is 1/100. Therefore, it is considered that rounding errors of 10 pixels occur vertically and horizontally. is there.
輪郭領域ラベリング処理部26は、このような輪郭領域Vを、オブジェクト同定処理部24で同定された特定オブジェクトU1の任意のエッジ画素が中心に位置するように20×20画素の複数の領域に分割して、分割領域毎にラベリング処理を実行する。このようにして、図10(d)に示すような正確な特定オブジェクトUが検出される。尚、このとき、エッジ画素から特定オブジェクトU1側に最も離れた画素からラベリング処理を実行することにより、特定オブジェクトU1と連続する画素のみを正確且つ高速にラベリングできる。
The contour region
尚、輪郭領域ラベリング処理は選択的処理として、オペレータによる選択操作に基づいて必要に応じて実行されるように構成してもよい。 Note that the contour region labeling process may be configured to be executed as necessary based on a selection operation by an operator as a selective process.
以上説明した肌特性抽出処理部4bにより、染みを抽出する際の画像処理方法の一例を、図11に示すフローチャートに基づいて概説する。
An example of an image processing method for extracting a stain by the skin characteristic
表示部3の画面に、図12に示すように、解析対象要素Rが重畳された原画像の全体を間引き処理したモニタ画像B3の表示領域40と、縮小画像B2の表示領域41と、解析対象要素Rの一部を拡大した画像を表示する表示領域42が設定され、その右横に診断レポートの表示領域39が配置されている。
As shown in FIG. 12, the
モニタ画像B3の表示領域40の下方には、特定オブジェクトとして、染み、皺、毛穴の何れかを選択するキー30,31,32が表示され、その右側に縮小倍率設定用のキー33,34,35が配置されている。画面中央の下部には特定オブジェクト抽出処理を開始するスタートキー36、直前に入力された操作を取り消す取消キー37、画面の表示内容を印刷する印刷キー38等が配置されている。
Below the
オペレータにより染みに対応するキー30が操作されると、切替処理部29により縮小処理部20が起動されて、画面上部のメッセージ表示欄43に、縮小倍率設定キーを操作してください、とのメッセージが表示され、縮小倍率の自動設定キー33または手動設定キー34がアクティブになる。自動設定キー33が選択されると1/10の縮小率に設定され、手動設定キー34が選択されるとキーボードから入力された数値が縮小率として設定され、縮小率表示部35に表示される。
When the operator operates the key 30 corresponding to the stain, the switching
オペレータにより、モニタ画像B3の表示領域40に表示された解析対象要素R(R1からR4)が選択操作され、スタートキー36が操作されると、縮小処理部20は、原画像B1を設定された縮小率で縮小処理して、縮小画像B2を縮小画像表示領域41に表示する縮小処理ステップを実行する(S1)。
When the operator selects the analysis target element R (R1 to R4) displayed in the
縮小画像ラベリング処理部22は、選択された解析対象要素Rに対応する縮小画像領域に対して上述のラベリング処理を行ない、縮小画像B2に含まれる染みの領域U2を抽出する縮小画像ラベリング処理ステップを実行する(S2)。その結果が、縮小画像表示領域41に表示された縮小画像B2に反映され、該当する領域が他と異なる色で識別可能に表示される。
The reduced image
オブジェクト同定処理部24は、縮小画像ラベリング処理ステップで抽出された染みの領域を原画像のサイズに拡大処理して、原画像に含まれる染みとして同定するオブジェクト同定処理ステップを実行し、原画像に同定された染みの領域を他と異なる色で識別可能に表示するとともに、拡大画像表示領域42に抽出した染みおよびその周辺の拡大画像を表示する(S3)。
The object
輪郭領域ラベリング処理部26は、オブジェクト同定処理ステップで同定された染みの輪郭領域(図10(c)の符号V参照)に対して、当該染みと同一属性を備えた複数の連続画素に同一ラベルを付すことにより、原画像に含まれる染みの領域を抽出する輪郭領域ラベリング処理ステップを実行し、原画像に含まれる染みの領域を他と異なる色で識別可能に表示する(S4)。尚、このとき、輪郭領域Vを適宜複数の領域に分割して、各分割領域に対して輪郭領域ラベリング処理を行ない、その後、同一領域を統合してもよい。
The outline region
その結果、抽出された染み領域に対して、診断処理部4cによりその状態が診断され、表示領域39に診断レポートとして診断結果が表示される。
As a result, the state of the extracted stain area is diagnosed by the diagnosis processing unit 4c, and the diagnosis result is displayed in the
以下に別実施形態を説明する。上述の実施形態では、特定オブジェクトである染みのサイズが想定される場合を説明したが、染みのサイズが大小様々であるときには、縮小処理部20で縮小率の異なる複数の縮小画像を生成し、縮小画像ラベリング処理部22が、各縮小画像に対してラベリング処理を実行すればよい。
Another embodiment will be described below. In the above-described embodiment, the case where the size of the stain that is the specific object is assumed has been described. However, when the size of the stain is large or small, the
このとき、縮小画像ラベリング処理部22が、縮小処理部20で生成された縮小率の大きな縮小画像から縮小率の小さな縮小画像の順にラベリング処理を実行し、縮小率の小さな縮小画像に対するラベリング処理時に、縮小率の大きな縮小画像で抽出された特定オブジェクト及びその周辺領域を除いてラベリング処理を実行するように構成すれば、同一の特定オブジェクトに対する重複したラベリング処理が省略されるようになり、確実に特定オブジェクトが抽出でき、しかも、高速にラベリング処理を実行することが可能になる。
At this time, the reduced image
上述した実施形態では、縮小処理部20が、原画像に含まれる特定オブジェクトである染みの想定画素サイズを10000画素として、縮小率を1/10に決定する例を説明したが、想定サイズ及び想定サイズに対応する縮小率はこのような値に限るものではなく、検出すべき染みのサイズに応じて適宜設定すればよい。さらに、染み以外の大きなサイズを有する特定オブジェクトを抽出する場合も同様である。
In the above-described embodiment, the example in which the
また、上述した実施形態では、特定オブジェクトである染みが、ほぼ円形状であることを想定して縮小率を決定したが、染みまたは他の特定オブジェクトが楕円形状等の他の形状である場合には、それを考慮して縮小率を決定すればよい。例えば、楕円形状の場合には短径に基づいて縮小率を決定すればよい。また、縦横の縮小率を異なる値に設定してもよい。 In the above-described embodiment, the reduction ratio is determined on the assumption that the stain that is the specific object has a substantially circular shape. However, when the stain or another specific object has another shape such as an elliptical shape. Therefore, the reduction rate may be determined in consideration of this. For example, in the case of an elliptical shape, the reduction ratio may be determined based on the minor axis. Also, the vertical and horizontal reduction ratios may be set to different values.
上述の場合には、ラベリング処理を実行する分割領域の縦横の画素数も異なる値に設定することにより、効率的に処理できる。 In the case described above, the number of pixels in the vertical and horizontal directions of the divided area where the labeling process is performed can be set to a different value to efficiently process.
また、画像処理装置を構成するパーソナルコンピュータの入力部を介したオペレータの設定操作により、縮小倍率の自動設定キーが選択されたときに自動選択される縮小率を可変設定できるような入力処理部を備えることも可能である。 An input processing unit that can variably set a reduction ratio that is automatically selected when an automatic setting key for reduction magnification is selected by an operator's setting operation via an input unit of a personal computer constituting the image processing apparatus. It is also possible to provide.
ラベリング処理の際の二値化閾値は、対象となる特定オブジェクトにより適宜設定される値であり、画像処理装置を構成するパーソナルコンピュータの入力部を介したオペレータの設定操作により可変設定できるような入力処理部を備えることも可能である。また、二値化閾値として上限値と下限値を設定し、上限値と下限値で規定される値を備えた画素を1、逸脱する値を備えた画素を0に設定するように構成してもよい。 The binarization threshold at the time of labeling processing is a value that is appropriately set depending on the target specific object, and is an input that can be variably set by an operator's setting operation via an input unit of a personal computer constituting the image processing apparatus. It is also possible to provide a processing unit. Further, an upper limit value and a lower limit value are set as the binarization threshold, and a pixel having a value defined by the upper limit value and the lower limit value is set to 1, and a pixel having a deviating value is set to 0. Also good.
尚、上述の実施形態では、画素を構成する赤、緑、青の色成分のうち、青成分に基づいて二値化するものを説明したが、特定オブジェクトの特性によっては、他の色成分に基づいて二値化するものであってもよいし、輝度値に基づいて二値化するものであってもよい。また、原画像を撮影する際に使用された光源の波長との関係で特定の色成分または輝度の何れを二値化すべきかを決定するものであってもよい。 In the above-described embodiment, among the red, green, and blue color components constituting the pixel, the binarization based on the blue component has been described. However, depending on the characteristics of the specific object, other color components may be used. The image may be binarized based on the luminance, or may be binarized based on the luminance value. Further, it may be determined which of specific color components or luminance should be binarized in relation to the wavelength of the light source used when photographing the original image.
上述した実施形態では、移動要素抽出処理部が特定標準顔要素を中心とする所定範囲に位置する他の標準顔要素及び標準解析対象要素を抽出するように構成するものを説明したが、移動要素抽出処理部を、特定標準顔要素と関連付けられた標準解析対象要素のみを抽出するように構成するものであってもよい。この場合、特定標準顔要素を中心とする所定範囲に位置する標準解析対象要素を抽出するように構成することにより、より自然且つ適切に解析対象要素を配置することができる。 In the above-described embodiment, the moving element extraction processing unit has been configured to extract other standard face elements and standard analysis target elements located in a predetermined range centered on a specific standard face element. The extraction processing unit may be configured to extract only the standard analysis target element associated with the specific standard face element. In this case, the analysis target element can be arranged more naturally and appropriately by configuring so as to extract the standard analysis target element located in a predetermined range centered on the specific standard face element.
この場合には、各標準顔要素と標準解析対象要素が予め関連付けられている必要があり、例えば、標準顔要素の眉を額領域R1の標準解析対象要素と関連付け、標準顔要素の目を鼻領域R3及び頬領域R2の標準解析対象要素と関連付け、標準顔要素の口を顎領域R4の標準解析対象要素と関連付け、各標準顔要素及び標準解析対象要素が夫々の関連付け情報とともにメモリ2に格納しておけばよい。
In this case, each standard face element and the standard analysis target element need to be associated in advance. For example, the eyebrow of the standard face element is associated with the standard analysis target element in the forehead region R1, and the eyes of the standard face element are nose The standard face element is associated with the standard analysis target element of the region R3 and the cheek region R2, the mouth of the standard face element is associated with the standard analysis target element of the jaw region R4, and each standard face element and the standard analysis target element are stored in the
尚、移動関数及び標準解析対象要素を抽出する所定領域は上述と同様に構成すればよい。 In addition, what is necessary is just to comprise the predetermined area | region which extracts a transfer function and a standard analysis object element similarly to the above-mentioned.
上述した実施形態では、特定オブジェクトが、人の顔画像に含まれる染み、毛穴、皺等の肌の変色領域である例を説明したが、本発明による画像処理装置が対象とする特定オブジェクトは、そのようなものに限定されるものではなく、任意の画像に含まれる任意のオブジェクトを抽出する場合にも適用可能である。例えば、写真画像中に存在する人物の顔を抽出する場合等にも適用できる。 In the above-described embodiment, an example in which the specific object is a skin discoloration region such as a stain, a pore, or a wrinkle included in a human face image is described. However, the specific object targeted by the image processing apparatus according to the present invention is as follows. The present invention is not limited to such a case, and the present invention can also be applied when extracting an arbitrary object included in an arbitrary image. For example, the present invention can be applied to a case where a human face existing in a photographic image is extracted.
上述した実施形態は、本発明の一例に過ぎず、本発明の作用効果を奏する範囲において各機能ブロックの具体的構成等を適宜変更設計できることは言うまでもない。 The embodiment described above is merely an example of the present invention, and it goes without saying that the specific configuration and the like of each functional block can be changed and designed as appropriate within the scope of the effects of the present invention.
2:記憶部
3:表示部
4b:肌特性抽出処理部
20:縮小処理部
22:縮小画像ラベリング処理部
24:オブジェクト同定処理部
26:輪郭領域ラベリング処理部
28:原画像ラベリング処理部
29:切替処理部
2: Storage unit 3:
Claims (9)
前記縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理部と、
前記縮小画像ラベリング処理部で抽出された特定オブジェクトの領域を前記原画像のサイズに拡大処理して、前記原画像に含まれる特定オブジェクトとして同定するオブジェクト同定処理部を備えている画像処理装置。 A reduction processing unit that generates a reduced image obtained by reducing the original image at a reduction rate determined in accordance with an assumed pixel size of a specific object included in the original image;
A reduced image labeling processing unit for extracting a region of a specific object included in the reduced image by attaching the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the reduced image;
An image processing apparatus comprising: an object identification processing unit that enlarges a region of a specific object extracted by the reduced image labeling processing unit to a size of the original image and identifies the specific object as a specific object included in the original image.
前記原画像に含まれる特定オブジェクトの想定画素サイズに基づいて、前記縮小処理部と前記縮小画像ラベリング処理部と前記オブジェクト同定処理部を作動させるか、前記原画像ラベリング処理部を作動させるかを切り替える切替処理部を備えている請求項1から3の何れかに記載の画像処理装置。 An original image labeling processing unit for extracting a region of a specific object included in the original image by attaching the same label to a plurality of continuous pixels having the same attribute among pixels constituting the original image;
Switching between operating the reduction processing unit, the reduced image labeling processing unit, and the object identification processing unit or operating the original image labeling processing unit based on an assumed pixel size of a specific object included in the original image. The image processing apparatus according to claim 1, further comprising a switching processing unit.
前記縮小画像を構成する画素のうち同一属性を備えた複数の連続画素に同一ラベルを付すことにより、前記縮小画像に含まれる特定オブジェクトの領域を抽出する縮小画像ラベリング処理ステップと、
前記縮小画像ラベリング処理ステップで抽出された特定オブジェクトの領域を前記原画像のサイズに拡大処理して、前記原画像に含まれる特定オブジェクトとして同定するオブジェクト同定処理ステップを備えている画像処理方法。 A reduction processing step for generating a reduced image obtained by reducing the original image at a reduction ratio determined in accordance with an assumed pixel size of a specific object included in the original image;
A reduced image labeling processing step of extracting a region of a specific object included in the reduced image by attaching the same label to a plurality of continuous pixels having the same attribute among the pixels constituting the reduced image;
An image processing method comprising: an object identification processing step for enlarging a region of a specific object extracted in the reduced image labeling processing step to a size of the original image and identifying the specific object as a specific object included in the original image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007166101A JP2009003842A (en) | 2007-06-25 | 2007-06-25 | Image processor and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007166101A JP2009003842A (en) | 2007-06-25 | 2007-06-25 | Image processor and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009003842A true JP2009003842A (en) | 2009-01-08 |
Family
ID=40320135
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007166101A Withdrawn JP2009003842A (en) | 2007-06-25 | 2007-06-25 | Image processor and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009003842A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015015793A1 (en) * | 2013-07-31 | 2015-02-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Skin analysis method, skin analysis device, and method for controlling skin analysis device |
CN107125904A (en) * | 2016-02-29 | 2017-09-05 | 松下知识产权经营株式会社 | Image processing apparatus and image processing method |
CN109381165A (en) * | 2018-09-12 | 2019-02-26 | 维沃移动通信有限公司 | A kind of skin detecting method and mobile terminal |
KR20210040300A (en) * | 2020-06-29 | 2021-04-13 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Image recognition method and apparatus, device, computer storage medium, and computer program |
-
2007
- 2007-06-25 JP JP2007166101A patent/JP2009003842A/en not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015015793A1 (en) * | 2013-07-31 | 2015-02-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Skin analysis method, skin analysis device, and method for controlling skin analysis device |
CN105407799A (en) * | 2013-07-31 | 2016-03-16 | 松下电器(美国)知识产权公司 | Skin analysis method, skin analysis device, and method for controlling skin analysis device |
EP3028632A4 (en) * | 2013-07-31 | 2016-07-27 | Panasonic Ip Corp America | Skin analysis method, skin analysis device, and method for controlling skin analysis device |
JPWO2015015793A1 (en) * | 2013-07-31 | 2017-03-02 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Skin analysis method, skin analysis device, and control method of skin analysis device |
US9875394B2 (en) | 2013-07-31 | 2018-01-23 | Panasonic Intellectual Property Corporation Of America | Skin analysis method, skin analysis device, and method for controlling skin analysis device |
CN107125904A (en) * | 2016-02-29 | 2017-09-05 | 松下知识产权经营株式会社 | Image processing apparatus and image processing method |
JP2017153555A (en) * | 2016-02-29 | 2017-09-07 | パナソニックIpマネジメント株式会社 | Image processing device and image processing method |
CN107125904B (en) * | 2016-02-29 | 2021-01-29 | 松下知识产权经营株式会社 | Image processing apparatus and image processing method |
CN109381165A (en) * | 2018-09-12 | 2019-02-26 | 维沃移动通信有限公司 | A kind of skin detecting method and mobile terminal |
KR20210040300A (en) * | 2020-06-29 | 2021-04-13 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Image recognition method and apparatus, device, computer storage medium, and computer program |
US11687779B2 (en) | 2020-06-29 | 2023-06-27 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Image recognition method and apparatus, device, and computer storage medium |
KR102597377B1 (en) * | 2020-06-29 | 2023-11-01 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | Image recognition method and apparatus, device, computer storage medium, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10255482B2 (en) | Interactive display for facial skin monitoring | |
US10255484B2 (en) | Method and system for assessing facial skin health from a mobile selfie image | |
KR101159830B1 (en) | Red eye false positive filtering using face location and orientation | |
JP4307496B2 (en) | Facial part detection device and program | |
JP2020522807A (en) | System and method for guiding a user to take a selfie | |
US8218862B2 (en) | Automatic mask design and registration and feature detection for computer-aided skin analysis | |
JP4845698B2 (en) | Eye detection device, eye detection method, and program | |
JP5080060B2 (en) | Skin condition analysis method, skin condition analysis apparatus, skin condition analysis program, and recording medium on which the program is recorded | |
TWI526982B (en) | Area segmentation method, computer program product and inspection device | |
US20190156483A1 (en) | Image processing apparatus and image processing method | |
CN111212594B (en) | Electronic device and method for determining conjunctival congestion degree by using electronic device | |
CN107368806B (en) | Image rectification method, image rectification device, computer-readable storage medium and computer equipment | |
JP2008102902A (en) | Visual line direction estimation device, visual line direction estimation method, and program for making computer execute visual line direction estimation method | |
JP2009000410A (en) | Image processor and image processing method | |
JP2016112024A (en) | Method for controlling information processing device and image processing method | |
JP2009048447A (en) | Image processing device, image processing method, and image processing program | |
JP2009003842A (en) | Image processor and image processing method | |
CN115601811A (en) | Facial acne detection method and device | |
JP2019145011A (en) | Operation determination device and operation determination method | |
JP2004041753A (en) | Skin diagnostic apparatus using digital zooming | |
JP2009289210A (en) | Device and method for recognizing important object and program thereof | |
JP2005316958A (en) | Red eye detection device, method, and program | |
JP5242827B2 (en) | Face image processing apparatus, face image processing method, electronic still camera, digital image processing apparatus, and digital image processing method | |
JP2004105748A (en) | Digital zooming skin diagnosing device | |
JP2011055291A (en) | Video display device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100907 |