JPH0793549A - Physical information sorting device using inductive learning and physical information sorting rule generation method using inductive learning - Google Patents

Physical information sorting device using inductive learning and physical information sorting rule generation method using inductive learning

Info

Publication number
JPH0793549A
JPH0793549A JP5238287A JP23828793A JPH0793549A JP H0793549 A JPH0793549 A JP H0793549A JP 5238287 A JP5238287 A JP 5238287A JP 23828793 A JP23828793 A JP 23828793A JP H0793549 A JPH0793549 A JP H0793549A
Authority
JP
Japan
Prior art keywords
classification
classes
information
learning
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5238287A
Other languages
Japanese (ja)
Inventor
Keiji Morosawa
敬二 諸沢
Mototsugu Takahashi
元次 高橋
Yasuharu Kawajiri
康晴 川尻
Motohiro Yanai
基裕 矢内
Fumio Mizoguchi
文雄 溝口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Priority to JP5238287A priority Critical patent/JPH0793549A/en
Publication of JPH0793549A publication Critical patent/JPH0793549A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To automatically and accurately generate the sorting rules of feature information relating to optional physical information relating to the sorting technique of the physical information such as a technique for sorting pictures for which skin surfaces are image picked up by the ages of skin. CONSTITUTION:At the time of learning, an inductive learning part 106 lets a picture input part 101 and a feature parameter extraction part 103 extract the sets of plural feature parameter pairs 104 corresponding to the plural skin surfaces for learning belonging to respective sorting classes as the set of positive examples belonging to the respective sorting classes corresponding to the respective plural sorting classes. Then, the inductive learning part 106 generates the sorting rules corresponding to the respective sorting classes for satisfying the positive examples included in the respective sorting classes and not satisfying the positive examples included in the sorting class other than the respective sorting classes by an inductive learning processing. At the time of sorting, a sorting part 108 uses the sorting rules and outputs the sorting classes corresponding to the feature parameter pairs 104 as sorting class recognition output 109.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、皮膚表面を撮像した画
像を皮膚年齢によって分類する技術をはじめとする物理
情報の分類技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for classifying physical information, including a technique for classifying an image obtained by picking up an image of a skin surface according to skin age.

【0002】[0002]

【従来の技術】画像情報や音声情報などの物理情報を分
類する技術は、様々な工業技術に適用されている。
2. Description of the Related Art A technique for classifying physical information such as image information and audio information is applied to various industrial techniques.

【0003】例えば、人間の皮膚の表面形状を分類する
ことが行われている。皮膚表面には、皮溝と呼ばれる多
数の細い溝、皮溝によって区画分けされる皮丘と呼ばれ
る小丘、皮溝の交差部分に存在する毛孔などが存在し、
それらは皮膚の代謝等の生理的な影響を受けて変化す
る。
For example, the surface shape of human skin is classified. On the skin surface, there are a number of narrow grooves called skin grooves, hills called cuticles divided by the skin grooves, and pores existing at the intersections of the skin grooves.
They change under physiological influences such as skin metabolism.

【0004】従って、皮膚表面形状の分類は、皮膚の性
状、肌質、それらの加齢による変化を判定するための指
標となり、その指標は、皮膚の治療、診断、美容衛生な
どの分野において有用な情報を提供する。
Therefore, the classification of the skin surface shape serves as an index for judging the properties of the skin, the skin quality, and changes due to aging thereof, and the index is useful in the fields of skin treatment, diagnosis, beauty hygiene, and the like. Provide information.

【0005】皮膚表面形状を分類するためには、まず、
皮膚表面から、特徴情報を抽出する必要がある。皮膚表
面形状の特徴抽出の手法として、皮膚表面をシリコンラ
バーなどによって型取りして皮膚表面レプリカ(ネガテ
ィブレプリカ)を作成し、それを人間が光学顕微鏡で観
察する方法がある。
In order to classify the skin surface shape, first,
It is necessary to extract the feature information from the skin surface. As a method for extracting features of the skin surface shape, there is a method in which the skin surface is modeled with silicon rubber or the like to create a skin surface replica (negative replica), which a human observes with an optical microscope.

【0006】皮膚表面形状の特徴抽出の第2の手法とし
て、皮膚表面レプリカを表面粗さ計を用いて触針により
走査し、その結果得られた起伏値信号から起伏のピーク
の高さや数、ピーク面積などを求めて、皮膚表面レプリ
カ面の凹凸の程度を判定する方法がある。
As a second method for extracting the features of the skin surface shape, a skin surface replica is scanned with a stylus using a surface roughness meter, and the height and number of peaks of the undulations are obtained from the undulation value signal obtained as a result. There is a method of determining the degree of unevenness of the skin surface replica surface by obtaining the peak area and the like.

【0007】皮膚表面形状の特徴抽出の第3の手法とし
て次のような方法がある。即ち、まず、皮膚表面又は皮
膚表面レプリカ面を複数方向例えば3方向から照明す
る。次に、各照明毎に面を光学顕微鏡を介してテレビカ
メラで撮像し、その撮像信号をディジタル画像データに
変換することによって、各照明画像についてその画像を
構成する各画素毎の明度値(画素値)を求める。そし
て、そのようにして得られた明度データに対して、ディ
ジタル画像処理を施すことにより、幾何学的な特徴パラ
メータを抽出し、それを皮膚表面形状の特徴情報とす
る。
The third method for extracting the characteristics of the skin surface shape is as follows. That is, first, the skin surface or the skin surface replica surface is illuminated from a plurality of directions, for example, three directions. Next, the surface of each illumination is imaged by a television camera through an optical microscope, and the image pickup signal is converted into digital image data to obtain the brightness value (pixel value) of each pixel that constitutes the image for each illumination image. Value). Then, the lightness data thus obtained is subjected to digital image processing to extract geometrical characteristic parameters, which are used as the characteristic information of the skin surface shape.

【0008】皮膚表面形状の特徴抽出の第4の手法とし
て次のような方法がある。即ち、まず、皮膚表面又は皮
膚表面レプリカ面を複数方向例えば3方向から照明す
る。次に、各照明毎に面を光学顕微鏡を介してテレビカ
メラで撮像し、その撮像信号をディジタル画像データに
変換することによって、各照明画像についてその画像を
構成する各画素毎の明度値を求める。続いて、照明方向
の情報と各ディジタル画像データから得られる明度値に
基づいて、各画素位置における皮膚表面形状の勾配を、
皮膚表面の3次元形状として抽出する。そして、その勾
配に基づいて、皮膚表面形状に関する特徴情報を抽出す
る。
The fourth method for extracting the features of the skin surface shape is as follows. That is, first, the skin surface or the skin surface replica surface is illuminated from a plurality of directions, for example, three directions. Next, the surface of each illumination is imaged by a television camera through an optical microscope, and the image pickup signal is converted into digital image data to obtain the brightness value of each pixel constituting the image of each illumination image. . Then, based on the information on the illumination direction and the brightness value obtained from each digital image data, the gradient of the skin surface shape at each pixel position is calculated.
It is extracted as a three-dimensional shape of the skin surface. Then, based on the gradient, feature information regarding the skin surface shape is extracted.

【0009】以上のような種々の手法により抽出された
皮膚表面形状の特徴情報に基づき、皮膚表面形状が分類
される。
The skin surface shapes are classified based on the characteristic information of the skin surface shapes extracted by the various methods as described above.

【0010】[0010]

【発明が解決しようとする課題】しかし、このような皮
膚表面形状の特徴情報に基づいて皮膚表面形状を分類す
るためには、従来、専門家が、特徴情報の特性を熟知し
た上で、試行錯誤によって、特徴情報に関する分類規則
を決定する必要があった。このため、最適な分類規則を
決定するのが困難であるという問題点を有していた。
However, in order to classify the skin surface shape on the basis of such characteristic information of the skin surface shape, an expert has heretofore made a trial after thoroughly knowing the characteristics of the characteristic information. By mistake, it was necessary to determine the classification rule for feature information. Therefore, there is a problem that it is difficult to determine the optimum classification rule.

【0011】このような問題点は、皮膚表面形状の分類
のみならず、画像情報や音声情報などの様々な物理情報
の分類において、その物理情報に関する特徴情報の分類
規則を決定する場合にも、同様の問題点があった。
Such a problem is not limited to the classification of the skin surface shape, but in the classification of various physical information such as image information and audio information, when the classification rule of the characteristic information regarding the physical information is determined, There were similar problems.

【0012】本発明は、任意の物理情報に関する特徴情
報の分類規則を自動的かつ精度良く生成可能とすること
を目的とする。
An object of the present invention is to make it possible to automatically and accurately generate a classification rule of feature information relating to arbitrary physical information.

【0013】[0013]

【課題を解決するための手段】本発明はまず、物理情報
から特徴情報(特徴パラメータ組104)を抽出する特
徴情報抽出手段(特徴パラメータ抽出部103)を有す
る。この物理情報は、例えば画像情報、更に具体的に
は、例えば皮膚表面を撮像した画像情報である。この場
合、特徴情報は、例えば画像的特徴を示す特徴情報、更
に具体的には、例えば皮膚表面の形状(皮溝、毛孔な
ど)に関する特徴情報(皮溝パラメータ213、毛孔パ
ラメータ215など)である。
The present invention firstly has a characteristic information extracting means (characteristic parameter extracting section 103) for extracting characteristic information (characteristic parameter set 104) from physical information. This physical information is, for example, image information, and more specifically, image information obtained by imaging the skin surface, for example. In this case, the feature information is, for example, feature information indicating image features, and more specifically, feature information (skin groove parameter 213, pore parameter 215, etc.) related to the shape of the skin surface (skin groove, pore, etc.). .

【0014】次に、学習時に、複数の分類クラスのそれ
ぞれに対応して、それぞれの分類クラスに属する複数の
学習用の物理情報に対応する複数の特徴情報の集合をそ
れぞれの分類クラスに属する正事例の集合として特徴情
報抽出手段に抽出させ、それぞれの分類クラスに対応す
る分類規則であって、それぞれの分類クラスに含まれる
正事例を満たしそれぞれの分類クラス以外の分類クラス
に含まれる正事例を満たさない分類規則を、帰納学習処
理により生成する帰納学習手段(帰納学習部106)を
有する。ここで、分類クラスとは、例えば画像情報に対
応する皮膚を有する人間の年代である。
Next, at the time of learning, a set of a plurality of feature information corresponding to a plurality of learning physical information belonging to each of the plurality of classification classes is associated with each of the plurality of classification classes. The characteristic information extracting means extracts a set of cases, and the classification rules corresponding to the respective classification classes satisfy the positive cases included in the respective classification classes, and correct the positive cases included in the classification classes other than the respective classification classes. It has an induction learning unit (induction learning unit 106) that generates the classification rules that do not satisfy by an induction learning process. Here, the classification class is, for example, the age of a person having a skin corresponding to image information.

【0015】更に、分類時に、入力される物理情報に対
応する特徴情報を特徴情報抽出手段に抽出させ、その特
徴情報を帰納学習手段によって生成された各分類クラス
に対応する分類規則にあてはめることにより、上述の入
力される物理情報が属する分類クラスを認識する分類手
段(分類部108)を有する。
Further, at the time of classification, the characteristic information corresponding to the input physical information is extracted by the characteristic information extraction means, and the characteristic information is applied to the classification rule corresponding to each classification class generated by the induction learning means. It has a classification means (classification unit 108) for recognizing the classification class to which the above-mentioned input physical information belongs.

【0016】[0016]

【作用】帰納学習手段は、物理情報に対応する物理情
報、例えば皮膚表面の形状に関する特徴情報に基づい
て、例えば撮像した皮膚表面の年代を分類するような分
類規則を自動的かつ精度良く生成することができる。
The inductive learning means automatically and accurately generates a classification rule for classifying, for example, the age of the imaged skin surface based on the physical information corresponding to the physical information, for example, the characteristic information about the shape of the skin surface. be able to.

【0017】[0017]

【実施例】以下、図面を参照しながら、本発明の実施例
につき詳細に説明する。 <全体構成>図1は、本発明の実施例の全体構成図であ
る。
Embodiments of the present invention will now be described in detail with reference to the drawings. <Overall Configuration> FIG. 1 is an overall configuration diagram of an embodiment of the present invention.

【0018】画像入力部101は、拡大光学系、CCD
撮像素子、A/D変換器、主記憶装置である半導体メモ
リと、補助記憶装置であるハードディスク装置又は光磁
気ディスク装置などのメモリ装置、及びこれらを制御す
るマイクロコンピュータとから構成されている。この画
像入力部101は、皮膚表面を撮像することにより、デ
ィジタル画像データである皮膚表面画像102を出力す
る。
The image input unit 101 includes a magnifying optical system and a CCD.
It is composed of an image sensor, an A / D converter, a semiconductor memory that is a main storage device, a memory device such as a hard disk device or a magneto-optical disk device that is an auxiliary storage device, and a microcomputer that controls these. The image input unit 101 outputs a skin surface image 102 that is digital image data by capturing an image of the skin surface.

【0019】次に、特徴パラメータ抽出部103は、メ
モリ装置と、これを制御するマイクロコンピュータとか
ら構成されている。この特徴パラメータ抽出部103
は、後述する図2に示される構成により、皮膚表面画像
102から、皮溝パラメータ213及び毛孔パラメータ
215からなる特徴パラメータ組104を算出する。
Next, the characteristic parameter extraction unit 103 is composed of a memory device and a microcomputer for controlling the memory device. This feature parameter extraction unit 103
Calculates a feature parameter set 104 including a skin groove parameter 213 and a pore parameter 215 from the skin surface image 102 with the configuration shown in FIG. 2 described later.

【0020】次に、後述する帰納学習時には、スイッチ
部105により、特徴パラメータ抽出部103から出力
された特徴パラメータ組104は、帰納学習部106に
入力させられる。帰納学習部106は、特徴パラメータ
抽出部103と同様、メモリ装置と、これを制御するマ
イクロコンピュータとから構成されている。この帰納学
習部106は、画像入力部101及び特徴パラメータ抽
出部103を介し、予め分類クラス(後述する)のわか
っている学習用の皮膚表面画像102及び特徴パラメー
タ組104を得て、それに対して帰納学習処理を実行す
ることにより、分類規則107を生成する。この分類規
則107は、特徴パラメータ組104のそれぞれの特徴
パラメータがどのような値をとったときに、その特徴パ
ラメータ組104に対応する皮膚表面画像102はどの
分類クラスに属するか、という規則を示すものである。
Next, at the time of induction learning, which will be described later, the switch unit 105 causes the feature parameter set 104 output from the feature parameter extraction unit 103 to be input to the induction learning unit 106. The induction learning unit 106 includes a memory device and a microcomputer that controls the memory device, like the feature parameter extraction unit 103. The induction learning unit 106 obtains a learning skin surface image 102 and a characteristic parameter set 104 whose classification class (described later) is known in advance through the image input unit 101 and the characteristic parameter extraction unit 103, and The classification rule 107 is generated by executing the induction learning process. This classification rule 107 indicates what value each of the characteristic parameters of the characteristic parameter set 104 has, and which classification class the skin surface image 102 corresponding to the characteristic parameter set 104 belongs to. It is a thing.

【0021】最後に、後述する分類実行時には、スイッ
チ部105によって、特徴パラメータ抽出部103から
出力された特徴パラメータ組104は、分類部108に
入力される。分類部108は、特徴パラメータ抽出部1
03と同様、メモリ装置と、これを制御するマイクロコ
ンピュータとから構成されている。この分類部108
は、帰納学習部106から設定された分類規則107に
基づいて、入力された特徴パラメータ組104に対応す
る分類クラスを認識し、分類クラス認識出力109を出
力する。この分類クラスは、撮像された皮膚表面が、ど
の年代の人間のものであるかというクラス情報である。 <特徴パラメータ抽出部103の説明>次に、図2は図
1の特徴パラメータ抽出部103の機能ブロック図であ
る。この部分は、皮膚表面画像102に対して雑音を除
去し皮溝を強調するための前処理を実行するフーリエ変
換部201、フィルタ処理部203、及び逆フーリエ変
換部204からなる部分と、皮溝パラメータ213及び
毛孔パラメータ215の抽出処理を実行する2値化部2
06、細線化部208、分岐点抽出部210、皮溝パラ
メータ抽出部212、及び毛孔パラメータ抽出部214
からなる部分とで構成されている。
Finally, at the time of executing the classification described later, the characteristic parameter set 104 output from the characteristic parameter extraction section 103 is input to the classification section 108 by the switch section 105. The classification unit 108 includes the feature parameter extraction unit 1
Like 03, it is composed of a memory device and a microcomputer for controlling the memory device. This classification unit 108
Recognizes a classification class corresponding to the input characteristic parameter set 104 based on the classification rule 107 set by the induction learning unit 106, and outputs a classification class recognition output 109. This classification class is class information indicating which age of the human being the imaged skin surface belongs to. <Description of Feature Parameter Extraction Unit 103> Next, FIG. 2 is a functional block diagram of the feature parameter extraction unit 103 of FIG. This portion includes a portion including a Fourier transform unit 201, a filter processing unit 203, and an inverse Fourier transform unit 204, which performs preprocessing for removing noise from the skin surface image 102 and enhancing the skin groove, and the skin groove. The binarization unit 2 that executes the extraction process of the parameters 213 and the pore parameters 215.
06, a thinning unit 208, a branch point extraction unit 210, a skin groove parameter extraction unit 212, and a pore parameter extraction unit 214.
It consists of a part and.

【0022】まず、フーリエ変換部201は、皮膚表面
画像102に対して高速フーリエ変換処理を実行するこ
とにより、空間周波数データ202を算出する。この空
間周波数データ202は、皮膚表面画像102における
空間周波数に関する情報と位相に関する情報とを表して
いる。
First, the Fourier transform unit 201 calculates the spatial frequency data 202 by executing a fast Fourier transform process on the skin surface image 102. The spatial frequency data 202 represents information on spatial frequencies and information on phases in the skin surface image 102.

【0023】次に、フィルタ処理部203は、この空間
周波数データ202に対して、大きな値を有する方向成
分と空間周波数成分を残すフィルタ処理を実行する。そ
して、逆フーリエ変換部204は、フィルタ処理部20
3の出力に対して高速逆フーリエ変換を実行することに
より、細かな雑音が除去され、皮溝が強調された強調皮
膚表面画像205を算出する。
Next, the filter processing unit 203 executes a filtering process for the spatial frequency data 202, leaving the directional component and the spatial frequency component having large values. Then, the inverse Fourier transform unit 204 includes the filter processing unit 20.
By performing a fast inverse Fourier transform on the output of No. 3, the enhanced skin surface image 205 in which the fine noise is removed and the skin groove is enhanced is calculated.

【0024】ここで、フィルタ処理部203は、例え
ば、次のようなフィルタ処理を実行する。第1のフィル
タ処理では、所定の周波数以下の空間周波数データ20
2のみが残され、他の空間周波数データ202は0とさ
れる。この結果、皮膚表面画像102において、高い空
間周波数成分を有する細かいノイズを除去することがで
きる。
Here, the filter processing unit 203 executes the following filter processing, for example. In the first filter processing, the spatial frequency data 20 below the predetermined frequency
Only 2 is left, and the other spatial frequency data 202 is set to 0. As a result, fine noise having high spatial frequency components can be removed from the skin surface image 102.

【0025】第2のフィルタ処理では、空間周波数デー
タ202に対して、2次元座標空間上の方向別に、その
値のヒストグラムが演算される。次に、そのヒストグラ
ムから、代表的なピーク値を有する方向が所定数算出さ
れる。そして、算出された各方向を中心として、その方
向上のデータ群から所定範囲内の空間周波数データ20
2のみが残され、他の範囲の空間周波数データ202は
0とされる。皮溝は一般的に所定の方向性を有する場合
が多いため、上述のような第2のフィルタ処理によっ
て、皮溝を強調することができる。
In the second filter process, a histogram of the spatial frequency data 202 is calculated for each direction in the two-dimensional coordinate space. Next, a predetermined number of directions having typical peak values are calculated from the histogram. Then, centering on each calculated direction, the spatial frequency data 20 within a predetermined range from the data group in that direction is set.
Only 2 is left, and the spatial frequency data 202 in other ranges are set to 0. Since the skin groove generally has a predetermined directionality in many cases, the skin groove can be emphasized by the second filter processing as described above.

【0026】フィルタ処理部203が上述した第1又は
第2のフィルタ処理の何れか一方又は両方を実行した後
に、逆フーリエ変換部204がフィルタ処理部203の
出力に対して高速逆フーリエ変換を実行することによ
り、強調皮膚表面画像205が算出される。
After the filter processing unit 203 executes one or both of the above-mentioned first and second filter processes, the inverse Fourier transform unit 204 executes the fast inverse Fourier transform on the output of the filter processing unit 203. By doing so, the emphasized skin surface image 205 is calculated.

【0027】次に、2値化部206は、以上のようにし
て得られた強調皮膚表面画像205に対して2値化処理
を実行することによって、2値化皮膚表面画像207を
算出する。この2値化処理では、強調皮膚表面画像20
5の各ライン毎に、そのライン上の画素の明度値のヒス
トグラムが演算され、そのヒストグラムから計算される
閾値によって、そのライン上の各画素の明度値が、0又
は1の2値に変換される。このような処理が、強調皮膚
表面画像205の全てのラインについて実行される。
Next, the binarizing unit 206 calculates the binarized skin surface image 207 by executing the binarization process on the emphasized skin surface image 205 obtained as described above. In this binarization processing, the emphasized skin surface image 20
For each line of 5, the histogram of the brightness values of the pixels on the line is calculated, and the brightness value of each pixel on the line is converted into a binary value of 0 or 1 by the threshold value calculated from the histogram. It Such processing is executed for all the lines of the emphasized skin surface image 205.

【0028】続いて、細線化部208は、2値化皮膚表
面画像207に対して細線化処理を実行することによ
り、細線化皮膚表面画像209を算出する。この細線化
処理では、2値化皮膚表面画像207に対して周知の細
線化処理に基づいて所定の画像演算オペレータが適用さ
れることにより、2値化皮膚表面画像207上における
皮溝によるセグメント(以下、皮溝セグメントという)
の画素幅が1画素に細線化される。
Subsequently, the thinning section 208 calculates the thinned skin surface image 209 by performing the thinning processing on the binarized skin surface image 207. In this thinning process, a predetermined image calculation operator is applied to the binarized skin surface image 207 based on a well-known thinning process, so that a segment due to a skin groove on the binarized skin surface image 207 ( Hereinafter referred to as skin groove segment)
The pixel width of is thinned to one pixel.

【0029】分岐点抽出部210は、細線化皮膚表面画
像209上の細線化された皮溝セグメントの分岐点を抽
出し、それを分岐点情報211として出力する。ここで
は、細線化された皮溝セグメントの交点が分岐点として
抽出される。
The branch point extraction unit 210 extracts the branch points of the thinned skin groove segment on the thinned skin surface image 209 and outputs it as the branch point information 211. Here, the intersections of the thinned skin groove segments are extracted as branch points.

【0030】以上のようにして抽出された分岐点情報2
11に基づいて、逆フーリエ変換部204から出力され
る白黒濃淡画像である強調皮膚表面画像205から、皮
溝パラメータ抽出部212が皮溝パラメータ213を抽
出し、また、毛孔パラメータ抽出部214が毛孔パラメ
ータ215を抽出する。そして、皮溝パラメータ213
と毛孔パラメータ215が、図1の特徴パラメータ組1
04とされる。
Branch point information 2 extracted as described above
11, the skin groove parameter extraction unit 212 extracts skin groove parameters 213 from the emphasized skin surface image 205, which is the black and white grayscale image output from the inverse Fourier transform unit 204, and the pore parameter extraction unit 214 also extracts pores. The parameter 215 is extracted. And the skin groove parameter 213
And the pore parameter 215 are the characteristic parameter set 1 of FIG.
04.

【0031】皮溝パラメータ213としては、以下に示
される(1) 〜(9) の9個の代表的なものが採用できる。 (1) 皮溝の深さの平均値 (2) 皮溝の深さの標準偏差 (3) 皮溝の数 (4) 皮溝の長さの平均値 (5) 皮溝の長さの標準偏差 (6) 皮溝の幅の平均値 (7) 皮溝の幅の標準偏差 (8) 皮溝占有率 (9) 皮溝方向の標準偏差 それぞれの皮溝パラメータ213は、以下のようにして
算出される。皮溝の深さの平均値と標準偏差 強調皮膚表面画像205上において、細線化皮膚表面画
像209上に存在する細線化された皮溝セグメントの画
素位置と同じ画素位置における明度値の平均値及び標準
偏差として算出される。
As the skin groove parameter 213, nine representative parameters (1) to (9) shown below can be adopted. (1) Average depth of skin groove (2) Standard deviation of depth of skin groove (3) Number of skin grooves (4) Average value of skin groove length (5) Standard of skin groove length Deviation (6) Mean value of skin groove width (7) Standard deviation of skin groove width (8) Skin groove occupancy rate (9) Standard deviation in the skin groove direction Each skin groove parameter 213 is as follows. It is calculated. Average value of the depth of the skin groove and standard deviation On the skin surface image 205, the average value of the lightness value at the same pixel position as the pixel position of the thinned skin groove segment present on the thinned skin surface image 209 and Calculated as standard deviation.

【0032】皮溝の明度値は皮溝の深さに対応すると仮
定できる。そして、一般に、人間の皮膚は、加齢と共
に、皮溝の深さは浅くなり皮溝が不鮮明となるため、上
述のようにして皮溝の深さを評価することは重要であ
る。皮溝の数 細線化皮膚表面画像209上で、分岐点情報211に基
づく分岐点間のセグメントの数として算出される。
It can be assumed that the brightness value of the skin groove corresponds to the depth of the skin groove. In general, as human skin ages, the depth of the skin groove becomes shallow and the skin groove becomes unclear. Therefore, it is important to evaluate the depth of the skin groove as described above. The number of skin grooves is calculated as the number of segments between branch points based on the branch point information 211 on the thinned skin surface image 209.

【0033】一般に、人間の皮膚は、加齢と共に、皮溝
の数は減少するため、上述のようにして皮溝の数を評価
することは重要である。皮溝の長さの平均値と標準偏差 細線化皮膚表面画像209上で、分岐点情報211に基
づく分岐点間のセグメントの画素数の平均値と標準偏差
として算出される。
Generally, the number of sulci on human skin decreases with age, so it is important to evaluate the number of sulci as described above. Average value of standard length of skin groove and standard deviation On the thinned skin surface image 209, the average value and standard deviation of the number of pixels of the segment between the branch points based on the branch point information 211 are calculated.

【0034】一般に、人間の皮膚は、加齢と共に、皮溝
の長さは長くなるため、上述のようにして皮溝の長さを
評価することは重要である。皮溝の幅の平均値と標準偏差 強調皮膚表面画像205上において、細線化皮膚表面画
像209上に存在する細線化された皮溝セグメント上の
各画素位置を中心として、皮溝セグメントの各位置にお
ける方向に直交する方向に存在し、所定閾値以上の明度
値を有する画素の数の平均値と標準偏差として算出され
る。
In general, human skin has a longer skin groove length with aging, so it is important to evaluate the skin groove length as described above. Average value of the width of the skin groove and standard deviation On the skin surface image 205, each position of the skin groove segment is centered on each pixel position on the thinned skin groove segment existing on the thinned skin surface image 209. It is calculated as the average value and the standard deviation of the number of pixels existing in the direction orthogonal to the direction in and having the brightness value equal to or more than the predetermined threshold value.

【0035】皮溝の幅は、皮溝の深さと共に、人間の皮
膚の加齢状態を知るための指標となるため、上述のよう
にして皮溝の幅を評価することは重要である。皮溝占有率 強調皮膚表面画像205上において、細線化皮膚表面画
像209上に存在する細線化された皮溝セグメント上の
各画素位置を中心として存在する所定閾値以上の明度値
を有する画素の数の総和の、強調皮膚表面画像205の
全画素数に対する比として算出される。
It is important to evaluate the width of the sulcus as described above, because the width of the sulcus, together with the depth of the sulcus, serves as an index for knowing the aging state of human skin. On the skin groove occupancy- emphasized skin surface image 205, the number of pixels having a lightness value equal to or greater than a predetermined threshold, which is centered on each pixel position on the thinned skin groove segment existing on the thinned skin surface image 209. Is calculated as the ratio of the total sum of the total number of pixels to the total number of pixels of the enhanced skin surface image 205.

【0036】一般に、人間の皮膚は、加齢と共に、皮溝
の密度が減少するため、上述のようにして皮溝占有率を
評価することは重要である。皮溝方向の標準偏差 細線化皮膚表面画像209上に存在する細線化された皮
溝セグメントを折れ線で近似し、その折れ線の傾きの標
準偏差として算出される。
In general, since the density of the sulcus of human skin decreases with age, it is important to evaluate the sulcus occupancy rate as described above. Standard deviation in the skin groove direction The thinned skin groove segment present on the thinned skin surface image 209 is approximated by a polygonal line and calculated as the standard deviation of the inclination of the polygonal line.

【0037】一般に、人間の皮膚は、加齢と共に、皮溝
に関する放射状の均質性が失われ、皮溝が一定方向に流
れる傾向を呈するため、上述のようにして皮溝方向を評
価することは重要である。
Generally, human skin loses radial homogeneity with respect to the sulcus with aging, and the sulcus tends to flow in a certain direction. Therefore, it is not possible to evaluate the sulcus direction as described above. is important.

【0038】次に、毛孔パラメータ215としては、以
下に示される(10)〜(13)の4個の代表的なものが採用で
きる。 (10)毛孔の数 (11)毛孔の深さの平均値 (12)毛孔の深さの標準偏差 (13)毛孔の面積の平均値 それぞれの毛孔パラメータ215は、以下のようにして
算出される。毛孔の数 分岐点情報211に基づく分岐点間距離が所定値以下の
組(最低2つの分岐点の組)の数として算出される。毛孔の深さの平均値と標準偏差 上述の分岐点の組の重心に対応する画素の明度値の平均
値及び標準偏差として算出される。毛孔の面積の平均値 上述の分岐点の組の重心を中心として、所定閾値以上の
明度値を有する画素の数の平均値と標準偏差として算出
される。
Next, as the pore parameters 215, the following four typical parameters (10) to (13) can be adopted. (10) Number of pores (11) Average value of depth of pores (12) Standard deviation of depth of pores (13) Average value of area of pores Each pore parameter 215 is calculated as follows. . The number of pores is calculated as the number of pairs (at least two pairs of branch points) in which the distance between the branch points based on the branch point information 211 is equal to or less than a predetermined value. The average value and standard deviation of the depth of the pores are calculated as the average value and the standard deviation of the lightness values of the pixels corresponding to the center of gravity of the set of branch points. The average value of the area of the pores is calculated as the average value and the standard deviation of the number of pixels having the brightness value equal to or more than a predetermined threshold value with the center of gravity of the set of branch points as the center.

【0039】一般に、毛孔は、人間の皮膚の加齢状態を
知るための指標となり、例えば毛孔の面積は加齢と共に
大きくなる傾向を呈するため、上述のようにして毛孔を
評価することは重要である。
Generally, the pores serve as an index for knowing the aging condition of human skin, and, for example, the area of the pores tends to increase with age, so it is important to evaluate the pores as described above. is there.

【0040】以上説明したようにして、図1の特徴パラ
メータ抽出部103は、皮溝パラメータ213及び毛孔
パラメータ215として特徴パラメータ組104を算出
することができる。 <帰納学習部106の説明>次に、図1の帰納学習部1
06について詳細に説明する。
As described above, the characteristic parameter extraction unit 103 in FIG. 1 can calculate the characteristic parameter set 104 as the skin groove parameter 213 and the pore parameter 215. <Description of Induction Learning Unit 106> Next, the induction learning unit 1 in FIG.
06 will be described in detail.

【0041】帰納学習部106は、画像入力部101及
び特徴パラメータ抽出部103を介し、予め分類クラス
(後述する)のわかっている学習用の皮膚表面画像10
2及びそれに対応する特徴パラメータ組104を得て、
それに対して以下に示されるような帰納学習処理を実行
することにより、分類規則107を生成する。
The induction learning unit 106, via the image input unit 101 and the characteristic parameter extraction unit 103, learns the skin surface image 10 whose classification class (described later) is known in advance.
2 and the corresponding feature parameter set 104,
On the other hand, by executing the induction learning process as shown below, the classification rule 107 is generated.

【0042】この分類規則107は、特徴パラメータ組
104のそれぞれの特徴パラメータがとりうる値の範囲
を示す不等式の集合として生成される。帰納学習処理と
は、事例集合から、一般規則を生成する学習方法をい
う。この実施例の例では、皮膚表面画像102から抽出
された特徴パラメータ組104の集合から、分類規則1
07が一般規則として生成される。
The classification rule 107 is generated as a set of inequalities indicating the range of values that each characteristic parameter of the characteristic parameter set 104 can take. Inductive learning processing refers to a learning method for generating general rules from a set of cases. In the example of this embodiment, the classification rule 1 is calculated from the set of feature parameter sets 104 extracted from the skin surface image 102.
07 is generated as a general rule.

【0043】図3〜図6は、帰納学習処理を示す動作フ
ローチャートである。始めに、図3のステップ301に
おいては、次のような処理が実行される。即ちまず、画
像入力部101が、1つの分類クラスにつき、その分類
クラスに属する複数の皮膚表面に対する複数枚の学習用
の皮膚表面画像102を撮像する。次に、特徴パラメー
タ抽出部103が、それぞれの皮膚表面画像102に対
して、特徴パラメータ組104を算出する。それぞれの
特徴パラメータ組104は、その分類クラスにおける正
事例とされる。即ち、1つの分類クラスにつき、複数枚
の学習用の皮膚表面画像102に対応する複数の正事例
が得られることになる。以上の処理が、複数の分類クラ
スについて、同様に実行される。ここで、分類クラス
は、例えば、撮像された皮膚表面が、どの年代の人間の
ものであるかというクラス情報である。
3 to 6 are operation flowcharts showing the induction learning process. First, in step 301 of FIG. 3, the following processing is executed. That is, first, the image input unit 101 captures, for each classification class, a plurality of learning skin surface images 102 for a plurality of skin surfaces belonging to the classification class. Next, the characteristic parameter extraction unit 103 calculates a characteristic parameter set 104 for each skin surface image 102. Each characteristic parameter set 104 is a positive case in the classification class. That is, a plurality of positive cases corresponding to a plurality of learning skin surface images 102 are obtained for one classification class. The above processing is similarly executed for a plurality of classification classes. Here, the classification class is, for example, class information indicating in what age the imaged skin surface belongs to a human.

【0044】続いて、ステップ302(図3)〜324
(図6)の処理は、帰納学習部106が実行する処理で
ある。まず、図3において、ステップ302では、ステ
ップ301の算出結果の中から、処理がなされていない
1つの分類クラスに属する複数個の正事例が選択され
る。
Subsequently, steps 302 (FIG. 3) to 324.
The process (FIG. 6) is a process executed by the induction learning unit 106. First, in FIG. 3, in step 302, a plurality of positive cases belonging to one unclassified classification class are selected from the calculation results of step 301.

【0045】次に、ステップ303では、ステップ30
2で選択された現在処理されている分類クラスに属する
正事例の中から、任意の2つずつを選択して得られる所
定数の任意の正事例組が選択される。選択可能な正事例
組の数が所定数に満たないときは、最大限選択可能な数
の正事例組が選択される。この選択された組の数をm個
とする。
Next, in step 303, step 30
From the positive cases belonging to the currently processed classification class selected in 2, a predetermined number of arbitrary positive case sets obtained by selecting arbitrary two cases are selected. When the number of selectable positive case sets is less than the predetermined number, the maximum selectable number of positive case sets is selected. The number of selected pairs is m.

【0046】ステップ304では、ステップ303で選
択された正事例の数mが0であるか否か、即ち、現在処
理されている分類クラスにおいてこれ以上選択する正事
例がなくなったか否かが判定される。
In step 304, it is judged whether or not the number m of positive cases selected in step 303 is 0, that is, whether or not there are no more positive cases to be selected in the currently processed classification class. It

【0047】ステップ304の判定がYESの場合は、
後述する図6のステップ323の処理に移行し、現在処
理されている分類クラスに対応する分類規則の生成を終
了する。
If the determination in step 304 is YES,
The process moves to step 323 of FIG. 6 to be described later, and the generation of the classification rule corresponding to the currently processed classification class ends.

【0048】ステップ304の判定がNOの場合、ステ
ップ305で、ステップ303で選択されたm個の正事
例組のそれぞれにつき、最小一般化処理が実行される。
この処理では、図7に示されるように、その正事例組に
含まれる2つの正事例#1と#2、即ち2つの特徴パラ
メータ組#1と#2につき、各特徴パラメータf1 、f
2 、・・・、fn に関する各データ対(v1
1 ′)、(v2 、v2 ′)、・・・、(vn
n ′)について、小さい方の値を下限値とし、大きい
方の値を上限値とする各不等式が生成される。そして、
それらの不等式の集合が、その正事例組に対応する1つ
の分類規則として算出される。ここで、特徴パラメータ
1 、f2 、・・・、fn は、例えば、前述した(1) 〜
(13)で示される皮溝パラメータ213又は毛孔パラメー
タ215のうち適当に選択される所定のものである。
If the determination in step 304 is NO, then in step 305, the minimum generalization process is executed for each of the m positive case sets selected in step 303.
In this process, as shown in FIG. 7, for each of the two positive cases # 1 and # 2 included in the positive case set, that is, for the two characteristic parameter groups # 1 and # 2, the characteristic parameters f 1 and f are calculated.
2, ..., each data pair regarding f n (v 1,
v 1 ′), (v 2 , v 2 ′), ..., (v n ,
For v n ′), each inequality is generated with the smaller value as the lower limit value and the larger value as the upper limit value. And
The set of these inequalities is calculated as one classification rule corresponding to the positive case set. Here, the characteristic parameters f 1 , f 2 , ..., F n are, for example, (1) to
It is a predetermined one that is appropriately selected from the skin groove parameter 213 or the pore parameter 215 shown in (13).

【0049】ステップ306では、ステップ305で算
出されたm個の正事例組に対応するm個の分類規則のそ
れぞれに、現在処理されている分類クラス以外の何れか
の分類クラスに属する何れかの正事例(これを現在処理
されている分類クラスに対する負事例という)が含まれ
ないか検査される。
In step 306, each of the m classification rules corresponding to the m positive case sets calculated in step 305 belongs to any classification class other than the currently processed classification class. It is checked for positive cases (which we call negative cases for the classification class currently being processed).

【0050】ステップ307では、ステップ306の検
査の結果に基づいて、負事例を1つでも含む分類規則が
排除される。ステップ308では、ステップ307によ
って排除されずに残った分類規則が存在するか否かが判
定される。
In step 307, the classification rule including at least one negative case is excluded based on the result of the check in step 306. In step 308, it is determined whether or not there is a classification rule that remains unexcluded in step 307.

【0051】ステップ308の判定がNOの場合には、
ステップ305で算出されたm個の正事例組に対応する
m個の分類規則は、現在処理されている分類クラスの分
類規則としては適切でない。このため、ステップ311
で、現在処理されている分類クラスに属している正事例
の集合から、ステップ303で選択されたm個の正事例
組を構成する正事例が除去された後、再びステップ30
3が実行される。
If the determination in step 308 is NO,
The m classification rules corresponding to the m positive case sets calculated in step 305 are not appropriate as the classification rules of the classification class currently being processed. Therefore, step 311
Then, after removing the positive cases forming the m positive case sets selected in step 303 from the set of positive cases belonging to the currently processed classification class, step 30 is performed again.
3 is executed.

【0052】ステップ308の判定がYESの場合は、
ステップ309で、ステップ307の処理の結果に基づ
いて、排除されずに残った分類規則のそれぞれにつき、
各分類規則に含まれ、かつ現在処理されている分類クラ
スに属する正事例の数が算出される。
If the determination in step 308 is yes,
In step 309, based on the result of the processing in step 307, for each of the classification rules remaining without being excluded,
The number of positive cases included in each classification rule and belonging to the currently processed classification class is calculated.

【0053】ステップ310では、ステップ309の処
理の結果に基づいて、含まれる正事例の数が最大である
分類規則が、暫定分類規則として算出される。ここまで
の処理によって、現在処理されている分類クラスに対応
する分類規則が、その分類クラスに属し2つの正事例か
らなる代表的な正事例組に対応する暫定分類規則により
表現できたことになる。続いて、以下に示されるように
して、現在処理されている分類クラスに対応する分類規
則が、上述の2つの正事例にその分類クラスに属するも
う1つの正事例を加えて得られる3つの正事例からなる
代表的な正事例組に対応する暫定分類規則によって表現
される。
In step 310, the classification rule with the largest number of positive cases included is calculated as a provisional classification rule based on the result of the processing in step 309. By the processing up to this point, the classification rule corresponding to the currently processed classification class can be represented by the provisional classification rule corresponding to a representative positive case set that belongs to the classification class and consists of two positive cases. . Then, as shown below, the classification rule corresponding to the classification class currently being processed is obtained by adding three positive cases to the above two positive cases plus another positive case belonging to that classification class. It is expressed by a provisional classification rule corresponding to a typical positive case set consisting of cases.

【0054】まず、図3のステップ310に続き、図4
のステップ312では、現在処理されている分類クラス
に属する正事例であって、ステップ310で算出された
暫定分類規則に対応する複数個の正事例以外の正事例の
中から、所定数の任意の正事例が選択される。選択可能
な正事例の数が所定数に満たないときは、最大限選択可
能な個数の正事例が選択される。この選択された正事例
の個数をm個とする。そして、そのm個の正事例のそれ
ぞれとステップ310で算出された暫定分類規則とが組
み合わされることにより、m個の組が選択される。
First, following step 310 in FIG.
In step 312, a predetermined number of arbitrary positive cases belonging to the currently processed classification class and other than the plurality of positive cases corresponding to the provisional classification rule calculated in step 310 are selected. Positive cases are selected. When the number of selectable positive cases is less than the predetermined number, the maximum selectable number of positive cases is selected. The number of selected positive cases is m. Then, by combining each of the m positive cases with the provisional classification rule calculated in step 310, m sets are selected.

【0055】ステップ313では、ステップ312で選
択された正事例の数mが0であるか否か、即ち、現在処
理されている分類クラスにおいてこれ以上選択する正事
例がなくなったか否かが判定される。
In step 313, it is determined whether or not the number m of positive cases selected in step 312 is 0, that is, whether or not there are no more positive cases to be selected in the currently processed classification class. It

【0056】ステップ313の判定がYESの場合は、
ステップ314で、現在までに得られている暫定分類規
則が、現在処理されている分類クラスの1つの部分分類
規則として記憶された後に、後述する図6のステップ3
23の処理に移行し、現在処理されている分類クラスに
対応する分類規則の生成を終了する。
If the determination in step 313 is yes,
In step 314, the provisional classification rule obtained up to now is stored as one partial classification rule of the classification class currently processed, and then step 3 in FIG. 6 described later.
23, and the generation of the classification rule corresponding to the currently processed classification class ends.

【0057】ステップ313の判定結果がNOの場合に
は、ステップ315において、ステップ313で選択さ
れたm個の組のそれぞれについて、最小一般化処理が実
行される。この処理では、図8に示されるように、ま
ず、その組に含まれる正事例、即ち特徴パラメータ組と
その組に含まれる暫定分類規則とにつき、各特徴パラメ
ータf1 、f2 、・・・、fn に関するデータ値と下限
値の対(v1 、α1 )、(v2 、α2 )、・・・、(v
n 、αn )のそれぞれにおいて小さい方の値を下限値と
し、各特徴パラメータf1 、f2 、・・・、fn に関す
るデータ値と上限値の対(v1 、β1 )、(v2
β2 )、・・・、(vn 、βn )のそれぞれにおいて大
きい方の値を上限値とする各不等式が生成される。そし
て、それらの不等式の集合が、その組に対応する1つの
新たな分類規則として算出される。
If the decision result in the step 313 is NO, in a step 315, the minimum generalization process is executed for each of the m sets selected in the step 313. In this process, as shown in FIG. 8, first, with respect to the positive cases included in the set, that is, the feature parameter set and the provisional classification rules included in the set, the feature parameters f 1 , f 2 ,. , V n of the data value and the lower limit value (v 1 , α 1 ), (v 2 , α 2 ), ..., (v
n , α n ), the smaller value is set as the lower limit value, and a pair of data value and upper limit value (v 1 , β 1 ), (v for each of the feature parameters f 1 , f 2 , ..., F n ) 2 ,
β 2 ), ..., (V n , β n ), each inequality whose upper limit value is the larger value is generated. Then, the set of these inequalities is calculated as one new classification rule corresponding to the set.

【0058】ステップ316では、ステップ306と同
様に、ステップ315で算出された新たなm個の分類規
則のそれぞれに、負事例が含まれないか検査される。ス
テップ317では、ステップ307と同様に、ステップ
316の検査の結果に基づいて、負事例を1つでも含む
分類規則が排除される。
In step 316, similarly to step 306, it is checked whether or not each of the new m classification rules calculated in step 315 includes a negative case. In step 317, similarly to step 307, the classification rule including at least one negative case is excluded based on the result of the check in step 316.

【0059】ステップ318では、ステップ308と同
様に、ステップ317で排除されずに残った分類規則が
存在するか否かが判定される。ステップ318の判定が
NOの場合には、後述する図5のステップ321の処理
に移行し、現在処理されている分類クラスに対応する1
つの部分的な分類規則(後述する部分分類規則)の生成
を終了する。
In step 318, similarly to step 308, it is determined whether or not there is a classification rule that remains without being excluded in step 317. If the determination in step 318 is no, the process moves to step 321 in FIG. 5 described later, and 1 corresponding to the classification class currently processed.
The generation of one partial classification rule (a partial classification rule described later) is completed.

【0060】ステップ318の判定がYESの場合は、
ステップ319で、ステップ309と同様に、ステップ
317の処理の結果に基づき、排除されずに残った分類
規則のそれぞれについて、各分類規則に含まれ、かつ現
在処理されている分類クラスに属する正事例の数が算出
される。
If the determination in step 318 is yes,
In step 319, as in the case of step 309, based on the result of the processing of step 317, for each classification rule that remains unexcluded, a positive case included in each classification rule and belonging to the currently processed classification class. Is calculated.

【0061】ステップ320では、ステップ310と同
様に、ステップ318の処理の結果に基づいて、含まれ
る正事例の数が最大である分類規則が、新たな暫定分類
規則として算出される。
Similar to step 310, in step 320, the classification rule with the largest number of positive cases included is calculated as a new provisional classification rule, based on the result of the process of step 318.

【0062】ここまでの処理によって、現在処理されて
いる分類クラスに対応する分類規則が、その分類クラス
に属する3つの正事例からなる代表的な正事例組に対応
する分類規則によって、暫定的に表現できたことにな
る。
By the processing up to this point, the classification rule corresponding to the currently processed classification class is tentatively changed by the classification rule corresponding to the representative positive case set consisting of three positive cases belonging to the classification class. It can be expressed.

【0063】ステップ320の後はステップ312に戻
り、ステップ312〜320が繰り返されることによ
り、現在処理されている分類クラスを表現する暫定分類
規則の生成に使用される正事例の数を、逐次増加させて
ゆくことができる。この結果、現在処理されている分類
クラスが、より正確な暫定分類規則によって表現される
ことになる。
After step 320, the process returns to step 312, and steps 312 to 320 are repeated to sequentially increase the number of positive cases used for generating the provisional classification rule representing the classification class currently being processed. You can let it go. As a result, the currently processed classification class is represented by a more accurate provisional classification rule.

【0064】上述した図4のステップ312〜320の
一連の処理の繰返しの途中の処理であるステップ318
において、ステップ317によって排除されずに残った
分類規則が存在しないと判定された場合には、図5のス
テップ321の処理に移行する。
Step 318 which is a process in the middle of repeating the series of processes of steps 312 to 320 in FIG. 4 described above.
In the case where it is determined in step 317 that there is no classification rule that remains without being excluded, the process proceeds to step 321 of FIG.

【0065】この場合は、現在処理されている分類クラ
スに属する正事例のうち、ステップ317によって排除
された正事例は、それまでの暫定分類規則により表現す
ることが妥当ではない。そこで、ステップ317の直前
の処理までに得られている暫定分類規則に対する処理は
終了され、その暫定分類規則は、現在処理されている分
類クラスの1つの正式な分類規則(以下、部分分類規則
という。)とされる。そして、ステップ317で排除さ
れた正事例について、新たに別の部分分類規則が生成さ
れる。なお、このように1つの分類クラスについて2つ
以上の部分分類規則が生成された場合には、後述するよ
うに、これらの複数の部分分類規則の論理和をとって得
られる分類規則が、その分類クラスに対応する最終的な
分類規則107(図1)とされる。
In this case, of the positive cases belonging to the classification class currently being processed, the positive cases excluded in step 317 are not appropriate to be represented by the provisional classification rules up to that point. Therefore, the process for the provisional classification rule obtained up to the process immediately before step 317 is terminated, and the provisional classification rule is one formal classification rule (hereinafter, referred to as a partial classification rule) of the classification class currently being processed. It is said that. Then, another partial classification rule is newly generated for the positive case excluded in step 317. When two or more partial classification rules are generated for one classification class in this way, the classification rule obtained by taking the logical sum of these plural partial classification rules is as follows. The final classification rule 107 (FIG. 1) corresponding to the classification class is set.

【0066】上述の機能を実現するために、ステップ3
18の判定がNOとなって場合は、図5において、ま
ず、ステップ321で、ステップ317の直前の処理ま
でに得られている暫定分類規則が、現在処理されている
分類クラスの1つの部分分類規則として記憶される。
In order to realize the above function, step 3
If the determination in step 18 is NO, in FIG. 5, first, in step 321, the provisional classification rule obtained up to the processing immediately before step 317 is one partial classification of the classification class currently processed. Remembered as a rule.

【0067】次に、ステップ322で、現在処理されて
いる分類クラスに属している正事例の集合から、上述の
部分分類規則の生成に使用された正事例が除去される。
その後に、上述した図3のステップ303〜図5の32
2の処理が繰り返される。この結果、現在処理されてい
る分類クラスについて、1つ以上の部分分類規則を決定
することができる。
Next, in step 322, the positive cases used for generating the above partial classification rule are removed from the set of positive cases belonging to the classification class currently being processed.
After that, the above-described step 303 of FIG. 3 to 32 of FIG.
The process of 2 is repeated. As a result, one or more partial classification rules can be determined for the classification class currently being processed.

【0068】以上の繰返し処理において、図3のステッ
プ304又は図4のステップ313で、図3のステップ
303又は図4のステップ312で選択された正事例の
数mが0である、即ち、現在処理されている分類クラス
においてこれ以上選択する正事例がなくなったと判定さ
れた場合には、以下のようにして、現在処理されている
分類クラスに対応する分類規則の生成が終了させられ
る。
In the above iterative processing, the number m of positive cases selected in step 304 of FIG. 3 or step 313 of FIG. 4 in step 303 of FIG. 3 or step 312 of FIG. When it is determined that there are no more positive cases to be selected in the classification class being processed, the generation of the classification rule corresponding to the classification class currently being processed is terminated as follows.

【0069】まず、図3のステップ304でm=0であ
ると判定された場合は、そのまま、次に説明する図6の
ステップ323が実行される。また、図4のステップ3
13でm=0であると判定された場合は、ステップ31
4が実行された後に、ステップ323が実行される。ス
テップ314では、ステップ312の直前の処理までに
得られている暫定分類規則が、現在処理されている分類
クラスの最後の1つの部分分類規則として記憶される。
First, if it is determined in step 304 of FIG. 3 that m = 0, then step 323 of FIG. 6 described below is executed as it is. Also, step 3 in FIG.
If it is determined in step 13 that m = 0, step 31
After step 4 is executed, step 323 is executed. In step 314, the provisional classification rule obtained up to the processing immediately before step 312 is stored as the last one partial classification rule of the classification class currently being processed.

【0070】図6のステップ323では、現在処理され
ている分類クラスについて、その分類クラスに対応して
記憶されている1つ以上の部分分類規則の論理和をとっ
て得られる分類規則が、その分類クラスに対応する最終
的な分類規則107として図1の分類部108に出力さ
れる。なお、記憶されている部分分類規則の数が1つの
場合には、その部分分類規則がそのまま分類規則107
として出力される。
In step 323 of FIG. 6, for the classification class currently being processed, the classification rule obtained by taking the logical sum of one or more partial classification rules stored corresponding to that classification class is The final classification rule 107 corresponding to the classification class is output to the classification unit 108 in FIG. When the number of partial classification rules stored is one, the partial classification rule is directly used as the classification rule 107.
Is output as.

【0071】その後、ステップ324で、未だ処理され
ていない分類クラスがあるか否かが判定される。ステッ
プ324の判定がYESなら、図3のステップ302に
戻り、処理されていない分類クラスについて、上述した
一連の処理が実行され、その分類クラスに対応する分類
規則107が生成される。
Thereafter, in step 324, it is determined whether there is a classification class that has not been processed yet. If the determination in step 324 is YES, the process returns to step 302 in FIG. 3, and the series of processes described above is executed for the unprocessed classification class, and the classification rule 107 corresponding to that classification class is generated.

【0072】処理されていない分類クラスがなくなり、
ステップ324の判定がNOとなると、図1の帰納学習
部106いよる帰納学習処理を終了する。以上説明した
帰納学習処理により、学習用に与えられた皮膚表面を撮
像して得られる特徴パラメータ組104に対する分類規
則107を、自動的かつ精度良く生成することができ
る。 <帰納学習処理の具体的例の説明>図9〜図15は、特
徴パラメータ組104に対して実際に上述の帰納学習処
理を行うことにより生成される分類規則107の例を示
した図である。各図の(a)で示される入力データf1
6 が、前述した(1) 〜(13)として示した特徴パラメー
タに対応し、h(i) が分類クラスを示す。また、各図の
(b) として示される学習結果が、特徴パラメータ組10
4である入力データに対する分類規則107を示してい
る。
There are no unclassified classification classes,
When the determination in step 324 is NO, the induction learning process by the induction learning unit 106 in FIG. 1 ends. By the inductive learning process described above, the classification rule 107 for the feature parameter set 104 obtained by imaging the skin surface given for learning can be automatically and accurately generated. <Description of Specific Example of Induction Learning Process> FIGS. 9 to 15 are diagrams showing an example of the classification rule 107 generated by actually performing the above-described induction learning process on the feature parameter set 104. . Input data f 1 -shown in (a) of each figure
f 6 corresponds to the characteristic parameters shown as (1) to (13) described above, and h (i) indicates the classification class. Also, in each figure
The learning result shown as (b) is the feature parameter set 10
The classification rule 107 for the input data of 4 is shown.

【0073】ここで、記号「=>」は論理「ならば」を
示している。また、「Otherwise 」は、その記号の上の
何れの不等式も満たされない場合を示している。例えば
図9及び図10は、分類クラスとして人間の年代を選択
した場合に、自動的に生成される分類規則107の例を
示した図である。
Here, the symbol “=>” indicates the logic “if”. In addition, "Otherwise" indicates a case where none of the above inequalities is satisfied. For example, FIGS. 9 and 10 are diagrams showing an example of the classification rule 107 that is automatically generated when the human age is selected as the classification class.

【0074】なお、これらの図においては、特徴パラメ
ータ組104として、前述した皮溝パラメータ213及
び毛孔パラメータ215のほかに、分岐点の数(f5
及びしわの状態(f1 )というパラメータも使用されて
いる。前者は、図2に示される分岐点情報211の1つ
として与えることができ、後者は、所定の基準に基づく
人間の視察により与えることができる。
In these figures, as the characteristic parameter set 104, in addition to the skin groove parameter 213 and the pore parameter 215 described above, the number of branch points (f 5 )
The parameter of wrinkle state (f 1 ) is also used. The former can be given as one of the branch point information 211 shown in FIG. 2, and the latter can be given by a human inspection based on a predetermined standard.

【0075】図9(b) 及び図10(b) を図9(a) 及び図
10(a) と比較するとから理解されるように、適切な分
類規則107が自動的に生成されることがわかる。図1
1及び図12は、分類クラスとして毛孔の数を選択した
場合に、自動的に生成される分類規則107の例を示し
た図である。この場合には、特徴パラメータとして、毛
孔の数は当然用いられず、各皮膚表面画像102毎に、
年齢がマニュアル操作により入力される。この例によ
り、どの年齢のときに毛孔の数はどのくらいの数である
かを示すことができる。図13は、分類クラスとして毛
孔の深さを選択した場合に、自動的に生成される分類規
則107の例を示した図である。この場合は、特徴パラ
メータとして、毛孔の深さは当然用いられず、各皮膚表
面画像102毎に、年齢がマニュアル操作により入力さ
れる。この例により、どの年齢のときに毛孔の深さはど
のくらいであるかを示すことができる。
As can be seen from a comparison of FIGS. 9 (b) and 10 (b) with FIGS. 9 (a) and 10 (a), an appropriate classification rule 107 can be automatically generated. Recognize. Figure 1
1 and FIG. 12 are diagrams showing an example of the classification rule 107 that is automatically generated when the number of pores is selected as the classification class. In this case, the number of pores is not used as a characteristic parameter, and each skin surface image 102 is
The age is entered manually. This example can show at what age the number of pores is. FIG. 13 is a diagram showing an example of the classification rule 107 that is automatically generated when the depth of pores is selected as the classification class. In this case, the depth of the pores is not used as the characteristic parameter, and the age is manually input for each skin surface image 102. This example can show at what age the pore depth is.

【0076】図14は、分類クラスとして皮溝の深さを
選択した場合に、自動的に生成される分類規則107の
例を示した図である。この場合は、特徴パラメータとし
て、皮溝の深さは当然用いられず、各皮膚表面画像10
2毎に、年齢がマニュアル操作により入力される。この
例により、どの年齢のときに皮溝の深さはどのくらいで
あるかを示すことができる。
FIG. 14 is a diagram showing an example of the classification rule 107 which is automatically generated when the depth of the skin groove is selected as the classification class. In this case, the depth of the skin groove is not used as a characteristic parameter, and each skin surface image 10 is not used.
For each two, the age is manually input. This example can show at what age the depth of the sulcus is.

【0077】図15は、分類クラスとして皮溝の数を選
択した場合に、自動的に生成される分類規則107の例
を示した図である。この場合は、特徴パラメータとし
て、皮溝の数は当然用いられず、各皮膚表面画像102
毎に、年齢がマニュアル操作により入力される。この例
により、どの年齢のときに皮溝の深さはどのくらいであ
るかを示すことができる。 <分類部108の説明>分類部108の処理は非常に単
純であり、入力された特徴パラメータ組104の値の集
合を、帰納学習部106から設定された各分類規則10
7に当てはめることにより、特徴パラメータ組104の
値の集合を満足する分類規則107を抽出し、その分類
規則107に対応する分類クラスを、分類クラス認識結
果109として出力する。 <他の実施例>以上説明した実施例は、本発明を皮膚表
面を撮像して得られる皮膚表面画像102から抽出され
る特徴パラメータ組104に対して適用したものである
が、本発明はこれに限られるものではない。
FIG. 15 is a diagram showing an example of the classification rule 107 that is automatically generated when the number of skin grooves is selected as the classification class. In this case, the number of skin grooves is not used as a characteristic parameter, and each skin surface image 102 is not used.
Each time, the age is manually input. This example can show at what age the depth of the sulcus is. <Description of Classifying Unit 108> The process of the classifying unit 108 is very simple, and the set of values of the input characteristic parameter set 104 is used as the classification rule 10 set by the induction learning unit 106.
7, the classification rule 107 that satisfies the set of values of the characteristic parameter set 104 is extracted, and the classification class corresponding to the classification rule 107 is output as the classification class recognition result 109. <Other Embodiments> In the embodiments described above, the present invention is applied to the characteristic parameter set 104 extracted from the skin surface image 102 obtained by imaging the skin surface. It is not limited to.

【0078】例えば、本発明を、より様々なカテゴリー
の画像から抽出される特徴パラメータ組に対して適用す
ることができる。また、例えば、本発明を、音声分析に
より得られる音声に関する特徴パラメータ組、例えば線
形予測係数、PARCOR係数、LSP係数、或いは、
ケプストラム係数などの組、ホルマント周波数と振幅値
の組などの特徴パラメータ組に対して適用することがで
き、これにより、音声認識のための分類規則を生成する
こともできる。
For example, the present invention can be applied to feature parameter sets extracted from images in various categories. In addition, for example, according to the present invention, a feature parameter set relating to speech obtained by speech analysis, such as a linear prediction coefficient, a PARCOR coefficient, an LSP coefficient, or
It can be applied to a set of cepstral coefficients and the like, and a set of feature parameters such as a set of formant frequencies and amplitude values, which can also generate a classification rule for speech recognition.

【0079】更に、例えば、本発明を、皮膚表面レプリ
カを表面粗さ計を用いて触針により走査し、その結果得
られた起伏値信号から抽出される特徴パラメータ組に対
して適用することもできる。
Further, for example, the present invention can be applied to a feature parameter set extracted from the undulation value signal obtained by scanning a skin surface replica with a stylus using a surface roughness meter. it can.

【0080】このように、本発明は、様々な物理情報に
関する特徴パラメータ組の分類規則を自動的かつ精度良
く生成することができ、それにより精度のよい分類処理
(認識処理)を実現することができる。
As described above, according to the present invention, it is possible to automatically and accurately generate the classification rule of the characteristic parameter set relating to various physical information, and thereby to realize the accurate classification processing (recognition processing). it can.

【0081】[0081]

【発明の効果】本発明によれば、物理情報に対応する物
理情報、例えば皮膚表面の形状に関する特徴情報に基づ
いて、例えば撮像した皮膚表面の年代を分類するような
分類規則を自動的かつ精度良く生成することが可能とな
る。
According to the present invention, based on the physical information corresponding to the physical information, for example, the characteristic information on the shape of the skin surface, the classification rule for classifying the age of the imaged skin surface is automatically and accurately determined. It is possible to generate well.

【0082】この結果、専門家でなくとも、認識精度の
高い物理情報分類システムを実現することが可能とな
る。
As a result, even a non-specialist can realize a physical information classification system with high recognition accuracy.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の全体構成図である。FIG. 1 is an overall configuration diagram of an embodiment of the present invention.

【図2】特徴パラメータ抽出部の構成図である。FIG. 2 is a configuration diagram of a characteristic parameter extraction unit.

【図3】帰納学習処理の動作フローチャート(その1)
である。
FIG. 3 is an operation flowchart of induction learning processing (No. 1)
Is.

【図4】帰納学習処理の動作フローチャート(その2)
である。
FIG. 4 is an operation flowchart of induction learning processing (No. 2)
Is.

【図5】帰納学習処理の動作フローチャート(その3)
である。
FIG. 5 is an operation flowchart of induction learning processing (No. 3)
Is.

【図6】帰納学習処理の動作フローチャート(その4)
である。
FIG. 6 is an operation flowchart of induction learning processing (No. 4)
Is.

【図7】最小一般化処理の説明図(その1)である。FIG. 7 is an explanatory diagram (1) of the minimum generalization process.

【図8】最小一般化処理の説明図(その2)である。FIG. 8 is an explanatory diagram (2) of the minimum generalization process.

【図9】帰納学習処理の具体例(年代に関する分類規則
の生成の例その1)を示した図である。
FIG. 9 is a diagram showing a specific example of induction learning processing (example 1 of generation of classification rules relating to years).

【図10】帰納学習処理の具体例(年代に関する分類規
則の生成の例その2)を示した図である。
FIG. 10 is a diagram showing a specific example of induction learning processing (example 2 of generation of classification rule relating to age).

【図11】帰納学習処理の具体例(毛孔の数に関する分
類規則の生成の例その1)を示した図である。
FIG. 11 is a diagram showing a specific example of induction learning processing (example 1 of generation of a classification rule regarding the number of pores).

【図12】帰納学習処理の具体例(毛孔の数に関する分
類規則の生成の例その2)を示した図である。
FIG. 12 is a diagram showing a specific example of induction learning processing (example 2 of generation of a classification rule regarding the number of pores).

【図13】帰納学習処理の具体例(毛孔の深さに関する
分類規則の生成の例)を示した図である。
FIG. 13 is a diagram showing a specific example of induction learning processing (an example of generation of a classification rule relating to the depth of pores).

【図14】帰納学習処理の具体例(皮溝の深さに関する
分類規則の生成の例)を示した図である。
FIG. 14 is a diagram showing a specific example of induction learning processing (an example of generation of a classification rule regarding a skin groove depth).

【図15】帰納学習処理の具体例(皮溝の数に関する分
類規則の生成の例)を示した図である。
FIG. 15 is a diagram showing a specific example of induction learning processing (an example of generation of a classification rule regarding the number of skin grooves).

【符号の説明】[Explanation of symbols]

101 画像入力部 102 皮膚表面画像 103 特徴パラメータ抽出部 104 特徴パラメータ組 105 スイッチ部 106 帰納学習部 107 分類規則 108 分類部 109 分類クラス認識出力 201 フーリエ変換部 202 空間周波数データ 203 フィルタ処理部 204 逆フーリエ変換部 205 強調皮膚表面画像 206 2値化部 207 2値化皮膚表面画像 208 細線化部 209 細線化皮膚表面画像 210 分岐点抽出部 211 分岐点情報 212 皮溝パラメータ抽出部 213 皮溝パラメータ 214 毛孔パラメータ抽出部 215 毛孔パラメータ 101 image input unit 102 skin surface image 103 feature parameter extraction unit 104 feature parameter set 105 switch unit 106 induction learning unit 107 classification rule 108 classification unit 109 classification class recognition output 201 Fourier transform unit 202 spatial frequency data 203 filter processing unit 204 inverse Fourier Transforming unit 205 Emphasis skin surface image 206 Binarizing unit 207 Binarizing skin surface image 208 Thinning unit 209 Thinning skin surface image 210 Branching point extracting unit 211 Branching point information 212 Skin groove parameter extracting unit 213 Skin groove parameter 214 Pore Parameter extraction unit 215 Pore parameters

───────────────────────────────────────────────────── フロントページの続き (72)発明者 矢内 基裕 神奈川県横浜市港北区新羽町1050 株式会 社資生堂研究所内 (72)発明者 溝口 文雄 千葉県野田市山崎2641番地 東京理科大学 理工学部経営工学科内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Motohiro Yanai Motohiro Yanai 1050 Shinba-cho, Kohoku-ku, Yokohama, Kanagawa Shiseido Research Institute, Inc. (72) Fumio Mizoguchi 2641 Yamazaki, Noda, Chiba Tokyo University of Science Faculty of Engineering Within

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 物理情報から特徴情報を抽出する特徴情
報抽出手段と、 学習時に、複数の分類クラスのそれぞれに対応して、該
各分類クラスに属する複数の学習用の物理情報に対応す
る複数の特徴情報の集合を該各分類クラスに属する正事
例の集合として前記特徴情報抽出手段に抽出させ、該各
分類クラスに対応する分類規則であって、該各分類クラ
スに含まれる正事例を満たし該各分類クラス以外の分類
クラスに含まれる正事例を満たさない分類規則を、帰納
学習処理により生成する帰納学習手段と、 分類時に、入力される物理情報に対応する特徴情報を前
記特徴情報抽出手段に抽出させ、該特徴情報を前記帰納
学習手段によって生成された前記各分類クラスに対応す
る分類規則にあてはめることにより、前記入力される物
理情報が属する分類クラスを認識する分類手段と、 を有することを特徴とする帰納学習を用いた物理情報分
類装置。
1. A feature information extraction unit for extracting feature information from physical information, and a plurality of feature information extraction units that correspond to a plurality of classification classes at the time of learning and that correspond to a plurality of learning physical information belonging to the respective classification classes. The feature information extracting means extracts a set of characteristic information of the above as a set of positive cases belonging to each of the classification classes, and the classification rule corresponding to each of the classification classes is satisfied, and the positive cases included in each of the classification classes are satisfied. Inductive learning means for generating a classification rule that does not satisfy a positive case included in a classification class other than each of the classification classes by induction learning processing; and characteristic information corresponding to physical information input at the time of classification. To the input physical information by applying the feature information to the classification rule corresponding to each classification class generated by the induction learning means. Physical information classification apparatus using inductive learning, characterized in that it comprises a recognizing classification means the class class, the.
【請求項2】 複数の分類クラスのそれぞれに対応し
て、該各分類クラスに属する複数の学習用の物理情報に
対応する複数の特徴情報の集合を該各分類クラスに属す
る正事例の集合として抽出し、 該各分類クラスに対応する分類規則であって、該各分類
クラスに含まれる正事例を満たし該各分類クラス以外の
分類クラスに含まれる正事例を満たさない分類規則を、
帰納学習処理により生成する、 ことを特徴とする帰納学習を用いた物理情報分類規則生
成方法。
2. A set of a plurality of characteristic information items corresponding to a plurality of classification classes and corresponding to a plurality of learning physical information items belonging to each classification class is set as a set of positive cases belonging to each classification class. A classification rule corresponding to each of the classification classes, which satisfies the positive cases included in the classification classes and does not satisfy the positive cases included in the classification classes other than the classification classes,
A physical information classification rule generation method using inductive learning, which is generated by inductive learning processing.
【請求項3】 物理情報である画像情報から、画像的特
徴を示す特徴情報を抽出する特徴情報抽出手段と、 学習時に、複数の分類クラスのそれぞれに対応して、該
各分類クラスに属する複数の学習用の画像情報に対応す
る複数の特徴情報の集合を該各分類クラスに属する正事
例の集合として前記特徴情報抽出手段に抽出させ、該各
分類クラスに対応する分類規則であって、該各分類クラ
スに含まれる正事例を満たし該各分類クラス以外の分類
クラスに含まれる正事例を満たさない分類規則を、帰納
学習処理により生成する帰納学習手段と、 分類時に、入力される画像情報に対応する特徴情報を前
記特徴情報抽出手段に抽出させ、該特徴情報を前記帰納
学習手段によって生成された前記各分類クラスに対応す
る分類規則にあてはめることにより、前記入力される画
像情報が属する分類クラスを認識する分類手段と、 を有することを特徴とする帰納学習を用いた物理情報分
類装置。
3. A feature information extracting means for extracting feature information indicating an image feature from image information which is physical information, and a plurality of classes belonging to each class corresponding to each of the plurality of classes at the time of learning. A set of a plurality of feature information corresponding to the image information for learning is extracted by the feature information extraction means as a set of positive cases belonging to each of the classification classes, and a classification rule corresponding to each of the classification classes, An induction learning means for generating by induction learning processing a classification rule that satisfies the positive cases included in each classification class and does not satisfy the positive cases included in classification classes other than the respective classification classes, and the input image information at the time of classification. By causing the feature information extracting means to extract the corresponding feature information and applying the feature information to the classification rule corresponding to each of the classification classes generated by the induction learning means. Physical information classification apparatus using inductive learning characterized by having a recognizing classification means the classification class image information the input belongs.
【請求項4】 複数の分類クラスのそれぞれに対応し
て、該各分類クラスに属する複数の学習用の物理情報で
ある画像情報に対応し画像的特徴を示す複数の特徴情報
の集合を該各分類クラスに属する正事例の集合として抽
出し、 該各分類クラスに対応する分類規則であって、該各分類
クラスに含まれる正事例を満たし該各分類クラス以外の
分類クラスに含まれる正事例を満たさない分類規則を、
帰納学習処理により生成する、 ことを特徴とする帰納学習を用いた物理情報分類規則生
成方法。
4. A set of a plurality of feature information corresponding to each of a plurality of classification classes, which corresponds to a plurality of pieces of learning physical information belonging to each of the classification classes and which indicates an image feature, A positive case that is extracted as a set of positive cases belonging to a classification class and that satisfies the positive rules included in the respective classification classes and that is a classification rule corresponding to the respective classification classes and that is included in a classification class other than the respective classification classes Classification rules that do not meet
A physical information classification rule generation method using inductive learning, which is generated by inductive learning processing.
【請求項5】 皮膚表面を撮像した物理情報である画像
情報から、前記皮膚表面の形状に関する特徴情報を抽出
する特徴情報抽出手段と、 学習時に、複数の分類クラスのそれぞれに対応して、該
各分類クラスに属する複数の学習用の画像情報に対応す
る複数の特徴情報の集合を該各分類クラスに属する正事
例の集合として前記特徴情報抽出手段に抽出させ、該各
分類クラスに対応する分類規則であって、該各分類クラ
スに含まれる正事例を満たし該各分類クラス以外の分類
クラスに含まれる正事例を満たさない分類規則を、帰納
学習処理により生成する帰納学習手段と、 分類時に、入力される画像情報に対応する特徴情報を前
記特徴情報抽出手段に抽出させ、該特徴情報を前記帰納
学習手段によって生成された前記各分類クラスに対応す
る分類規則にあてはめることにより、前記入力される画
像情報が属する分類クラスを認識する分類手段と、 を有することを特徴とする帰納学習を用いた物理情報分
類装置。
5. A feature information extracting means for extracting feature information relating to the shape of the skin surface from image information which is physical information obtained by capturing an image of the skin surface, and in learning, corresponding to each of a plurality of classification classes, The feature information extracting means extracts a set of a plurality of feature information corresponding to a plurality of image information for learning belonging to each classification class as a set of positive cases belonging to each classification class, and a classification corresponding to each classification class. A rule, which is a rule that satisfies the positive cases included in the respective classification classes and does not satisfy the positive cases included in the classification classes other than the respective classification classes, by an induction learning means for generating by induction learning processing, and at the time of classification, The feature information corresponding to the input image information is extracted by the feature information extracting means, and the feature information is divided into parts corresponding to the respective classification classes generated by the induction learning means. By fitting the rule, physical information classification apparatus using inductive learning characterized by having a recognizing classification means the classification class image information the input belongs.
【請求項6】 複数の分類クラスのそれぞれに対応し
て、該各分類クラスに属する複数の学習用の皮膚表面を
撮像した物理情報である画像情報に対応し前記皮膚表面
の形状に関する複数の特徴情報の集合を該各分類クラス
に属する正事例の集合として抽出し、 該各分類クラスに対応する分類規則であって、該各分類
クラスに含まれる正事例を満たし該各分類クラス以外の
分類クラスに含まれる正事例を満たさない分類規則を、
帰納学習処理により生成する、 ことを特徴とする帰納学習を用いた物理情報分類規則生
成方法。
6. A plurality of features relating to the shape of the skin surface corresponding to each of the plurality of classification classes and corresponding to image information which is physical information obtained by imaging a plurality of learning skin surfaces belonging to each of the classification classes. A set of information is extracted as a set of positive cases belonging to each classification class, and the classification rules corresponding to each classification class satisfy the positive cases included in each classification class, and the classification classes other than each classification class Classification rules that do not satisfy the positive cases included in
A physical information classification rule generation method using inductive learning, which is generated by inductive learning processing.
【請求項7】 前記特徴情報抽出手段は、外部から与え
られた情報を前記特徴情報の1つとして出力する、 ことを特徴とする請求項1乃至6の何れか1項に記載の
帰納学習を用いた物理情報分類装置又は帰納学習を用い
た物理情報分類規則生成方法。
7. The induction learning according to any one of claims 1 to 6, wherein the feature information extraction means outputs information given from the outside as one of the feature information. A physical information classification device used or a physical information classification rule generation method using inductive learning.
JP5238287A 1993-09-24 1993-09-24 Physical information sorting device using inductive learning and physical information sorting rule generation method using inductive learning Withdrawn JPH0793549A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5238287A JPH0793549A (en) 1993-09-24 1993-09-24 Physical information sorting device using inductive learning and physical information sorting rule generation method using inductive learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5238287A JPH0793549A (en) 1993-09-24 1993-09-24 Physical information sorting device using inductive learning and physical information sorting rule generation method using inductive learning

Publications (1)

Publication Number Publication Date
JPH0793549A true JPH0793549A (en) 1995-04-07

Family

ID=17027953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5238287A Withdrawn JPH0793549A (en) 1993-09-24 1993-09-24 Physical information sorting device using inductive learning and physical information sorting rule generation method using inductive learning

Country Status (1)

Country Link
JP (1) JPH0793549A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187251A (en) * 2001-10-01 2003-07-04 L'oreal Sa Feature extraction in beauty analysis
JP2004121696A (en) * 2002-10-07 2004-04-22 Pola Chem Ind Inc Judging method for tendency of cosmetic smear
JP2009082736A (en) * 2009-01-09 2009-04-23 Kao Corp Method of analysis for skin texture
JP2010148713A (en) * 2008-12-25 2010-07-08 Kao Corp Image processor, image processing method, and program
JP2014120005A (en) * 2012-12-17 2014-06-30 Shiseido Co Ltd Skin shape generation device, skin shape generation method, and skin shape generation program
EP4216153A4 (en) * 2020-09-17 2024-04-03 Hiroshima University Skin surface analysis device and skin surface analysis method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003187251A (en) * 2001-10-01 2003-07-04 L'oreal Sa Feature extraction in beauty analysis
US7324668B2 (en) 2001-10-01 2008-01-29 L'oreal S.A. Feature extraction in beauty analysis
JP2004121696A (en) * 2002-10-07 2004-04-22 Pola Chem Ind Inc Judging method for tendency of cosmetic smear
JP2010148713A (en) * 2008-12-25 2010-07-08 Kao Corp Image processor, image processing method, and program
JP2009082736A (en) * 2009-01-09 2009-04-23 Kao Corp Method of analysis for skin texture
JP2014120005A (en) * 2012-12-17 2014-06-30 Shiseido Co Ltd Skin shape generation device, skin shape generation method, and skin shape generation program
EP4216153A4 (en) * 2020-09-17 2024-04-03 Hiroshima University Skin surface analysis device and skin surface analysis method

Similar Documents

Publication Publication Date Title
CN109800824B (en) Pipeline defect identification method based on computer vision and machine learning
CN1258733C (en) Method for recognizing human its using Daubechies wavelet transform
CN111401372B (en) Method for extracting and identifying image-text information of scanned document
Nedzved et al. Morphological segmentation of histology cell images
US8879847B2 (en) Image processing device, method of controlling image processing device, and program for enabling computer to execute same method
CN108681737B (en) Method for extracting image features under complex illumination
CN106228528B (en) A kind of multi-focus image fusing method based on decision diagram and rarefaction representation
CN108537751B (en) Thyroid ultrasound image automatic segmentation method based on radial basis function neural network
JP7130905B2 (en) Fast and Robust Dermatoglyphic Mark Minutia Extraction Using Feedforward Convolutional Neural Networks
JP2008517352A (en) Non-contact optical means and 3D fingerprint recognition method
CN106022223B (en) A kind of higher-dimension local binary patterns face identification method and system
JP2012208597A (en) Pattern identification device, pattern identification method and program
CN112883824A (en) Finger vein feature recognition device for intelligent blood sampling and recognition method thereof
JPH0793549A (en) Physical information sorting device using inductive learning and physical information sorting rule generation method using inductive learning
CN106295478A (en) A kind of image characteristic extracting method and device
CN110443790B (en) Cartilage identification method and system in medical image
CN108960285B (en) Classification model generation method, tongue image classification method and tongue image classification device
EP3137895A1 (en) Method and apparatus for processing block to be processed of urine sediment image
Raheja et al. Edge detection using ant colony optimization under novel intensity mapping function and weighted adaptive threshold
US7136515B2 (en) Method and apparatus for providing a binary fingerprint image
Prakram et al. EVALUATION OF IMPROVED FUZZY INFERENCE SYSTEM TO PRESERVE IMAGE EDGE FOR IMAGE ANALYSIS.
Okarma et al. A Hybrid Method for Objective Quality Assessment of Binary Images
Manchanda et al. An improved multifocus image fusion algorithm using deep learning and adaptive fuzzy filter
Mariani Subpixellic eyes detection
Zeng et al. Underwater image target detection with cascade classifier and image preprocessing method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20001128