JP2009250722A - Defect learning apparatus, defect learning method and computer program - Google Patents

Defect learning apparatus, defect learning method and computer program Download PDF

Info

Publication number
JP2009250722A
JP2009250722A JP2008097459A JP2008097459A JP2009250722A JP 2009250722 A JP2009250722 A JP 2009250722A JP 2008097459 A JP2008097459 A JP 2008097459A JP 2008097459 A JP2008097459 A JP 2008097459A JP 2009250722 A JP2009250722 A JP 2009250722A
Authority
JP
Japan
Prior art keywords
data
learning model
learning
feature amount
species
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008097459A
Other languages
Japanese (ja)
Other versions
JP5211810B2 (en
Inventor
Takamichi Kobayashi
尊道 小林
Shunichi Kaneko
俊一 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP2008097459A priority Critical patent/JP5211810B2/en
Publication of JP2009250722A publication Critical patent/JP2009250722A/en
Application granted granted Critical
Publication of JP5211810B2 publication Critical patent/JP5211810B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the determination performance of defects more than before, regarding a defect learning apparatus, defect learning method and computer program. <P>SOLUTION: As for feature quantities f1-f50 of a first group, a learning model A is formed, by generating a plurality of partial feature quantity spaces for associating the group of values of the feature quantities f1-f50 of the first group with defect types "C1" and "C2". Next, the learning model A is applied to each of the data of feature quantities f51-f100 of a second group. As a result, out of the data of the feature quantities f51-f100 of the second group, the defect data, for which the learning model A cannot specify the defect type "C1" or "C2", are defined as discard class data. In the feature quantities for which the learning model A cannot specify the defect type "C1" or "C2", a learning model B is formed, by generating a plurality of partial feature quantity spaces for associating the group of the values of the feature quantity with the defect types "C1" and "C2". <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、疵学習装置、疵学習方法、及びコンピュータプログラムに関し、特に、疵検査対象物を画像化して疵検査を行うために用いて好適なものである。   The present invention relates to a wrinkle learning device, a wrinkle learning method, and a computer program, and is particularly suitable for imaging a wrinkle inspection object and performing a wrinkle inspection.

例えば、鋼板等の製造ラインにおいては、有害な疵が被圧延材に生じてしまうことがある。このため、被圧延材の表面を照明して得られる反射光を検知して撮像することにより得られた画像を処理して疵候補の画像について特徴量を抽出し、抽出した特徴量に基づいて、被圧延材に生じている有害な疵の有無及び種類等を検査することが行われている。特徴量には、疵の長さ・幅・面積等の寸法的な特徴量と、円形度・アスペクト比(縦横比)等の形状的な特徴量と、疵部の画像濃度の平均値・最小値・最大値等の濃淡的な特徴量等がある。このような特徴量を画像から抽出することによって、疵の種類や等級(評点)等を判別することができる。
特許文献1には、前述したようにして抽出した特徴量に対し、ニューラルネットワークによる認識法を適用して形状の大分類を行った後、更に決定木による認証法を適用して形状毎に再分類を行うことが記載されている。
For example, in production lines such as steel plates, harmful wrinkles may occur in the material to be rolled. For this reason, the image obtained by detecting and imaging the reflected light obtained by illuminating the surface of the material to be rolled is processed to extract the feature amount for the image of the cocoon candidate, and based on the extracted feature amount Inspecting the presence and type of harmful flaws occurring in the material to be rolled is performed. Features include dimensional features such as heel length, width, and area, geometric features such as roundness and aspect ratio (aspect ratio), and average and minimum image density of the heel. There are light and dark feature values such as value and maximum value. By extracting such feature amounts from the image, it is possible to determine the type, grade (score), and the like of the bag.
In Patent Document 1, a feature classification extracted as described above is applied to a shape classification by applying a recognition method using a neural network, and an authentication method using a decision tree is further applied for each feature. The classification is described.

特開平5−280959号公報Japanese Patent Laid-Open No. 5-280959

しかしながら、特許文献1に記載の技術では、決定木(ツリー)の各ノードにおいて予め設定されている閾値と、入力した画像の特徴量とを比較し、その結果に基づいて進路を選択してゆき、ツリーの終端に着いたらそこに対応するカテゴリーに疵を分類するようにしている。
このように、特許文献1に記載の技術では、画像に表されている疵は、ツリーで予め定められた判別条件に従って何れかのクラスに分類されることになる。したがって、疵の判別性能を高めるために判別条件を細かく設定すると処理に時間を要し、判別条件を粗く設定すると疵の判別性能が低下することになるが、疵は多種多様な形態で存在するので、判別条件を適切に設定するのは困難である。よって、特許文献1に記載の技術では、多種多様な形態で存在する疵の判別性能を高めることが困難であるという問題点があった。
However, in the technique described in Patent Document 1, the threshold value set in advance in each node of the decision tree (tree) is compared with the feature amount of the input image, and the course is selected based on the result. When we reach the end of the tree, we are going to categorize it into the corresponding category.
As described above, in the technique described in Patent Document 1, the wrinkles represented in the image are classified into one of the classes according to the determination condition predetermined in the tree. Therefore, if the discrimination conditions are set finely in order to improve the discrimination performance of wrinkles, it takes time to process, and if the discrimination conditions are set coarsely, the discrimination performance of wrinkles will deteriorate, but there are various forms of hail Therefore, it is difficult to set the discrimination condition appropriately. Therefore, the technique described in Patent Document 1 has a problem that it is difficult to improve the discrimination performance of wrinkles existing in various forms.

本発明はこのような問題点に鑑みてなされたものであり、疵の判別性能を従来よりも向上させることを目的とする。   The present invention has been made in view of such problems, and an object thereof is to improve the discrimination performance of wrinkles as compared with the conventional art.

本発明の疵学習装置は、検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得手段と、前記取得手段により取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別手段と、前記第1の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成手段と、前記取得手段により取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成手段により生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出手段と、前記抽出手段により各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出手段により各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定手段と、前記判定手段によりクラスを特定することができないと判定されると、前記抽出手段により抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別手段と、前記第2の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成手段とを有することを特徴とする。   The wrinkle learning apparatus according to the present invention includes wrinkle data that includes wrinkle-related feature amounts from an image of an inspection object, and wrinkle data acquired by the acquisition means, wherein And a first determination unit that determines a combination of feature value values that can separate the plurality of species, and a feature amount determined to be capable of separating the plurality of species by the first determination unit. First generation means for generating a learning model from a partial feature amount space for associating a set of values with the plurality of soot seeds, and soot data obtained by the obtaining means, which has already been used Extraction means for arranging bag data different from the data in a plurality of partial feature amount spaces generated by the first generation unit, and extracting data of a kind corresponding to the bag data from each partial feature amount space; In the extraction means The ratio of the number of specific types of data extracted from each partial feature amount space by the extraction means to the total number of types of data extracted from each partial feature amount space is compared with a threshold, Corresponding to the data of the species extracted by the extraction unit when the determination unit determines whether or not the class related to the species can be specified, and the determination unit determines that the class cannot be specified Second determination means for determining a combination of feature value values capable of separating the plurality of soot species, using the soot data in the plurality of soot types as rejection class data, A second generation unit that generates a learning model from a partial feature amount space for associating a set of feature value values determined to be able to separate a plurality of species with the plurality of species; The Characterized in that it.

本発明の疵学習方法は、検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得ステップと、前記取得ステップにより取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別ステップと、前記第1の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成ステップと、前記取得ステップにより取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成ステップにより生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出ステップと、前記抽出ステップにより各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出ステップにより各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定ステップと、前記判定ステップによりクラスを特定することができないと判定されると、前記抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別ステップと、前記第2の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成ステップとを有することを特徴とする。   The wrinkle learning method of the present invention includes an acquisition step of acquiring wrinkle data including a feature amount related to a wrinkle from an image of an inspection object, and wrinkle data acquired by the acquisition step, wherein the wrinkle data in a plurality of types Using the first determination step of determining a combination of feature value values that can separate the plurality of species, and the feature amount determined to be capable of separating the plurality of species by the first determination step. A first generation step for generating a learning model from a partial feature space for associating a set of values with the plurality of types, and the selection data acquired by the acquisition step, The soot data different from the data is arranged in the plurality of partial feature amount spaces generated by the first generation step, and the soot type data corresponding to the soot data is extracted from each partial feature amount space. A ratio of the number of specific types of data extracted from each partial feature amount space by the extraction step to the total number of types of data extracted from each partial feature amount space by the extraction step; A determination step for comparing the threshold value to determine whether or not the class relating to the species can be specified, and if it is determined by the determination step that the class cannot be specified, the extraction step extracts A second data for identifying a combination of feature value values that can separate the plurality of species using the species data of the plurality of species as the rejection class data. A set of feature values determined to be capable of separating a plurality of species by the discrimination step and the second discrimination step are associated with the plurality of species. Wherein the the partial feature space and a second generation step of generating a learning model.

本発明のコンピュータプログラムは、検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得ステップと、前記取得ステップにより取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別ステップと、前記第1の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成ステップと、前記取得ステップにより取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成ステップにより生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出ステップと、前記抽出ステップにより各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出ステップにより各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定ステップと、前記判定ステップによりクラスを特定することができないと判定されると、前記抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別ステップと、前記第2の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成ステップとをコンピュータに実行させることを特徴とする。   The computer program of the present invention includes an acquisition step of acquiring wrinkle data including a feature amount related to wrinkles from an image of an inspection object, and wrinkle data acquired by the acquisition step, wherein wrinkle data in a plurality of types And a first determination step for determining a combination of feature value values capable of separating the plurality of species, and a feature value determined to be capable of separating the plurality of species by the first determination step. A first generation step of generating a learning model from a partial feature amount space for associating a set of a plurality of species with the plurality of species, and the cocoon data acquired by the acquisition step,疵 data different from the 疵 data are arranged in the plurality of partial feature amount spaces generated by the first generation step, and the varieties of data corresponding to the 疵 data from each partial feature amount space are arranged. The number of specific types of data extracted from each partial feature amount space by the extraction step with respect to the total number of species data extracted from each partial feature amount space by the extraction step. A step of determining whether or not a class relating to the species can be specified by comparing the ratio of the ratio and a threshold value, and if it is determined that the class cannot be specified by the determination step, the extraction疵 data corresponding to the species data extracted in the step, and using the 疵 data in multiple species as rejection class data, discriminating combinations of feature values that can separate the multiple species A set of feature values determined to be able to separate a plurality of species by the second discrimination step, and the plurality of species Characterized in that to execute a second generation step of generating a learning model from the partial feature space for attaching respond to computer.

本発明によれば、疵に関する特徴量を含む疵データを部分特徴量空間(学習モデル)に配置して、当該疵データに対応する疵種のデータを複数の部分特徴量空間の夫々から抽出し、抽出した疵種のデータの総数に対する、抽出した特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する。この判定の結果、クラスを特定することができないと判定されると、抽出した疵種のデータに対応する疵データを棄却クラスのデータとし、その疵データを用いて部分特徴量空間(学習モデル)を生成する。したがって、学習モデルを強化することができ、疵の判別性能を従来よりも向上させることができる。   According to the present invention, cocoon data including a feature quantity related to cocoon is arranged in a partial feature quantity space (learning model), and cocoon data corresponding to the cocoon data is extracted from each of a plurality of partial feature quantity spaces. Then, the ratio of the number of the extracted specific species data to the total number of the extracted species data is compared with the threshold value to determine whether or not the class relating to the species can be identified. If it is determined that the class cannot be specified as a result of this determination, the defect data corresponding to the extracted defect data is set as the rejection class data, and the partial feature space (learning model) is used by using the defect data. Is generated. Therefore, the learning model can be strengthened, and the wrinkle discrimination performance can be improved as compared with the prior art.

(第1の実施形態)
以下、図面を参照しながら、本発明の第1の実施形態を説明する。
図1は、表面疵検査システムの概略構成の一例を示した図である。尚、本実施形態では、図1に示すように、疵検査を行う疵検査対象物として、ワークロール7a、中間ロール7b、及びバックアップロール7cを備えた仕上圧延機7で仕上圧延された後の帯状鋼板1を例に挙げて説明する。また、以下の説明では、帯状鋼板1を鋼板1と略称する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a schematic configuration of a surface defect inspection system. In addition, in this embodiment, as shown in FIG. 1, after finishing rolling by the finishing mill 7 provided with the work roll 7a, the intermediate roll 7b, and the backup roll 7c as a wrinkle inspection object which performs a wrinkle inspection. The strip steel plate 1 will be described as an example. Moreover, in the following description, the strip steel plate 1 is abbreviated as a steel plate 1.

図1において、鋼板1は、搬送ロール2a〜2cによって、鋼板1の長手方向(図1の矢印の方向)に搬送(移動)される。また、搬送ロール2a〜2cの回転は、夫々ロータリーエンコーダ3により検出されるようにしている。
このような圧延鋼板製造ラインに設置される表面疵検査システムは、照明装置4と、撮像装置5と、疵判定装置6と、疵学習装置9とを有している。
In FIG. 1, the steel plate 1 is conveyed (moved) in the longitudinal direction of the steel plate 1 (the direction of the arrow in FIG. 1) by the conveying rolls 2a to 2c. Further, the rotation of the transport rolls 2a to 2c is detected by the rotary encoder 3, respectively.
The surface wrinkle inspection system installed in such a rolled steel sheet production line includes a lighting device 4, an imaging device 5, a wrinkle determination device 6, and a wrinkle learning device 9.

照明装置4は、例えばハロゲンランプ等、好ましくは高い輝度を有する光を出射する発光部と、集光レンズ等の集光部とを有する。ハロゲンランプ等から出射される光が集光部で線状に集光されることにより、鋼板1の表面がその幅方向で線状に照明される。尚、本実施形態では、鋼板1の幅方向の全てが確実に線状に照明されるように、鋼板1の幅方向の長さよりも長い線状の光束を照明装置4が照射するようにしている。   The illuminating device 4 includes, for example, a light emitting unit that emits light having high luminance, such as a halogen lamp, and a condensing unit such as a condensing lens. The light emitted from the halogen lamp or the like is condensed linearly by the condensing unit, so that the surface of the steel plate 1 is illuminated linearly in the width direction. In the present embodiment, the illuminating device 4 irradiates a linear light beam longer than the length in the width direction of the steel plate 1 so that the entire width direction of the steel plate 1 is surely illuminated in a linear shape. Yes.

撮像装置5は、照明装置4により照明された鋼板1の疵検査範囲を撮像して画像信号を生成する機能を有している。撮像装置5は、図1に示すように照明装置4に鋼板1の疵検査範囲を挟んで対向する位置、すなわち、照明装置4から照射され、鋼板1に当たって反射される光の光路上に配置される。この撮像装置5は、画像をフレーム単位で読み取るエリアカメラ(センサ)と、画像をライン単位で読み取るラインカメラ(センサ)との何れであってもよく、又CCD撮像素子やCMOS撮像素子等のカメラでも良い。また、撮像画像は、白黒濃淡画像とカラー画像との何れであってもよい。
ここでは、撮像装置5として、白黒濃淡画像を出力するラインカメラを使用した場合を例として挙げて説明する。具体的に撮像装置5は、鋼板1の幅方向に細長い疵検査範囲の濃淡画像を撮像し、例えば白黒256階調の情報を撮像画像として出力するものとする。
The imaging device 5 has a function of capturing an image inspection range of the steel plate 1 illuminated by the illumination device 4 and generating an image signal. As shown in FIG. 1, the imaging device 5 is disposed at a position facing the illumination device 4 across the wrinkle inspection range of the steel plate 1, that is, on an optical path of light irradiated from the illumination device 4 and reflected by the steel plate 1. The The imaging device 5 may be either an area camera (sensor) that reads an image in frame units or a line camera (sensor) that reads an image in line units, or a camera such as a CCD image sensor or a CMOS image sensor. But it ’s okay. The captured image may be either a black and white gray image or a color image.
Here, the case where a line camera that outputs a monochrome grayscale image is used as the imaging device 5 will be described as an example. Specifically, the imaging device 5 captures a grayscale image of a wrinkle inspection range that is elongated in the width direction of the steel plate 1, and outputs, for example, black and white 256 gradation information as a captured image.

移動する鋼板1の表面を、所定の空間分解能で隙間なく連続して撮像装置5が撮像できるように、ロータリーエンコーダ3は、鋼板1の搬送速度に応じた制御タイミング信号(パルス信号)を撮像装置5に出力する。撮像装置5は、このロータリーエンコーダ3から出力される制御タイミング信号に従って、撮像と撮像画像の転送とを繰り返す。   The rotary encoder 3 outputs a control timing signal (pulse signal) according to the conveying speed of the steel plate 1 so that the imaging device 5 can continuously capture the surface of the moving steel plate 1 with a predetermined spatial resolution without any gap. 5 is output. The imaging device 5 repeats imaging and transfer of the captured image according to the control timing signal output from the rotary encoder 3.

疵判定装置6及び疵学習装置9は、例えばPC(Personal Computer)である。疵判定装置6及び疵学習装置9は、CPU、ROM、RAM、ハードディスク、キーボードやマウスからなるユーザインターフェース、及びデータ入出力制御装置等を有している。尚、CPU、ROM、RAM、ハードディスク、ユーザインターフェース、及びデータ入出力制御装置は、夫々通信バスに接続されており、互いに通信することが可能である。また、本実施形態では、疵判定装置6及び疵学習装置9は、例えばLAN(Local Area Network)を介して、通信可能に相互に接続されているものとする。   The wrinkle determination device 6 and the wrinkle learning device 9 are, for example, PCs (Personal Computers). The eyelid determination device 6 and the eyelid learning device 9 include a CPU, ROM, RAM, hard disk, user interface including a keyboard and a mouse, a data input / output control device, and the like. The CPU, ROM, RAM, hard disk, user interface, and data input / output control device are each connected to a communication bus and can communicate with each other. In this embodiment, it is assumed that wrinkle determination device 6 and wrinkle learning device 9 are connected to each other so as to be communicable via, for example, a LAN (Local Area Network).

疵判定装置6の記憶媒体の一つであるハードディスクには、後述するようにして疵種の判別(疵検査)を行うための疵検用アプリケーションプログラムや、その疵検用アプリケーションプログラムで使用されるデータが記憶されている。この他、疵判定装置6のハードディスクには、撮像装置5で撮像され、データ入出力制御装置で処理された画像データ等も記憶される。ここで、データ入出力制御装置は、撮像装置5から出力されたライン毎の画像データを、例えば、2048(幅)×512(長さ)の画素数を有する画像データに構成する処理を行って、RAMに転送する。尚、ここでは、説明の便宜上、1画素は、鋼板1の表面の1mm×1mmの領域の撮像画像を表すものとする。すなわち、2048(幅)×512(長さ)の画素数で構成される画像は、鋼板1の幅が2048mm、長さが512mmの範囲の撮像画像を表すものとする。   The hard disk, which is one of the storage media of the eyelid determination device 6, is used in an inspection application program for determining the type of eyelids (an eyelid inspection) and the application program for the inspection as will be described later. Data is stored. In addition, the hard disk of the eyelid determination device 6 also stores image data captured by the imaging device 5 and processed by the data input / output control device. Here, the data input / output control device performs processing for configuring the image data for each line output from the imaging device 5 into, for example, image data having the number of pixels of 2048 (width) × 512 (length). , Transfer to RAM. Here, for convenience of explanation, one pixel represents a captured image of a 1 mm × 1 mm region on the surface of the steel plate 1. That is, an image composed of 2048 (width) × 512 (length) pixels represents a captured image having a width of 2048 mm and a length of 512 mm of the steel plate 1.

疵学習装置9の記憶媒体の一つであるハードディスクには、疵判定装置6で疵検査を行うための判別モデル(学習モデル)を生成・更新するための疵学習用アプリケーションプログラムや、その疵学習用アプリケーションプログラムで使用されるデータが記憶されている。また、疵学習装置9のハードディスクには、後述するようにして疵判定装置6で得られた"疵に関する1つ又は複数の特徴量を含む疵データ"等も記憶される。疵判定装置6は、疵学習装置9で得られた、最新の学習モデルを入力しこの学習モデルに従って疵検査を行う。前述したように、特徴量としては、例えば、疵の長さ・幅・面積等の寸法的な特徴量と、円形度・アスペクト比(縦横比)等の形状的な特徴量と、疵部の画像濃度の平均値・最小値・最大値等の濃淡的な特徴量等がある。   On the hard disk, which is one of the storage media of the heel learning device 9, a heel learning application program for generating and updating a discrimination model (learning model) for performing the heel inspection by the heel determination device 6, and its heel learning Data used in the application program is stored. In addition, the hard disk of the wrinkle learning device 9 also stores “haze data including one or a plurality of feature amounts related to wrinkles” obtained by the wrinkle determination device 6 as described later. The wrinkle determination device 6 inputs the latest learning model obtained by the wrinkle learning device 9 and performs a wrinkle inspection according to the learning model. As described above, as the feature amount, for example, a dimensional feature amount such as the length, width, and area of the heel, a shape feature amount such as a circularity, an aspect ratio (aspect ratio), and the like, There are shaded features such as the average value, minimum value, and maximum value of image density.

疵判定装置6、疵学習装置9のCPU等は、ユーザインターフェースのユーザによる操作等に基づいて、疵検用アプリケーションプログラム、疵学習用アプリケーションプログラムを起動する。そして、CPU等は、疵検用アプリケーションプログラム、疵学習用アプリケーションプログラムを実行して、疵検査、学習モデルの生成・更新を行うための処理を実行する。
表示装置8、10は、例えばLCD(Liquid Crystal Display)等を備えており、疵判定装置6、疵学習装置9により実行された処理に基づく画像を表示するためのものである。
尚、図1では、鋼鈑1の一面についてのみ疵検査を行う場合を示しているが、実際には、鋼鈑1の他面についても疵検査を行うようにする。
The CPU and the like of the wrinkle determination device 6 and the wrinkle learning device 9 activate the flaw detection application program and the wrinkle learning application program based on the operation of the user interface by the user. Then, the CPU or the like executes an inspection application program and an eyelid learning application program to execute processes for performing eyelid inspection and learning model generation / update.
The display devices 8 and 10 include, for example, an LCD (Liquid Crystal Display) and the like, and are for displaying images based on the processes executed by the eyelid determination device 6 and the eyelid learning device 9.
Although FIG. 1 shows the case where only one surface of the steel sheet 1 is subjected to the defect inspection, in practice, the other surface of the steel sheet 1 is also subjected to the defect inspection.

図2は、疵判定装置6が有する機能構成の一例を示すブロック図である。
図2において、画像入力部21は、撮像装置5で撮像されたライン毎の画像データを入力し、連続して入力した複数のライン毎の画像データ(2048×1画素)を用いて、例えば、2048(幅)×512(長さ)の画素数を有する画像データを構成する。そして、画像入力部21は、その画像データをRAMに記憶する。
画像入力部21は、例えば、疵判定装置6が有するデータ入出力制御装置を用いることにより実現される。
FIG. 2 is a block diagram illustrating an example of a functional configuration of the wrinkle determination device 6.
In FIG. 2, the image input unit 21 inputs image data for each line imaged by the imaging device 5, and uses, for example, image data (2048 × 1 pixel) for a plurality of lines continuously input, for example, Image data having the number of pixels of 2048 (width) × 512 (length) is configured. Then, the image input unit 21 stores the image data in the RAM.
The image input unit 21 is realized by using, for example, a data input / output control device included in the eyelid determination device 6.

シェーディング補正部22は、画像入力部21で得られた画像データの全体が一様な明るさになるように、その画像データに対して、シェーディング補正を行う。そして、シェーディング補正部22は、シェーディング補正を行った画像データを、RAM(記憶媒体)に記憶する。
シェーディング補正部22は、例えば、情報処理装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。
The shading correction unit 22 performs shading correction on the image data so that the entire image data obtained by the image input unit 21 has uniform brightness. Then, the shading correction unit 22 stores the image data subjected to the shading correction in a RAM (storage medium).
The shading correction unit 22 is realized by using, for example, the CPU, ROM, RAM, and hard disk of the information processing apparatus 6.

二値化部23は、シェーディング補正が行われた画像データに対して、二値化処理を行う。具体的に説明すると、二値化部29は、例えば、シェーディング補正が行われた画像データの各画素の値が、ハードディスク等に予め設定された閾値よりも大きいか否かを判定する。そして、閾値よりも大きい画素の値を「1」、そうでない画素の値を「0」にして、画素の値(輝度値)として「0」か「1」しか持たない2値画像を生成する。
二値化部23は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。
The binarization unit 23 performs binarization processing on the image data that has undergone shading correction. Specifically, for example, the binarization unit 29 determines whether or not the value of each pixel of the image data subjected to the shading correction is larger than a threshold set in advance in the hard disk or the like. Then, the value of the pixel larger than the threshold is set to “1”, the value of the other pixel is set to “0”, and a binary image having only “0” or “1” as the pixel value (luminance value) is generated. .
The binarization part 23 is implement | achieved by using CPU, ROM, RAM, and a hard disk of the wrinkle determination apparatus 6, for example.

ラベリング/特徴量計算部24は、二値化部23により得られた2値画像に対してラベリング処理及び特徴量計算を行い、疵候補を抽出する。ここで、ラベリング処理とは、特徴量計算の前に行う処理であり、2値画像中において単一の図形又は幾何的に連結して一つの塊となっている図形(連結図形)毎に、異なった番号(ラベル)を割り当てる処理である。
また、特徴量計算(特徴抽出)とは、図形の形状に関する特徴量を求める処理である。この特徴量計算で求める特徴量は、例えば、「疵候補に外接する長方形の幅・長さ・長さと幅の比(アスペクト比)・面積・円形度・最大長・周囲長」、及び「疵候補の輝度分布(輝度の平均値・最小値・最大値等)」等の中から選択される1又は2以上の組み合わせである。ラベリング/特徴量計算部24は、このようにして求めた"疵に関する1つ又は複数の特徴量"を含む疵データを、当該特徴量を有する疵が存在する"鋼鈑1上の位置"のデータと対応付けて(すなわち紐つけて)、疵データ記憶部25に記憶する。
ラベリング/特徴量計算部24は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。また、疵データ記憶部25は、例えば、疵判定装置6のハードディスクを用いることにより実現される。
尚、特徴量を求めることができれば、特徴量を求めるための処理の内容は前述したものに限定されない。
The labeling / feature amount calculation unit 24 performs a labeling process and a feature amount calculation on the binary image obtained by the binarization unit 23, and extracts a wrinkle candidate. Here, the labeling process is a process performed before the feature amount calculation, and for each figure (connected figure) that is a single figure or geometrically connected in the binary image to form one lump. This is a process of assigning different numbers (labels).
The feature amount calculation (feature extraction) is a process for obtaining a feature amount related to the shape of a figure. The feature quantity obtained by this feature quantity calculation is, for example, “width / length / length / width ratio (aspect ratio) / area / circularity / maximum length / perimeter” of the rectangle circumscribing the candidate Candidate luminance distribution (average value, minimum value, maximum value, etc. of luminance) ”or the like is a combination of one or two or more selected. The labeling / feature quantity calculation unit 24 uses the soot data including the “one or more feature quantities related to the soot” thus obtained as the “position on the steel plate 1” where the soot having the feature quantity exists. The data is stored in the bag data storage unit 25 in association with the data (that is, linked).
The labeling / feature amount calculation unit 24 is realized by using, for example, the CPU, ROM, RAM, and hard disk of the wrinkle determination device 6. Moreover, the bag data storage part 25 is implement | achieved by using the hard disk of the bag determination apparatus 6, for example.
As long as the feature amount can be obtained, the contents of the process for obtaining the feature amount are not limited to those described above.

後述するように疵学習装置9は、学習モデルを生成すると、その学習モデルを疵判定装置6に送信する。疵判定装置6の学習モデル取得部26は、疵学習装置9から学習モデルを受信すると、その学習モデルを疵判定部27に出力する。
学習モデル取得部26は、例えば、疵判定装置6のデータ入出力制御装置を用いることにより実現される。
As will be described later, when the learning model 9 generates a learning model, the learning model 9 transmits the learning model to the learning apparatus 6. When the learning model acquisition unit 26 of the heel determination device 6 receives the learning model from the heel learning device 9, the learning model acquisition unit 26 outputs the learning model to the heel determination unit 27.
The learning model acquisition unit 26 is realized by using, for example, the data input / output control device of the eyelid determination device 6.

疵判定部27は、疵データ記憶部25に記憶されている疵候補の疵データに対して、学習モデル取得部26から出力された"最新の学習モデル"を適用して、疵候補に対する最終的な疵判定を行う。例えば、製品の品質に影響を与えるロール疵であれば有害疵と判定する。また、疵種として、疵の種類及び疵の等級(評点)も判定する。一方、油、水滴、軽い汚れ等が鋼板表面に付着したものであり、製品の品質に影響を与えないものであれば無害疵と判定する。そして、疵判定部27は、疵検査の結果を疵データ記憶部25に記憶されている疵データに対応付ける。
尚、学習モデルの詳細については、疵学習装置9についての説明を行う際に併せて説明する。
The wrinkle determination unit 27 applies the “latest learning model” output from the learning model acquisition unit 26 to the wrinkle candidate wrinkle data stored in the wrinkle data storage unit 25, and finally Make a correct habit determination. For example, a roll that affects the quality of the product is determined to be harmful. In addition, the type of cocoon and the grade (grade) of the cocoon are also determined as the cocoon type. On the other hand, if oil, water droplets, light stains, etc. are attached to the surface of the steel sheet and do not affect the quality of the product, it is determined to be harmless. Then, the eyelid determination unit 27 associates the result of the eyelid inspection with the eyelid data stored in the eyelid data storage unit 25.
The details of the learning model will be described together with the description of the eyelid learning device 9.

以上のようにして所定の範囲の画像データについて疵検査を行うと、疵判定部27は、疵検査の結果(有害疵か無害疵かの判定結果、疵種(疵の種類や疵の等級等)の判定結果)と、ラベリング/特徴量計算部24で求められた特徴量とを示す疵検出画像データを生成し、表示装置8に表示する。本実施形態では、疵判定部27は、鋼板1を模した画像の上に、疵を模した画像を重ね合わせた疵検出画像データ(マップ)を生成する。これにより、鋼板1のどの場所にどのような疵が生じているのかを視覚的に検査員に認識させることができる。
疵判定部27は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。
As described above, when the eyelid inspection is performed on the image data in a predetermined range, the eyelid determination unit 27 determines the result of the eyelid inspection (the determination result of harmful or harmless, ) And the feature amount obtained by the labeling / feature amount calculation unit 24 are generated and displayed on the display device 8. In the present embodiment, the wrinkle determination unit 27 generates wrinkle detection image data (map) in which an image simulating a heel is superimposed on an image simulating the steel plate 1. Thereby, an inspector can be made to recognize visually what kind of wrinkle has occurred in which place of the steel plate 1.
The wrinkle determination unit 27 is realized by using, for example, the CPU, ROM, RAM, and hard disk of the wrinkle determination device 6.

疵データ出力判定部28は、圧延鋼鈑製造ラインを制御・監視するプロセスコンピュータ等から入力される圧延鋼鈑製造ラインの操業状態や日時等に基づいて、疵データ記憶部25に記憶されている疵データを疵学習装置9に出力するタイミングであるか否かを判定する。本実施形態では、疵データ出力判定部28は、所定の日から半年が経過する度に、その日の最初のコイル(圧延鋼板製造ラインで圧延された後に巻き取られた鋼鈑)についての疵データを疵学習装置9に出力すると判定するようにしている。ただし、疵データを疵学習装置に出力するタイミングと、出力する疵データの内容は、このようなものに限定されない。例えば、コイルが製造される度に、そのコイルについての疵データを疵学習装置9に出力するようにしてもよいし、連続で100本と制限を設けてもよい。また、1日毎に、その日の最後のコイルについての疵データを疵学習装置9に出力するようにしてもよい。
疵データ出力判定部28は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。
The iron data output determination unit 28 is stored in the iron data storage unit 25 based on the operation state and date / time of the rolled steel plate production line input from a process computer or the like that controls and monitors the rolled steel plate production line. It is determined whether or not it is time to output the heel data to the heel learning device 9. In the present embodiment, the saddle data output determination unit 28, every time half a year has elapsed from a predetermined date, the saddle data on the first coil of the day (steel rolled up after being rolled in the rolled steel plate production line) Is determined to be output to the kite learning device 9. However, the timing at which the soot data is output to the soot learning device and the content of the soot data to be output are not limited to this. For example, every time a coil is manufactured, wrinkle data about the coil may be output to the wrinkle learning device 9, or a limit of 100 may be provided continuously. Moreover, you may make it output the wrinkle data about the last coil of the day to the wrinkle learning apparatus 9 for every day.
The bag data output determination unit 28 is realized by using, for example, the CPU, ROM, RAM, and hard disk of the bag determination device 6.

疵データ出力部29は、疵データ出力判定部28により、疵データを疵学習装置9に出力すると判定されると、疵データ記憶部25に記憶されている疵データのうち、予め設定された時に得られた疵データを疵学習装置9に送信する。前述したように本実施形態では、疵データ出力部29は、所定の日時から半年が経過する度に、その日の最初のコイルについての疵データを疵学習装置9に送信する。
また、前述したように、疵データ記憶部25に記憶されている各疵データには、疵判定部27による疵種等の疵検査の結果が対応付けられている。そこで、本実施形態では、疵データ出力部29は、疵データと共に、その疵データに対応付けられている疵検査の結果についても、疵学習装置9に送信するようにしている。
疵データ出力部29は、例えば、疵判定装置6のデータ入出力制御装置を用いることにより実現される。
When the heel data output determination unit 28 determines that the heel data is to be output to the heel learning device 9, the heel data output unit 29 is set in advance among the heel data stored in the heel data storage unit 25. The obtained wrinkle data is transmitted to the wrinkle learning device 9. As described above, in this embodiment, the kite data output unit 29 transmits the kite data on the first coil of the day to the kite learning device 9 every half year after a predetermined date and time.
Further, as described above, each wrinkle data stored in the wrinkle data storage unit 25 is associated with a result of a wrinkle inspection such as a wrinkle type by the wrinkle determination unit 27. Therefore, in this embodiment, the eyelid data output unit 29 transmits the result of the eyelid inspection associated with the eyelid data to the eyelid learning device 9 together with the eyelid data.
The heel data output unit 29 is realized by using, for example, a data input / output control device of the heel determination device 6.

図3は、疵学習装置9が有する機能構成の一例を示すブロック図である。
図3において、疵データ取得部31は、疵判定装置6から送信された疵データを受信して記憶する。そして、後述する教師付き学習部32及び教師なし学習部33の何れかに疵データを出力すると、その疵データを削除する。
疵データ取得部31は、例えば、疵判定装置6のCPU、ROM、RAM、ハードディスク、及びデータ入出力制御装置を用いることにより実現される。
FIG. 3 is a block diagram illustrating an example of a functional configuration of the heel learning device 9.
In FIG. 3, the heel data acquisition unit 31 receives and stores the heel data transmitted from the heel determination device 6. When the wrinkle data is output to either the supervised learning unit 32 or the unsupervised learning unit 33 described later, the wrinkle data is deleted.
The heel data acquisition unit 31 is realized by using, for example, the CPU, ROM, RAM, hard disk, and data input / output control device of the heel determination device 6.

本実施形態の疵学習装置9は、教師付き学習と教師なし学習との2種類の学習を行うようにしている。教師付き学習とは、疵データ取得部31で取得された疵データに対して、検査員が設定した"疵種に関する正解データ(教師データ)"を付与して学習モデルを生成(学習)するものである。一方、教師なし学習とは、検査員が設定したデータの代わりに、疵学習装置9自身が生成(学習)した学習モデルを適用することにより得られた"疵種のデータ"を疵データ取得部31で取得された疵データに対して付与して学習モデルを生成(学習)するものである。
ここで正解データは、例えば、次のようにして得られるものである。まず、種々の疵を含む多数の画像と、それらの画像に対応する実際の鋼鈑とを検査員が目視で確認して、疵の種類・等級等を決定する。このようにして決定した内容に基づいて、当該画像における"疵種に関する情報(疵の種類や等級等)"を正解データとして疵学習装置(コンピュータ)に登録する。
The wrinkle learning device 9 of the present embodiment performs two types of learning, supervised learning and unsupervised learning. Supervised learning is a method for generating (learning) a learning model by assigning “correct data (teacher data) related to species” to the kite data acquired by the kite data acquisition unit 31. It is. On the other hand, unsupervised learning refers to “six kinds of data” obtained by applying a learning model generated (learned) by the heel learning device 9 itself instead of the data set by the inspector. The learning model is generated (learned) by giving to the bag data acquired in 31.
Here, the correct answer data is obtained, for example, as follows. First, an inspector visually confirms a large number of images including various types of defects and actual steel irons corresponding to these images, and determines the type and grade of the defects. Based on the content determined in this way, “information on the cocoon type (type of cocoon, grade, etc.)” in the image is registered as correct data in the cocoon learning apparatus (computer).

本実施形態では、教師付き学習を行うのが教師付き学習部32であり、教師なし学習を行うのが教師なし学習部33である。
まず、教師付き学習部32が行う教師付き学習について詳細に説明する。
In the present embodiment, the supervised learning unit 32 performs supervised learning, and the unsupervised learning unit 33 performs unsupervised learning.
First, the supervised learning performed by the supervised learning unit 32 will be described in detail.

データ点配置部32aは、疵種に関する複数個の疵データを疵データ取得部31から入力すると、当該複数個の疵データを3つの疵データの群に分割し、そのうちの第1群の疵データに基づいて、疵種に関する複数の特徴量を表す画像データを生成する。本実施形態では、例えば疵データの総個数が15000個であるとする。そして、例えば、第1群の疵データを7000個、第2群の疵データを5000個、そして第3群の疵データを3000個とする。
データ点配置部32aは、第1群の疵データについて生成した画像データに基づく画像を表示装置10に表示させる。この画像が表示されると、検査員は、疵判定装置6のユーザインターフェースを用いて、疵種に関する複数個の疵データに対する正解データを入力する。正解データは、例えば、疵の種類や等級等の検査員による判定結果である。データ点配置部32aは、第1群の疵データの夫々について、入力された正解データを、対応する疵データに紐つけて付与する。
When the data point arrangement unit 32a receives a plurality of pieces of bag data related to the bottle type from the bag data acquisition unit 31, the data point arrangement unit 32a divides the plurality of bottle data into three groups of bag data, and the first group of bag data Based on the above, image data representing a plurality of feature amounts relating to the species is generated. In the present embodiment, for example, it is assumed that the total number of bag data is 15000. For example, 7000 pieces of eyelid data in the first group, 5000 pieces of eyelid data in the second group, and 3000 pieces of eyelid data in the third group are set.
The data point arrangement unit 32a causes the display device 10 to display an image based on the image data generated for the first group of eyelid data. When this image is displayed, the inspector uses the user interface of the wrinkle determination device 6 to input correct data for a plurality of wrinkle data relating to the wrinkle type. The correct answer data is, for example, a determination result by an inspector such as the type and grade of the bag. The data point arrangement unit 32a gives the input correct data in association with the corresponding wrinkle data for each of the first group of wrinkle data.

データ点配置部32aは、正解データが付与された"疵種に関する複数個の疵データ"の夫々のデータ点(値)を、疵データ取得部31から入力した疵データに含まれる複数の特徴量の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。尚、後述する部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置する。
図4は、各特徴量を軸とする座標空間に、疵種に関する複数個の疵データのデータ点を配置した様子の一例を示す図である。尚、以下の説明では、このように"疵データのデータ点を座標空間に配置する"ことを、必要に応じて"疵データを座標空間に配置する"と称す。また、以下の説明では、正解データとして疵種「C1」、「C2」の2種の疵種に関する疵データが複数個、疵データ取得部31から入力されたものとし、特徴量の種類は150種であるとする。また、図4では、説明の便宜上、各特徴量f2、f7は規格化されているものとする。
The data point arrangement unit 32a includes a plurality of feature amounts included in the bag data input from the bag data acquisition unit 31 with each data point (value) of the “plurality of bag data related to the bottle type” to which the correct data is assigned. Are arranged in a coordinate space (feature amount space) with each feature amount as an axis. If a partial feature amount space to be described later has already been generated, the data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the partial feature amount space in the coordinate space.
FIG. 4 is a diagram illustrating an example of a state in which a plurality of data points of the cocoon data regarding the cocoon type are arranged in the coordinate space having each feature amount as an axis. In the following description, “arranging the data points of the eyelid data in the coordinate space” is referred to as “placement of the eyelid data in the coordinate space” as necessary. Further, in the following description, it is assumed that a plurality of soot data relating to the soot types “C1” and “C2” are input from the soot data acquisition unit 31 as correct data, and the type of feature quantity is 150. Suppose it is a seed. Further, in FIG. 4, it is assumed that the feature quantities f2 and f7 are standardized for convenience of explanation.

特徴量組み合わせ判別部32bは、データ点配置部32aにより座標空間に、疵種「C1」、「C2」の正解データが付与された疵データのデータ点が配置されると、夫々のデータ点の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していない場合、その疵データが配置されている座標空間の軸の各特徴量の値の組み合わせを、正解データである疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせとして判別する。   When the data point arrangement unit 32b arranges the data points of the basket data to which the correct data of the basket types “C1” and “C2” are assigned in the coordinate space by the data point placement unit 32a, Based on the arrangement position, it is determined whether or not the regions of the feature value values of the eyelid data overlap each other. As a result of the determination, if the regions of the feature value values of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are not overlapped with each other, the coordinate space in which the cocoon data is arranged The combination of the feature value values of the axes is determined as a combination of feature value values that can completely separate the types “C1” and “C2” that are correct data.

すなわち、図4に示す例では、特徴量f2、f7を各軸とする座標空間に、白丸で表される疵種「C1」に関する疵データと、黒丸で表される疵種「C2」に関する疵データとが配置されている。そして、疵種「C1」、「C2」の疵データの位置は、座標空間上で一致していない。よって、疵種「C1」、「C2」は、特徴量f2、f7の夫々の値の領域により完全に分離することができる。すなわち、疵種「C1」、「C2」は、特徴量f2、f7の値の組み合わせによって特定することができる。   That is, in the example shown in FIG. 4, in the coordinate space having the feature quantities f2 and f7 as axes, the eyelid data relating to the eyelid type “C1” represented by white circles and the eyelid relating to the eyelid type “C2” represented by black circles. Data and are arranged. The positions of the eyelid data of the eyelid types “C1” and “C2” do not match in the coordinate space. Therefore, the varieties “C1” and “C2” can be completely separated by the areas of the respective values of the feature amounts f2 and f7. That is, the species “C1” and “C2” can be specified by a combination of the values of the feature amounts f2 and f7.

特徴量組み合わせ判別部32bは、図4に示すように、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していないと判定すると、その疵データを配置した座標空間の軸の各特徴量の値の組み合わせを一時的に記憶する。ここでは、特徴量組み合わせ判別部32bは、このような動作を、例えば、150種の特徴量を3分割して、そのうちの第1群の特徴量f1〜f50について行う。尚、本実施形態では、特徴量の群として第1、第2及び第3の3つの群に分けて、以下の処理を実施するが、各群に属す特徴量の数の比率は以下の説明で例示する比率に限定する必要はなく、適宜設定すればよい。   As shown in FIG. 4, the feature amount combination determination unit 32 b determines that the feature value value areas of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are not overlapped with each other. The combination of the values of the feature values of the axes in the coordinate space where the bag data is arranged is temporarily stored. Here, the feature amount combination determining unit 32b performs such an operation on, for example, the first group of feature amounts f1 to f50 by dividing 150 types of feature amounts into three. In the present embodiment, the following processing is performed by dividing into the first, second, and third groups as the feature amount groups. The ratio of the number of feature amounts belonging to each group is described below. It is not necessary to limit to the ratio illustrated in FIG.

学習モデル生成部32cは、特徴量組み合わせ判別部32bにより一時的に記憶された各特徴量の値の組み合わせと正解データである疵種「C1」、「C2」とに基づいて、各特徴量の値の組(すなわち、座標空間内における領域)と疵種とを対応付けるための部分特徴量空間から学習モデルを生成する。
図5は、学習モデルの一例を概念的に示す図である。また、図6は、学習モデルが生成される様子の一例を概念的に示す図である。
図5では、部分特徴量空間1、部分特徴量空間2、・・・、部分特徴量空間L(Lは3以上の整数)の集合として、学習モデル51が生成された場合を例に挙げて示している。
ここで、部分特徴量空間1は、特徴量f2、f7の値の組と疵種「C1」、「C2」とを対応付けるためのものであり、特徴量f2、f7を座標軸とする。部分特徴量空間2は、特徴量f1、f3、f7の値の組と疵種「C1」、「C2」とを対応付けるためのものであり、特徴量f1、f3、f7を座標軸とする。部分特徴量空間Lは、特徴量f4、f6、f9と疵種「C1」、「C2」とを対応付けるためのものであり、特徴量f4、f6、f9を座標軸とする。
この段階で、図6(a)に示すように、特徴量f1〜f50の値の組のうち、疵種「C1」、「C2」を完全に分離する特徴量の値の組と、疵種「C1」、「C2」とを対応付けるための複数個(L個)の部分特徴量空間の集合として学習モデルAが生成される。
The learning model generation unit 32c, based on the combination of the values of the feature amounts temporarily stored by the feature amount combination determination unit 32b and the types “C1” and “C2” that are correct answer data, A learning model is generated from a partial feature amount space for associating a set of values (that is, a region in the coordinate space) with a species.
FIG. 5 is a diagram conceptually illustrating an example of a learning model. FIG. 6 is a diagram conceptually illustrating an example of how a learning model is generated.
In FIG. 5, as an example, the learning model 51 is generated as a set of the partial feature amount space 1, the partial feature amount space 2,..., The partial feature amount space L (L is an integer of 3 or more). Show.
Here, the partial feature amount space 1 is for associating a set of values of the feature amounts f2 and f7 with the species “C1” and “C2”, and the feature amounts f2 and f7 are coordinate axes. The partial feature amount space 2 is for associating a set of values of the feature amounts f1, f3, and f7 with the species “C1” and “C2”, and uses the feature amounts f1, f3, and f7 as coordinate axes. The partial feature amount space L is for associating the feature amounts f4, f6, and f9 with the species “C1” and “C2”, and uses the feature amounts f4, f6, and f9 as coordinate axes.
At this stage, as shown in FIG. 6A, among the value pairs of the feature amounts f1 to f50, the feature value set that completely separates the species “C1” and “C2” and the species A learning model A is generated as a set of a plurality (L) of partial feature amount spaces for associating “C1” and “C2”.

次に、図6(b)に示すように、疵種抽出部32dは、疵データ取得部31で取得された疵種「C1」、「C2」に関する疵データのうちの(データ点配置部32aで分割した3つの疵データの群のうちの)第2群の疵データの夫々について、学習モデルAを適用して(すなわち第2群の疵データを学習モデルAに含まれる各部分特徴量空間に配置して)、部分特徴量空間1〜Lの夫々において、各疵データのデータ点の位置から、第2群の疵データが疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。   Next, as shown in FIG. 6B, the soot seed extracting unit 32 d (the data point arranging unit 32 a among the soot data “C1” and “C2” obtained by the soot data obtaining unit 31. The learning model A is applied to each of the second group of cocoon data (among the three groups of cocoon data divided in step 1) (that is, each partial feature amount space included in the learning model A of the second group of cocoon data) And determining whether the second group of eyelid data belongs to the species “C1” or “C2” from the position of the data point of each eyelid data in each of the partial feature amount spaces 1 to L). Extract the resulting information.

棄却クラス判定部32eは、第2群の疵データの夫々について疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した結果として、当該第2群の疵データの疵種を特定できるか否かを判定する。図7は、各疵データの疵種「C1」、「C2」を判定する処理の一例を概念的に示す図である。
すなわち、図7に示すように、本実施形態では、疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある閾値以上、例えば90%以上である場合、棄却クラス判定部32eは、学習モデルAを適用した当該第2群の疵データは、疵種「C1」に属すものであると判定する(疵種を特定できると判定する)。また、疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、ある閾値以下、例えば10%以下である場合、棄却クラス判定部32eは、学習モデルAを適用した当該第2群の疵データは、疵種C2に属すものであると判定する(疵種を特定できると判定する)。そして、疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、ある範囲内、例えば10%よりも大きく90%よりも小さい場合、棄却クラス判定部32eは、学習モデルAを適用した当該第2群の疵データは、疵種「C1」に属すものでも、疵種C2に属すものでもないと判定する(疵種を特定できないと判定する)。
The rejection class determination unit 32e determines the number of seeds “C1” and “C2” that are determination results based on the partial feature amount spaces 1 to L extracted by the seed type extraction unit 32d for each of the second group of soot data. Based on the result of applying the learning model A, it is determined whether or not the species of the second group of soot data can be specified. FIG. 7 is a diagram conceptually illustrating an example of a process for determining the type “C1” and “C2” of each type of data.
That is, as shown in FIG. 7, in this embodiment, the seeds for the total number of seeds “C1” and “C2”, which are the judgment results by the partial feature amount spaces 1 to L, extracted by the seed type extracting unit 32d. When the ratio of the number determined to be “C1” is equal to or greater than a certain threshold, for example, 90% or more, the rejection class determination unit 32e indicates that the second group of soot data to which the learning model A is applied is the so-called “C1” ”(Determined that the species can be identified). Further, the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2”, which is the determination result by the partial feature amount spaces 1 to L extracted by the seed type extraction unit 32d, is less than a certain threshold value. For example, when it is 10% or less, the rejection class determination unit 32e determines that the second group of soot data to which the learning model A is applied belongs to the soot type C2 (determined that the soot type can be specified) To do). Then, the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” that are the determination results by the partial feature amount spaces 1 to L extracted by the seed type extraction unit 32d is within a certain range. For example, when it is larger than 10% and smaller than 90%, the rejection class determination unit 32e determines that the second group of soot data to which the learning model A is applied belongs to the sow type “C1”. It is determined that it does not belong (determined that the species cannot be identified).

第2群の疵データのなかで、棄却クラス判定部32eにより疵種を特定できないと判定された疵データは、学習モデルAにおいて何れのクラスにも属さない別のクラス(以下の説明では、このクラスを棄却クラスと称する)のデータ(以下の説明では、必要に応じて棄却データと称する)となる。データ点配置部32aは、その棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像データを生成する。そして、データ点配置部32aは、その画像データに基づく画像を表示装置10に表示させる。この画像が表示されると、検査員は、疵判定装置6のユーザインターフェースを用いて、棄却データに対する正解データを入力する。データ点配置部32aは、第2群の疵データの夫々について、入力された正解データを、対応する棄却データに紐つけて付与する(図6(b)を参照)。ここでは、正解データとして疵種「C1」、「C2」の何れかのデータが棄却データに対して付与されることになる。   Among the second group of soot data, the soot data determined by the rejection class judging unit 32e to identify the soot type is another class that does not belong to any class in the learning model A (in the following explanation, this class Class (referred to as rejection class) data (in the following description, referred to as rejection data as required). The data point arrangement unit 32a generates image data representing the feature amount (feature amount for which the species cannot be specified) indicated by the rejection data. Then, the data point arrangement unit 32a causes the display device 10 to display an image based on the image data. When this image is displayed, the inspector inputs correct data for the rejection data using the user interface of the eyelid determination device 6. The data point arrangement unit 32a assigns the input correct data in association with the corresponding rejection data for each of the second group of bag data (see FIG. 6B). Here, either correct data “C1” or “C2” is given to the reject data.

疵種「C1」、「C2」の何れかが正解データとして付与されているにも拘わらず棄却データと判定されるデータがあり得る。データ点配置部32aは、この疵種「C1」、「C2」の何れかが正解データとして付与された棄却データのデータ点を、第2群の特徴量f51〜f100の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部32aは、第2群の特徴量f51〜f100の全ての組み合わせについて、その組み合わせを各軸とする座標空間に棄却データ(疵種を特定できない第2群の疵データ)のデータ点を配置する(図4を参照)。尚、後述する部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。   There may be data that is determined to be rejected data regardless of whether the type “C1” or “C2” is assigned as correct data. The data point arrangement unit 32a uses the data points of the rejection data to which any one of the types “C1” and “C2” is assigned as correct data based on the values of the feature amounts f51 to f100 of the second group. It is arranged in a coordinate space (feature amount space) with the amount as an axis. In other words, the data point arrangement unit 32a, for all combinations of the second group of feature values f51 to f100, includes reject data (second group of cocoon data for which the species cannot be identified) in a coordinate space having the combination as each axis. Place data points (see FIG. 4). When a partial feature amount space to be described later has already been generated, the data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the partial feature amount space in the coordinate space.

特徴量組み合わせ判別部32bは、データ点配置部32aにより座標空間に棄却データのデータ点が配置されると、夫々の配置位置に基づいて、それらの棄却データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの棄却データの特徴量の値の領域が相互に重複していない場合、その棄却データが配置されている座標空間の軸の各特徴量の値の組み合わせを、正解データである疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせとして判別する。   When the data point of the rejection data is arranged in the coordinate space by the data point arrangement unit 32a, the feature amount combination determination unit 32b determines the feature value value areas of the rejection data from each other based on the respective arrangement positions. It is determined whether or not there are duplicates. As a result of this determination, if the area of feature value values of the reject data does not overlap with each other, the combination of the feature value values of the axes in the coordinate space where the reject data is arranged is the correct data. A certain kind “C1” or “C2” is determined as a combination of feature value values that can be completely separated.

特徴量組み合わせ判別部32bは、疵種「C1」、「C2」の正解データが付与された棄却データの特徴量の値の領域が相互に重複していないと判定すると、その棄却データを配置した座標空間の軸の各特徴量(疵種を特定できない特徴量)の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、150種のうちの第2群の特徴量f51〜f100について行う。   When the feature quantity combination determination unit 32b determines that the feature value value areas of the reject data to which correct data of the species “C1” and “C2” are assigned do not overlap each other, the reject data is arranged. A combination of values of each feature amount (a feature amount for which the species cannot be specified) of the axis in the coordinate space is temporarily stored. The feature amount combination determination unit 32b performs such an operation on the second group of feature amounts f51 to f100 out of 150 types.

学習モデル生成部32cは、特徴量組み合わせ判別部32bにより一時的に記憶された各特徴量の値の組み合わせと正解データである疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から学習モデルBを生成する(図6(b)を参照)。学習モデルBの生成方法は学習モデルAの生成方法と同じであるので、学習モデルBの生成方法の詳細な説明を省略する。   The learning model generation unit 32c, based on the combination of the values of the feature amounts temporarily stored by the feature amount combination determination unit 32b and the types “C1” and “C2” that are correct answer data, A learning model B is generated from a partial feature amount space for associating a set of values with a seed type (see FIG. 6B). Since the learning model B generation method is the same as the learning model A generation method, a detailed description of the learning model B generation method is omitted.

次に、図6(c)に示すように、疵種抽出部32dは、疵データ取得部31で取得された疵種に関する複数個の疵データのうちの第3群の疵データの夫々について、学習モデルAを適用して(すなわち第3群の疵データを学習モデルAに含まれる各部分特徴量空間に配置して)、部分特徴量空間1〜Lの夫々において、各疵データのデータ点の位置から疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。   Next, as shown in FIG. 6 (c), the soot seed extracting unit 32 d performs the third group of soot data among the plurality of soot data related to the soot seed obtained by the soot data obtaining unit 31. By applying the learning model A (that is, by placing the third group of wrinkle data in each partial feature amount space included in the learning model A), in each of the partial feature amount spaces 1 to L, the data points of each wrinkle data Information of the determination result as to which of the species “C1” or “C2” belongs to

棄却クラス判定部32eは、第3群の疵データの夫々について疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した結果として、当該第3群の疵データの疵種を特定できるか否かを判定する。前述したように、疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある範囲内、例えば10%よりも大きく90%よりも小さい場合に、棄却クラス判定部32eは、学習モデルAを適用した当該第3群の疵データから、疵種を特定できないと判定し、そうでない場合に、棄却クラス判定部32eは、学習モデルAを適用した当該第3群の疵データから、疵種を特定できると判定する。   The rejection class determination unit 32e determines the number of seeds “C1” and “C2” that are the determination results based on the partial feature amount spaces 1 to L extracted by the seed type extraction unit 32d for each of the third group of soot data. Based on the result of applying the learning model A, it is determined whether or not the species of the third group of soot data can be specified. As described above, the number of types determined as the type “C1” for the total number of types “C1” and “C2”, which are the determination results of the partial feature amount spaces 1 to L extracted by the type extraction unit 32d. When the ratio is within a certain range, for example, greater than 10% and smaller than 90%, the rejection class determination unit 32e determines that the species cannot be identified from the third group of soot data to which the learning model A is applied. If not, the rejection class determination unit 32e determines that the species can be identified from the third group of soot data to which the learning model A is applied.

次に、疵種抽出部32dは、第3群の疵データのなかで、棄却クラス判定部32eにより疵種を特定できないと判定された疵データ(棄却データ)の夫々について、学習モデルBを適用して(すなわち第3群の疵データを学習モデルBに含まれる各部分特徴量空間に配置して)、部分特徴量空間の夫々において、各疵データのデータ点の位置から、第3群の疵データが疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。
棄却クラス判定部32eは、第3群の疵データの夫々について疵種抽出部32dにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルBを適用した結果として、当該第3群の疵データの疵種を特定できるか否かを判定する。本実施形態では、疵種抽出部32dにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある閾値以上、例えば90%以上である場合、棄却クラス判定部32eは、学習モデルBを適用した当該第3群の疵データは、疵種「C1」に属すものであると判定する(疵種を特定できると判定する)。また、疵種抽出部32dにより抽出された、部分特徴量空間を用いた判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、ある閾値以下、例えば10%以下である場合、棄却クラス判定部32eは、学習モデルBを適用した当該第3群の疵データは、疵種C2に属すものであると判定する(疵種を特定できると判定する)。そして、疵種抽出部32dにより抽出された、部分特徴量空間を用いた判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、ある範囲内、例えば10%よりも大きく90%よりも小さい場合、棄却クラス判定部32eは、学習モデルBを適用した当該第3群の疵データは、疵種「C1」に属すものでも、疵種C2に属すものでもないと判定する(疵種を特定できないと判定する)。
Next, the soot seed extraction unit 32d applies the learning model B to each of the soot data (rejection data) determined by the rejection class determination unit 32e that the soot seed cannot be specified in the third group of soot data. (That is, the third group of wrinkle data is arranged in each partial feature amount space included in the learning model B), and in each of the partial feature amount spaces, from the position of the data point of each wrinkle data, Information on the result of determination as to whether the soot data belongs to the soot type “C1” or “C2” is extracted.
The rejection class determination unit 32e is based on the number of seeds “C1” and “C2”, which are judgment results based on the partial feature space, extracted by the seed type extraction unit 32d for each of the third group of soot data. As a result of applying the learning model B, it is determined whether or not the species of the third group of soot data can be specified. In the present embodiment, the ratio of the number determined to be the seed “C1” to the total number of the seeds “C1” and “C2”, which are the determination results based on the partial feature amount space extracted by the seed type extraction unit 32d, If the threshold value is equal to or higher than a certain threshold, for example, 90% or higher, the rejection class determination unit 32e determines that the third group of soot data to which the learning model B is applied belongs to the soot type “C1”. Can be identified). Further, the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2”, which is the determination result using the partial feature amount space extracted by the seed type extraction unit 32d, is equal to or less than a certain threshold value. For example, when it is 10% or less, the rejection class determination unit 32e determines that the third group of soot data to which the learning model B is applied belongs to the soot type C2 (determines that the soot type can be specified). ). Then, the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2”, which is the determination result using the partial feature amount space extracted by the seed type extraction unit 32d, is within a certain range. For example, when it is larger than 10% and smaller than 90%, the rejection class determination unit 32e indicates that the third group of soot data to which the learning model B is applied belongs to the sow species “C1” even if it belongs to the sow species “C1”. It is determined that it is not a thing (determined that the species cannot be identified).

第3群の疵データのなかで、棄却クラス判定部32eにより疵種を特定できないと判定された疵データは、学習モデルBにおいて何れのクラスにも属さない棄却データとなる。データ点配置部32aは、その棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像データを生成する。そして、データ点配置部32aは、その画像データに基づく画像を表示装置10に表示させる。この画像が表示されると、検査員は、疵判定装置6のユーザインターフェースを用いて、棄却データに対する正解データを入力する。データ点配置部32aは、第3群の疵データの夫々について、入力された正解データを、対応する棄却データに紐つけて付与する(図6(c)を参照)。ここでは、正解データとして疵種「C1」、「C2」の何れかのデータが棄却データに付与されることになる。   In the third group of soot data, the soot data determined by the reject class determining unit 32e that the soot type cannot be specified becomes reject data that does not belong to any class in the learning model B. The data point arrangement unit 32a generates image data representing the feature amount (feature amount for which the species cannot be specified) indicated by the rejection data. Then, the data point arrangement unit 32a causes the display device 10 to display an image based on the image data. When this image is displayed, the inspector inputs correct data for the rejection data using the user interface of the eyelid determination device 6. The data point arrangement unit 32a assigns the input correct data in association with the corresponding rejection data for each of the third group of wrinkle data (see FIG. 6C). In this case, either correct data “C1” or “C2” is given to the reject data.

前述したように疵種「C1」、「C2」の何れかが正解データとして付与されているにも拘わらず棄却データと判定されるデータがあり得る。データ点配置部32aは、この疵種「C1」、「C2」の何れかが正解データとして付与された棄却データのデータ点を、第3群の特徴量f101〜f150の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部32aは、第3群の特徴量f101〜f150の全ての組み合わせについて、その組み合わせを各軸とする座標空間に棄却データ(疵種を特定できない第3群の疵データ)のデータ点を配置する(図4を参照)。尚、後述する部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。   As described above, there may be data that is determined to be rejected data regardless of whether the type “C1” or “C2” is given as correct data. The data point arrangement unit 32a uses the data points of the rejection data to which any of the types “C1” and “C2” is assigned as correct data based on the values of the feature amounts f101 to f150 of the third group. It is arranged in a coordinate space (feature amount space) with the amount as an axis. In other words, the data point arrangement unit 32a, for all combinations of the third group of feature values f101 to f150, displays rejection data (third group of cocoon data for which no species can be identified) in the coordinate space with the combination as each axis. Place data points (see FIG. 4). When a partial feature amount space to be described later has already been generated, the data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the partial feature amount space in the coordinate space.

特徴量組み合わせ判別部32bは、データ点配置部32aにより座標空間に棄却データのデータ点が配置されると、夫々の配置位置に基づいて、それらの棄却データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの棄却データの特徴量の値の領域が相互に重複していない場合、その棄却データが配置されている座標空間の軸の各特徴量の値の組み合わせを、正解データである疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせとして判別する。   When the data point of the rejection data is arranged in the coordinate space by the data point arrangement unit 32a, the feature amount combination determination unit 32b determines the feature value value areas of the rejection data from each other based on the respective arrangement positions. It is determined whether or not there are duplicates. As a result of this determination, if the area of feature value values of the reject data does not overlap with each other, the combination of the feature value values of the axes in the coordinate space where the reject data is arranged is the correct data. A certain kind “C1” or “C2” is determined as a combination of feature value values that can be completely separated.

特徴量組み合わせ判別部32bは、疵種「C1」、「C2」の正解データが付与された棄却データの特徴量の値の領域が相互に重複していないと判定すると、その棄却データを配置した座標空間の軸の各特徴量(疵種を特定できない特徴量)の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、150種のうちの第3群の特徴量f101〜f150について行う。   When the feature quantity combination determination unit 32b determines that the feature value value areas of the reject data to which correct data of the species “C1” and “C2” are assigned do not overlap each other, the reject data is arranged. A combination of values of each feature amount (a feature amount for which the species cannot be specified) of the axis in the coordinate space is temporarily stored. The feature amount combination determination unit 32b performs such an operation on the third group of the feature amounts f101 to f150 out of 150 types.

学習モデル生成部32cは、特徴量組み合わせ判別部32bにより一時的に記憶された各特徴量の値の組み合わせと正解データである疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から学習モデルCを生成する(図6(c)を参照)。学習モデルCの生成方法は学習モデルA、Bの生成方法と同じであるので、学習モデルCの生成方法の詳細な説明を省略する。   The learning model generation unit 32c, based on the combination of the values of the feature amounts temporarily stored by the feature amount combination determination unit 32b and the types “C1” and “C2” that are correct answer data, A learning model C is generated from a partial feature amount space for associating a set of values with a seed type (see FIG. 6C). Since the generation method of the learning model C is the same as the generation method of the learning models A and B, a detailed description of the generation method of the learning model C is omitted.

ただし、本実施形態では、学習モデルCに疵データを適用した場合には、その疵データから疵種「C1」、「C2」の何れかが必ず得られるようにしている。具体的に本実施形態では、疵種抽出部32dにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある閾値以上、例えば50%以上である場合、棄却クラス判定部32eは、学習モデルCを適用した疵データは、疵種「C1」に属すものであると判定する。一方、疵種抽出部32dにより抽出された、部分特徴量空間を用いた判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある閾値よりも小さい、例えば50%よりも小さい(50%未満である)場合、棄却クラス判定部32eは、学習モデルCを適用した疵データは、疵種「C2」に属すものであると判定する。   However, in the present embodiment, when the soot data is applied to the learning model C, either the soot type “C1” or “C2” is always obtained from the soot data. Specifically, in the present embodiment, the number of types determined as the type “C1” for the total number of types “C1” and “C2”, which are the determination results based on the partial feature space extracted by the type extraction unit 32d. When the ratio is equal to or higher than a certain threshold, for example, 50% or higher, the rejection class determination unit 32e determines that the soot data to which the learning model C is applied belongs to the soot type “C1”. On the other hand, there is a ratio of the number determined as the seed “C1” to the total number of the seeds “C1” and “C2”, which is the determination result using the partial feature amount space extracted by the seed type extraction unit 32d. When it is smaller than the threshold, for example, smaller than 50% (less than 50%), the rejection class determination unit 32e determines that the soot data to which the learning model C is applied belongs to the soot type “C2”. .

以上のようにして本実施形態では、図6(d)に示すように、3つの学習モデルA〜Cが生成される。生成された学習モデル(部分特徴量空間)は、学習モデル更新部34と学習モデル出力部35に出力される。
学習モデル更新部34は、学習モデル(部分特徴量空間)を入力すると、既に記憶されている学習モデル(部分特徴量空間)を、入力した学習モデル(部分特徴量空間)に書き換える。図8は、学習モデル(部分特徴量空間)が更新される様子の一例を概念的に示す図である。
As described above, in the present embodiment, as shown in FIG. 6D, three learning models A to C are generated. The generated learning model (partial feature amount space) is output to the learning model update unit 34 and the learning model output unit 35.
When the learning model (partial feature amount space) is input, the learning model update unit 34 rewrites the already stored learning model (partial feature amount space) to the input learning model (partial feature amount space). FIG. 8 is a diagram conceptually illustrating an example of how the learning model (partial feature amount space) is updated.

図8に示す例では、今回の学習によって、部分特徴量空間2が削除され、部分特徴量空間L+1が追加されている。すなわち、前回の学習モデルA1を生成する際に取得した疵データでは、特徴量f1、f3、f7で疵種「C1」、「C2」を完全に分離できたが、今回の学習モデルA2を生成する際に取得した疵データを加えると、特徴量f1、f3、f7では疵種「C1」、「C2」を完全に分離できなくなったことになる。また、前回の学習モデルA1を生成する際に取得した疵データでは、特徴量f4、f6、f10では疵種「C1」、「C2」を完全に分離できなかったが、今回の学習モデルA2を生成する際に取得した疵データでは、特徴量f4、f6、f10で疵種「C1」、「C2」を完全に分離できたことになる。
また、学習モデル出力部35は、学習モデル(部分特徴量空間)を入力すると、その学習モデルを疵判定装置6に送信する。
In the example shown in FIG. 8, the partial feature amount space 2 is deleted and the partial feature amount space L + 1 is added by this learning. That is, in the bag data acquired when the previous learning model A1 is generated, the bag types “C1” and “C2” can be completely separated by the feature amounts f1, f3, and f7, but the current learning model A2 is generated. If the soot data acquired at this time is added, the soot species “C1” and “C2” cannot be completely separated by the feature amounts f1, f3, and f7. In addition, in the bag data acquired when the previous learning model A1 is generated, the bag types “C1” and “C2” cannot be completely separated by the feature amounts f4, f6, and f10. In the soot data acquired at the time of generation, the soot species “C1” and “C2” can be completely separated by the feature amounts f4, f6, and f10.
In addition, when a learning model (partial feature amount space) is input, the learning model output unit 35 transmits the learning model to the wrinkle determination device 6.

また、自律学習判定部36は、学習モデル更新部34で学習モデル(部分特徴量空間)が更新されると、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、自律学習判定部36は、例えば、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下であるか否かを判定する。この判定の結果、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下である場合、自律学習判定部36は、自律学習フラグをオンし、教師付き学習から教師なし学習に学習の方法を自動的に切り替える。一方、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でない場合、自律学習判定部36は、自律学習フラグをオフのままとし、教師付き学習を継続させるようにする。尚、自律学習フラグは、疵学習装置9が備えるRAMやレジスタ等に記憶されているものである。   Further, when the learning model (partial feature amount space) is updated by the learning model update unit 34, the autonomous learning determination unit 36 of the partial feature amount spaces included in the learning models A to C is not updated. Count the number of quantity spaces. Then, for example, the autonomous learning determination unit 36 determines whether or not the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is equal to or less than a threshold value. As a result of this determination, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is less than or equal to the threshold value, the autonomous learning determination unit 36 turns on the autonomous learning flag. The learning method is automatically switched from supervised learning to unsupervised learning. On the other hand, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, the autonomous learning determination unit 36 keeps the autonomous learning flag off, Try to continue supervised learning. The autonomous learning flag is stored in a RAM, a register, or the like included in the kite learning device 9.

図9は、更新されなかった部分特徴量空間の数と、学習実行日時との関係の一例を示す図である。
本実施形態では、疵学習装置9は、疵判定装置6から疵データを半年毎に取得しているので、図9において、プロットとプロットとの間の横軸方向の距離は、半年に対応するものとなる。
図9において、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値Δが、閾値以下になった日時xになるまでは教師付き学習を行い、日時xよりも後では教師なし学習を行う。その後、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値Δが、閾値よりも大きくなった日時yよりも後では教師あり学習を再び行う。
FIG. 9 is a diagram illustrating an example of the relationship between the number of partial feature amount spaces that have not been updated and the learning execution date and time.
In the present embodiment, the kite learning device 9 acquires the kite data from the kite determination device 6 every six months. Therefore, in FIG. 9, the distance in the horizontal axis direction between the plots corresponds to six months. It will be a thing.
In FIG. 9, supervised learning is performed until the absolute value Δ of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is equal to or less than the threshold date and time x. After the date x, unsupervised learning is performed. Thereafter, supervised learning is performed again after the date and time y when the absolute value Δ of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is larger than the threshold value.

尚、図9では、日時yにおいて、前回の教師付き学習において計数した数よりも、今回の教師付き学習において計数した数が大幅に減少している場合を示したが、これとは逆に、前回の教師付き学習において計数した数よりも、今回の教師付き学習において計数した数が大幅に増加することもあり得る。このような場合は、教師なし学習を継続することになる。ただし、本実施形態では、説明の都合上、教師なし学習を行っている場合には、前回の教師付き学習において計数した数よりも、今回の教師付き学習において計数した数が大幅に増加することはないものとして説明を行う。   Note that FIG. 9 shows a case where the number counted in the current supervised learning is significantly reduced at the date and time y than the number counted in the previous supervised learning. It is possible that the number counted in the current supervised learning may be significantly larger than the number counted in the previous supervised learning. In such a case, unsupervised learning is continued. However, in the present embodiment, for the sake of explanation, when unsupervised learning is performed, the number counted in the current supervised learning is greatly increased from the number counted in the previous supervised learning. I will explain that there is no.

教師付き学習部32、学習モデル更新部34、及び自律学習判定部36は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。学習モデル出力部35は、例えば、疵判定装置6のデータ入出力制御装置を用いることにより実現される。   The supervised learning unit 32, the learning model update unit 34, and the autonomous learning determination unit 36 are realized by using, for example, the CPU, ROM, RAM, and hard disk of the eyelid determination device 6. The learning model output unit 35 is realized by using, for example, a data input / output control device of the wrinkle determination device 6.

ここで、図6(d)を参照しながら、このような学習モデルA〜Cにおける疵種の判別方法の一例を説明する。
まず、入力した疵データの夫々について、学習モデルAを適用し、学習モデルAに含まれている各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を得る。そして、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば90%以上である場合、入力した疵データは疵種「C1」に属すものと判断され、例えば10%以下である場合、入力した疵データは疵種「C2」に属すものと判断される(図6(d)の学習モデルA→クラス決定)。
Here, with reference to FIG. 6 (d), an example of a method for discriminating the species in such learning models A to C will be described.
First, the learning model A is applied to each of the input bag data, and information on either of the bag types “C1” and “C2” is obtained from each partial feature amount space included in the learning model A. Then, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 90% or more, for example, it is determined that the input soot data belongs to the seed “C1”. For example, if it is 10% or less, it is determined that the input soot data belongs to the soot type “C2” (learning model A → class determination in FIG. 6D).

一方、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば10%よりも大きく90%よりも小さい場合、学習モデルAにおける判定結果では、入力した疵データは、疵種「C1」、「C2」の何れに属すものかが不明であるため、入力した疵データの夫々について、学習モデルBを適用する。そして、その結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば90%以上である場合、入力した疵データは疵種「C1」に属すものと判断され、例えば10%以下である場合、入力した疵データは疵種「C2」に属すものと判断される(図6(d)の学習モデルB→クラス決定)。   On the other hand, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is, for example, larger than 10% and smaller than 90%, the determination result in the learning model A indicates that the input soot data Since it is unclear whether it belongs to the species “C1” or “C2”, the learning model B is applied to each of the inputted cage data. As a result, when the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is 90% or more, for example, the input soot data belongs to the seed “C1”. For example, if it is 10% or less, it is determined that the input soot data belongs to the soot type “C2” (learning model B → class determination in FIG. 6D).

一方、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば10%よりも大きく90%よりも小さい場合、学習モデルAにおける判定結果では、入力した疵データは、疵種「C1」、「C2」の何れに属すものかが不明であるため、入力した疵データの夫々について、学習モデルCを適用する。その結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば50%以上である場合、入力した疵データは疵種「C1」に属すものと判断され、50%よりも小さい場合、入力した疵データは疵種「C2」に属すものと判断される(図6(d)の学習モデルC→クラス決定)。
本実施形態では、疵判定装置6の疵判定部27は、以上のようにして疵種の判定を行うことになる。
On the other hand, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is, for example, larger than 10% and smaller than 90%, the determination result in the learning model A indicates that the input soot data Since it is unknown which of the species “C1” and “C2” belongs to, the learning model C is applied to each of the inputted cage data. As a result, if the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is, for example, 50% or more, the input soot data is determined to belong to the seed “C1”. If it is smaller than 50%, it is determined that the input soot data belongs to the soot type “C2” (learning model C → class determination in FIG. 6D).
In the present embodiment, the wrinkle determination unit 27 of the wrinkle determination device 6 performs the determination of the wrinkle type as described above.

次に、教師なし学習部33が行う教師なし学習について詳細に説明する。
まず、疵種抽出部33aは、疵データ取得部31により取得された疵データの夫々について、学習モデル更新部34に記憶されている学習モデルAを適用して(疵データの夫々を学習モデルAに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
Next, unsupervised learning performed by the unsupervised learning unit 33 will be described in detail.
First, the soy seed extraction unit 33a applies the learning model A stored in the learning model update unit 34 to each of the soot data acquired by the soot data acquisition unit 31 (each of the soot data is learned as the learning model A). Information on any of the species “C1” and “C2” is extracted from each partial feature space.

次に、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した疵データが、疵種「C1」に属すものか、疵種「C2」に属すものか、それとも、疵種「C1」、「C2」の何れにも属さないものかを判定する。   Next, the rejection class determination unit 33b applied the learning model A based on the number of seeds “C1” and “C2” that are the determination results based on the partial feature amount space extracted by the seed type extraction unit 33a. It is determined whether the cocoon data belongs to the cocoon species “C1”, the cocoon species “C2”, or does not belong to any of the cocoon species “C1” or “C2”.

疵種データ付与部33cは、棄却クラス判定部33bにより疵種「C1」に属すと判定された疵データに対し、疵種「C1」のデータを紐つけて付与する。また、疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C2」に属すと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。   The seed type data adding unit 33c associates and assigns the data of the type “C1” to the type data determined to belong to the type “C1” by the rejection class determination unit 33b. Moreover, the soot seed data giving unit 33c gives the soot data “C2” in association with the soot data determined to belong to the soot type “C2” by the rejection class determining unit 33b.

データ点配置部33dは、疵種「C1」、「C2」の何れかのデータが付与された疵データのデータ点を、150種の特徴量f1〜f150の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部33dは、特徴量f1〜f150の全ての組み合わせについて、その組み合わせを各軸とする座標空間に疵データのデータ点を配置する(図4を参照)。尚、データ点配置部32aは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。   The data point arrangement unit 33d sets the data points of the cocoon data to which any one of the cocoon types “C1” and “C2” is assigned based on the values of the 150 types of feature values f1 to f150 as axes. Is arranged in a coordinate space (feature value space). That is, the data point arrangement unit 33d arranges the data points of the eyelid data in the coordinate space having the combinations as the respective axes for all combinations of the feature amounts f1 to f150 (see FIG. 4). The data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the existing partial feature amount space in the coordinate space.

特徴量組み合わせ判別部33eは、データ点配置部33dにより座標空間に疵データが配置されると、夫々の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合、その疵データが配置されている座標空間の軸の各特徴量の値の組み合わせを、疵種「C1」、「C2」を完全に分離できる組み合わせとして判別する。そして、特徴量組み合わせ判別部33eは、その疵データを配置した座標空間の軸の各特徴量の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、特徴量f1〜f150について行う。   When the eyelid data is placed in the coordinate space by the data point placement unit 33d, the feature amount combination determining unit 33e overlaps the feature value value areas of the eyelid data based on the respective placement positions. It is determined whether or not. As a result of this determination, if the regions of the feature value values of the eyelid data do not overlap each other, the combination of the feature value values of the axes of the coordinate space where the eyelid data is arranged is C1 ”and“ C2 ”are determined as combinations that can be completely separated. Then, the feature amount combination determination unit 33e temporarily stores a combination of values of each feature amount of the axis of the coordinate space in which the bag data is arranged. The feature amount combination determination unit 32b performs such an operation on the feature amounts f1 to f150.

学習モデル生成部33fは、特徴量組み合わせ判別部33eにより一時的に記憶された各特徴量の値の組み合わせと、疵データに付与した疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から、学習モデルAを生成する。
前述したようにして棄却クラス判定部33bにより、学習モデルAを適用した疵データが、疵種「C1」、「C2」の何れにも属さないものであると判定されると、その疵データは棄却データとなる。疵種抽出部33は、その疵データ(棄却データ)の夫々について、学習モデル更新部34に記憶されている学習モデルBを適用して(すなわち棄却データである疵データを学習モデルBに含まれる各部分特徴量空間に配置して)、部分特徴量空間の夫々において、各疵データのデータ点の位置から、疵データが疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。
The learning model generation unit 33f determines each feature based on the combination of the values of the feature values temporarily stored by the feature value combination determination unit 33e and the species “C1” and “C2” assigned to the bag data. A learning model A is generated from a partial feature amount space for associating a pair of quantity values with a seed type.
As described above, when the rejection class determination unit 33b determines that the soot data to which the learning model A is applied does not belong to any of the soot types “C1” and “C2”, the soot data is Rejection data. The soot seed extraction unit 33 applies the learning model B stored in the learning model update unit 34 to each of the soot data (rejection data) (that is, the soot data that is the rejection data is included in the learning model B). In each partial feature space, the determination result as to whether the bag data belongs to the type “C1” or “C2” from the position of the data point of each bag data Extract information.

次に、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルBを適用した疵データが、疵種「C1」に属すものか、疵種「C2」に属すものか、それとも、疵種「C1」、「C2」の何れにも属さないものかを判定する。   Next, the rejection class determination unit 33b applied the learning model B based on the numbers of the seeds “C1” and “C2” that are the determination results based on the partial feature amount space extracted by the seed type extraction unit 33a. It is determined whether the cocoon data belongs to the cocoon species “C1”, the cocoon species “C2”, or does not belong to any of the cocoon species “C1” or “C2”.

疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C1」に属すと判定された疵データに対し、疵種「C1」のデータを紐つけて付与する。また、疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C2」に属すと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。   The species data giving unit 33c associates and assigns the data of the species “C1” to the species data determined to belong to the species “C1” by the rejection class determination unit 33b. Moreover, the soot seed data giving unit 33c gives the soot data “C2” in association with the soot data determined to belong to the soot type “C2” by the rejection class determining unit 33b.

データ点配置部33dは、疵種「C1」、「C2」の何れかのデータが付与された疵データのデータ点を、150種の特徴量f1〜f150の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部33dは、150種の特徴量f1〜f150の全ての組み合わせについて、その組み合わせを軸とする座標空間に疵データのデータ点を配置する(図4を参照)。尚、データ点配置部32aは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。   The data point arrangement unit 33d sets the data points of the cocoon data to which any one of the cocoon types “C1” and “C2” is assigned based on the values of the 150 types of feature values f1 to f150 as axes. Is arranged in a coordinate space (feature value space). That is, the data point arrangement unit 33d arranges the data points of the eyelid data in the coordinate space having the combinations as the axes for all the combinations of the 150 types of feature quantities f1 to f150 (see FIG. 4). The data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the existing partial feature amount space in the coordinate space.

特徴量組み合わせ判別部33eは、データ点配置部33dにより座標空間に疵データが配置されると、夫々の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合、その疵データが配置されている座標空間の各軸に対応する特徴量の値の組み合わせを、疵種「C1」、「C2」を完全に分離できる組み合わせとして判別する。そして、特徴量組み合わせ判別部33eは、その疵データを配置した座標空間の軸の各特徴量の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、150種の特徴量f1〜f150について行う。   When the eyelid data is placed in the coordinate space by the data point placement unit 33d, the feature amount combination determining unit 33e overlaps the feature value value areas of the eyelid data based on the respective placement positions. It is determined whether or not. As a result of the determination, if the regions of the feature value values of the eyelid data do not overlap with each other, the combination of feature value values corresponding to the respective axes in the coordinate space where the eyelid data is arranged is The seeds “C1” and “C2” are determined as combinations that can be completely separated. Then, the feature amount combination determination unit 33e temporarily stores a combination of values of each feature amount of the axis of the coordinate space in which the bag data is arranged. The feature amount combination determination unit 32b performs such an operation on 150 types of feature amounts f1 to f150.

学習モデル生成部33fは、特徴量組み合わせ判別部33eにより一時的に記憶された各特徴量の値の組み合わせと疵データに付与した疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から、前述したように学習モデルBを生成する。   The learning model generation unit 33f determines each feature amount based on the combination of the feature value values temporarily stored by the feature amount combination determination unit 33e and the seed types “C1” and “C2” assigned to the soot data. As described above, the learning model B is generated from the partial feature amount space for associating the value set and the species.

前述したように、棄却クラス判定部33bにより、学習モデルBを適用した疵データが、疵種「C1」、「C2」の何れにも属さないものであると判定されると、その疵データは棄却データとなる。疵種抽出部33は、その疵データ(棄却データ)の夫々について、学習モデル更新部34に記憶されている学習モデルCを適用して(すなわち棄却データである疵データを学習モデルCに含まれる各部分特徴量空間に配置して)、部分特徴量空間の夫々において、各疵データ(棄却データ)のデータ点の位置から、疵データ(棄却データ)が疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。   As described above, when the rejection class determination unit 33b determines that the soot data to which the learning model B is applied does not belong to any of the soot species “C1” or “C2”, the soot data is Rejection data. The soot seed extraction unit 33 applies the learning model C stored in the learning model update unit 34 to each of the soot data (rejection data) (that is, the soot data that is the rejection data is included in the learning model C). From the position of the data point of each defect data (rejection data) in each partial feature space, the defect data (rejection data) is of type “C1”, “C2” The information of the determination result belonging to which is extracted.

次に、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルCを適用した疵データが、疵種「C1」に属すものか、それとも、疵種「C2」に属すものかを判定する。   Next, the rejection class determination unit 33b applied the learning model C based on the numbers of the seeds “C1” and “C2” that are the determination results based on the partial feature amount space extracted by the seed type extraction unit 33a. It is determined whether the cocoon data belongs to the cocoon species “C1” or the cocoon species “C2”.

疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C1」に属すと判定された疵データに対し、疵種「C1」のデータを紐つけて付与する。また、疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C2」に属すと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。   The species data giving unit 33c associates and assigns the data of the species “C1” to the species data determined to belong to the species “C1” by the rejection class determination unit 33b. Moreover, the soot seed data giving unit 33c gives the soot data “C2” in association with the soot data determined to belong to the soot type “C2” by the rejection class determining unit 33b.

データ点配置部33dは、疵種「C1」、「C2」の何れかのデータが付与された疵データのデータ点を、150の特徴量f1〜f150の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部33dは、特徴量f1〜f150の全ての組み合わせについて、その組み合わせを各軸とする座標空間に疵データのデータ点を配置する(図4を参照)。尚、データ点配置部32aは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。   The data point arrangement unit 33d uses the feature values f1 to f150 based on the values of 150 feature values f1 to f150 as the data points of the bag data to which any of the types “C1” and “C2” is assigned. Is arranged in a coordinate space (feature value space). That is, the data point arrangement unit 33d arranges the data points of the eyelid data in the coordinate space having the combinations as the respective axes for all combinations of the feature amounts f1 to f150 (see FIG. 4). The data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the existing partial feature amount space in the coordinate space.

特徴量組み合わせ判別部33eは、データ点配置部33dにより座標空間に疵データが配置されると、夫々の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合、その疵データが配置されている座標空間の軸の各特徴量の値の組み合わせを、疵種「C1」、「C2」を完全に分離できる組み合わせとして判別する。そして、特徴量組み合わせ判別部33eは、その疵データを配置した座標空間の軸の各特徴量の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、特徴量f1〜f150について行う。   When the eyelid data is placed in the coordinate space by the data point placement unit 33d, the feature amount combination determining unit 33e overlaps the feature value value areas of the eyelid data based on the respective placement positions. It is determined whether or not. As a result of this determination, if the regions of the feature value values of the eyelid data do not overlap each other, the combination of the feature value values of the axes of the coordinate space where the eyelid data is arranged is C1 ”and“ C2 ”are determined as combinations that can be completely separated. Then, the feature amount combination determination unit 33e temporarily stores a combination of values of each feature amount of the axis of the coordinate space in which the bag data is arranged. The feature amount combination determination unit 32b performs such an operation on the feature amounts f1 to f150.

学習モデル生成部33fは、特徴量組み合わせ判別部33eにより一時的に記憶された各特徴量の値の組み合わせと疵データに付与した疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から、前述したように学習モデルCを生成する。   The learning model generation unit 33f determines each feature amount based on the combination of the feature value values temporarily stored by the feature amount combination determination unit 33e and the seed types “C1” and “C2” assigned to the soot data. As described above, the learning model C is generated from the partial feature amount space for associating the value set and the species.

以上のようにして本実施形態では、教師あり学習では、検査員によって入力された"疵種に関する正解データ"を疵データに付与して学習モデルA〜Cを生成するのに対し、教師なし学習では、既に生成されている学習モデルA〜Cに疵データを適用して得られた疵種のデータを当該疵データに付与して学習モデルA〜Cを生成する。すなわち、教師なし学習では、人手を借りずに、疵学習装置9が自律して学習モデルを生成(学習)することができる。   As described above, according to the present embodiment, in supervised learning, learning models A to C are generated by adding “correct data relating to species” input by an inspector to the kite data, whereas unsupervised learning is performed. Then, the learning models A to C are generated by assigning the soot data obtained by applying the soot data to the already generated learning models A to C to the soot data. In other words, in unsupervised learning, the kite learning device 9 can autonomously generate (learn) a learning model without helping humans.

教師なし学習を行った場合も、教師あり学習を行った場合と同様に、3つの学習モデルA〜Cが生成され、生成された学習モデル(部分特徴量空間)は、学習モデル更新部34と学習モデル出力部35に出力される。そして、学習モデル更新部34は、既に記憶されている学習モデル(部分特徴量空間)を、入力した学習モデル(部分特徴量空間)に書き換える(図8を参照)。また、学習モデル出力部35は、学習モデル(部分特徴量空間)を入力すると、その学習モデルを疵判定装置6に送信する。   When unsupervised learning is performed, three learning models A to C are generated as in the case of supervised learning, and the generated learning model (partial feature amount space) is connected to the learning model update unit 34. It is output to the learning model output unit 35. Then, the learning model update unit 34 rewrites the already stored learning model (partial feature amount space) to the input learning model (partial feature amount space) (see FIG. 8). In addition, when a learning model (partial feature amount space) is input, the learning model output unit 35 transmits the learning model to the wrinkle determination device 6.

更に、自律学習判定部36は、例えば、今回の教師なし学習において計数した数と、前回の教師あり学習において計数した数との差の絶対値が閾値以下である場合、自律学習判定部36は、自律学習フラグをオンのままとし、教師なし学習を継続する。一方、前回の教師なし学習において計数した数と、今回の教師なし学習において計数した数との差の絶対値が閾値以下でない場合、自律学習判定部36は、自律学習フラグをオフし、教師なし学習から教師付き学習に学習の方法を自動的に切り替える。   Furthermore, when the absolute value of the difference between the number counted in the current unsupervised learning and the number counted in the previous supervised learning is equal to or less than a threshold value, the autonomous learning determination unit 36 The autonomous learning flag is kept on and the unsupervised learning is continued. On the other hand, if the absolute value of the difference between the number counted in the previous unsupervised learning and the number counted in the current unsupervised learning is not less than or equal to the threshold value, the autonomous learning determination unit 36 turns off the autonomous learning flag and unsupervised Automatically switches the learning method from learning to supervised learning.

次に、図10のフローチャートを参照しながら、疵判定装置6の動作の一例を説明する。
まず、ステップS1において、画像入力部21は、撮像装置5から画像データを入力したか否かを判定する。この判定の結果、撮像装置5から画像データを入力していない場合には、後述するステップS21に進む。
一方、撮像装置5から画像データを入力した場合には、ステップS2に進み、ラベリング/特徴量計算部24は、シェーディング補正部22及び二値化部23により処理が行われた画像データに対して、ラベリング処理を行った後、特徴量を計算する。
Next, an example of the operation of the eyelid determination device 6 will be described with reference to the flowchart of FIG.
First, in step S <b> 1, the image input unit 21 determines whether image data is input from the imaging device 5. If the result of this determination is that image data has not been input from the imaging device 5, the operation proceeds to step S21 to be described later.
On the other hand, when image data is input from the imaging device 5, the process proceeds to step S <b> 2, and the labeling / feature amount calculation unit 24 performs processing on the image data processed by the shading correction unit 22 and the binarization unit 23. After performing the labeling process, the feature amount is calculated.

次に、ステップS3において、疵判定部27は、疵学習装置9から学習モデルA〜Cを取得しているか否かを判定する。この判定の結果、学習モデルA〜Cを取得していない場合には、疵判定装置6は初期状態等であると判断し、後述するステップS16に進む。
一方、学習モデルA〜Cを取得している場合には、ステップS4に進む。ステップS4に進むと、疵判定部27は、ステップS2で計算した疵データの夫々について、取得している学習モデルAを適用し、学習モデルAに含まれている各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を得る。
Next, in step S <b> 3, the eyelid determining unit 27 determines whether or not learning models A to C are acquired from the eyelid learning device 9. As a result of this determination, if the learning models A to C are not acquired, the wrinkle determination device 6 determines that it is in an initial state or the like, and proceeds to step S16 described later.
On the other hand, if learning models A to C have been acquired, the process proceeds to step S4. In step S4, the wrinkle determination unit 27 applies the acquired learning model A to each piece of wrinkle data calculated in step S2, and determines the vaginal type from each partial feature amount space included in the learning model A. Information on either “C1” or “C2” is obtained.

次に、ステップS5において、疵判定部27は、ステップS4の実行結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が90%以上である場合には、ステップS6に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C1」に属すものであると判断する。そして、後述するステップS16に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%以下である場合には、ステップS7に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C2」に属すものであると判断する。そして、後述するステップS16に進む。
Next, in step S5, the wrinkle determination unit 27 determines the ratio of the number of types “C1” to the total number of types “C1” and “C2”, which is the execution result of step S4. As a result of the determination, if the ratio of the number of types “C1” to the total number of types “C1” and “C2” is 90% or more, the process proceeds to step S6, and the type determining unit 27 determines in step S2. It is determined that the calculated soot data belongs to the soot type “C1”. And it progresses to step S16 mentioned later.
Further, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 10% or less, the process proceeds to step S7, and the soot determining unit 27 calculates the soot calculated in step S2. It is determined that the data belongs to the species “C2”. And it progresses to step S16 mentioned later.

また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合には、ステップS8に進む。ステップS8に進むと、疵判定部27は、ステップS2で計算した疵データの夫々について、取得している学習モデルBを適用し、学習モデルBに含まれている各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を得る。   On the other hand, if the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is greater than 10% and smaller than 90%, the process proceeds to step S8. In step S8, the wrinkle determination unit 27 applies the acquired learning model B to each piece of wrinkle data calculated in step S2, and determines the wrinkle type from each partial feature amount space included in the learning model B. Information on either “C1” or “C2” is obtained.

次に、ステップS9において、疵判定部27は、ステップS8の実行結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が90%以上である場合には、ステップS10に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C1」に属すものであると判断する。そして、後述するステップS16に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%以下である場合には、ステップS11に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C2」に属すものであると判断する。そして、後述するステップS16に進む。
Next, in step S9, the wrinkle determination unit 27 determines the ratio of the number of types “C1” to the total number of types “C1” and “C2”, which is the execution result of step S8. As a result of the determination, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 90% or more, the process proceeds to step S10, and the eyelid determination unit 27 performs the process in step S2. It is determined that the calculated soot data belongs to the soot type “C1”. And it progresses to step S16 mentioned later.
If the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 10% or less, the process proceeds to step S11, and the soot determining unit 27 calculates the soot calculated in step S2. It is determined that the data belongs to the species “C2”. And it progresses to step S16 mentioned later.

また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合には、ステップS12に進む。ステップS12に進むと、疵判定部27は、ステップS2で計算した疵データの夫々について、取得している学習モデルCを適用し、学習モデルCに含まれている各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を得る。   On the other hand, if the ratio of the number of species “C1” to the total number of species “C1” and “C2” is greater than 10% and less than 90%, the process proceeds to step S12. In step S12, the wrinkle determination unit 27 applies the acquired learning model C to each of the wrinkle data calculated in step S2, and determines the vaginal type from each partial feature amount space included in the learning model C. Information on either “C1” or “C2” is obtained.

次に、ステップS13において、疵判定部27は、ステップS12の実行結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が50%以上である場合には、ステップS14に進み、疵判定部27は、ステップS2で計算した疵データは疵種C1に属すものであると判断する。そして、後述するステップS16に進む。
一方、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が50%よりも小さい場合には、ステップS15に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C2」に属すものであると判断する。そして、ステップS16に進む。
Next, in step S13, the wrinkle determination unit 27 determines the ratio of the number of types “C1” to the total number of types “C1” and “C2”, which is the execution result of step S12. As a result of the determination, if the ratio of the number of types “C1” to the total number of types “C1” and “C2” is 50% or more, the process proceeds to step S14, and the type determining unit 27 determines in step S2. It is determined that the calculated soot data belongs to soot type C1. And it progresses to step S16 mentioned later.
On the other hand, if the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is less than 50%, the process proceeds to step S15, and the eyelid determination unit 27 calculates the soot calculated in step S2. It is determined that the data belongs to the species “C2”. Then, the process proceeds to step S16.

ステップS16に進むと、疵判定部27は、ステップS2で計算した疵データを疵データ記憶部25に記憶する。このとき、学習モデルA〜Cで疵種「C1」、「C2」の何れかが得られている場合には(ステップS3以外のステップからステップS16に進んだ場合には)、その判断されている疵種「C1」、「C2」のデータと、ステップS2で計算した疵データとを対応付けて疵データ記憶部25に記憶する。   In step S16, the eyelid determining unit 27 stores the eyelid data calculated in step S2 in the eyelid data storage unit 25. At this time, if any of the species “C1” or “C2” is obtained in the learning models A to C (when the process proceeds from step other than step S3 to step S16), the determination is made. The data of the types “C1” and “C2” that are present and the bag data calculated in step S2 are stored in the bag data storage unit 25 in association with each other.

次に、ステップS17において、疵判定部27は、所定の範囲の画像データについて疵判定を行ったか否かを判定することにより、疵種を表示するタイミングであるか否かを判定する。この判定の結果、所定の範囲の画像データについて疵判定を行い、疵種を表示するタイミングである場合には、ステップS18に進む。ステップS18に進むと、疵判定部27は、疵を模した画像を重ね合わせた疵検出画像データ(マップ)を生成し、表示装置8に表示する。そして、ステップS19に進む。   Next, in step S <b> 17, the wrinkle determination unit 27 determines whether or not it is time to display the wrinkle type by determining whether or not the wrinkle determination has been performed on the image data in a predetermined range. As a result of this determination, if it is the timing for performing the wrinkle determination on the image data in a predetermined range and displaying the vase type, the process proceeds to step S18. In step S 18, the wrinkle determination unit 27 generates wrinkle detection image data (map) obtained by superimposing images imitating a wrinkle and displays the data on the display device 8. Then, the process proceeds to step S19.

一方、所定の範囲の画像データについて疵判定を行っておらず、疵種を表示するタイミングでない場合には、ステップS18を省略してステップS19に進む。
ステップS19に進むと、疵データ出力判定部28は、疵データ記憶部25に記憶されている疵データを疵学習装置9に出力するタイミングであるか否かを判定する。
On the other hand, if the wrinkle determination is not performed for the image data in the predetermined range and it is not the time to display the wrinkle type, step S18 is omitted and the process proceeds to step S19.
In step S 19, the heel data output determination unit 28 determines whether it is time to output the heel data stored in the heel data storage unit 25 to the heel learning device 9.

この判定の結果、疵データを疵学習装置9に出力するタイミングである場合には、ステップS20に進む。ステップS20に進むと、疵データ出力部29は、疵データ記憶部25に記憶されている疵データのうち、予め設定された時に得られた疵データを疵学習装置9に送信する。前述したように本実施形態では、所定の日時から半年が経過する度に、その日の最初のコイルについての疵データを疵学習装置9に送信する。そして、ステップS1に戻る。   If it is determined that it is time to output the heel data to the heel learning device 9, the process proceeds to step S20. In step S <b> 20, the heel data output unit 29 transmits the heel data obtained when preset among the heel data stored in the heel data storage unit 25 to the heel learning device 9. As described above, in this embodiment, every time half a year has passed from a predetermined date and time, the kite data for the first coil of the day is transmitted to the kite learning device 9. Then, the process returns to step S1.

ステップS1において、撮像装置5から画像データを入力していないと判定されると、ステップS21に進む。ステップS21に進むと、学習モデル取得部26は、疵学習装置9から学習モデルを取得したか否かを判定する。この判定の結果、学習モデルを取得していない場合には、ステップS1に戻る。
一方、学習モデルを取得している場合には、ステップS22に進み、学習モデル取得部26は、ステップS21で取得したと判定された学習モデルと同種の学習モデルを既に取得済みであるか否かを判定する。
If it is determined in step S1 that image data has not been input from the imaging device 5, the process proceeds to step S21. In step S21, the learning model acquisition unit 26 determines whether a learning model has been acquired from the kite learning device 9. If the result of this determination is that a learning model has not been acquired, processing returns to step S1.
On the other hand, if the learning model has been acquired, the process proceeds to step S22, where the learning model acquisition unit 26 has already acquired a learning model of the same type as the learning model determined to have been acquired in step S21. Determine.

この判定の結果、ステップS21で取得したと判定された学習モデルと同種の学習モデルを取得済みでない場合には、ステップS23に進む。ステップS23に進むと、疵判定部27は、ステップS21で取得された学習モデルを新規登録する。そして、ステップS1に戻る。
一方、ステップS21で取得したと判定された学習モデルと同種の学習モデルを既に取得済みである場合には、ステップS24に進む。ステップS24に進むと、疵判定部27は、取得済みである学習モデルをステップS21で取得された学習モデルに書き換える。そして、ステップS1に戻る。
As a result of this determination, if a learning model of the same type as the learning model determined to have been acquired in step S21 has not been acquired, the process proceeds to step S23. In step S23, the wrinkle determination unit 27 newly registers the learning model acquired in step S21. Then, the process returns to step S1.
On the other hand, if a learning model of the same type as the learning model determined to have been acquired in step S21 has already been acquired, the process proceeds to step S24. In step S24, the eyelid determination unit 27 rewrites the acquired learning model with the learning model acquired in step S21. Then, the process returns to step S1.

次に、図11のフローチャートを参照しながら、疵学習装置9の動作の一例を説明する。
まず、ステップS101において、疵データ取得部31は、疵判定装置6から疵データを取得するまで待機する。そして、疵データを取得するとステップS102に進む。前述したように本実施形態では、疵種「C1」、「C2」に関する、150種の特徴量を含む複数の疵データを取得する。そして、ステップS102に進むと、自律学習判定部36は、自律学習フラグがオンされているか否かを判定することにより、教師なし学習を行えるか否かを判定する。この判定の結果、自律学習フラグがオンされており、教師なし学習を行える場合には、後述する図11−5のステップS154に進む。
以上のように本実施形態では、ステップS101の処理を実行することにより取得手段が実現される。
Next, an example of the operation of the eyelid learning apparatus 9 will be described with reference to the flowchart of FIG.
First, in step S <b> 101, the eyelid data acquisition unit 31 waits until the eyelid data is acquired from the eyelid determination device 6. When the bag data is acquired, the process proceeds to step S102. As described above, in the present embodiment, a plurality of pieces of eyelid data including 150 types of feature values related to the species “C1” and “C2” are acquired. In step S102, the autonomous learning determination unit 36 determines whether or not unsupervised learning can be performed by determining whether or not the autonomous learning flag is turned on. As a result of the determination, if the autonomous learning flag is turned on and unsupervised learning can be performed, the process proceeds to step S154 in FIG. 11-5 described later.
As described above, in the present embodiment, an acquisition unit is realized by executing the process of step S101.

一方、自律学習フラグがオフされており、教師なし学習を行えない場合には、教師付き学習を行うと判断し、ステップS103に進む。ステップS103に進むと、データ点配置部32aは、ステップS101で取得したと判定された複数個の疵データを3つの疵データの群に分割し、そのうちの第1群の疵データに基づく画像を表示装置10に表示し、その表示した画像に対して検査員により入力された正解データを、対応する疵データに紐つけて付与する。
次に、ステップS104において、データ点配置部32aは、第1群の特徴量f1〜f50の組み合わせの1つを選択し、選択した組み合わせの各特徴量を軸とする座標空間(特徴量空間)に、ステップS103で疵種「C1」、「C2」の正解データが付与された"疵種に関する複数個の疵データ"の夫々のデータ点を配置する。尚、部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
On the other hand, if the autonomous learning flag is off and unsupervised learning cannot be performed, it is determined that supervised learning is performed, and the process proceeds to step S103. In step S103, the data point arrangement unit 32a divides the plurality of eyelid data determined to have been acquired in step S101 into three groups of eyelid data, and an image based on the first group of eyelid data is included. The correct data displayed on the display device 10 and input by the inspector to the displayed image is attached in association with the corresponding bag data.
Next, in step S104, the data point arrangement unit 32a selects one of the combinations of the first group of feature quantities f1 to f50, and a coordinate space (feature quantity space) around each feature quantity of the selected combination. In step S103, the data points of the “plurality of cocoon data relating to the species” to which the correct data of the species “C1” and “C2” are assigned are arranged. If the partial feature amount space has already been generated, the data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the partial feature amount space in the coordinate space.

次に、ステップS105において、特徴量組み合わせ判別部32bは、ステップS104におけるデータ点の夫々の配置位置に基づいて、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していない場合には、後述するステップS108に進む。
一方、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複している場合には、ステップS106に進む。ステップS106に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS104で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルAに含まれている場合には、ステップS107に進む。
Next, in step S105, the feature amount combination determination unit 32b, based on the arrangement positions of the data points in step S104, the feature amount of the cocoon data to which correct data of the cocoon types “C1” and “C2” are assigned. It is determined whether or not the value areas overlap with each other. As a result of the determination, if the regions of the feature value values of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are not overlapped with each other, the process proceeds to step S108 described later.
On the other hand, if the regions of the feature value values of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are added, the process proceeds to step S106. When the process proceeds to step S106, the learning model generation unit 32c refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S104 and the kind “C1”, “ It is determined whether or not the learning model A includes a partial feature amount space for associating with “C2”. As a result of the determination, if the partial feature amount space is included in the learning model A, the process proceeds to step S107.

ステップS107に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルAから削除して、学習モデルAを更新する。そして、後述するステップS110に進む。
一方、ステップS104で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれていない場合には、ステップS107を省略して、後述するステップS110に進む。
In step S107, the learning model update unit 34 deletes the partial feature amount space from the learning model A and updates the learning model A. And it progresses to step S110 mentioned later.
On the other hand, the learning model A does not include a partial feature amount space for associating a pair of feature values of the axes of the coordinate space in which the eyelid data is arranged in step S104 with the species “C1” and “C2” In this case, step S107 is omitted and the process proceeds to step S110 described later.

ステップS105において、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していないと判定された場合には、ステップS108に進む。ステップS108に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS104で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルAに含まれていない場合には、ステップS109に進む。   If it is determined in step S105 that the regions of the feature value values of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are not overlapped with each other, the process proceeds to step S108. In step S108, the learning model generation unit 32c refers to the learning model update unit 34, and sets the value of each feature quantity of the axis of the coordinate space in which the eyelid data is arranged in step S104 and the kind “C1”, “ It is determined whether or not a partial feature amount space for associating with “C2” is included in the learning model A. As a result of the determination, if the partial feature amount space is not included in the learning model A, the process proceeds to step S109.

ステップS109に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルAに追加して、学習モデルAを更新する。そして、ステップS110に進む。
一方、当該部分特徴量空間が学習モデルAに含まれている場合には、ステップS109を省略してステップS110に進む。
In step S109, the learning model updating unit 34 adds the partial feature amount space to the learning model A and updates the learning model A. Then, the process proceeds to step S110.
On the other hand, when the partial feature amount space is included in the learning model A, step S109 is omitted and the process proceeds to step S110.

以上のように本実施形態では、ステップS104の処理を実行することにより配置手段が実現され、ステップS105の処理を実行することにより第1の判別手段が実現され、ステップS106〜S109の処理を実行することにより第1の生成手段、更新手段が実現される。   As described above, in this embodiment, the placement unit is realized by executing the process of step S104, the first determination unit is realized by executing the process of step S105, and the processes of steps S106 to S109 are executed. By doing so, the first generating means and updating means are realized.

ステップS110に進むと、特徴量組み合わせ判別部32bは、第1群の特徴量f1〜f50の組み合わせを全て選択したか否かを判定する。この判定の結果、第1群の特徴量f1〜f50の組み合わせを全て選択していない場合には、ステップS104に戻り、第1群の特徴量f1〜f50の組み合わせを全て選択するまで、ステップS104〜ステップS110の処理を繰り返し行う。そして、ステップS111に進む。
尚、本実施形態では、第1群の特徴量f1〜f50の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、第1群の特徴量f1〜f50の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S110, the feature amount combination determining unit 32b determines whether all combinations of the first group of feature amounts f1 to f50 have been selected. As a result of the determination, if all the combinations of the feature amounts f1 to f50 of the first group are not selected, the process returns to step S104, and step S104 is performed until all the combinations of the feature amounts f1 to f50 of the first group are selected. -Repeat the process of step S110. Then, the process proceeds to step S111.
In the present embodiment, all combinations of the first group of feature quantities f1 to f50 are selected, but this is not necessarily required. For example, 2 to n (n is an integer greater than or equal to 3 (for example, 8)) combinations among the combinations of the feature amounts f1 to f50 of the first group may be selected.

ステップS111に進むと、学習モデル生成部32cは、ステップS104〜S110の結果に基づいて、最新の学習モデルAの内容を確定する。
次に、ステップS112において、学習モデル出力部35は、ステップS111で確定された学習モデルAのデータを疵判定装置6に出力する。
次に、図11−2のステップS113において、疵種抽出部32dは、ステップS103で分割された3つの疵データの群のうち、第2群の疵データの夫々について、学習モデルAを適用して(学習モデルAに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS113の処理を実行することにより抽出手段が実現される。
If it progresses to step S111, the learning model production | generation part 32c will confirm the content of the newest learning model A based on the result of step S104-S110.
Next, in step S112, the learning model output unit 35 outputs the data of the learning model A determined in step S111 to the wrinkle determination device 6.
Next, in step S113 of FIG. 11-2, the soot seed extraction unit 32d applies the learning model A to each of the second group of soot data among the three soot data groups divided in step S103. (Arranged in each partial feature amount space included in the learning model A), information on any of the species “C1” and “C2” is extracted from each partial feature amount space.
Thus, in this embodiment, an extraction means is implement | achieved by performing the process of step S113.

次に、ステップS114において、棄却クラス判定部32eは、第2群の疵データの夫々について疵種抽出部32dにより抽出された、ステップS113の実行結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した結果として、当該第2群の疵データの疵種を特定できるか否かを判定する。具体的に本実施形態では、疵種抽出部32dにより抽出された疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合に、棄却クラス判定部32eは、疵種を特定できないと判定する。
このように本実施形態では、ステップS114の処理を実行することにより判定手段が実現される。
この判定の結果、疵種を特定できない場合には、ステップS115に進む。ステップS115に進むと、棄却クラス判定部32eは、疵種を特定できないと判定した第2群の疵データを棄却データとして抽出する。そして、ステップS116に進む。
Next, in step S114, the rejection class determination unit 32e extracts the species “C1” and “C2” that are the execution results of step S113 extracted by the species extraction unit 32d for each of the second group of soot data. Based on the number, it is determined whether or not the species of the second group of soot data can be specified as a result of applying the learning model A. Specifically, in the present embodiment, the ratio of the number of grape seeds “C1” to the total number of grape seeds “C1” and “C2” extracted by the grape seed extraction unit 32d is greater than 10% and smaller than 90%. Moreover, the rejection class determination unit 32e determines that the sow seed cannot be specified.
As described above, in this embodiment, the determination unit is realized by executing the process of step S114.
If the result of this determination is that the species cannot be identified, the process proceeds to step S115. When the process proceeds to step S115, the rejection class determination unit 32e extracts the second group of soot data determined to be unable to specify the soot type as the reject data. Then, the process proceeds to step S116.

一方、疵種を特定できる場合には、ステップS115を省略してステップS116に進む。
ステップS116に進むと、疵種抽出部32dは、第2群の疵データの全てについて、ステップS113〜S116の処理を行ったか否かを判定する。この判定の結果、第2群の疵データの全てについて、ステップS113〜S116の処理を行っていない場合には、ステップS113に戻り、第2群の疵データの全てについて、ステップS113〜S116の処理を行うまで、ステップS113〜S116を繰り返し行う。そしてステップS117に進む。
On the other hand, when the species can be specified, step S115 is omitted and the process proceeds to step S116.
In step S116, the soy seed extraction unit 32d determines whether or not the processes in steps S113 to S116 have been performed for all of the second group of soot data. If the result of this determination is that the processing of steps S113 to S116 has not been performed for all of the second group of soot data, the process returns to step S113, and the processing of steps S113 to S116 for all of the second group of soot data. Steps S113 to S116 are repeated until. Then, the process proceeds to step S117.

ステップS117に進むと、データ点配置部32aは、ステップS115において棄却データが少なくとも1つ抽出されたか否かを判定する。この判定の結果、ステップS115において棄却データが少なくとも1つも抽出されなかった場合には、後述する図11−4のステップS149に進む。
一方、ステップS115において棄却データが少なくとも1つ抽出された場合には、ステップS118に進む。ステップS118に進むと、データ点配置部32aは、棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像を表示装置10に表示し、その表示した画像に対して検査員により入力された正解データを、対応する棄却データに紐つけて付与する。
In step S117, the data point arrangement unit 32a determines whether or not at least one rejection data is extracted in step S115. If at least one rejection data is not extracted in step S115 as a result of this determination, the process proceeds to step S149 in FIG.
On the other hand, if at least one rejection data is extracted in step S115, the process proceeds to step S118. In step S118, the data point arrangement unit 32a displays on the display device 10 an image representing the feature amount (feature amount that cannot specify the species) indicated by the rejection data, and the inspector inputs the displayed image. The correct answer data is given in association with the corresponding rejection data.

次に、ステップS119において、データ点配置部32aは、第2群の特徴量f51〜f100の組み合わせの1つを選択し、選択した組み合わせの各特徴量を軸とする座標空間(特徴量空間)に、ステップS118で疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の夫々のデータ点を配置する。尚、部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。   Next, in step S119, the data point arrangement unit 32a selects one of the combinations of the second group of feature quantities f51 to f100, and a coordinate space (feature quantity space) around each feature quantity of the selected combination. In step S118, the data points of the rejection data (second group of cocoon data in which the cocoon type cannot be specified) to which correct data of the cocoon types “C1” and “C2” are assigned are arranged. If the partial feature amount space has already been generated, the data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the partial feature amount space in the coordinate space.

次に、ステップS120において、特徴量組み合わせ判別部32bは、ステップS119におけるデータ点の夫々の配置結果に基づいて、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の特徴量の値の領域が相互に重複していない場合には、後述するステップS123に進む。
一方、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の特徴量の値の領域が相互に重複している場合には、ステップS121に進む。ステップS121に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS119で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルBに含まれている場合には、ステップS122に進む。
Next, in step S120, the feature amount combination determination unit 32b, based on the result of arrangement of the data points in step S119, reject data to which correct data of types “C1” and “C2” is assigned (type 3 It is determined whether or not the regions of the feature value values of the second group (疵 data that cannot be specified) overlap each other. As a result of this determination, the feature value value areas of the reject data (second group of cocoon data in which the cocoon type cannot be specified) to which correct data of the cocoon types “C1” and “C2” are assigned do not overlap each other. In this case, the process proceeds to step S123 described later.
On the other hand, when the regions of the feature values of the rejection data (second group of cocoon data in which the cocoon type cannot be specified) with the correct data of the cocoon types “C1” and “C2” are mutually overlapped The process proceeds to step S121. In step S121, the learning model generation unit 32c refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S119 and the kind “C1”, “ It is determined whether or not the learning model B includes a partial feature amount space for associating with “C2”. As a result of this determination, if the partial feature amount space is included in the learning model B, the process proceeds to step S122.

ステップS122に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルBから削除して、学習モデルBを更新する。そして、後述するステップS125に進む。
一方、ステップS119で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれていない場合には、ステップS122を省略して、後述するステップS125に進む。
In step S122, the learning model update unit 34 deletes the partial feature amount space from the learning model B and updates the learning model B. And it progresses to step S125 mentioned later.
On the other hand, the learning model B does not include a partial feature amount space for associating the feature value values of the axes of the coordinate space in which the eyelid data are arranged in step S119 with the species “C1” and “C2”. In this case, step S122 is omitted and the process proceeds to step S125 described later.

ステップS120において、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の特徴量の値の領域が相互に重複していないと判定された場合には、ステップS123に進む。ステップS123に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS119で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルBに含まれていない場合には、ステップS124に進む。   In step S120, if the regions of the feature values of the rejection data (the second group of cocoon data in which the cocoon type cannot be specified) to which the correct data of the cocoon types “C1” and “C2” are assigned do not overlap each other If it is determined, the process proceeds to step S123. When the process proceeds to step S123, the learning model generation unit 32c refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S119 and the kind “C1”, “ It is determined whether or not the learning model B includes a partial feature amount space for associating with “C2”. As a result of the determination, if the partial feature amount space is not included in the learning model B, the process proceeds to step S124.

ステップS124に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルBに追加して、学習モデルBを更新する。そして、ステップS125に進む。
一方、当該部分特徴量空間が学習モデルBに含まれている場合には、ステップS124を省略してステップS125に進む。
In step S124, the learning model update unit 34 adds the partial feature amount space to the learning model B and updates the learning model B. Then, the process proceeds to step S125.
On the other hand, when the partial feature amount space is included in the learning model B, step S124 is omitted and the process proceeds to step S125.

以上のように本実施形態では、ステップS119の処理を実行することにより配置手段が実現され、ステップS120の処理を実行することにより第2の判別手段が実現され、ステップS121〜S124の処理を実行することにより第2の生成手段、更新手段が実現される。   As described above, in the present embodiment, the placement unit is realized by executing the process of step S119, the second determination unit is realized by executing the process of step S120, and the processes of steps S121 to S124 are executed. By doing so, the second generating means and updating means are realized.

ステップS125に進むと、特徴量組み合わせ判別部32bは、第2群の特徴量f51〜f100の組み合わせを全て選択したか否かを判定する。この判定の結果、第2群の特徴量f51〜f100の組み合わせを全て選択していない場合には、ステップS119に戻り、第2群の特徴量f51〜f100の組み合わせを全て選択するまで、ステップS119〜ステップS125の処理を繰り返し行う。そして、ステップS126に進む。
尚、本実施形態では、第2群の特徴量f51〜f100の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、第2群の特徴量f51〜f100の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S125, the feature amount combination determination unit 32b determines whether all combinations of the second group of feature amounts f51 to f100 have been selected. As a result of the determination, if all the combinations of the feature amounts f51 to f100 of the second group are not selected, the process returns to step S119, and step S119 is performed until all the combinations of the feature amounts f51 to f100 of the second group are selected. -Repeat the process of step S125. Then, the process proceeds to step S126.
In the present embodiment, all combinations of the second group of feature quantities f51 to f100 are selected, but this is not always necessary. For example, 2 to n (n is an integer greater than or equal to 3 (for example, 8)) combinations may be selected from among the combinations of the feature amounts f51 to f100 of the second group.

ステップS126に進むと、学習モデル生成部32cは、ステップS119〜S125の結果に基づいて、最新の学習モデルBの内容を確定する。
次に、ステップS127において、学習モデル出力部35は、ステップS126で確定された学習モデルBのデータを疵判定装置6に出力する。
次に、図11−3のステップS128において、疵種抽出部32dは、ステップS103で分割された3つの疵データの群のうち、第3群の疵データの夫々について、学習モデルAを適用して(第3群の疵データを学習モデルAに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
In step S126, the learning model generation unit 32c determines the content of the latest learning model B based on the results of steps S119 to S125.
Next, in step S127, the learning model output unit 35 outputs the data of the learning model B determined in step S126 to the wrinkle determination device 6.
Next, in step S128 of FIG. 11-3, the sow seed extraction unit 32d applies the learning model A to each of the third group of soot data among the three soot data groups divided in step S103. (The third group of cocoon data is arranged in each partial feature amount space included in the learning model A), and information on any of the cocoon types “C1” and “C2” is extracted from each partial feature amount space.

次に、ステップS129において、棄却クラス判定部32eは、第3群の疵データの夫々について疵種抽出部32dにより抽出された、ステップS128の実行結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した結果として、当該第3群の疵データの疵種を特定できるか否かを判定する。
この判定の結果、疵種を特定できない場合には、ステップS115に進む。ステップS115に進むと、棄却クラス判定部32eは、疵種を特定できないと判定した第3群の疵データを棄却データとして抽出する。そして、ステップS131に進む。
Next, in step S129, the rejection class determination unit 32e extracts the species “C1” and “C2” that are the execution results of step S128 extracted by the species extraction unit 32d for each of the third group of soot data. Based on the number, it is determined whether or not the species of the third group of soot data can be specified as a result of applying the learning model A.
If the result of this determination is that the species cannot be identified, the process proceeds to step S115. When the process proceeds to step S115, the rejection class determination unit 32e extracts the third group of soot data determined to be unable to specify the soot type as the reject data. Then, the process proceeds to step S131.

一方、疵種を特定できる場合には、ステップS130を省略してステップS131に進む。
ステップS131に進むと、疵種抽出部32dは、第3群の疵データの全てについて、ステップS128〜S131の処理を行ったか否かを判定する。この判定の結果、第3群の疵データの全てについて、ステップS128〜S131の処理を行っていない場合には、ステップS128に戻り、第3群の疵データの全てについて、ステップS128〜S131の処理を行うまで、ステップS128〜S131を繰り返し行う。そしてステップS132に進む。
On the other hand, if the species can be specified, step S130 is omitted and the process proceeds to step S131.
In step S131, the soy seed extraction unit 32d determines whether or not the processes in steps S128 to S131 have been performed on all the soot data in the third group. As a result of the determination, if the processes of steps S128 to S131 are not performed for all the third group of eyelid data, the process returns to step S128, and the processes of steps S128 to S131 are performed for all of the third group of eyelid data. Steps S128 to S131 are repeated until. Then, the process proceeds to step S132.

ステップS132に進むと、データ点配置部32aは、ステップS130において棄却データが少なくとも1つ抽出されたか否かを判定する。この判定の結果、ステップS130において棄却データが少なくとも1つも抽出されなかった場合には、後述する図11−4のステップS149に進む。
一方、ステップS130において棄却データが少なくとも1つ抽出された場合には、ステップS133に進む。ステップS133に進むと、データ点配置部32aは、棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像を表示装置10に表示し、その表示した画像に対して検査員により入力された正解データを、対応する棄却データに紐つけて付与する。
In step S132, the data point arrangement unit 32a determines whether or not at least one rejection data is extracted in step S130. As a result of the determination, if at least one rejection data is not extracted in step S130, the process proceeds to step S149 in FIG.
On the other hand, when at least one rejection data is extracted in step S130, the process proceeds to step S133. In step S133, the data point arrangement unit 32a displays on the display device 10 an image representing the feature amount (feature amount that cannot identify the species) indicated by the rejection data, and the inspector inputs the displayed image. The correct answer data is given in association with the corresponding rejection data.

次に、ステップS134において、疵種抽出部32dは、棄却クラス判定部32eにより疵種を特定できないと判定された疵データ(棄却データ)の夫々について、学習モデルBを適用して(棄却クラス判定部32eにより疵種を特定できないと判定された疵データを学習モデルBに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS134の処理を実行することにより第2の抽出手段が実現される。
Next, in step S134, the soot seed extraction unit 32d applies the learning model B (rejection class determination) to each of the soot data (rejection data) determined by the rejection class determination unit 32e to be unable to identify the soot seed. The soot data determined that the soot type cannot be specified by the part 32e is arranged in each partial feature amount space included in the learning model B), and any of the soot types “C1” and “C2” is selected from each partial feature amount space. Extract information.
Thus, in the present embodiment, the second extraction unit is realized by executing the process of step S134.

次に、ステップS135において、棄却クラス判定部32eは、疵種を特定できないと判定された疵データの夫々について疵種抽出部32dにより抽出された、ステップS134の実行結果である疵種「C1」、「C2」の個数に基づいて、学習モデルBを適用した結果として、当該疵データの疵種を特定できるか否かを判定する。具体的に本実施形態では、疵種抽出部32dにより抽出された疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合に、棄却クラス判定部32eは、疵種を特定できないと判定する。
このように本実施形態では、ステップS135の処理を実行することにより第2の判定手段が実現される。
この判定の結果、疵種を特定できない場合には、ステップS136に進む。ステップS136に進むと、棄却クラス判定部32eは、疵種を特定できないと判定した第3群の疵データを棄却データとして抽出する。そして、ステップS137に進む。
Next, in step S135, the rejection class determination unit 32e extracts the species “C1”, which is the execution result of step S134, extracted by the species extraction unit 32d for each of the species data determined to be unable to identify the species. Based on the number of “C2”, as a result of applying the learning model B, it is determined whether or not the soot species of the soot data can be specified. Specifically, in the present embodiment, the ratio of the number of grape seeds “C1” to the total number of grape seeds “C1” and “C2” extracted by the grape seed extraction unit 32d is greater than 10% and smaller than 90%. Moreover, the rejection class determination unit 32e determines that the sow seed cannot be specified.
Thus, in the present embodiment, the second determination unit is realized by executing the process of step S135.
As a result of this determination, if the species cannot be identified, the process proceeds to step S136. If it progresses to step S136, the rejection class determination part 32e will extract the 3rd group of soot data determined that a sow seed | species cannot be specified as rejection data. Then, the process proceeds to step S137.

一方、疵種を特定できる場合には、ステップS136を省略してステップS137に進む。
ステップS137に進むと、疵種抽出部32dは、ステップS130で抽出された棄却データの全てについて、ステップS133〜S137の処理を行ったか否かを判定する。この判定の結果、ステップS130で抽出された棄却データの全てについて、ステップS133〜S137の処理を行っていない場合には、ステップS133に戻り、ステップS130で抽出された棄却データの全てについて、ステップS128〜S131の処理を行うまで、ステップSS133〜S137を繰り返し行う。そしてステップS138に進む。
On the other hand, if the species can be specified, step S136 is omitted and the process proceeds to step S137.
If it progresses to step S137, the grape seed extraction part 32d will determine whether the process of step S133-S137 was performed about all the rejection data extracted by step S130. As a result of this determination, if the processing of steps S133 to S137 has not been performed for all of the rejection data extracted in step S130, the process returns to step S133, and all of the rejection data extracted in step S130 is processed in step S128. Steps SS133 to S137 are repeated until the processing of S131 is performed. Then, the process proceeds to step S138.

ステップS138に進むと、データ点配置部32aは、ステップS136において棄却データが少なくとも1つ抽出されたか否かを判定する。この判定の結果、ステップS136において棄却データが少なくとも1つも抽出されなかった場合には、後述する図11−4のステップS149に進む。
一方、ステップS136において棄却データが少なくとも1つ抽出された場合には、ステップS139に進む。ステップS139に進むと、データ点配置部32aは、棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像を表示装置10に表示し、その表示した画像に対して検査員により入力された正解データを、対応する棄却データに紐つけて付与する。
In step S138, the data point arrangement unit 32a determines whether or not at least one rejection data is extracted in step S136. As a result of the determination, if at least one rejection data is not extracted in step S136, the process proceeds to step S149 in FIG.
On the other hand, if at least one rejection data is extracted in step S136, the process proceeds to step S139. In step S139, the data point arrangement unit 32a displays on the display device 10 an image representing the feature amount (feature amount that cannot specify the species) indicated by the rejection data, and the inspector inputs the displayed image. The correct answer data is given in association with the corresponding rejection data.

次に、図11−4のステップS140において、データ点配置部32aは、第3群の特徴量f101〜f150の組み合わせの1つを選択し、選択した組み合わせの各特徴量を軸とする座標空間(特徴量空間)に、ステップS139で疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の夫々のデータ点を配置する。尚、部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。   Next, in step S140 of FIG. 11-4, the data point arrangement unit 32a selects one of the combinations of the third group of feature quantities f101 to f150, and a coordinate space with each feature quantity of the selected combination as an axis. In the (feature amount space), the respective data points of the reject data (third group of trap data for which the trap type cannot be identified) to which the correct data of the trap types “C1” and “C2” are assigned in step S139 are arranged. If the partial feature amount space has already been generated, the data point arrangement unit 32a also arranges the data points of the eyelid data used when generating the partial feature amount space in the coordinate space.

次に、ステップS141において、特徴量組み合わせ判別部32bは、ステップS140におけるデータ点の夫々の配置結果に基づいて、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の特徴量の値の領域が相互に重複していない場合には、後述するステップS144に進む。
一方、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の特徴量の値の領域が相互に重複している場合には、ステップS142に進む。ステップS142に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS140で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルCに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルCに含まれている場合には、ステップS143に進む。
Next, in step S141, the feature amount combination determination unit 32b, based on the result of the arrangement of the data points in step S140, reject data (species of “C1” and “C2”). It is determined whether or not the region of the feature value values of the third group (疵 data that cannot be specified) overlap each other. As a result of this determination, the feature value areas of the rejection data (third group of cocoon data in which the cocoon type cannot be identified) to which correct data of the cocoon types “C1” and “C2” are assigned do not overlap each other. In this case, the process proceeds to step S144 described later.
On the other hand, when the areas of the feature value values of the rejection data (third group of cocoon data for which the cocoon type cannot be identified) to which the correct data of the cocoon types “C1” and “C2” are assigned overlap each other The process proceeds to step S142. When the process proceeds to step S142, the learning model generation unit 32c refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S140 and the kind “C1”, “ It is determined whether or not the learning model C includes a partial feature amount space for associating with “C2”. As a result of this determination, if the partial feature amount space is included in the learning model C, the process proceeds to step S143.

ステップS143に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルCから削除して、学習モデルCを更新する。そして、後述するステップS146に進む。
一方、当該部分特徴量空間が学習モデルCに含まれていない場合には、ステップS143を省略して、後述するステップS146に進む。
In step S143, the learning model update unit 34 deletes the partial feature amount space from the learning model C and updates the learning model C. And it progresses to step S146 mentioned later.
On the other hand, when the partial feature amount space is not included in the learning model C, step S143 is omitted and the process proceeds to step S146 described later.

ステップS141において、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の特徴量の値の領域が相互に重複していないと判定された場合には、ステップS145に進む。ステップS145に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS140で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルCに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルCに含まれていない場合には、ステップS145に進む。   In step S141, the feature value value areas of the reject data (third group cocoon data in which the cocoon type cannot be identified) to which the correct data of the cocoon types “C1” and “C2” are assigned do not overlap each other. If it is determined, the process proceeds to step S145. When the process proceeds to step S145, the learning model generation unit 32c refers to the learning model update unit 34, and sets the value of each feature amount of the axis of the coordinate space in which the eyelid data is arranged in step S140 and the kind “C1”, “ It is determined whether or not the learning model C includes a partial feature amount space for associating with “C2”. As a result of the determination, if the partial feature amount space is not included in the learning model C, the process proceeds to step S145.

ステップS145に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルCに追加して、学習モデルCを更新する。そして、ステップS146に進む。
一方、当該部分特徴量空間が学習モデルCに含まれている場合には、ステップS145を省略してステップS146に進む。
In step S145, the learning model update unit 34 updates the learning model C by adding the partial feature amount space to the learning model C. Then, the process proceeds to step S146.
On the other hand, when the partial feature amount space is included in the learning model C, step S145 is omitted and the process proceeds to step S146.

以上のように本実施形態では、ステップS140の処理を実行することにより配置手段が実現され、ステップS141の処理を実行することにより第3の判別手段が実現され、ステップS142〜S145の処理を実行することにより第3の生成手段、更新手段が実現される。   As described above, in the present embodiment, the placement unit is realized by executing the process of step S140, the third determination unit is realized by executing the process of step S141, and the processes of steps S142 to S145 are executed. Thus, the third generation unit and the update unit are realized.

ステップS146に進むと、特徴量組み合わせ判別部32bは、第3群の特徴量f101〜f150の組み合わせを全て選択したか否かを判定する。この判定の結果、第3群の特徴量f101〜f150の組み合わせを全て選択していない場合には、ステップS140に戻り、第3群の特徴量f101〜f150の組み合わせを全て選択するまで、ステップS140〜ステップS146の処理を繰り返し行う。そして、ステップS147に進む。
尚、本実施形態では、第3群の特徴量f101〜f150の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、第3群の特徴量f101〜f150の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S146, the feature amount combination determination unit 32b determines whether all combinations of the third group of feature amounts f101 to f150 have been selected. As a result of the determination, if all combinations of the third group of feature quantities f101 to f150 have not been selected, the process returns to step S140, and step S140 is continued until all of the third group of feature quantities f101 to f150 are selected. Step S146 is repeated. Then, the process proceeds to step S147.
In the present embodiment, all combinations of the third group of feature amounts f101 to f150 are selected, but this is not necessarily required. For example, 2 to n (n is an integer greater than or equal to 3 (for example, 8)) combinations among the combinations of the feature amounts f101 to f150 of the third group may be selected.

ステップS147に進むと、学習モデル生成部32cは、ステップS140〜S147の結果に基づいて、最新の学習モデルCの内容を確定する。
次に、ステップS148において、学習モデル出力部35は、ステップS147で確定された学習モデルCのデータを疵判定装置6に出力する。そして、ステップS149に進む。
ステップS149に進むと、自律学習判定部36は、ステップS107、S109、S122、S124、S143、S145の結果に基づいて、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、自律学習判定部36は、今回の学習において計数した数と、前回の学習において計数した数との差の絶対値が閾値以下であるか否かを判定する。
この判定の結果、そして、自律学習判定部36は、例えば、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でない場合には、後述するステップS152に進む。
In step S147, the learning model generation unit 32c determines the contents of the latest learning model C based on the results of steps S140 to S147.
Next, in step S148, the learning model output unit 35 outputs the data of the learning model C determined in step S147 to the wrinkle determination device 6. Then, the process proceeds to step S149.
Proceeding to step S149, the autonomous learning determination unit 36 has not been updated among the partial feature amount spaces included in the learning models A to C based on the results of steps S107, S109, S122, S124, S143, and S145. The number of partial feature space is counted. And the autonomous learning determination part 36 determines whether the absolute value of the difference of the number counted in this learning and the number counted in the last learning is below a threshold value.
As a result of this determination, the autonomous learning determination unit 36, for example, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, It progresses to step S152 mentioned later.

一方、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下である場合には、教師なし学習を行えると判断してステップS150に進む。ステップS150に進むと、自律学習判定部36は、自律学習フラグがオフされているか否かを判定する。この判定の結果、自律学習フラグがオフされている場合には、ステップS151に進む。ステップS151に進むと、自律学習判定部36は、自律学習フラグをオンする。そして、図11のフローチャートによる処理を終了する。   On the other hand, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is equal to or less than the threshold, it is determined that unsupervised learning can be performed, and the process proceeds to step S150. . In step S150, the autonomous learning determination unit 36 determines whether or not the autonomous learning flag is turned off. As a result of this determination, if the autonomous learning flag is turned off, the process proceeds to step S151. In step S151, the autonomous learning determination unit 36 turns on the autonomous learning flag. And the process by the flowchart of FIG. 11 is complete | finished.

一方、自律学習フラグがオンされている場合には、ステップS151を省略して、図11のフローチャートによる処理を終了する。
ステップS149において、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でないと判定された場合には、教師なし学習を行えないと判断してステップS152に進む。ステップS152に進むと、自律学習判定部36は、自律学習フラグがオンされているか否かを判定する。この判定の結果、自律学習フラグがオンされている場合には、ステップS153に進む。ステップS153に進むと、自律学習判定部36は、自律学習フラグをオフする。そして、図11のフローチャートによる処理を終了する。
一方、自律学習フラグがオフされている場合には、ステップS153を省略して、図11のフローチャートによる処理を終了する。
On the other hand, when the autonomous learning flag is turned on, step S151 is omitted and the process according to the flowchart of FIG. 11 is terminated.
If it is determined in step S149 that the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, it is determined that unsupervised learning cannot be performed. Then, the process proceeds to step S152. In step S152, the autonomous learning determination unit 36 determines whether or not the autonomous learning flag is turned on. If the result of this determination is that the autonomous learning flag is on, processing proceeds to step S153. In step S153, the autonomous learning determination unit 36 turns off the autonomous learning flag. And the process by the flowchart of FIG. 11 is complete | finished.
On the other hand, when the autonomous learning flag is turned off, step S153 is omitted and the process according to the flowchart of FIG. 11 is terminated.

図11−1のステップS102において、自律学習フラグがオンされており、教師なし学習を行えると判定された場合には、図11−5のステップS154に進む。ステップS154に進むと、疵種抽出部33aは、疵データ取得部31により取得された疵データの夫々について、学習モデル更新部34に記憶されている学習モデルAを適用して(疵データの夫々を学習モデルAに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS154の処理を実行することにより抽出手段が実現される。
If it is determined in step S102 in FIG. 11A that the autonomous learning flag is on and unsupervised learning can be performed, the process proceeds to step S154 in FIG. 11-5. In step S154, the cocoon seed extraction unit 33a applies the learning model A stored in the learning model update unit 34 to each of the cocoon data acquired by the cocoon data acquisition unit 31 (each of the cocoon data Are placed in each partial feature amount space included in the learning model A), and information on any of the species “C1” and “C2” is extracted from each partial feature amount space.
As described above, in the present embodiment, the extraction unit is realized by executing the process of step S154.

次に、ステップS155において、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、ステップS154の実行結果である疵種「C1」、「C2」の個数に基づいて、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。
このように本実施形態では、ステップS155の処理を実行することにより判定手段が実現される。
この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が90%以上である場合には、ステップS156に進み、棄却クラス判定部33bは、学習モデルAを適用した疵データは疵種「C1」に属すものであると判断する。そして、後述するステップS158に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%以下である場合には、ステップS157に進み、棄却クラス判定部33bは、学習モデルAを適用した疵データは疵種「C2」属すものであると判断する。そして、後述するステップS158に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合には、図11−6のステップS174に進む。
Next, in step S155, the rejection class determination unit 33b determines the type “C1” based on the number of types “C1” and “C2” that are the execution results of step S154 extracted by the type extraction unit 33a. ], The ratio of the number of the seeds “C1” to the total number of “C2” is determined.
Thus, in the present embodiment, the determination unit is realized by executing the process of step S155.
As a result of the determination, when the ratio of the number of the species “C1” to the total number of the species “C1” and “C2” is 90% or more, the process proceeds to step S156, and the rejection class determination unit 33b determines the learning model. It is determined that the soot data to which A is applied belongs to the soot type “C1”. And it progresses to step S158 mentioned later.
Further, when the ratio of the number of types “C1” to the total number of types “C1” and “C2” is 10% or less, the process proceeds to step S157, and the rejection class determination unit 33b applies the learning model A. It is determined that the soot data belongs to the soot type “C2”. And it progresses to step S158 mentioned later.
Further, when the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is larger than 10% and smaller than 90%, the process proceeds to step S174 in FIG. 11-6.

ステップS158に進むと、疵種データ付与部33cは、ステップS156で疵種「C1」に属すものと判定された疵データに対し、疵種「C1」のデータを紐つけて付与し、ステップS157で疵種「C2」に属すものと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。これにより、学習モデルAにより疵種「C1」、「C2」が特定された疵データと疵種「C1」、「C2」のデータとが対応付けられる。
次に、ステップS159において、データ点配置部33dは、特徴量f1〜f150の組み合わせの1つを選択し、選択した各特徴量を軸とする座標空間(特徴量空間)に、ステップS158で疵種「C1」、「C2」のデータが付与された疵データのデータ点を配置する。尚、データ点配置部33dは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
In step S158, the species data giving unit 33c associates and assigns the data of the species “C1” to the species data determined to belong to the species “C1” in step S156, and performs step S157. Then, the data of the species “C2” is associated with the grape data determined to belong to the species “C2”. Thereby, the cocoon data for which the species “C1” and “C2” are specified by the learning model A are associated with the data of the species “C1” and “C2”.
Next, in step S159, the data point arrangement unit 33d selects one of the combinations of the feature amounts f1 to f150, and in step S158, the coordinate point (feature amount space) having each selected feature amount as an axis is selected. The data points of the cocoon data to which the data of the seeds “C1” and “C2” are assigned are arranged. Note that the data point arrangement unit 33d also arranges the data points of the eyelid data used when generating the existing partial feature amount space in the coordinate space.

次に、ステップS160において、特徴量組み合わせ判別部33eは、ステップS159における結果に基づいて、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合には、後述するステップS163に進む。
一方、それらの疵データの特徴量の値の領域が相互に重複している場合には、ステップS161に進む。ステップS161に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS159で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルAに含まれている場合には、ステップS162に進む。
Next, in step S160, the feature amount combination determination unit 33e, based on the result in step S159, sets the feature value value areas of the cocoon data to which the data of the cocoon types “C1” and “C2” are assigned to each other. It is determined whether or not there are duplicates. As a result of this determination, if the regions of the feature value values of the eyelid data do not overlap each other, the process proceeds to step S163 described later.
On the other hand, when the regions of the feature value values of the eyelid data overlap with each other, the process proceeds to step S161. When the process proceeds to step S161, the learning model generation unit 33f refers to the learning model update unit 34, and sets the feature value values of the axis of the coordinate space in which the eyelid data is arranged in step S159 and the kind “C1”, “ It is determined whether or not the learning model A includes a partial feature amount space for associating with “C2”. As a result of this determination, when the partial feature amount space is included in the learning model A, the process proceeds to step S162.

ステップS162に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルAから削除して、学習モデルAを更新する。そして、後述するステップS165に進む。
一方、当該部分特徴量空間が学習モデルAに含まれていない場合には、ステップS162を省略して、後述するステップS165に進む。
In step S162, the learning model update unit 34 deletes the partial feature amount space from the learning model A and updates the learning model A. And it progresses to step S165 mentioned later.
On the other hand, when the partial feature amount space is not included in the learning model A, step S162 is omitted and the process proceeds to step S165 described later.

ステップS160において、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複していないと判定された場合には、ステップS163に進む。ステップS163に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS159で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルAに含まれていない場合には、ステップS164に進む。   If it is determined in step S160 that the feature value areas of the cocoon data to which the cocoon species “C1” and “C2” data are assigned do not overlap with each other, the process proceeds to step S163. When the process proceeds to step S163, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S159 and the kind “C1”, “ It is determined whether or not a partial feature amount space for associating with “C2” is included in the learning model A. As a result of the determination, if the partial feature amount space is not included in the learning model A, the process proceeds to step S164.

ステップS164に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルAに追加して、学習モデルAを更新する。そして、ステップS165に進む。
一方、当該部分特徴量空間が学習モデルAに含まれている場合には、ステップS164を省略してステップS165に進む。
In step S164, the learning model update unit 34 adds the partial feature amount space to the learning model A and updates the learning model A. Then, the process proceeds to step S165.
On the other hand, when the partial feature amount space is included in the learning model A, step S164 is omitted and the process proceeds to step S165.

以上のように本実施形態では、ステップS159の処理を実行することにより配置手段が実現され、ステップS160の処理を実行することにより第1の判別手段が実現され、ステップS161〜S164の処理を実行することにより第1の生成手段、更新手段が実現される。   As described above, in the present embodiment, the placement unit is realized by executing the processing of step S159, the first determination unit is realized by executing the processing of step S160, and the processing of steps S161 to S164 is executed. By doing so, the first generating means and updating means are realized.

ステップS165に進むと、特徴量組み合わせ判別部33eは、特徴量f1〜f150の組み合わせを全て選択したか否かを判定する。この判定の結果、特徴量f1〜f150の組み合わせを全て選択していない場合には、ステップS159に戻り、特徴量f1〜f150の組み合わせを全て選択するまで、ステップS159〜S165の処理を繰り返し行う。そして、ステップS166に進む。
尚、本実施形態では、特徴量f1〜f150の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、特徴量f1〜f150の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S165, the feature amount combination determination unit 33e determines whether all combinations of the feature amounts f1 to f150 have been selected. As a result of the determination, if all the combinations of the feature amounts f1 to f150 are not selected, the process returns to step S159, and the processes of steps S159 to S165 are repeated until all the combinations of the feature amounts f1 to f150 are selected. Then, the process proceeds to step S166.
In the present embodiment, all combinations of the feature amounts f1 to f150 are selected, but it is not always necessary to do so. For example, all the combinations of 2 to n (n is an integer of 3 or more (for example, 8)) among the combinations of the feature amounts f1 to f150 may be selected.

ステップS166に進むと、学習モデル生成部33fは、ステップS159〜S165の結果に基づいて、最新の学習モデルAの内容を確定する。
次に、ステップS167において、学習モデル出力部35は、ステップS166で確定された学習モデルAのデータを疵判定装置6に出力する。
次に、ステップS168において、疵種抽出部33aは、疵データ取得部31により取得された疵データの全てについて処理を行ったか否かを判定する。この判定の結果、疵データ取得部31により取得された疵データの全てについて処理を行っていない場合には、ステップS154に戻り、残りの疵データに対して、前述したステップS154の処理を実行する。
一方、疵データ取得部31により取得された疵データの全てについて処理を行った場合には、図11−7のステップS169に進む。ステップS169に進むと、自律学習判定部36は、ステップS162、S164や、後述するステップS182、S184、S197、S199の結果に基づいて、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、自律学習判定部36は、今回の学習において計数した数と、前回の学習において計数した数との差の絶対値が閾値以下であるか否かを判定する。
この判定の結果、そして、自律学習判定部36は、例えば、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でない場合には、後述するステップS172に進む。
In step S166, the learning model generation unit 33f determines the content of the latest learning model A based on the results of steps S159 to S165.
Next, in step S167, the learning model output unit 35 outputs the data of the learning model A determined in step S166 to the wrinkle determination device 6.
Next, in step S168, the soy seed extraction unit 33a determines whether or not all the soot data acquired by the soot data acquisition unit 31 has been processed. If the result of this determination is that processing has not been performed for all of the eyelid data acquired by the eyelid data acquisition unit 31, the process returns to step S154, and the processing of step S154 described above is performed on the remaining eyelid data. .
On the other hand, when processing has been performed for all of the eyelid data acquired by the eyelid data acquisition unit 31, the process proceeds to step S169 in FIG. 11-7. Proceeding to step S169, the autonomous learning determination unit 36, among the partial feature amount spaces included in the learning models A to C, based on the results of steps S162, S164 and steps S182, S184, S197, S199 described later, Count the number of partial feature spaces that have not been updated. And the autonomous learning determination part 36 determines whether the absolute value of the difference of the number counted in this learning and the number counted in the last learning is below a threshold value.
As a result of this determination, the autonomous learning determination unit 36, for example, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, It progresses to step S172 mentioned later.

一方、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下である場合には、教師なし学習を行えると判断してステップS170に進む。ステップS170に進むと、自律学習判定部36は、自律学習フラグがオフされているか否かを判定する。この判定の結果、自律学習フラグがオフされている場合には、ステップS171に進む。ステップS171に進むと、自律学習判定部36は、自律学習フラグをオンする。そして、図11のフローチャートによる処理を終了する。   On the other hand, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is less than or equal to the threshold, it is determined that unsupervised learning can be performed, and the process proceeds to step S170. . In step S170, the autonomous learning determination unit 36 determines whether or not the autonomous learning flag is turned off. If the result of this determination is that the autonomous learning flag is off, processing proceeds to step S171. In step S171, the autonomous learning determination unit 36 turns on the autonomous learning flag. And the process by the flowchart of FIG. 11 is complete | finished.

一方、自律学習フラグがオンされている場合には、ステップS171を省略して、図11のフローチャートによる処理を終了する。
ステップS170において、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でないと判定された場合には、教師なし学習を行えないと判断してステップS172に進む。ステップS172に進むと、自律学習判定部36は、自律学習フラグがオンされているか否かを判定する。この判定の結果、自律学習フラグがオンされている場合には、ステップS173に進む。ステップS173に進むと、自律学習判定部36は、自律学習フラグをオフする。そして、図11のフローチャートによる処理を終了する。
一方、自律学習フラグがオフされている場合には、ステップS173を省略して、図11のフローチャートによる処理を終了する。
On the other hand, when the autonomous learning flag is turned on, step S171 is omitted and the processing according to the flowchart of FIG. 11 is terminated.
If it is determined in step S170 that the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, it is determined that unsupervised learning cannot be performed. Then, the process proceeds to step S172. In step S172, the autonomous learning determination unit 36 determines whether or not the autonomous learning flag is turned on. If the result of this determination is that the autonomous learning flag is on, processing proceeds to step S173. In step S173, the autonomous learning determination unit 36 turns off the autonomous learning flag. And the process by the flowchart of FIG. 11 is complete | finished.
On the other hand, when the autonomous learning flag is turned off, step S173 is omitted and the process according to the flowchart of FIG. 11 is terminated.

ステップS155において、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さいと判定された場合には、図11−6のステップS174に進む。ステップS174に進むと、疵種抽出部33aは、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さいと判定され、学習モデルAでは疵種「C1」、「C2」が特定できなかった疵データの夫々について、学習モデル更新部34に記憶されている学習モデルBを適用して(疵データの夫々を学習モデルBに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS174の処理を実行することにより第2の抽出手段が実現される。
If it is determined in step S155 that the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is greater than 10% and less than 90%, the step of FIG. 11-6 is performed. The process proceeds to S174. Proceeding to step S174, the culm seed extraction unit 33a determines that the ratio of the number of cultivar “C1” to the total number of cultivar “C1” and “C2” is greater than 10% and smaller than 90%. In model A, the learning model B stored in the learning model update unit 34 is applied to each of the bag data for which the bottle types “C1” and “C2” cannot be identified (each of the bag data is used as the learning model B). Arranged in each included partial feature amount space), information on any of the species “C1” and “C2” is extracted from each partial feature amount space.
Thus, in the present embodiment, the second extraction unit is realized by executing the process of step S174.

次に、ステップS175において、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、ステップS174の実行結果である疵種「C1」、「C2」の個数に基づいて、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。
このように本実施形態では、ステップS175の処理を実行することにより第2の判定手段が実現される。
この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が90%以上である場合には、ステップS176に進み、棄却クラス判定部33bは、学習モデルBを適用した疵データは疵種「C1」に属すものであると判断する。そして、後述するステップS178に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%以下である場合には、ステップS177に進み、棄却クラス判定部33bは、学習モデルBを適用した疵データは疵種「C2」に属すものであると判断する。そして、後述するステップS178に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合には、図11−7のステップS189に進む。
Next, in step S175, the rejection class determination unit 33b determines the type “C1” based on the number of types “C1” and “C2”, which are the execution results of step S174, extracted by the type extraction unit 33a. ], The ratio of the number of the seeds “C1” to the total number of “C2” is determined.
Thus, in the present embodiment, the second determination unit is realized by executing the process of step S175.
As a result of the determination, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 90% or more, the process proceeds to step S176, and the rejection class determination unit 33b determines the learning model. It is determined that the soot data to which B is applied belongs to the soot type “C1”. And it progresses to step S178 mentioned later.
Further, when the ratio of the number of types “C1” to the total number of types “C1” and “C2” is 10% or less, the process proceeds to step S177, and the rejection class determination unit 33b applies the learning model B. It is determined that the soot data belongs to the soot type “C2”. And it progresses to step S178 mentioned later.
Further, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is larger than 10% and smaller than 90%, the process proceeds to step S189 in FIG. 11-7.

ステップS178に進むと、疵種データ付与部33cは、ステップS176で疵種「C1」に属すものと判定された疵データに対し、疵種「C1」のデータを付与し、ステップS177で疵種「C2」に属すものと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。これにより、学習モデルBにより疵種「C1」、「C2」が特定された疵データと疵種「C1」、「C2」のデータとが対応付けられる。
次に、ステップS179において、データ点配置部33dは、特徴量f1〜f150の組み合わせの1つを選択し、選択した各特徴量を軸とする座標空間(特徴量空間)に、ステップS178で疵種「C1」、「C2」のデータが付与された疵データのデータ点を配置する。尚、データ点配置部33dは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
When the process proceeds to step S178, the soot seed data adding unit 33c attaches the soot type "C1" data to the soot data determined to belong to the soot type "C1" in step S176, and in step S177, the soot seed type is assigned. The cocoon data “C2” is associated with the cocoon data determined to belong to “C2”. Thereby, the cocoon data for which the species “C1” and “C2” are specified by the learning model B are associated with the data of the species “C1” and “C2”.
Next, in step S179, the data point arrangement unit 33d selects one of the combinations of the feature quantities f1 to f150, and in step S178, the coordinate space (feature quantity space) having each selected feature quantity as an axis is selected. The data points of the eyelid data to which the data of the seeds “C1” and “C2” are assigned are arranged. Note that the data point arrangement unit 33d also arranges the data points of the eyelid data used when generating the existing partial feature amount space in the coordinate space.

次に、ステップS180において、特徴量組み合わせ判別部33eは、ステップS159における結果に基づいて、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合には、後述するステップS183に進む。
一方、それらの疵データの特徴量の値の領域が相互に重複している場合には、ステップS181に進む。ステップS181に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS179で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルBに含まれている場合には、ステップS182に進む。
Next, in step S180, the feature amount combination determination unit 33e, based on the result in step S159, sets the feature value value areas of the cocoon data to which the varieties “C1” and “C2” data are assigned to each other. It is determined whether or not there are duplicates. As a result of this determination, if the regions of the feature value values of the eyelid data do not overlap with each other, the process proceeds to step S183 described later.
On the other hand, if the regions of the feature value values of the eyelid data overlap each other, the process proceeds to step S181. When the process proceeds to step S181, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature quantity of the axis of the coordinate space in which the eyelid data is arranged in step S179 and the kind “C1”, “ It is determined whether or not a partial feature amount space for associating with “C2” is included in the learning model B. As a result of this determination, if the partial feature amount space is included in the learning model B, the process proceeds to step S182.

ステップS182に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルBから削除して、学習モデルBを更新する。そして、後述するステップS185に進む。
一方、当該部分特徴量空間が学習モデルBに含まれていない場合には、ステップS182を省略して、後述するステップS185に進む。
In step S182, the learning model update unit 34 deletes the partial feature amount space from the learning model B and updates the learning model B. And it progresses to step S185 mentioned later.
On the other hand, when the partial feature amount space is not included in the learning model B, step S182 is omitted and the process proceeds to step S185 described later.

ステップS180において、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複していないと判定された場合には、ステップS183に進む。ステップS183に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS179で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルBに含まれていない場合には、ステップS184に進む。   If it is determined in step S180 that the feature value areas of the cocoon data to which the cocoon species “C1” and “C2” data are assigned do not overlap with each other, the process proceeds to step S183. When the process proceeds to step S183, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature amount of the coordinate space axis in which the eyelid data is arranged in step S179 and the kind “C1”, “ It is determined whether or not the learning model B includes a partial feature amount space for associating with “C2”. As a result of the determination, if the partial feature amount space is not included in the learning model B, the process proceeds to step S184.

ステップS184に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルBに追加して、学習モデルBを更新する。そして、ステップS185に進む。
一方、当該部分特徴量空間が学習モデルBに含まれている場合には、ステップS184を省略してステップS185に進む。
In step S184, the learning model update unit 34 adds the partial feature amount space to the learning model B and updates the learning model B. Then, the process proceeds to step S185.
On the other hand, if the partial feature amount space is included in the learning model B, step S184 is omitted and the process proceeds to step S185.

以上のように本実施形態では、ステップS179の処理を実行することにより配置手段が実現され、ステップS180の処理を実行することにより第2の判別手段が実現され、ステップS181〜S184の処理を実行することにより第2の生成手段、更新手段が実現される。   As described above, in the present embodiment, the placement unit is realized by executing the process of step S179, the second determination unit is realized by executing the process of step S180, and the processes of steps S181 to S184 are executed. By doing so, the second generating means and updating means are realized.

ステップS185に進むと、特徴量組み合わせ判別部33eは、特徴量f1〜f150の組み合わせを全て選択したか否かを判定する。この判定の結果、特徴量f1〜f150の組み合わせを全て選択していない場合には、ステップS179に戻り、特徴量f1〜f150の組み合わせを全て選択するまで、ステップS179〜ステップS185の処理を繰り返し行う。そして、ステップS186に進む。
尚、本実施形態では、特徴量f1〜f150の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、特徴量f1〜f150の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S185, the feature amount combination determination unit 33e determines whether all combinations of the feature amounts f1 to f150 have been selected. As a result of the determination, if all the combinations of the feature amounts f1 to f150 have not been selected, the process returns to step S179, and the processes of steps S179 to S185 are repeated until all the combinations of the feature amounts f1 to f150 are selected. . Then, the process proceeds to step S186.
In the present embodiment, all combinations of the feature amounts f1 to f150 are selected, but it is not always necessary to do so. For example, all the combinations of 2 to n (n is an integer of 3 or more (for example, 8)) among the combinations of the feature amounts f1 to f150 may be selected.

ステップS186に進むと、学習モデル生成部33fは、ステップS179〜S185の結果に基づいて、最新の学習モデルBの内容を確定する。
次に、ステップS187において、学習モデル出力部35は、ステップS186で確定された学習モデルBのデータを疵判定装置6に出力する。
次に、ステップS188において、疵種抽出部33aは、疵データ取得部31により取得された疵データの全てについて処理を行ったか否かを判定する。この判定の結果、疵データ取得部31により取得された疵データの全てについて処理を行っていない場合には、図11−5のステップS154に戻り、残りの疵データに対して、前述したステップS154の処理を実行する。
In step S186, the learning model generation unit 33f determines the content of the latest learning model B based on the results of steps S179 to S185.
Next, in step S187, the learning model output unit 35 outputs the learning model B data determined in step S186 to the wrinkle determination device 6.
Next, in step S188, the soy seed extraction unit 33a determines whether or not the processing has been performed for all of the soot data acquired by the soot data acquisition unit 31. If the result of this determination is that processing has not been performed for all of the eyelid data acquired by the eyelid data acquisition unit 31, the process returns to step S154 in FIG. Execute the process.

一方、疵データ取得部31により取得された疵データの全てについて処理を行った場合には、前述した図11−7のステップS169に進む。ステップS169に進むと、自律学習判定部36は、前述したステップS162、S164や、ステップS182、S184や、後述するS197、S199の結果に基づいて、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、ステップS170〜S173において、自律学習判定部36は、教師付き学習を行う場合には自律学習フラグをオフし、教師なし学習を行う場合には自律学習フラグをオンして図11のフローチャートを終了する。   On the other hand, when processing has been performed for all of the eyelid data acquired by the eyelid data acquisition unit 31, the process proceeds to step S169 in FIG. 11-7 described above. In step S169, the autonomous learning determination unit 36 determines the partial feature amount space included in the learning models A to C based on the results of steps S162 and S164 described above, steps S182 and S184, and S197 and S199 described later. Among them, the number of partial feature amount spaces that have not been updated is counted. In steps S170 to S173, the autonomous learning determination unit 36 turns off the autonomous learning flag when performing supervised learning, and turns on the autonomous learning flag when performing unsupervised learning. finish.

ステップS175において、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さいと判定された場合には、図11−7のステップS189に進む。ステップS189に進むと、疵種抽出部33aは、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さいと判定され、学習モデルA、Bでは疵種「C1」、「C2」が特定できなかった疵データの夫々について、学習モデル更新部34に記憶されている学習モデルCを適用して(疵データの夫々を学習モデルCに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS189の処理を実行することにより第3の抽出手段が実現される。
If it is determined in step S175 that the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is greater than 10% and less than 90%, the step of FIG. 11-7 is performed. The process proceeds to S189. Proceeding to step S189, the soot seed extraction unit 33a determines that the ratio of the number of soot seeds “C1” to the total number of soot seeds “C1” and “C2” is greater than 10% and less than 90%. In the models A and B, the learning model C stored in the learning model update unit 34 is applied to each of the bag data for which the bottle types “C1” and “C2” could not be identified (each of the bag data is a learning model). C) is placed in each partial feature amount space included in C), and information on any of the species “C1” and “C2” is extracted from each partial feature amount space.
As described above, in the present embodiment, the third extraction unit is realized by executing the process of step S189.

次に、ステップS190において、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、ステップS189の実行結果である疵種「C1」、「C2」の個数に基づいて、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。
このように本実施形態では、ステップS190の処理を実行することにより第3の判定手段が実現される。
この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が50%以上である場合には、ステップS191に進み、棄却クラス判定部33bは、学習モデルCを適用した疵データは疵種「C1」に属すものであると判断する。そして、ステップS193に進む。
一方、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が50%よりも低い場合には、ステップS192に進み、棄却クラス判定部33bは、学習モデルCを適用した疵データは疵種「C2」に属すものであると判断する。そして、ステップS193に進む。
Next, in step S190, the rejection class determination unit 33b determines the type “C1” based on the number of types “C1” and “C2”, which are the execution results of step S189, extracted by the type extraction unit 33a. ], The ratio of the number of the seeds “C1” to the total number of “C2” is determined.
Thus, in the present embodiment, the third determination unit is realized by executing the process of step S190.
As a result of the determination, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 50% or more, the process proceeds to step S191, and the rejection class determination unit 33b determines the learning model. It is determined that the soot data to which C is applied belongs to the soot type “C1”. Then, the process proceeds to step S193.
On the other hand, when the ratio of the number of species “C1” to the total number of species “C1” and “C2” is lower than 50%, the process proceeds to step S192, and the rejection class determination unit 33b applies the learning model C. It is determined that the soot data belongs to the soot type “C2”. Then, the process proceeds to step S193.

ステップS193に進むと、疵種データ付与部33cは、ステップS191で疵種C1に属すものと判定された疵データに対し、疵種「C1」のデータを付与し、ステップS192で疵種「C2」に属すものと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。これにより、学習モデルBにより疵種「C1」、「C2」が特定された疵データと疵種「C1」、「C2」のデータとが対応付けられる。
次に、ステップS194において、データ点配置部33dは、特徴量f1〜f150の組み合わせの1つを選択し、選択した各特徴量を軸とする座標空間(特徴量空間)に、ステップS193で疵種「C1」、「C2」のデータが付与された疵データのデータ点を配置する。尚、データ点配置部33dは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
Proceeding to step S193, the species data giving unit 33c gives the species “C1” data to the species data determined to belong to the species C1 in step S191, and the species “C2” in step S192. ”Is assigned to the cocoon data determined to belong to“ 疵 ”. Thereby, the cocoon data for which the species “C1” and “C2” are specified by the learning model B are associated with the data of the species “C1” and “C2”.
Next, in step S194, the data point arrangement unit 33d selects one of the combinations of the feature quantities f1 to f150, and in step S193, the coordinate space (feature quantity space) having each selected feature quantity as an axis is selected. The data points of the cocoon data to which the data of the seeds “C1” and “C2” are assigned are arranged. Note that the data point arrangement unit 33d also arranges the data points of the eyelid data used when generating the existing partial feature amount space in the coordinate space.

次に、ステップS195において、特徴量組み合わせ判別部33eは、ステップS194における結果に基づいて、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合には、後述するステップS198に進む。
一方、それらの疵データの特徴量の値の領域が相互に重複している場合には、ステップS196に進む。ステップS196に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS194で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルCに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルCに含まれている場合には、ステップS197に進む。
Next, in step S195, the feature amount combination determination unit 33e, based on the result in step S194, sets the regions of the feature amount values of the cocoon data to which the data of the cocoon types “C1” and “C2” are attached to each other. It is determined whether or not there are duplicates. As a result of this determination, if the regions of the feature value values of the eyelid data do not overlap each other, the process proceeds to step S198 described later.
On the other hand, if the regions of the feature value values of the eyelid data overlap each other, the process proceeds to step S196. When the process proceeds to step S196, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S194 and the kind “C1”, “ It is determined whether or not the learning model C includes a partial feature amount space for associating with “C2”. As a result of this determination, if the partial feature amount space is included in the learning model C, the process proceeds to step S197.

ステップS197に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルCから削除して、学習モデルCを更新する。そして、後述するステップS200に進む。
一方、当該部分特徴量空間が学習モデルCに含まれていない場合には、ステップS197を省略して、後述するステップS200に進む。
In step S197, the learning model update unit 34 deletes the partial feature amount space from the learning model C and updates the learning model C. And it progresses to step S200 mentioned later.
On the other hand, when the partial feature amount space is not included in the learning model C, step S197 is omitted and the process proceeds to step S200 described later.

ステップS195において、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複していないと判定された場合には、ステップS198に進む。ステップS198に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS194で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルCに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルCに含まれていない場合には、ステップS199に進む。   If it is determined in step S195 that the feature value areas of the cocoon data to which the cocoon species “C1” and “C2” data are assigned do not overlap with each other, the process proceeds to step S198. When the process proceeds to step S198, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S194 and the kind “C1”, “ It is determined whether or not the learning model C includes a partial feature amount space for associating with “C2”. As a result of the determination, if the partial feature amount space is not included in the learning model C, the process proceeds to step S199.

ステップS199に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルCに追加して、学習モデルCを更新する。そして、ステップS200に進む。
一方、当該部分特徴量空間が学習モデルCに含まれている場合には、ステップS199を省略してステップS200に進む。
In step S199, the learning model update unit 34 adds the partial feature amount space to the learning model C and updates the learning model C. Then, the process proceeds to step S200.
On the other hand, if the partial feature amount space is included in the learning model C, step S199 is omitted and the process proceeds to step S200.

以上のように本実施形態では、ステップS194の処理を実行することにより配置手段が実現され、ステップS195の処理を実行することにより第3の判別手段が実現され、ステップS196〜S199の処理を実行することにより第3の生成手段、更新手段が実現される。   As described above, in the present embodiment, the placement unit is realized by executing the process of step S194, the third determining unit is realized by executing the process of step S195, and the processes of steps S196 to S199 are executed. Thus, the third generation unit and the update unit are realized.

ステップS200に進むと、特徴量組み合わせ判別部33eは、特徴量f1〜f150の組み合わせを全て選択したか否かを判定する。この判定の結果、特徴量f1〜f150の組み合わせを全て選択していない場合には、ステップS194に戻り、特徴量f1〜f150の組み合わせを全て選択するまで、ステップS194〜ステップS200の処理を繰り返し行う。そして、ステップS201に進む。
尚、本実施形態では、特徴量f1〜f150の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、特徴量f1〜f150の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S200, the feature amount combination determination unit 33e determines whether all combinations of the feature amounts f1 to f150 have been selected. As a result of the determination, if all the combinations of the feature amounts f1 to f150 are not selected, the process returns to step S194, and the processes of steps S194 to S200 are repeatedly performed until all the combinations of the feature amounts f1 to f150 are selected. . Then, the process proceeds to step S201.
In the present embodiment, all combinations of the feature amounts f1 to f150 are selected, but it is not always necessary to do so. For example, all the combinations of 2 to n (n is an integer of 3 or more (for example, 8)) among the combinations of the feature amounts f1 to f150 may be selected.

ステップS201に進むと、学習モデル生成部33fは、ステップS194〜S200の結果に基づいて、最新の学習モデルCの内容を確定する。
次に、ステップS202において、学習モデル出力部35は、ステップS201で確定された学習モデルCのデータを疵判定装置6に出力する。
次に、ステップS203において、疵種抽出部33aは、疵データ取得部31により取得された疵データの全てについて処理を行ったか否かを判定する。この判定の結果、疵データ取得部31により取得された疵データの全てについて処理を行っていない場合には、図11−5のステップS154に戻り、残りの疵データに対して、前述したステップS154の処理を実行する。
In step S201, the learning model generation unit 33f determines the content of the latest learning model C based on the results of steps S194 to S200.
Next, in step S202, the learning model output unit 35 outputs the data of the learning model C determined in step S201 to the wrinkle determination device 6.
Next, in step S <b> 203, the soy seed extraction unit 33 a determines whether or not all the soot data acquired by the soot data acquisition unit 31 has been processed. If the result of this determination is that processing has not been performed for all of the eyelid data acquired by the eyelid data acquisition unit 31, the process returns to step S154 in FIG. Execute the process.

一方、疵データ取得部31により取得された疵データの全てについて処理を行った場合には、前述したステップS169に進む。ステップS169に進むと、自律学習判定部36は、前述したステップS162、S164、S182、S184や、ステップS197、S199の結果に基づいて、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、ステップS170〜S173において、自律学習判定部36は、教師付き学習を行う場合には自律学習フラグをオフし、教師なし学習を行う場合には自律学習フラグをオンして図11のフローチャートを終了する。   On the other hand, when processing has been performed for all of the eyelid data acquired by the eyelid data acquisition unit 31, the process proceeds to step S169 described above. Proceeding to step S169, the autonomous learning determination unit 36, among the partial feature amount spaces included in the learning models A to C, based on the results of steps S162, S164, S182, S184 and steps S197, S199 described above, Count the number of partial feature spaces that have not been updated. In steps S170 to S173, the autonomous learning determination unit 36 turns off the autonomous learning flag when performing supervised learning, and turns on the autonomous learning flag when performing unsupervised learning. finish.

以上のように本実施形態では、まず、第1群の特徴量f1〜f50について、第1群の特徴量f1〜f50の値の組と疵種「C1」、「C2」とを対応付けるための複数の部分特徴量空間を生成して学習モデルAを形成(学習)する。次に、第2群の特徴量f51〜f100のデータの夫々について学習モデルAを適用する。この結果、第2群の特徴量f51〜f100のデータのうち、学習モデルAでは疵種「C1」、「C2」を特定できない疵データを棄却クラスのデータとする。そして、学習モデルAでは疵種「C1」、「C2」を特定できない特徴量の値の組と疵種「C1」、「C2」とを対応付けるための複数の部分特徴量空間を生成して学習モデルBを形成(再学習)する。更に、第3群の特徴量f101〜f150のデータの夫々について学習モデルA、Bを順次適用する。この結果、第3群の特徴量f101〜f150のデータのうち、学習モデルAでも学習モデルBでも疵種「C1」、「C2」を特定できない疵データを棄却クラスのデータとする。そして、学習モデルAでも学習モデルBでも疵種「C1」、「C2」を特定できない特徴量の値の組と疵種「C1」、「C2」とを対応付けるための複数(好ましくは3つ以上)の部分特徴量空間を生成して学習モデルCを形成(再学習)する。   As described above, in the present embodiment, first, for the first group of feature quantities f1 to f50, the value groups of the first group of feature quantities f1 to f50 are associated with the species “C1” and “C2”. A plurality of partial feature amount spaces are generated to form (learn) the learning model A. Next, the learning model A is applied to each of the data of the feature amounts f51 to f100 of the second group. As a result, among the data of the feature quantities f51 to f100 of the second group, the soot data for which the soot species “C1” and “C2” cannot be specified in the learning model A is set as the rejection class data. In the learning model A, learning is performed by generating a plurality of partial feature amount spaces for associating the feature type values that cannot identify the species “C1” and “C2” with the species “C1” and “C2”. Model B is formed (relearned). Furthermore, the learning models A and B are sequentially applied to the data of the feature amounts f101 to f150 of the third group. As a result, among the data of the feature amounts f101 to f150 of the third group, the trap data that cannot identify the trap types “C1” and “C2” in both the learning model A and the learning model B are set as rejection class data. A plurality (preferably three or more) are associated with a pair of feature values that cannot identify the types “C1” and “C2” in the learning model A and the learning model B and the types “C1” and “C2”. ) To generate a learning model C (relearning).

以上のように、部分特徴量空間により構築される上位の学習モデル(学習モデルA、B)では疵種「C1」、「C2」を特定できない疵データについては、上位の学習モデル(学習モデルA、B)とは異なる特徴量で構成された部分特徴量空間により構築される下位の学習モデル(学習モデルB、C)を適用して疵種「C1」、「C2」を特定するようにした。したがって、上位の学習モデルで疵種「C1」、「C2」を特定できれば早い段階で疵の判別を行うことができる。一方、上位の学習モデルで疵種「C1」、「C2」を特定できなかった場合には、下位の学習モデルで疵種「C1」、「C2」を特定するようにして(学習モデルB、Cにより)学習モデルを強化することにより、疵種「C1」、「C2」を可及的に正確に特定することができる。よって、処理の負荷の増大を抑制しつつ、疵の判別性能を従来よりも向上させることができる。   As described above, in the upper learning model (learning model A, B) constructed by the partial feature amount space, the upper learning model (learning model A , B) is applied to a lower learning model (learning models B and C) constructed by a partial feature amount space constituted by feature amounts different from those of B), and the species “C1” and “C2” are specified. . Therefore, if the species “C1” and “C2” can be identified by the higher-level learning model, it is possible to determine the soot at an early stage. On the other hand, when the upper learning model cannot identify the species “C1” and “C2”, the lower learning model identifies the species “C1” and “C2” (learning model B, By strengthening the learning model (by C), the species “C1” and “C2” can be identified as accurately as possible. Therefore, it is possible to improve the discrimination performance of wrinkles as compared with the conventional one while suppressing an increase in processing load.

また、本実施形態では、学習モデルA〜Cを更新すると、それら学習モデルA〜Cに含まれる部分特徴量空間のうち、更新前後において変化のなかった部分特徴量空間の数に基づいて、検査員が設定した"疵種に関する正解データ"を疵データに付与して学習モデルを生成する教師付き学習と、学習モデルを適用することにより得られた"疵種のデータ"を疵データに付与して学習モデルを生成する教師なし学習との何れを行うのかを自動的に判定するようにした。したがって、学習モデルをして生成するか否かを判定するための普遍的な指標を与えることができ、従来のように正解データ(教師データ)を定常的に付与する必要がなくなるので、正解データ(教師データ)を付与する時間及び労力を低減させることができ、疵判定装置6における疵の判別性能を長時間に亘り自動的に維持することが容易に実現できる。その結果、疵判定装置6が安定して動作し、疵判定装置6の機能が長期間に亘り、検査対象物である鋼鈑1全体に対して発揮されるようになる。   Further, in the present embodiment, when the learning models A to C are updated, the inspection is performed based on the number of partial feature amount spaces that have not changed before and after the update among the partial feature amount spaces included in the learning models A to C. The supervised learning that generates the learning model by assigning the "correct data on the species" set by the staff to the learning data, and the "type data" obtained by applying the learning model Thus, it is automatically determined whether to perform unsupervised learning for generating a learning model. Therefore, it is possible to give a universal index for determining whether or not to generate a learning model, and there is no need to regularly provide correct answer data (teacher data) as in the past. It is possible to reduce the time and labor for giving (teacher data), and to easily maintain the wrinkle discrimination performance in the wrinkle determination device 6 for a long time. As a result, the scissors determination device 6 operates stably, and the function of the scissors determination device 6 is exerted on the entire steel plate 1 that is the inspection object over a long period of time.

尚、本実施形態では、疵種が疵種「C1」、「C2」である場合を例に挙げて説明したが、疵種の数は2つに限定されない。また、疵種の内容は、疵の種類及び等級に限定されるものではない。
また、本実施形態では、学習モデルA〜Cを生成(学習)するようにしたが、学習モデルの数は2つ以上であれば3つに限定されない。また、各学習モデルA〜Cにおける疵種を特定するための判別条件は、図10のステップS5、S9、S13に限定されるものではない。ただし、最後に生成される学習モデル(本実施形態では学習モデルC)については、特徴量が何れかの疵種「C1」、「C2」に属するように(すなわち、棄却クラスができないように)判別条件を生成する。
In the present embodiment, the case where the seeds are the seeds “C1” and “C2” has been described as an example, but the number of seeds is not limited to two. Moreover, the content of a cocoon kind is not limited to the kind and grade of a cocoon.
In the present embodiment, learning models A to C are generated (learned), but the number of learning models is not limited to three as long as the number is two or more. In addition, the determination conditions for specifying the species in each learning model A to C are not limited to steps S5, S9, and S13 in FIG. However, the last generated learning model (learning model C in the present embodiment) is such that the feature quantity belongs to one of the species “C1” and “C2” (that is, the rejection class cannot be made). A discrimination condition is generated.

また、本実施形態では、教師付き学習を行う場合、疵学習装置9の疵データ取得部31で取得された疵データを第1群〜第3群の疵データに分け、第1群〜第3群の疵データを、夫々学習モデルA〜Cの生成(学習)用に使用した。しかしながら、必ずしもこのようにする必要はなく、学習モデルA〜Cの生成(学習)用に、疵データを疵データ取得部31が個別に取得するようにしてもよい。   In this embodiment, when supervised learning is performed, the eyelid data acquired by the eyelid data acquisition unit 31 of the eyelid learning device 9 is divided into the first group to the third group of eyelid data, and the first group to the third group. Group wrinkle data was used for generation (learning) of learning models A to C, respectively. However, it is not always necessary to do this, and for the generation (learning) of learning models A to C, the eyelid data acquisition unit 31 may individually acquire the eyelid data.

また、本実施形態では、学習モデルA〜Cを生成(学習)するに際し、疵種「C1」、「C2」を完全に分離できる特徴量の値として、互いに異なる特徴量の値の組み合わせを抽出するようにした。すなわち、学習モデルAを生成(学習)する場合には、第1群の特徴量f1〜f50の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出し、学習モデルBを生成(学習)する場合には、第2群の特徴量f51〜f100の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出し、学習モデルCを生成(学習)する場合には、第3群の特徴量f101〜f150の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出するようにした。しかしながら、必ずしもこのようにする必要はない。   In the present embodiment, when generating (learning) the learning models A to C, combinations of different feature value values are extracted as feature value values that can completely separate the grape species “C1” and “C2”. I tried to do it. That is, when generating (learning) the learning model A, a combination of feature value values that can completely separate the species “C1” and “C2” from the feature values f1 to f50 of the first group is extracted. When generating (learning) the learning model B, a combination of feature value values that can completely separate the species “C1” and “C2” is extracted from the feature values f51 to f100 of the second group. When generating (learning) the learning model C, a combination of feature value values that can completely separate the species “C1” and “C2” is extracted from the feature values f101 to f150 of the third group. I tried to do it. However, this is not always necessary.

例えば、学習モデルA〜Cを生成(学習)するに際し、疵種「C1」、「C2」を完全に分離できる特徴量として、一部が重複する特徴量の値の組み合わせを抽出するようにしてもよい。例えば、学習モデルAを生成(学習)する場合には、第1群の特徴量f1〜f60の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出し、学習モデルBを生成(学習)する場合には、第2群の特徴量f51〜f110の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出し、学習モデルCを生成(学習)する場合には、第3群の特徴量f101〜f150の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出するようにしてもよい。   For example, when generating (learning) the learning models A to C, combinations of feature value values that partially overlap are extracted as feature values that can completely separate the varieties “C1” and “C2”. Also good. For example, when generating (learning) the learning model A, a combination of feature value values that can completely separate the species “C1” and “C2” is extracted from the feature values f1 to f60 of the first group. Then, when generating (learning) the learning model B, a combination of feature value values that can completely separate the species “C1” and “C2” from the feature values f51 to f110 of the second group is extracted. When generating (learning) the learning model C, a combination of feature value values that can completely separate the species “C1” and “C2” is extracted from the feature values f101 to f150 of the third group. You may make it do.

また、本実施形態では、今回の学習において計数した"更新されなかった部分特徴量空間"の数と、前回の学習において計数した"更新されなかった部分特徴量空間"の数との差の絶対値が閾値以下であるか否かを判定して、教師付き学習を行うか、教師なし学習を行うかを判定するようにした。しかしながら、必ずしもこのようにする必要はない。例えば、今回の学習において計数した"更新されなかった部分特徴量空間"の数が閾値以上であるか否かを判定するようにしてもよい。また、"更新されなかった部分特徴量空間"の数ではなく、"更新された部分特徴量空間"の数を計数するようにしてもよい。   In the present embodiment, the absolute difference between the number of “non-updated partial feature amount spaces” counted in the current learning and the number of “partial feature amount spaces not updated” counted in the previous learning is absolute. It is determined whether or not the value is equal to or less than a threshold value, and whether to perform supervised learning or unsupervised learning is determined. However, this is not always necessary. For example, it may be determined whether or not the number of “partial feature amount spaces not updated” counted in the current learning is equal to or greater than a threshold value. Further, the number of “updated partial feature amount spaces” may be counted instead of the number of “partial feature amount spaces that have not been updated”.

また、本実施形態では、疵判定装置6及び疵学習装置9がLANを介して相互に通信可能に接続されている場合を例に挙げて示したが、必ずしもこのようにする必要はない。例えば、疵判定装置6及び疵学習装置9は、相互に通信可能でなくてもよい。このようにした場合、疵学習装置9で得られた学習モデルをリムーバブルディスク等に記憶し、学習モデルを記憶したリムーバブルディスクを検査員が疵判定装置6に挿入し、学習モデルを疵判定装置6にインストールするようにすればよい。また、疵判定装置6及び疵学習装置9を1つの装置として構成してもよい。   In the present embodiment, the case where the eyelid determination device 6 and the eyelid learning device 9 are connected to each other via a LAN has been described as an example, but this is not necessarily required. For example, the eyelid determination device 6 and the eyelid learning device 9 may not be able to communicate with each other. In this case, the learning model obtained by the heel learning device 9 is stored in a removable disk or the like, the inspector inserts the removable disk storing the learning model into the heel determination device 6, and the learning model is stored in the heel determination device 6. You just have to install it. Moreover, you may comprise the wrinkle determination apparatus 6 and the wrinkle learning apparatus 9 as one apparatus.

尚、本実施形態では、部分特徴量空間を使った学習モデルを前提として説明を行ったが、決定木やSVM(Support Vector Machine)においても棄却クラスという概念を導入することができる。
まず、決定木について説明する。例えば、疵データに含まれている特徴量fxの値が1<fx<100の場合に疵種「C1」であると判断する判別条件が決定木に設定されているとする。この場合、この判別条件に代えて、疵データに含まれている特徴量fxの値が、10<fx<90の場合に疵種「C1」であると判断し、1<fx≦10或いは90≦fx<100の場合に棄却クラスであると判断する判別条件を設定する。そして、棄却クラスと判断された場合には、その疵データを使って、前記決定木の判別条件と異なる判別条件の決定木を生成(学習)する。
次に、SVMについて説明する。例えば、2つの特徴量の値の識別面からの距離Dが−X<D<X(Xは正数)の範囲内にある疵データを棄却クラスのデータとし、棄却クラスのデータとなった疵データを使って、前記SVMとは異なるSVMを生成(学習)する。この他、疵種「C1」、「C2」のサポートベクトルの境界面内にある疵データを棄却クラスのデータとしてもよい。
In the present embodiment, the description has been made on the premise of a learning model using a partial feature amount space, but the concept of a rejection class can also be introduced in a decision tree or SVM (Support Vector Machine).
First, the decision tree will be described. For example, it is assumed that a determination condition is set in the decision tree when the value of the feature value fx included in the cocoon data is 1 <fx <100, and it is determined that the cocoon type “C1”. In this case, instead of this determination condition, when the value of the feature quantity fx included in the bag data is 10 <fx <90, it is determined that the bag type is “C1”, and 1 <fx ≦ 10 or 90 A determination condition for determining that the class is a rejection class when ≦ fx <100 is set. If it is determined that the class is a rejection class, a decision tree having a determination condition different from the determination condition of the determination tree is generated (learned) using the trap data.
Next, SVM will be described. For example, 疵 data in which the distance D from the identification plane of the two feature values is within the range of −X <D <X (X is a positive number) is set as the rejection class data, and the 疵 data becomes the rejection class data. Using the data, an SVM different from the SVM is generated (learned). In addition, the defect data in the boundary surface of the support vectors of the species “C1” and “C2” may be used as the rejection class data.

(第2の実施形態)
次に、本発明の第2の実施形態について説明する。前述した第1の実施形態では、学習モデルにおける部分特徴量空間の個数に基づいて、教師付き学習を行うか、教師なし学習を行うかを判定するようにした。これに対し、本実施形態では、学習モデル間の距離に基づいて、教師付き学習を行うか、教師なし学習を行うかを判定する。このように本実施形態と前述した第1の実施形態とは、教師付き学習を行うか、教師なし学習を行うかの判定基準が主として異なる。したがって、本実施形態の説明において、前述した第1の実施形態と同一の部分については、図1〜図11に付した符号と同一の符号を付すこと等により、詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment described above, whether to perform supervised learning or unsupervised learning is determined based on the number of partial feature amount spaces in the learning model. In contrast, in this embodiment, it is determined whether to perform supervised learning or unsupervised learning based on the distance between learning models. In this way, the present embodiment and the first embodiment described above are mainly different in criteria for performing supervised learning or unsupervised learning. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment described above are denoted by the same reference numerals as those in FIGS.

図12は、学習モデル間の距離の一例を概念的に示す図である。
図12に示す例では、図12(a)に示すものの方が、図12(b)に示すものよりも、a(aは自然数)番目に生成された学習モデルPaと、(a+1)番目に生成された学習モデルPa+1との距離Dが大きい。学習モデルPa、Pa+1間の距離Dは、例えば、学習モデルPaの重心と、学習モデルPa+1の重心との間の距離により定めることができる。
ここで、学習モデルPa、Pa+1間の距離Dの算出方法の具体例を説明する。
まず、n次元の特徴量空間Fは、特徴量をfとすると、以下の(1)式のように表される。
F={f1,f2,・・・,fn}・・・(1)
FIG. 12 is a diagram conceptually illustrating an example of a distance between learning models.
In the example shown in FIG. 12, the direction of that shown in FIG. 12 (a), than that shown in FIG. 12 (b), a (a is a natural number) learning model P a which is generated th, (a + 1) -th The distance D from the learning model P a + 1 generated in ( 1) is large. Learning model P a, the distance D between the P a + 1, for example, it can be determined and the center of gravity of the learning model P a, the distance between the learning model P a + 1 of the center of gravity.
Here, learning model P a, an embodiment of a method of calculating the distance D between the P a + 1 will be described.
First, the n-dimensional feature amount space F is represented by the following equation (1), where f is the feature amount.
F = {f 1 , f 2 ,..., F n } (1)

このn次元の特徴量空間Fから、m個の特徴量fを取り出して得られるm次元の部分特徴量空間Gkは、以下の(2)式のように表される。
k={fθ1,fθ2,・・・,fθm
ただし、1≦m≦n、k={1,2,2n−1}・・・(2)
An m-dimensional partial feature amount space G k obtained by extracting m feature amounts f from the n-dimensional feature amount space F is expressed by the following equation (2).
G k = {fθ 1 , fθ 2 ,..., Fθ m }
However, 1 ≦ m ≦ n, k = {1, 2, 2 n −1} (2)

このとき、a番目に生成される部分特徴量空間の集合(学習モデル)Paは、La個の部分特徴量空間Fから成るものとする。そうすると、部分特徴量空間の集合Paは、以下の(3)式のように表される。ここで、任意の部分特徴量空間に、ある特徴量が含まれているか否かを表す関数ξを、以下の(4)式のように定義する。そうすると、部分特徴量空間の集合は、以下の(5)式のように表される。 In this case, a set of partial feature space that is generated a second (learning model) P a is assumed to consist of L a number of partial feature amount space F. Then, the set P a of the partial feature amount space is expressed as the following equation (3). Here, a function ξ representing whether or not a certain feature amount is included in an arbitrary partial feature amount space is defined as the following equation (4). Then, the set of partial feature amount spaces is expressed as the following equation (5).

Figure 2009250722
Figure 2009250722

そして、(5)式を用いると、部分特徴量空間の集合の重心μaは、以下の(6)式のように表される。そうすると、重心間の距離Dは、以下の(7)式で表される。 Then, using equation (5), the center of gravity μ a of the set of partial feature amount spaces is expressed as the following equation (6). Then, the distance D between the centroids is expressed by the following equation (7).

Figure 2009250722
Figure 2009250722

本実施形態では、例えば、図11−4のステップS149、図11−7のステップS169において、(7)式により求めた重心間の距離Dが閾値以下であるか否かを判定するようにする。そして、重心間の距離Dが閾値以下である場合には、教師なし学習を行い、閾値より大きい場合には、教師付き学習を行う。   In this embodiment, for example, in step S149 of FIG. 11-4 and step S169 of FIG. 11-7, it is determined whether or not the distance D between the centroids obtained by the equation (7) is equal to or less than a threshold value. . When the distance D between the centroids is equal to or smaller than the threshold value, unsupervised learning is performed. When the distance D is larger than the threshold value, supervised learning is performed.

図13は、学習モデルの重心間の距離及び疵種一致率と、学習実行日時との関係の一例を示す図である。
図13において、一点鎖線で表している線が、学習モデルの重心間の距離を表している。また、白丸で結ばれている線が教師付き学習を行った場合の疵種一致率であり、黒丸で結ばれている線が教師なし学習を行った場合の疵種一致率である。尚、疵種一致率とは、疵判定装置6で判別された疵種が実際の疵種に一致した割合を示すものである。
FIG. 13 is a diagram illustrating an example of the relationship between the distance between the centroids of the learning model, the species match rate, and the learning execution date and time.
In FIG. 13, a line represented by a one-dot chain line represents a distance between the centroids of the learning model. Further, the line connected by white circles is the species match rate when supervised learning is performed, and the line connected by black circles is the species match rate when unsupervised learning is performed. Note that the soot type match rate indicates the rate at which the soot type determined by the soot determining device 6 matches the actual soot type.

図13から明らかなように、学習モデルの重心間の距離が大きい日時vで、教師付き学習から教師なし学習に切り替えると、疵種一致率が低下してしまう。これに対し、学習モデルの重心間の距離が小さい日時wで、教師付き学習から教師なし学習に切り替えると、教師付き学習と教師なし学習とで疵種一致率は殆ど変わらない。
このように、教師付き学習と教師なし学習とを切り替える判断の指標として、学習モデル間の距離を用いることによっても、第1の実施形態で説明したのと同様の効果を得ることができる。尚、学習モデル間の距離は前述したものに限定されるものではない。
As can be seen from FIG. 13, when the distance between the centroids of the learning model is large and the date and time v is switched from supervised learning to unsupervised learning, the species match rate decreases. On the other hand, when switching from supervised learning to unsupervised learning at a date and time w where the distance between the centroids of the learning model is small, the species match rate hardly changes between supervised learning and unsupervised learning.
As described above, the same effect as described in the first embodiment can also be obtained by using the distance between learning models as an index for determining switching between supervised learning and unsupervised learning. Note that the distance between the learning models is not limited to that described above.

尚、以上説明した本発明の実施形態は、コンピュータがプログラムを実行することによって実現することができる。また、プログラムをコンピュータに供給するための手段、例えばかかるプログラムを記録したCD−ROM等のコンピュータ読み取り可能な記録媒体、又はかかるプログラムを伝送する伝送媒体も本発明の実施の形態として適用することができる。また、前記プログラムを記録したコンピュータ読み取り可能な記録媒体などのプログラムプロダクトも本発明の実施の形態として適用することができる。前記のプログラム、コンピュータ読み取り可能な記録媒体、伝送媒体及びプログラムプロダクトは、本発明の範疇に含まれる。
また、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
The embodiment of the present invention described above can be realized by a computer executing a program. Further, a means for supplying the program to the computer, for example, a computer-readable recording medium such as a CD-ROM recording such a program, or a transmission medium for transmitting such a program may be applied as an embodiment of the present invention. it can. A program product such as a computer-readable recording medium that records the program can also be applied as an embodiment of the present invention. The programs, computer-readable recording media, transmission media, and program products are included in the scope of the present invention.
In addition, the above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

本発明の第1の実施形態を示し、表面疵検査システムの概略構成の一例を示した図である。It is the figure which showed the 1st Embodiment of this invention and showed an example of schematic structure of a surface flaw inspection system. 本発明の第1の実施形態を示し、疵判定装置が有する機能構成の一例を示すブロック図である。It is a block diagram which shows the 1st Embodiment of this invention and shows an example of the function structure which a wrinkle determination apparatus has. 本発明の第1の実施形態を示し、疵学習装置が有する機能構成の一例を示すブロック図である。It is a block diagram which shows the 1st Embodiment of this invention and shows an example of the function structure which a heel learning apparatus has. 本発明の第1の実施形態を示し、各特徴量を軸とする座標空間に、疵種に関する複数個の疵データのデータ点を配置した様子の一例を示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of a mode that the data point of the some soot data regarding a soot seed | species was arrange | positioned in the coordinate space centering on each feature-value. 本発明の第1の実施形態を示し、学習モデルの一例を概念的に示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of a learning model notionally. 本発明の第1の実施形態を示し、学習モデルが生成される様子の一例を概念的に示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of a mode that a learning model is produced | generated. 本発明の第1の実施形態を示し、疵種を特定する処理の一例を概念的に示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of the process which identifies a sow seed | species conceptually. 本発明の第1の実施形態を示し、学習モデル(部分特徴量空間)が更新される様子の一例を概念的に示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of a mode that a learning model (partial feature-value space) is updated. 本発明の第1の実施形態を示し、更新されなかった部分特徴量空間の数と、学習実行日時との関係の一例を示す図である。It is a figure which shows the 1st Embodiment of this invention and shows an example of the relationship between the number of the partial feature-value space which was not updated, and a learning execution date. 本発明の第1の実施形態を示し、疵判定装置の動作の一例を説明するフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and demonstrates an example of the operation | movement of a wrinkle determination apparatus. 本発明の第1の実施形態を示し、疵学習装置の動作の一例を説明するフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and demonstrates an example of the operation | movement of a wrinkle learning apparatus. 本発明の第1の実施形態を示し、図11−1に続くフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and follows FIG. 本発明の第1の実施形態を示し、図11−2に続くフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and follows FIG. 11-2. 本発明の第1の実施形態を示し、図11−3に続くフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and follows FIG. 11-3. 本発明の第1の実施形態を示し、図11−1に続くフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and follows FIG. 本発明の第1の実施形態を示し、図11−5に続くフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and follows FIG. 11-5. 本発明の第1の実施形態を示し、図11−6に続くフローチャートである。It is a flowchart which shows the 1st Embodiment of this invention and follows FIGS. 11-6. 本発明の第2の実施形態を示し、学習モデル間の距離の一例を概念的に示す図である。It is a figure which shows the 2nd Embodiment of this invention and shows an example of the distance between learning models notionally. 本発明の第2の実施形態を示し、学習モデルの重心間の距離及び疵種一致率と、学習実行日時との関係の一例を示す図である。It is a figure which shows the 2nd Embodiment of this invention and shows an example of the relationship between the distance between the gravity centers of a learning model, the sow seed match rate, and a learning execution date.

符号の説明Explanation of symbols

1 鋼板
2 搬送ロール
3 ロータリーエンコーダ
4 照明装置
5 撮像装置
6 疵判定装置
7 仕上圧延機
8、10 表示装置
9 疵学習装置
DESCRIPTION OF SYMBOLS 1 Steel plate 2 Conveyance roll 3 Rotary encoder 4 Illumination device 5 Imaging device 6 疵 determination device 7 Finishing mill 8, 10 Display device 9 疵 Learning device

Claims (11)

検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得手段と、
前記取得手段により取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別手段と、
前記第1の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成手段と、
前記取得手段により取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成手段により生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出手段と、
前記抽出手段により各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出手段により各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定手段と、
前記判定手段によりクラスを特定することができないと判定されると、前記抽出手段により抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別手段と、
前記第2の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成手段とを有することを特徴とする疵学習装置。
Acquisition means for acquiring wrinkle data including a characteristic amount related to wrinkles from the image of the inspection object;
First discriminating means for discriminating a combination of feature value values capable of separating the plurality of soot species, using soot data in a plurality of soot species, which is the soot data obtained by the obtaining means;
A learning model is generated from a partial feature amount space for associating a plurality of feature value values determined to be separable by the first determining means with a plurality of feature types. Generating means;
The wrinkle data acquired by the acquisition means and different from the wrinkle data already used is arranged in a plurality of partial feature amount spaces generated by the first generation means, and each partial feature amount An extraction means for extracting cocoon data corresponding to the cocoon data from the space;
The ratio of the number of specific types of data extracted from each partial feature amount space by the extraction unit to the total number of types of data extracted from each partial feature amount space by the extraction unit is compared with a threshold value. And determining means for determining whether or not a class relating to the species can be specified;
If it is determined that the class cannot be specified by the determination means, the defect data corresponding to the kind data extracted by the extraction means, and the defect data in a plurality of kinds as the rejection class data And a second determination unit that determines a combination of feature value values that can separate the plurality of species.
A learning model is generated from a partial feature amount space for associating a set of feature value values determined to be able to separate a plurality of species by the second discrimination means and the plurality of species. And a generation means.
前記取得手段により取得された疵データであって、既に使用されたデータと異なる疵データの特徴量の値を、第n(nは2以上の整数)の生成手段により生成された学習モデルに配置して、当該疵データに対応する疵種のデータを抽出する第2〜第nの抽出手段と、
前記第2〜第nの抽出手段により抽出された疵種のデータの総数に対する、前記第2〜第nの抽出手段により抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する第2〜第nの判定手段と、
前記第2〜第nの判定手段によりクラスを特定することができないと判定されると、前記第2〜第nの抽出手段により抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第3〜第(n+1)の判別手段と、
前記第3〜第(n+1)の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第3〜第(n+1)の生成手段とを有することを特徴とする請求項1に記載の疵学習装置。
The feature value of the cocoon data acquired by the acquisition unit and different from the already used data is arranged in the learning model generated by the nth generation unit (n is an integer of 2 or more). A second to n-th extraction means for extracting the cocoon species data corresponding to the cocoon data;
Comparing the ratio of the number of specific types of data extracted by the second to nth extraction means to the total number of data of the specific types extracted by the second to nth extraction means and the threshold value A second to n-th determining means for determining whether or not a class relating to the species can be specified;
When it is determined that the class cannot be specified by the second to nth determining means, the cocoon data corresponding to the cocoon type data extracted by the second to nth extracting means, Third to (n + 1) discriminating means for discriminating combinations of feature value values capable of separating the plurality of soot species, using soot data of the soot species as rejection class data;
A learning model is obtained from a partial feature amount space for associating a set of feature values determined to be able to separate a plurality of species by the third to (n + 1) discrimination means and the plurality of variants. The wrinkle learning device according to claim 1, further comprising third to (n + 1) generation means for generating.
前記判別手段は、前記取得手段により取得された特徴量のうち、既に使用された特徴量とは異なる特徴量の値の組み合わせを判別することを特徴とする請求項1又は2に記載の疵学習装置。   The wrinkle learning according to claim 1, wherein the determination unit determines a combination of values of feature amounts different from the already used feature amounts among the feature amounts acquired by the acquisition unit. apparatus. 前記生成手段により生成された学習モデルを記憶媒体に記憶して、当該記憶媒体に記憶されている学習モデルを更新する更新手段を有することを特徴とする請求項1〜3の何れか1項に記載の疵学習装置。   4. The apparatus according to claim 1, further comprising an updating unit that stores the learning model generated by the generating unit in a storage medium and updates the learning model stored in the storage medium. The kite learning device described. 前記取得手段により取得された疵データであって、疵種のデータが正解データとして与えられた疵データの特徴量の値を、前記複数の特徴量のうちの2つ以上の特徴量を軸とする座標空間に配置する配置手段を有し、
前記判別手段は、前記配置手段により疵データの特徴量の値が配置された座標空間のうち、当該疵データの特徴量の値の領域が相互に重複しない座標空間の軸を構成する特徴量の値の組み合わせを判別することを特徴とする請求項1〜4の何れか1項に記載の疵学習装置。
The cocoon data acquired by the acquisition means, and the value of the feature value of the cocoon data in which the kind data is given as correct data, the two or more feature values of the plurality of feature values as axes Having an arrangement means for arranging in a coordinate space,
In the coordinate space in which the feature value values of the eyelid data are arranged by the arrangement means, the determining means is a feature amount constituting an axis of the coordinate space in which the feature value value areas of the eyelid data do not overlap each other. The wrinkle learning apparatus according to claim 1, wherein a combination of values is discriminated.
検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得ステップと、
前記取得ステップにより取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別ステップと、
前記第1の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成ステップと、
前記取得ステップにより取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成ステップにより生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出ステップと、
前記抽出ステップにより各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出ステップにより各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定ステップと、
前記判定ステップによりクラスを特定することができないと判定されると、前記抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別ステップと、
前記第2の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成ステップとを有することを特徴とする疵学習方法。
An acquisition step of acquiring wrinkle data including a feature amount related to wrinkles from the image of the inspection object;
A first determination step of determining a combination of feature value values capable of separating the plurality of seeds using the seed data in the plurality of seeds, which is the eyelid data acquired in the acquisition step;
The first determination step generates a learning model from a partial feature amount space for associating a set of feature value values determined to be able to separate a plurality of species and the plurality of variants. Generation step;
The wrinkle data acquired by the acquisition step, which is different from the wrinkle data already used, is arranged in the plurality of partial feature amount spaces generated by the first generation step, and each partial feature amount An extraction step for extracting cocoon data corresponding to the cocoon data from the space;
The ratio of the number of specific types of data extracted from each partial feature amount space by the extraction step to the total number of types of data extracted from each partial feature amount space by the extraction step is compared with a threshold value. And a determination step for determining whether or not a class relating to the species can be specified;
If it is determined that the class cannot be specified by the determination step, the defect data corresponding to the defect data extracted by the extraction step, and the defect data in a plurality of defect types as the rejection class data A second determination step of determining a combination of feature value values that can be used to separate the plurality of species;
A learning model is generated from a partial feature amount space for associating a set of feature values determined to be able to separate a plurality of species by the second discrimination step and the plurality of variants. And a generation step.
前記取得ステップにより取得された疵データであって、既に使用されたデータと異なる疵データの特徴量の値を、第n(nは2以上の整数)の生成ステップにより生成された学習モデルに配置して、当該疵データに対応する疵種のデータを抽出する第2〜第nの抽出ステップと、
前記第2〜第nの抽出ステップにより抽出された疵種のデータの総数に対する、前記第2〜第nの抽出ステップにより抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する第2〜第nの判定ステップと、
前記第2〜第nの判定ステップによりクラスを特定することができないと判定されると、前記第2〜第nの抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第3〜第(n+1)の判別ステップと、
前記第3〜第(n+1)の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第3〜第(n+1)の生成ステップとを有することを特徴とする請求項6に記載の疵学習方法。
The feature value of the eyelid data obtained by the obtaining step, which is different from the already used data, is arranged in the learning model generated by the nth generation step (n is an integer of 2 or more). And the 2nd-nth extraction step which extracts the data of the soot kind corresponding to the said soot data,
Comparing the ratio of the number of data of a specific grape type extracted by the second to nth extraction steps to the total number of the species data extracted by the second to nth extraction steps, and a threshold value Then, the second to nth determination steps for determining whether or not the class relating to the species can be specified;
When it is determined that the class cannot be specified by the second to nth determination steps, the cocoon data corresponding to the varieties of data extracted by the second to nth extraction steps, Third to (n + 1) discrimination steps for discriminating combinations of feature values that can separate the plurality of soot species using soot data of the soot species as rejection class data;
A learning model is extracted from the partial feature amount space for associating a set of feature values determined to be able to separate a plurality of variants by the third to (n + 1) discrimination steps and the plurality of variants. The third to (n + 1) generation steps to be generated are included in the learning method according to claim 6.
前記判別ステップは、前記取得ステップにより取得された特徴量のうち、既に使用された特徴量とは異なる特徴量の値の組み合わせを判別することを特徴とする請求項6又は7に記載の疵学習方法。   The said learning step discriminate | determines the combination of the value of the feature-value different from the feature-value already used among the feature-values acquired by the said acquisition step, The spear learning of Claim 6 or 7 characterized by the above-mentioned. Method. 前記生成ステップにより生成された学習モデルを記憶媒体に記憶して、当該記憶媒体に記憶されている学習モデルを更新する更新ステップを有することを特徴とする請求項6〜8の何れか1項に記載の疵学習方法。   9. The method according to claim 6, further comprising an update step of storing the learning model generated by the generation step in a storage medium and updating the learning model stored in the storage medium. The method of learning cocoons described. 前記取得ステップにより取得された疵データであって、疵種のデータが正解データとして与えられた疵データの特徴量の値を、前記複数の特徴量のうちの2つ以上の特徴量を軸とする座標空間に配置する配置ステップを有し、
前記判別ステップは、前記配置ステップにより疵データの特徴量の値が配置された座標空間のうち、当該疵データの特徴量の値の領域が相互に重複しない座標空間の軸を構成する特徴量の値の組み合わせを判別することを特徴とする請求項6〜9の何れか1項に記載の疵学習方法。
The cocoon data acquired by the acquisition step, wherein the value of the feature value of the cocoon data in which the cocoon type data is given as the correct answer data, the two or more feature values of the plurality of feature values as axes A placement step for placing in a coordinate space,
In the determination step, among the coordinate spaces in which the feature value values of the eyelid data are arranged in the placement step, the feature amount constituting the axis of the coordinate space in which the feature value value areas of the eyelid data do not overlap each other The combination of values is discriminated, The wrinkle learning method according to any one of claims 6 to 9.
検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得ステップと、
前記取得ステップにより取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別ステップと、
前記第1の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成ステップと、
前記取得ステップにより取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成ステップにより生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出ステップと、
前記抽出ステップにより各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出ステップにより各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定ステップと、
前記判定ステップによりクラスを特定することができないと判定されると、前記抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別ステップと、
前記第2の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成ステップとをコンピュータに実行させることを特徴とするコンピュータプログラム。
An acquisition step of acquiring wrinkle data including a feature amount related to wrinkles from the image of the inspection object;
A first determination step of determining a combination of feature value values capable of separating the plurality of seeds using the seed data in the plurality of seeds, which is the eyelid data acquired in the acquisition step;
The first determination step generates a learning model from a partial feature amount space for associating a set of feature value values determined to be able to separate a plurality of species and the plurality of variants. Generation step;
The wrinkle data acquired by the acquisition step, which is different from the wrinkle data already used, is arranged in the plurality of partial feature amount spaces generated by the first generation step, and each partial feature amount An extraction step for extracting cocoon data corresponding to the cocoon data from the space;
The ratio of the number of specific types of data extracted from each partial feature amount space by the extraction step to the total number of types of data extracted from each partial feature amount space by the extraction step is compared with a threshold value. And a determination step for determining whether or not a class relating to the species can be specified;
If it is determined that the class cannot be specified by the determination step, the defect data corresponding to the defect data extracted by the extraction step, and the defect data in a plurality of defect types as the rejection class data A second determination step of determining a combination of feature value values that can be used to separate the plurality of species;
A learning model is generated from a partial feature amount space for associating a set of feature value values determined to be capable of separating a plurality of species and the plurality of species by the second determining step. A computer program for causing a computer to execute a generating step.
JP2008097459A 2008-04-03 2008-04-03 Acupuncture learning device, acupuncture learning method, and computer program Expired - Fee Related JP5211810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008097459A JP5211810B2 (en) 2008-04-03 2008-04-03 Acupuncture learning device, acupuncture learning method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008097459A JP5211810B2 (en) 2008-04-03 2008-04-03 Acupuncture learning device, acupuncture learning method, and computer program

Publications (2)

Publication Number Publication Date
JP2009250722A true JP2009250722A (en) 2009-10-29
JP5211810B2 JP5211810B2 (en) 2013-06-12

Family

ID=41311603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008097459A Expired - Fee Related JP5211810B2 (en) 2008-04-03 2008-04-03 Acupuncture learning device, acupuncture learning method, and computer program

Country Status (1)

Country Link
JP (1) JP5211810B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011192032A (en) * 2010-03-15 2011-09-29 Nippon Steel Corp Flaw learning device, flaw learning method and computer program
JP2020030145A (en) * 2018-08-23 2020-02-27 東京エレクトロンデバイス株式会社 Inspection apparatus and inspection system
JP7050470B2 (en) 2017-11-21 2022-04-08 千代田化工建設株式会社 Inspection support system, learning device, and judgment device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057349A (en) * 1998-08-10 2000-02-25 Hitachi Ltd Method for sorting defect, device therefor and method for generating data for instruction
JP2001256480A (en) * 2000-03-09 2001-09-21 Hitachi Ltd Automatic picture classifying method and its device
JP2004295879A (en) * 2003-03-12 2004-10-21 Hitachi High-Technologies Corp Defect classification method
WO2008004559A1 (en) * 2006-07-06 2008-01-10 Asahi Glass Company, Limited Clustering system, and defect kind judging device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000057349A (en) * 1998-08-10 2000-02-25 Hitachi Ltd Method for sorting defect, device therefor and method for generating data for instruction
JP2001256480A (en) * 2000-03-09 2001-09-21 Hitachi Ltd Automatic picture classifying method and its device
JP2004295879A (en) * 2003-03-12 2004-10-21 Hitachi High-Technologies Corp Defect classification method
WO2008004559A1 (en) * 2006-07-06 2008-01-10 Asahi Glass Company, Limited Clustering system, and defect kind judging device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6012041701; 坂田幸辰 他: 'テスト特徴法に基づく逐次パタン学習' 電子情報通信学会技術研究報告 Vol.102, No.381, 20021017, pp.25-30 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011192032A (en) * 2010-03-15 2011-09-29 Nippon Steel Corp Flaw learning device, flaw learning method and computer program
JP7050470B2 (en) 2017-11-21 2022-04-08 千代田化工建設株式会社 Inspection support system, learning device, and judgment device
JP2020030145A (en) * 2018-08-23 2020-02-27 東京エレクトロンデバイス株式会社 Inspection apparatus and inspection system

Also Published As

Publication number Publication date
JP5211810B2 (en) 2013-06-12

Similar Documents

Publication Publication Date Title
JP2011192032A (en) Flaw learning device, flaw learning method and computer program
CN108562589B (en) Method for detecting surface defects of magnetic circuit material
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
JP6869490B2 (en) Defect inspection equipment, defect inspection methods, and their programs
JP2018005640A (en) Classifying unit generation device, image inspection device, and program
JP2019159889A (en) Defect inspection device, defect inspection method, and program thereof
CN107437243B (en) Tire impurity detection method and device based on X-ray image
JP2018005639A (en) Image classification device, image inspection device, and program
CN111919117A (en) Cell image analysis device, cell image analysis system, learning data generation method, learning data generation program, manufacturing method, and learning model generation method
CN107084991A (en) The detection of quartz pushrod bubble and quality grading method based on machine vision
CN105849274A (en) Method and system for classifying and identifying individual cells in a microscopy image
JP2014178229A (en) Teacher data creation method, image classification method and image classification device
CN113711234A (en) Yarn quality control
CN111582294A (en) Method for constructing convolutional neural network model for surface defect detection and application thereof
CN104854620A (en) Image processing device, image processing system, and program
US10726535B2 (en) Automatically generating image datasets for use in image recognition and detection
JP5211810B2 (en) Acupuncture learning device, acupuncture learning method, and computer program
JP2006293528A (en) Method and apparatus for selecting learning image, and method, apparatus, program and recording medium for creating image processing algorithm
JP5163505B2 (en) Acupuncture learning device, acupuncture learning method, and computer program
CN103149210A (en) System and method for detecting fabric cashmere content based on scale graphic features
JP6596260B2 (en) Teaching support method and image classification method
CN116051541B (en) Bearing end face gentle abrasion detection method and device based on stroboscopic light source
TW202034421A (en) Color filter inspection device, inspection device, color filter inspection method, and inspection method
JP6126290B1 (en) Appearance inspection device
Maarouf et al. Transfer learning-based ensemble deep learning for road cracks detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130211

R151 Written notification of patent or utility model registration

Ref document number: 5211810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees