JP2009250722A - Defect learning apparatus, defect learning method and computer program - Google Patents
Defect learning apparatus, defect learning method and computer program Download PDFInfo
- Publication number
- JP2009250722A JP2009250722A JP2008097459A JP2008097459A JP2009250722A JP 2009250722 A JP2009250722 A JP 2009250722A JP 2008097459 A JP2008097459 A JP 2008097459A JP 2008097459 A JP2008097459 A JP 2008097459A JP 2009250722 A JP2009250722 A JP 2009250722A
- Authority
- JP
- Japan
- Prior art keywords
- data
- learning model
- learning
- feature amount
- species
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、疵学習装置、疵学習方法、及びコンピュータプログラムに関し、特に、疵検査対象物を画像化して疵検査を行うために用いて好適なものである。 The present invention relates to a wrinkle learning device, a wrinkle learning method, and a computer program, and is particularly suitable for imaging a wrinkle inspection object and performing a wrinkle inspection.
例えば、鋼板等の製造ラインにおいては、有害な疵が被圧延材に生じてしまうことがある。このため、被圧延材の表面を照明して得られる反射光を検知して撮像することにより得られた画像を処理して疵候補の画像について特徴量を抽出し、抽出した特徴量に基づいて、被圧延材に生じている有害な疵の有無及び種類等を検査することが行われている。特徴量には、疵の長さ・幅・面積等の寸法的な特徴量と、円形度・アスペクト比(縦横比)等の形状的な特徴量と、疵部の画像濃度の平均値・最小値・最大値等の濃淡的な特徴量等がある。このような特徴量を画像から抽出することによって、疵の種類や等級(評点)等を判別することができる。
特許文献1には、前述したようにして抽出した特徴量に対し、ニューラルネットワークによる認識法を適用して形状の大分類を行った後、更に決定木による認証法を適用して形状毎に再分類を行うことが記載されている。
For example, in production lines such as steel plates, harmful wrinkles may occur in the material to be rolled. For this reason, the image obtained by detecting and imaging the reflected light obtained by illuminating the surface of the material to be rolled is processed to extract the feature amount for the image of the cocoon candidate, and based on the extracted feature amount Inspecting the presence and type of harmful flaws occurring in the material to be rolled is performed. Features include dimensional features such as heel length, width, and area, geometric features such as roundness and aspect ratio (aspect ratio), and average and minimum image density of the heel. There are light and dark feature values such as value and maximum value. By extracting such feature amounts from the image, it is possible to determine the type, grade (score), and the like of the bag.
In
しかしながら、特許文献1に記載の技術では、決定木(ツリー)の各ノードにおいて予め設定されている閾値と、入力した画像の特徴量とを比較し、その結果に基づいて進路を選択してゆき、ツリーの終端に着いたらそこに対応するカテゴリーに疵を分類するようにしている。
このように、特許文献1に記載の技術では、画像に表されている疵は、ツリーで予め定められた判別条件に従って何れかのクラスに分類されることになる。したがって、疵の判別性能を高めるために判別条件を細かく設定すると処理に時間を要し、判別条件を粗く設定すると疵の判別性能が低下することになるが、疵は多種多様な形態で存在するので、判別条件を適切に設定するのは困難である。よって、特許文献1に記載の技術では、多種多様な形態で存在する疵の判別性能を高めることが困難であるという問題点があった。
However, in the technique described in
As described above, in the technique described in
本発明はこのような問題点に鑑みてなされたものであり、疵の判別性能を従来よりも向上させることを目的とする。 The present invention has been made in view of such problems, and an object thereof is to improve the discrimination performance of wrinkles as compared with the conventional art.
本発明の疵学習装置は、検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得手段と、前記取得手段により取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別手段と、前記第1の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成手段と、前記取得手段により取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成手段により生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出手段と、前記抽出手段により各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出手段により各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定手段と、前記判定手段によりクラスを特定することができないと判定されると、前記抽出手段により抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別手段と、前記第2の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成手段とを有することを特徴とする。 The wrinkle learning apparatus according to the present invention includes wrinkle data that includes wrinkle-related feature amounts from an image of an inspection object, and wrinkle data acquired by the acquisition means, wherein And a first determination unit that determines a combination of feature value values that can separate the plurality of species, and a feature amount determined to be capable of separating the plurality of species by the first determination unit. First generation means for generating a learning model from a partial feature amount space for associating a set of values with the plurality of soot seeds, and soot data obtained by the obtaining means, which has already been used Extraction means for arranging bag data different from the data in a plurality of partial feature amount spaces generated by the first generation unit, and extracting data of a kind corresponding to the bag data from each partial feature amount space; In the extraction means The ratio of the number of specific types of data extracted from each partial feature amount space by the extraction means to the total number of types of data extracted from each partial feature amount space is compared with a threshold, Corresponding to the data of the species extracted by the extraction unit when the determination unit determines whether or not the class related to the species can be specified, and the determination unit determines that the class cannot be specified Second determination means for determining a combination of feature value values capable of separating the plurality of soot species, using the soot data in the plurality of soot types as rejection class data, A second generation unit that generates a learning model from a partial feature amount space for associating a set of feature value values determined to be able to separate a plurality of species with the plurality of species; The Characterized in that it.
本発明の疵学習方法は、検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得ステップと、前記取得ステップにより取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別ステップと、前記第1の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成ステップと、前記取得ステップにより取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成ステップにより生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出ステップと、前記抽出ステップにより各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出ステップにより各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定ステップと、前記判定ステップによりクラスを特定することができないと判定されると、前記抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別ステップと、前記第2の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成ステップとを有することを特徴とする。 The wrinkle learning method of the present invention includes an acquisition step of acquiring wrinkle data including a feature amount related to a wrinkle from an image of an inspection object, and wrinkle data acquired by the acquisition step, wherein the wrinkle data in a plurality of types Using the first determination step of determining a combination of feature value values that can separate the plurality of species, and the feature amount determined to be capable of separating the plurality of species by the first determination step. A first generation step for generating a learning model from a partial feature space for associating a set of values with the plurality of types, and the selection data acquired by the acquisition step, The soot data different from the data is arranged in the plurality of partial feature amount spaces generated by the first generation step, and the soot type data corresponding to the soot data is extracted from each partial feature amount space. A ratio of the number of specific types of data extracted from each partial feature amount space by the extraction step to the total number of types of data extracted from each partial feature amount space by the extraction step; A determination step for comparing the threshold value to determine whether or not the class relating to the species can be specified, and if it is determined by the determination step that the class cannot be specified, the extraction step extracts A second data for identifying a combination of feature value values that can separate the plurality of species using the species data of the plurality of species as the rejection class data. A set of feature values determined to be capable of separating a plurality of species by the discrimination step and the second discrimination step are associated with the plurality of species. Wherein the the partial feature space and a second generation step of generating a learning model.
本発明のコンピュータプログラムは、検査対象物の画像から、疵に関する特徴量を含む疵データを取得する取得ステップと、前記取得ステップにより取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別ステップと、前記第1の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成ステップと、前記取得ステップにより取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成ステップにより生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出ステップと、前記抽出ステップにより各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出ステップにより各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定ステップと、前記判定ステップによりクラスを特定することができないと判定されると、前記抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別ステップと、前記第2の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成ステップとをコンピュータに実行させることを特徴とする。 The computer program of the present invention includes an acquisition step of acquiring wrinkle data including a feature amount related to wrinkles from an image of an inspection object, and wrinkle data acquired by the acquisition step, wherein wrinkle data in a plurality of types And a first determination step for determining a combination of feature value values capable of separating the plurality of species, and a feature value determined to be capable of separating the plurality of species by the first determination step. A first generation step of generating a learning model from a partial feature amount space for associating a set of a plurality of species with the plurality of species, and the cocoon data acquired by the acquisition step,疵 data different from the 疵 data are arranged in the plurality of partial feature amount spaces generated by the first generation step, and the varieties of data corresponding to the 疵 data from each partial feature amount space are arranged. The number of specific types of data extracted from each partial feature amount space by the extraction step with respect to the total number of species data extracted from each partial feature amount space by the extraction step. A step of determining whether or not a class relating to the species can be specified by comparing the ratio of the ratio and a threshold value, and if it is determined that the class cannot be specified by the determination step, the extraction疵 data corresponding to the species data extracted in the step, and using the 疵 data in multiple species as rejection class data, discriminating combinations of feature values that can separate the multiple species A set of feature values determined to be able to separate a plurality of species by the second discrimination step, and the plurality of species Characterized in that to execute a second generation step of generating a learning model from the partial feature space for attaching respond to computer.
本発明によれば、疵に関する特徴量を含む疵データを部分特徴量空間(学習モデル)に配置して、当該疵データに対応する疵種のデータを複数の部分特徴量空間の夫々から抽出し、抽出した疵種のデータの総数に対する、抽出した特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する。この判定の結果、クラスを特定することができないと判定されると、抽出した疵種のデータに対応する疵データを棄却クラスのデータとし、その疵データを用いて部分特徴量空間(学習モデル)を生成する。したがって、学習モデルを強化することができ、疵の判別性能を従来よりも向上させることができる。 According to the present invention, cocoon data including a feature quantity related to cocoon is arranged in a partial feature quantity space (learning model), and cocoon data corresponding to the cocoon data is extracted from each of a plurality of partial feature quantity spaces. Then, the ratio of the number of the extracted specific species data to the total number of the extracted species data is compared with the threshold value to determine whether or not the class relating to the species can be identified. If it is determined that the class cannot be specified as a result of this determination, the defect data corresponding to the extracted defect data is set as the rejection class data, and the partial feature space (learning model) is used by using the defect data. Is generated. Therefore, the learning model can be strengthened, and the wrinkle discrimination performance can be improved as compared with the prior art.
(第1の実施形態)
以下、図面を参照しながら、本発明の第1の実施形態を説明する。
図1は、表面疵検査システムの概略構成の一例を示した図である。尚、本実施形態では、図1に示すように、疵検査を行う疵検査対象物として、ワークロール7a、中間ロール7b、及びバックアップロール7cを備えた仕上圧延機7で仕上圧延された後の帯状鋼板1を例に挙げて説明する。また、以下の説明では、帯状鋼板1を鋼板1と略称する。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an example of a schematic configuration of a surface defect inspection system. In addition, in this embodiment, as shown in FIG. 1, after finishing rolling by the
図1において、鋼板1は、搬送ロール2a〜2cによって、鋼板1の長手方向(図1の矢印の方向)に搬送(移動)される。また、搬送ロール2a〜2cの回転は、夫々ロータリーエンコーダ3により検出されるようにしている。
このような圧延鋼板製造ラインに設置される表面疵検査システムは、照明装置4と、撮像装置5と、疵判定装置6と、疵学習装置9とを有している。
In FIG. 1, the
The surface wrinkle inspection system installed in such a rolled steel sheet production line includes a
照明装置4は、例えばハロゲンランプ等、好ましくは高い輝度を有する光を出射する発光部と、集光レンズ等の集光部とを有する。ハロゲンランプ等から出射される光が集光部で線状に集光されることにより、鋼板1の表面がその幅方向で線状に照明される。尚、本実施形態では、鋼板1の幅方向の全てが確実に線状に照明されるように、鋼板1の幅方向の長さよりも長い線状の光束を照明装置4が照射するようにしている。
The
撮像装置5は、照明装置4により照明された鋼板1の疵検査範囲を撮像して画像信号を生成する機能を有している。撮像装置5は、図1に示すように照明装置4に鋼板1の疵検査範囲を挟んで対向する位置、すなわち、照明装置4から照射され、鋼板1に当たって反射される光の光路上に配置される。この撮像装置5は、画像をフレーム単位で読み取るエリアカメラ(センサ)と、画像をライン単位で読み取るラインカメラ(センサ)との何れであってもよく、又CCD撮像素子やCMOS撮像素子等のカメラでも良い。また、撮像画像は、白黒濃淡画像とカラー画像との何れであってもよい。
ここでは、撮像装置5として、白黒濃淡画像を出力するラインカメラを使用した場合を例として挙げて説明する。具体的に撮像装置5は、鋼板1の幅方向に細長い疵検査範囲の濃淡画像を撮像し、例えば白黒256階調の情報を撮像画像として出力するものとする。
The
Here, the case where a line camera that outputs a monochrome grayscale image is used as the
移動する鋼板1の表面を、所定の空間分解能で隙間なく連続して撮像装置5が撮像できるように、ロータリーエンコーダ3は、鋼板1の搬送速度に応じた制御タイミング信号(パルス信号)を撮像装置5に出力する。撮像装置5は、このロータリーエンコーダ3から出力される制御タイミング信号に従って、撮像と撮像画像の転送とを繰り返す。
The
疵判定装置6及び疵学習装置9は、例えばPC(Personal Computer)である。疵判定装置6及び疵学習装置9は、CPU、ROM、RAM、ハードディスク、キーボードやマウスからなるユーザインターフェース、及びデータ入出力制御装置等を有している。尚、CPU、ROM、RAM、ハードディスク、ユーザインターフェース、及びデータ入出力制御装置は、夫々通信バスに接続されており、互いに通信することが可能である。また、本実施形態では、疵判定装置6及び疵学習装置9は、例えばLAN(Local Area Network)を介して、通信可能に相互に接続されているものとする。
The wrinkle determination device 6 and the
疵判定装置6の記憶媒体の一つであるハードディスクには、後述するようにして疵種の判別(疵検査)を行うための疵検用アプリケーションプログラムや、その疵検用アプリケーションプログラムで使用されるデータが記憶されている。この他、疵判定装置6のハードディスクには、撮像装置5で撮像され、データ入出力制御装置で処理された画像データ等も記憶される。ここで、データ入出力制御装置は、撮像装置5から出力されたライン毎の画像データを、例えば、2048(幅)×512(長さ)の画素数を有する画像データに構成する処理を行って、RAMに転送する。尚、ここでは、説明の便宜上、1画素は、鋼板1の表面の1mm×1mmの領域の撮像画像を表すものとする。すなわち、2048(幅)×512(長さ)の画素数で構成される画像は、鋼板1の幅が2048mm、長さが512mmの範囲の撮像画像を表すものとする。
The hard disk, which is one of the storage media of the eyelid determination device 6, is used in an inspection application program for determining the type of eyelids (an eyelid inspection) and the application program for the inspection as will be described later. Data is stored. In addition, the hard disk of the eyelid determination device 6 also stores image data captured by the
疵学習装置9の記憶媒体の一つであるハードディスクには、疵判定装置6で疵検査を行うための判別モデル(学習モデル)を生成・更新するための疵学習用アプリケーションプログラムや、その疵学習用アプリケーションプログラムで使用されるデータが記憶されている。また、疵学習装置9のハードディスクには、後述するようにして疵判定装置6で得られた"疵に関する1つ又は複数の特徴量を含む疵データ"等も記憶される。疵判定装置6は、疵学習装置9で得られた、最新の学習モデルを入力しこの学習モデルに従って疵検査を行う。前述したように、特徴量としては、例えば、疵の長さ・幅・面積等の寸法的な特徴量と、円形度・アスペクト比(縦横比)等の形状的な特徴量と、疵部の画像濃度の平均値・最小値・最大値等の濃淡的な特徴量等がある。
On the hard disk, which is one of the storage media of the
疵判定装置6、疵学習装置9のCPU等は、ユーザインターフェースのユーザによる操作等に基づいて、疵検用アプリケーションプログラム、疵学習用アプリケーションプログラムを起動する。そして、CPU等は、疵検用アプリケーションプログラム、疵学習用アプリケーションプログラムを実行して、疵検査、学習モデルの生成・更新を行うための処理を実行する。
表示装置8、10は、例えばLCD(Liquid Crystal Display)等を備えており、疵判定装置6、疵学習装置9により実行された処理に基づく画像を表示するためのものである。
尚、図1では、鋼鈑1の一面についてのみ疵検査を行う場合を示しているが、実際には、鋼鈑1の他面についても疵検査を行うようにする。
The CPU and the like of the wrinkle determination device 6 and the
The
Although FIG. 1 shows the case where only one surface of the
図2は、疵判定装置6が有する機能構成の一例を示すブロック図である。
図2において、画像入力部21は、撮像装置5で撮像されたライン毎の画像データを入力し、連続して入力した複数のライン毎の画像データ(2048×1画素)を用いて、例えば、2048(幅)×512(長さ)の画素数を有する画像データを構成する。そして、画像入力部21は、その画像データをRAMに記憶する。
画像入力部21は、例えば、疵判定装置6が有するデータ入出力制御装置を用いることにより実現される。
FIG. 2 is a block diagram illustrating an example of a functional configuration of the wrinkle determination device 6.
In FIG. 2, the
The
シェーディング補正部22は、画像入力部21で得られた画像データの全体が一様な明るさになるように、その画像データに対して、シェーディング補正を行う。そして、シェーディング補正部22は、シェーディング補正を行った画像データを、RAM(記憶媒体)に記憶する。
シェーディング補正部22は、例えば、情報処理装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。
The
The
二値化部23は、シェーディング補正が行われた画像データに対して、二値化処理を行う。具体的に説明すると、二値化部29は、例えば、シェーディング補正が行われた画像データの各画素の値が、ハードディスク等に予め設定された閾値よりも大きいか否かを判定する。そして、閾値よりも大きい画素の値を「1」、そうでない画素の値を「0」にして、画素の値(輝度値)として「0」か「1」しか持たない2値画像を生成する。
二値化部23は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。
The
The
ラベリング/特徴量計算部24は、二値化部23により得られた2値画像に対してラベリング処理及び特徴量計算を行い、疵候補を抽出する。ここで、ラベリング処理とは、特徴量計算の前に行う処理であり、2値画像中において単一の図形又は幾何的に連結して一つの塊となっている図形(連結図形)毎に、異なった番号(ラベル)を割り当てる処理である。
また、特徴量計算(特徴抽出)とは、図形の形状に関する特徴量を求める処理である。この特徴量計算で求める特徴量は、例えば、「疵候補に外接する長方形の幅・長さ・長さと幅の比(アスペクト比)・面積・円形度・最大長・周囲長」、及び「疵候補の輝度分布(輝度の平均値・最小値・最大値等)」等の中から選択される1又は2以上の組み合わせである。ラベリング/特徴量計算部24は、このようにして求めた"疵に関する1つ又は複数の特徴量"を含む疵データを、当該特徴量を有する疵が存在する"鋼鈑1上の位置"のデータと対応付けて(すなわち紐つけて)、疵データ記憶部25に記憶する。
ラベリング/特徴量計算部24は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。また、疵データ記憶部25は、例えば、疵判定装置6のハードディスクを用いることにより実現される。
尚、特徴量を求めることができれば、特徴量を求めるための処理の内容は前述したものに限定されない。
The labeling / feature
The feature amount calculation (feature extraction) is a process for obtaining a feature amount related to the shape of a figure. The feature quantity obtained by this feature quantity calculation is, for example, “width / length / length / width ratio (aspect ratio) / area / circularity / maximum length / perimeter” of the rectangle circumscribing the candidate Candidate luminance distribution (average value, minimum value, maximum value, etc. of luminance) ”or the like is a combination of one or two or more selected. The labeling / feature
The labeling / feature
As long as the feature amount can be obtained, the contents of the process for obtaining the feature amount are not limited to those described above.
後述するように疵学習装置9は、学習モデルを生成すると、その学習モデルを疵判定装置6に送信する。疵判定装置6の学習モデル取得部26は、疵学習装置9から学習モデルを受信すると、その学習モデルを疵判定部27に出力する。
学習モデル取得部26は、例えば、疵判定装置6のデータ入出力制御装置を用いることにより実現される。
As will be described later, when the
The learning
疵判定部27は、疵データ記憶部25に記憶されている疵候補の疵データに対して、学習モデル取得部26から出力された"最新の学習モデル"を適用して、疵候補に対する最終的な疵判定を行う。例えば、製品の品質に影響を与えるロール疵であれば有害疵と判定する。また、疵種として、疵の種類及び疵の等級(評点)も判定する。一方、油、水滴、軽い汚れ等が鋼板表面に付着したものであり、製品の品質に影響を与えないものであれば無害疵と判定する。そして、疵判定部27は、疵検査の結果を疵データ記憶部25に記憶されている疵データに対応付ける。
尚、学習モデルの詳細については、疵学習装置9についての説明を行う際に併せて説明する。
The
The details of the learning model will be described together with the description of the
以上のようにして所定の範囲の画像データについて疵検査を行うと、疵判定部27は、疵検査の結果(有害疵か無害疵かの判定結果、疵種(疵の種類や疵の等級等)の判定結果)と、ラベリング/特徴量計算部24で求められた特徴量とを示す疵検出画像データを生成し、表示装置8に表示する。本実施形態では、疵判定部27は、鋼板1を模した画像の上に、疵を模した画像を重ね合わせた疵検出画像データ(マップ)を生成する。これにより、鋼板1のどの場所にどのような疵が生じているのかを視覚的に検査員に認識させることができる。
疵判定部27は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。
As described above, when the eyelid inspection is performed on the image data in a predetermined range, the
The
疵データ出力判定部28は、圧延鋼鈑製造ラインを制御・監視するプロセスコンピュータ等から入力される圧延鋼鈑製造ラインの操業状態や日時等に基づいて、疵データ記憶部25に記憶されている疵データを疵学習装置9に出力するタイミングであるか否かを判定する。本実施形態では、疵データ出力判定部28は、所定の日から半年が経過する度に、その日の最初のコイル(圧延鋼板製造ラインで圧延された後に巻き取られた鋼鈑)についての疵データを疵学習装置9に出力すると判定するようにしている。ただし、疵データを疵学習装置に出力するタイミングと、出力する疵データの内容は、このようなものに限定されない。例えば、コイルが製造される度に、そのコイルについての疵データを疵学習装置9に出力するようにしてもよいし、連続で100本と制限を設けてもよい。また、1日毎に、その日の最後のコイルについての疵データを疵学習装置9に出力するようにしてもよい。
疵データ出力判定部28は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。
The iron data
The bag data
疵データ出力部29は、疵データ出力判定部28により、疵データを疵学習装置9に出力すると判定されると、疵データ記憶部25に記憶されている疵データのうち、予め設定された時に得られた疵データを疵学習装置9に送信する。前述したように本実施形態では、疵データ出力部29は、所定の日時から半年が経過する度に、その日の最初のコイルについての疵データを疵学習装置9に送信する。
また、前述したように、疵データ記憶部25に記憶されている各疵データには、疵判定部27による疵種等の疵検査の結果が対応付けられている。そこで、本実施形態では、疵データ出力部29は、疵データと共に、その疵データに対応付けられている疵検査の結果についても、疵学習装置9に送信するようにしている。
疵データ出力部29は、例えば、疵判定装置6のデータ入出力制御装置を用いることにより実現される。
When the heel data
Further, as described above, each wrinkle data stored in the wrinkle
The heel
図3は、疵学習装置9が有する機能構成の一例を示すブロック図である。
図3において、疵データ取得部31は、疵判定装置6から送信された疵データを受信して記憶する。そして、後述する教師付き学習部32及び教師なし学習部33の何れかに疵データを出力すると、その疵データを削除する。
疵データ取得部31は、例えば、疵判定装置6のCPU、ROM、RAM、ハードディスク、及びデータ入出力制御装置を用いることにより実現される。
FIG. 3 is a block diagram illustrating an example of a functional configuration of the
In FIG. 3, the heel
The heel
本実施形態の疵学習装置9は、教師付き学習と教師なし学習との2種類の学習を行うようにしている。教師付き学習とは、疵データ取得部31で取得された疵データに対して、検査員が設定した"疵種に関する正解データ(教師データ)"を付与して学習モデルを生成(学習)するものである。一方、教師なし学習とは、検査員が設定したデータの代わりに、疵学習装置9自身が生成(学習)した学習モデルを適用することにより得られた"疵種のデータ"を疵データ取得部31で取得された疵データに対して付与して学習モデルを生成(学習)するものである。
ここで正解データは、例えば、次のようにして得られるものである。まず、種々の疵を含む多数の画像と、それらの画像に対応する実際の鋼鈑とを検査員が目視で確認して、疵の種類・等級等を決定する。このようにして決定した内容に基づいて、当該画像における"疵種に関する情報(疵の種類や等級等)"を正解データとして疵学習装置(コンピュータ)に登録する。
The
Here, the correct answer data is obtained, for example, as follows. First, an inspector visually confirms a large number of images including various types of defects and actual steel irons corresponding to these images, and determines the type and grade of the defects. Based on the content determined in this way, “information on the cocoon type (type of cocoon, grade, etc.)” in the image is registered as correct data in the cocoon learning apparatus (computer).
本実施形態では、教師付き学習を行うのが教師付き学習部32であり、教師なし学習を行うのが教師なし学習部33である。
まず、教師付き学習部32が行う教師付き学習について詳細に説明する。
In the present embodiment, the supervised learning unit 32 performs supervised learning, and the unsupervised learning unit 33 performs unsupervised learning.
First, the supervised learning performed by the supervised learning unit 32 will be described in detail.
データ点配置部32aは、疵種に関する複数個の疵データを疵データ取得部31から入力すると、当該複数個の疵データを3つの疵データの群に分割し、そのうちの第1群の疵データに基づいて、疵種に関する複数の特徴量を表す画像データを生成する。本実施形態では、例えば疵データの総個数が15000個であるとする。そして、例えば、第1群の疵データを7000個、第2群の疵データを5000個、そして第3群の疵データを3000個とする。
データ点配置部32aは、第1群の疵データについて生成した画像データに基づく画像を表示装置10に表示させる。この画像が表示されると、検査員は、疵判定装置6のユーザインターフェースを用いて、疵種に関する複数個の疵データに対する正解データを入力する。正解データは、例えば、疵の種類や等級等の検査員による判定結果である。データ点配置部32aは、第1群の疵データの夫々について、入力された正解データを、対応する疵データに紐つけて付与する。
When the data
The data
データ点配置部32aは、正解データが付与された"疵種に関する複数個の疵データ"の夫々のデータ点(値)を、疵データ取得部31から入力した疵データに含まれる複数の特徴量の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。尚、後述する部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置する。
図4は、各特徴量を軸とする座標空間に、疵種に関する複数個の疵データのデータ点を配置した様子の一例を示す図である。尚、以下の説明では、このように"疵データのデータ点を座標空間に配置する"ことを、必要に応じて"疵データを座標空間に配置する"と称す。また、以下の説明では、正解データとして疵種「C1」、「C2」の2種の疵種に関する疵データが複数個、疵データ取得部31から入力されたものとし、特徴量の種類は150種であるとする。また、図4では、説明の便宜上、各特徴量f2、f7は規格化されているものとする。
The data
FIG. 4 is a diagram illustrating an example of a state in which a plurality of data points of the cocoon data regarding the cocoon type are arranged in the coordinate space having each feature amount as an axis. In the following description, “arranging the data points of the eyelid data in the coordinate space” is referred to as “placement of the eyelid data in the coordinate space” as necessary. Further, in the following description, it is assumed that a plurality of soot data relating to the soot types “C1” and “C2” are input from the soot
特徴量組み合わせ判別部32bは、データ点配置部32aにより座標空間に、疵種「C1」、「C2」の正解データが付与された疵データのデータ点が配置されると、夫々のデータ点の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していない場合、その疵データが配置されている座標空間の軸の各特徴量の値の組み合わせを、正解データである疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせとして判別する。
When the data point arrangement unit 32b arranges the data points of the basket data to which the correct data of the basket types “C1” and “C2” are assigned in the coordinate space by the data
すなわち、図4に示す例では、特徴量f2、f7を各軸とする座標空間に、白丸で表される疵種「C1」に関する疵データと、黒丸で表される疵種「C2」に関する疵データとが配置されている。そして、疵種「C1」、「C2」の疵データの位置は、座標空間上で一致していない。よって、疵種「C1」、「C2」は、特徴量f2、f7の夫々の値の領域により完全に分離することができる。すなわち、疵種「C1」、「C2」は、特徴量f2、f7の値の組み合わせによって特定することができる。 That is, in the example shown in FIG. 4, in the coordinate space having the feature quantities f2 and f7 as axes, the eyelid data relating to the eyelid type “C1” represented by white circles and the eyelid relating to the eyelid type “C2” represented by black circles. Data and are arranged. The positions of the eyelid data of the eyelid types “C1” and “C2” do not match in the coordinate space. Therefore, the varieties “C1” and “C2” can be completely separated by the areas of the respective values of the feature amounts f2 and f7. That is, the species “C1” and “C2” can be specified by a combination of the values of the feature amounts f2 and f7.
特徴量組み合わせ判別部32bは、図4に示すように、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していないと判定すると、その疵データを配置した座標空間の軸の各特徴量の値の組み合わせを一時的に記憶する。ここでは、特徴量組み合わせ判別部32bは、このような動作を、例えば、150種の特徴量を3分割して、そのうちの第1群の特徴量f1〜f50について行う。尚、本実施形態では、特徴量の群として第1、第2及び第3の3つの群に分けて、以下の処理を実施するが、各群に属す特徴量の数の比率は以下の説明で例示する比率に限定する必要はなく、適宜設定すればよい。 As shown in FIG. 4, the feature amount combination determination unit 32 b determines that the feature value value areas of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are not overlapped with each other. The combination of the values of the feature values of the axes in the coordinate space where the bag data is arranged is temporarily stored. Here, the feature amount combination determining unit 32b performs such an operation on, for example, the first group of feature amounts f1 to f50 by dividing 150 types of feature amounts into three. In the present embodiment, the following processing is performed by dividing into the first, second, and third groups as the feature amount groups. The ratio of the number of feature amounts belonging to each group is described below. It is not necessary to limit to the ratio illustrated in FIG.
学習モデル生成部32cは、特徴量組み合わせ判別部32bにより一時的に記憶された各特徴量の値の組み合わせと正解データである疵種「C1」、「C2」とに基づいて、各特徴量の値の組(すなわち、座標空間内における領域)と疵種とを対応付けるための部分特徴量空間から学習モデルを生成する。
図5は、学習モデルの一例を概念的に示す図である。また、図6は、学習モデルが生成される様子の一例を概念的に示す図である。
図5では、部分特徴量空間1、部分特徴量空間2、・・・、部分特徴量空間L(Lは3以上の整数)の集合として、学習モデル51が生成された場合を例に挙げて示している。
ここで、部分特徴量空間1は、特徴量f2、f7の値の組と疵種「C1」、「C2」とを対応付けるためのものであり、特徴量f2、f7を座標軸とする。部分特徴量空間2は、特徴量f1、f3、f7の値の組と疵種「C1」、「C2」とを対応付けるためのものであり、特徴量f1、f3、f7を座標軸とする。部分特徴量空間Lは、特徴量f4、f6、f9と疵種「C1」、「C2」とを対応付けるためのものであり、特徴量f4、f6、f9を座標軸とする。
この段階で、図6(a)に示すように、特徴量f1〜f50の値の組のうち、疵種「C1」、「C2」を完全に分離する特徴量の値の組と、疵種「C1」、「C2」とを対応付けるための複数個(L個)の部分特徴量空間の集合として学習モデルAが生成される。
The learning
FIG. 5 is a diagram conceptually illustrating an example of a learning model. FIG. 6 is a diagram conceptually illustrating an example of how a learning model is generated.
In FIG. 5, as an example, the
Here, the partial
At this stage, as shown in FIG. 6A, among the value pairs of the feature amounts f1 to f50, the feature value set that completely separates the species “C1” and “C2” and the species A learning model A is generated as a set of a plurality (L) of partial feature amount spaces for associating “C1” and “C2”.
次に、図6(b)に示すように、疵種抽出部32dは、疵データ取得部31で取得された疵種「C1」、「C2」に関する疵データのうちの(データ点配置部32aで分割した3つの疵データの群のうちの)第2群の疵データの夫々について、学習モデルAを適用して(すなわち第2群の疵データを学習モデルAに含まれる各部分特徴量空間に配置して)、部分特徴量空間1〜Lの夫々において、各疵データのデータ点の位置から、第2群の疵データが疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。
Next, as shown in FIG. 6B, the soot
棄却クラス判定部32eは、第2群の疵データの夫々について疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した結果として、当該第2群の疵データの疵種を特定できるか否かを判定する。図7は、各疵データの疵種「C1」、「C2」を判定する処理の一例を概念的に示す図である。
すなわち、図7に示すように、本実施形態では、疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある閾値以上、例えば90%以上である場合、棄却クラス判定部32eは、学習モデルAを適用した当該第2群の疵データは、疵種「C1」に属すものであると判定する(疵種を特定できると判定する)。また、疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、ある閾値以下、例えば10%以下である場合、棄却クラス判定部32eは、学習モデルAを適用した当該第2群の疵データは、疵種C2に属すものであると判定する(疵種を特定できると判定する)。そして、疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、ある範囲内、例えば10%よりも大きく90%よりも小さい場合、棄却クラス判定部32eは、学習モデルAを適用した当該第2群の疵データは、疵種「C1」に属すものでも、疵種C2に属すものでもないと判定する(疵種を特定できないと判定する)。
The rejection
That is, as shown in FIG. 7, in this embodiment, the seeds for the total number of seeds “C1” and “C2”, which are the judgment results by the partial
第2群の疵データのなかで、棄却クラス判定部32eにより疵種を特定できないと判定された疵データは、学習モデルAにおいて何れのクラスにも属さない別のクラス(以下の説明では、このクラスを棄却クラスと称する)のデータ(以下の説明では、必要に応じて棄却データと称する)となる。データ点配置部32aは、その棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像データを生成する。そして、データ点配置部32aは、その画像データに基づく画像を表示装置10に表示させる。この画像が表示されると、検査員は、疵判定装置6のユーザインターフェースを用いて、棄却データに対する正解データを入力する。データ点配置部32aは、第2群の疵データの夫々について、入力された正解データを、対応する棄却データに紐つけて付与する(図6(b)を参照)。ここでは、正解データとして疵種「C1」、「C2」の何れかのデータが棄却データに対して付与されることになる。
Among the second group of soot data, the soot data determined by the rejection
疵種「C1」、「C2」の何れかが正解データとして付与されているにも拘わらず棄却データと判定されるデータがあり得る。データ点配置部32aは、この疵種「C1」、「C2」の何れかが正解データとして付与された棄却データのデータ点を、第2群の特徴量f51〜f100の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部32aは、第2群の特徴量f51〜f100の全ての組み合わせについて、その組み合わせを各軸とする座標空間に棄却データ(疵種を特定できない第2群の疵データ)のデータ点を配置する(図4を参照)。尚、後述する部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
There may be data that is determined to be rejected data regardless of whether the type “C1” or “C2” is assigned as correct data. The data
特徴量組み合わせ判別部32bは、データ点配置部32aにより座標空間に棄却データのデータ点が配置されると、夫々の配置位置に基づいて、それらの棄却データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの棄却データの特徴量の値の領域が相互に重複していない場合、その棄却データが配置されている座標空間の軸の各特徴量の値の組み合わせを、正解データである疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせとして判別する。
When the data point of the rejection data is arranged in the coordinate space by the data
特徴量組み合わせ判別部32bは、疵種「C1」、「C2」の正解データが付与された棄却データの特徴量の値の領域が相互に重複していないと判定すると、その棄却データを配置した座標空間の軸の各特徴量(疵種を特定できない特徴量)の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、150種のうちの第2群の特徴量f51〜f100について行う。 When the feature quantity combination determination unit 32b determines that the feature value value areas of the reject data to which correct data of the species “C1” and “C2” are assigned do not overlap each other, the reject data is arranged. A combination of values of each feature amount (a feature amount for which the species cannot be specified) of the axis in the coordinate space is temporarily stored. The feature amount combination determination unit 32b performs such an operation on the second group of feature amounts f51 to f100 out of 150 types.
学習モデル生成部32cは、特徴量組み合わせ判別部32bにより一時的に記憶された各特徴量の値の組み合わせと正解データである疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から学習モデルBを生成する(図6(b)を参照)。学習モデルBの生成方法は学習モデルAの生成方法と同じであるので、学習モデルBの生成方法の詳細な説明を省略する。
The learning
次に、図6(c)に示すように、疵種抽出部32dは、疵データ取得部31で取得された疵種に関する複数個の疵データのうちの第3群の疵データの夫々について、学習モデルAを適用して(すなわち第3群の疵データを学習モデルAに含まれる各部分特徴量空間に配置して)、部分特徴量空間1〜Lの夫々において、各疵データのデータ点の位置から疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。
Next, as shown in FIG. 6 (c), the soot
棄却クラス判定部32eは、第3群の疵データの夫々について疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した結果として、当該第3群の疵データの疵種を特定できるか否かを判定する。前述したように、疵種抽出部32dにより抽出された、部分特徴量空間1〜Lによる判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある範囲内、例えば10%よりも大きく90%よりも小さい場合に、棄却クラス判定部32eは、学習モデルAを適用した当該第3群の疵データから、疵種を特定できないと判定し、そうでない場合に、棄却クラス判定部32eは、学習モデルAを適用した当該第3群の疵データから、疵種を特定できると判定する。
The rejection
次に、疵種抽出部32dは、第3群の疵データのなかで、棄却クラス判定部32eにより疵種を特定できないと判定された疵データ(棄却データ)の夫々について、学習モデルBを適用して(すなわち第3群の疵データを学習モデルBに含まれる各部分特徴量空間に配置して)、部分特徴量空間の夫々において、各疵データのデータ点の位置から、第3群の疵データが疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。
棄却クラス判定部32eは、第3群の疵データの夫々について疵種抽出部32dにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルBを適用した結果として、当該第3群の疵データの疵種を特定できるか否かを判定する。本実施形態では、疵種抽出部32dにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある閾値以上、例えば90%以上である場合、棄却クラス判定部32eは、学習モデルBを適用した当該第3群の疵データは、疵種「C1」に属すものであると判定する(疵種を特定できると判定する)。また、疵種抽出部32dにより抽出された、部分特徴量空間を用いた判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、ある閾値以下、例えば10%以下である場合、棄却クラス判定部32eは、学習モデルBを適用した当該第3群の疵データは、疵種C2に属すものであると判定する(疵種を特定できると判定する)。そして、疵種抽出部32dにより抽出された、部分特徴量空間を用いた判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、ある範囲内、例えば10%よりも大きく90%よりも小さい場合、棄却クラス判定部32eは、学習モデルBを適用した当該第3群の疵データは、疵種「C1」に属すものでも、疵種C2に属すものでもないと判定する(疵種を特定できないと判定する)。
Next, the soot
The rejection
第3群の疵データのなかで、棄却クラス判定部32eにより疵種を特定できないと判定された疵データは、学習モデルBにおいて何れのクラスにも属さない棄却データとなる。データ点配置部32aは、その棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像データを生成する。そして、データ点配置部32aは、その画像データに基づく画像を表示装置10に表示させる。この画像が表示されると、検査員は、疵判定装置6のユーザインターフェースを用いて、棄却データに対する正解データを入力する。データ点配置部32aは、第3群の疵データの夫々について、入力された正解データを、対応する棄却データに紐つけて付与する(図6(c)を参照)。ここでは、正解データとして疵種「C1」、「C2」の何れかのデータが棄却データに付与されることになる。
In the third group of soot data, the soot data determined by the reject
前述したように疵種「C1」、「C2」の何れかが正解データとして付与されているにも拘わらず棄却データと判定されるデータがあり得る。データ点配置部32aは、この疵種「C1」、「C2」の何れかが正解データとして付与された棄却データのデータ点を、第3群の特徴量f101〜f150の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部32aは、第3群の特徴量f101〜f150の全ての組み合わせについて、その組み合わせを各軸とする座標空間に棄却データ(疵種を特定できない第3群の疵データ)のデータ点を配置する(図4を参照)。尚、後述する部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
As described above, there may be data that is determined to be rejected data regardless of whether the type “C1” or “C2” is given as correct data. The data
特徴量組み合わせ判別部32bは、データ点配置部32aにより座標空間に棄却データのデータ点が配置されると、夫々の配置位置に基づいて、それらの棄却データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの棄却データの特徴量の値の領域が相互に重複していない場合、その棄却データが配置されている座標空間の軸の各特徴量の値の組み合わせを、正解データである疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせとして判別する。
When the data point of the rejection data is arranged in the coordinate space by the data
特徴量組み合わせ判別部32bは、疵種「C1」、「C2」の正解データが付与された棄却データの特徴量の値の領域が相互に重複していないと判定すると、その棄却データを配置した座標空間の軸の各特徴量(疵種を特定できない特徴量)の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、150種のうちの第3群の特徴量f101〜f150について行う。 When the feature quantity combination determination unit 32b determines that the feature value value areas of the reject data to which correct data of the species “C1” and “C2” are assigned do not overlap each other, the reject data is arranged. A combination of values of each feature amount (a feature amount for which the species cannot be specified) of the axis in the coordinate space is temporarily stored. The feature amount combination determination unit 32b performs such an operation on the third group of the feature amounts f101 to f150 out of 150 types.
学習モデル生成部32cは、特徴量組み合わせ判別部32bにより一時的に記憶された各特徴量の値の組み合わせと正解データである疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から学習モデルCを生成する(図6(c)を参照)。学習モデルCの生成方法は学習モデルA、Bの生成方法と同じであるので、学習モデルCの生成方法の詳細な説明を省略する。
The learning
ただし、本実施形態では、学習モデルCに疵データを適用した場合には、その疵データから疵種「C1」、「C2」の何れかが必ず得られるようにしている。具体的に本実施形態では、疵種抽出部32dにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある閾値以上、例えば50%以上である場合、棄却クラス判定部32eは、学習モデルCを適用した疵データは、疵種「C1」に属すものであると判定する。一方、疵種抽出部32dにより抽出された、部分特徴量空間を用いた判断結果である疵種「C1」、「C2」の総数に対する疵種「C1」と判断された個数の割合が、ある閾値よりも小さい、例えば50%よりも小さい(50%未満である)場合、棄却クラス判定部32eは、学習モデルCを適用した疵データは、疵種「C2」に属すものであると判定する。
However, in the present embodiment, when the soot data is applied to the learning model C, either the soot type “C1” or “C2” is always obtained from the soot data. Specifically, in the present embodiment, the number of types determined as the type “C1” for the total number of types “C1” and “C2”, which are the determination results based on the partial feature space extracted by the
以上のようにして本実施形態では、図6(d)に示すように、3つの学習モデルA〜Cが生成される。生成された学習モデル(部分特徴量空間)は、学習モデル更新部34と学習モデル出力部35に出力される。
学習モデル更新部34は、学習モデル(部分特徴量空間)を入力すると、既に記憶されている学習モデル(部分特徴量空間)を、入力した学習モデル(部分特徴量空間)に書き換える。図8は、学習モデル(部分特徴量空間)が更新される様子の一例を概念的に示す図である。
As described above, in the present embodiment, as shown in FIG. 6D, three learning models A to C are generated. The generated learning model (partial feature amount space) is output to the learning model update unit 34 and the learning model output unit 35.
When the learning model (partial feature amount space) is input, the learning model update unit 34 rewrites the already stored learning model (partial feature amount space) to the input learning model (partial feature amount space). FIG. 8 is a diagram conceptually illustrating an example of how the learning model (partial feature amount space) is updated.
図8に示す例では、今回の学習によって、部分特徴量空間2が削除され、部分特徴量空間L+1が追加されている。すなわち、前回の学習モデルA1を生成する際に取得した疵データでは、特徴量f1、f3、f7で疵種「C1」、「C2」を完全に分離できたが、今回の学習モデルA2を生成する際に取得した疵データを加えると、特徴量f1、f3、f7では疵種「C1」、「C2」を完全に分離できなくなったことになる。また、前回の学習モデルA1を生成する際に取得した疵データでは、特徴量f4、f6、f10では疵種「C1」、「C2」を完全に分離できなかったが、今回の学習モデルA2を生成する際に取得した疵データでは、特徴量f4、f6、f10で疵種「C1」、「C2」を完全に分離できたことになる。
また、学習モデル出力部35は、学習モデル(部分特徴量空間)を入力すると、その学習モデルを疵判定装置6に送信する。
In the example shown in FIG. 8, the partial feature amount space 2 is deleted and the partial feature amount space L + 1 is added by this learning. That is, in the bag data acquired when the previous learning model A1 is generated, the bag types “C1” and “C2” can be completely separated by the feature amounts f1, f3, and f7, but the current learning model A2 is generated. If the soot data acquired at this time is added, the soot species “C1” and “C2” cannot be completely separated by the feature amounts f1, f3, and f7. In addition, in the bag data acquired when the previous learning model A1 is generated, the bag types “C1” and “C2” cannot be completely separated by the feature amounts f4, f6, and f10. In the soot data acquired at the time of generation, the soot species “C1” and “C2” can be completely separated by the feature amounts f4, f6, and f10.
In addition, when a learning model (partial feature amount space) is input, the learning model output unit 35 transmits the learning model to the wrinkle determination device 6.
また、自律学習判定部36は、学習モデル更新部34で学習モデル(部分特徴量空間)が更新されると、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、自律学習判定部36は、例えば、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下であるか否かを判定する。この判定の結果、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下である場合、自律学習判定部36は、自律学習フラグをオンし、教師付き学習から教師なし学習に学習の方法を自動的に切り替える。一方、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でない場合、自律学習判定部36は、自律学習フラグをオフのままとし、教師付き学習を継続させるようにする。尚、自律学習フラグは、疵学習装置9が備えるRAMやレジスタ等に記憶されているものである。
Further, when the learning model (partial feature amount space) is updated by the learning model update unit 34, the autonomous learning determination unit 36 of the partial feature amount spaces included in the learning models A to C is not updated. Count the number of quantity spaces. Then, for example, the autonomous learning determination unit 36 determines whether or not the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is equal to or less than a threshold value. As a result of this determination, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is less than or equal to the threshold value, the autonomous learning determination unit 36 turns on the autonomous learning flag. The learning method is automatically switched from supervised learning to unsupervised learning. On the other hand, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, the autonomous learning determination unit 36 keeps the autonomous learning flag off, Try to continue supervised learning. The autonomous learning flag is stored in a RAM, a register, or the like included in the
図9は、更新されなかった部分特徴量空間の数と、学習実行日時との関係の一例を示す図である。
本実施形態では、疵学習装置9は、疵判定装置6から疵データを半年毎に取得しているので、図9において、プロットとプロットとの間の横軸方向の距離は、半年に対応するものとなる。
図9において、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値Δが、閾値以下になった日時xになるまでは教師付き学習を行い、日時xよりも後では教師なし学習を行う。その後、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値Δが、閾値よりも大きくなった日時yよりも後では教師あり学習を再び行う。
FIG. 9 is a diagram illustrating an example of the relationship between the number of partial feature amount spaces that have not been updated and the learning execution date and time.
In the present embodiment, the
In FIG. 9, supervised learning is performed until the absolute value Δ of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is equal to or less than the threshold date and time x. After the date x, unsupervised learning is performed. Thereafter, supervised learning is performed again after the date and time y when the absolute value Δ of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is larger than the threshold value.
尚、図9では、日時yにおいて、前回の教師付き学習において計数した数よりも、今回の教師付き学習において計数した数が大幅に減少している場合を示したが、これとは逆に、前回の教師付き学習において計数した数よりも、今回の教師付き学習において計数した数が大幅に増加することもあり得る。このような場合は、教師なし学習を継続することになる。ただし、本実施形態では、説明の都合上、教師なし学習を行っている場合には、前回の教師付き学習において計数した数よりも、今回の教師付き学習において計数した数が大幅に増加することはないものとして説明を行う。 Note that FIG. 9 shows a case where the number counted in the current supervised learning is significantly reduced at the date and time y than the number counted in the previous supervised learning. It is possible that the number counted in the current supervised learning may be significantly larger than the number counted in the previous supervised learning. In such a case, unsupervised learning is continued. However, in the present embodiment, for the sake of explanation, when unsupervised learning is performed, the number counted in the current supervised learning is greatly increased from the number counted in the previous supervised learning. I will explain that there is no.
教師付き学習部32、学習モデル更新部34、及び自律学習判定部36は、例えば、疵判定装置6のCPU、ROM、RAM、及びハードディスクを用いることにより実現される。学習モデル出力部35は、例えば、疵判定装置6のデータ入出力制御装置を用いることにより実現される。 The supervised learning unit 32, the learning model update unit 34, and the autonomous learning determination unit 36 are realized by using, for example, the CPU, ROM, RAM, and hard disk of the eyelid determination device 6. The learning model output unit 35 is realized by using, for example, a data input / output control device of the wrinkle determination device 6.
ここで、図6(d)を参照しながら、このような学習モデルA〜Cにおける疵種の判別方法の一例を説明する。
まず、入力した疵データの夫々について、学習モデルAを適用し、学習モデルAに含まれている各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を得る。そして、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば90%以上である場合、入力した疵データは疵種「C1」に属すものと判断され、例えば10%以下である場合、入力した疵データは疵種「C2」に属すものと判断される(図6(d)の学習モデルA→クラス決定)。
Here, with reference to FIG. 6 (d), an example of a method for discriminating the species in such learning models A to C will be described.
First, the learning model A is applied to each of the input bag data, and information on either of the bag types “C1” and “C2” is obtained from each partial feature amount space included in the learning model A. Then, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 90% or more, for example, it is determined that the input soot data belongs to the seed “C1”. For example, if it is 10% or less, it is determined that the input soot data belongs to the soot type “C2” (learning model A → class determination in FIG. 6D).
一方、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば10%よりも大きく90%よりも小さい場合、学習モデルAにおける判定結果では、入力した疵データは、疵種「C1」、「C2」の何れに属すものかが不明であるため、入力した疵データの夫々について、学習モデルBを適用する。そして、その結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば90%以上である場合、入力した疵データは疵種「C1」に属すものと判断され、例えば10%以下である場合、入力した疵データは疵種「C2」に属すものと判断される(図6(d)の学習モデルB→クラス決定)。 On the other hand, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is, for example, larger than 10% and smaller than 90%, the determination result in the learning model A indicates that the input soot data Since it is unclear whether it belongs to the species “C1” or “C2”, the learning model B is applied to each of the inputted cage data. As a result, when the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is 90% or more, for example, the input soot data belongs to the seed “C1”. For example, if it is 10% or less, it is determined that the input soot data belongs to the soot type “C2” (learning model B → class determination in FIG. 6D).
一方、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば10%よりも大きく90%よりも小さい場合、学習モデルAにおける判定結果では、入力した疵データは、疵種「C1」、「C2」の何れに属すものかが不明であるため、入力した疵データの夫々について、学習モデルCを適用する。その結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が、例えば50%以上である場合、入力した疵データは疵種「C1」に属すものと判断され、50%よりも小さい場合、入力した疵データは疵種「C2」に属すものと判断される(図6(d)の学習モデルC→クラス決定)。
本実施形態では、疵判定装置6の疵判定部27は、以上のようにして疵種の判定を行うことになる。
On the other hand, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is, for example, larger than 10% and smaller than 90%, the determination result in the learning model A indicates that the input soot data Since it is unknown which of the species “C1” and “C2” belongs to, the learning model C is applied to each of the inputted cage data. As a result, if the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is, for example, 50% or more, the input soot data is determined to belong to the seed “C1”. If it is smaller than 50%, it is determined that the input soot data belongs to the soot type “C2” (learning model C → class determination in FIG. 6D).
In the present embodiment, the
次に、教師なし学習部33が行う教師なし学習について詳細に説明する。
まず、疵種抽出部33aは、疵データ取得部31により取得された疵データの夫々について、学習モデル更新部34に記憶されている学習モデルAを適用して(疵データの夫々を学習モデルAに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
Next, unsupervised learning performed by the unsupervised learning unit 33 will be described in detail.
First, the soy
次に、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した疵データが、疵種「C1」に属すものか、疵種「C2」に属すものか、それとも、疵種「C1」、「C2」の何れにも属さないものかを判定する。
Next, the rejection
疵種データ付与部33cは、棄却クラス判定部33bにより疵種「C1」に属すと判定された疵データに対し、疵種「C1」のデータを紐つけて付与する。また、疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C2」に属すと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。
The seed type
データ点配置部33dは、疵種「C1」、「C2」の何れかのデータが付与された疵データのデータ点を、150種の特徴量f1〜f150の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部33dは、特徴量f1〜f150の全ての組み合わせについて、その組み合わせを各軸とする座標空間に疵データのデータ点を配置する(図4を参照)。尚、データ点配置部32aは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
The data
特徴量組み合わせ判別部33eは、データ点配置部33dにより座標空間に疵データが配置されると、夫々の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合、その疵データが配置されている座標空間の軸の各特徴量の値の組み合わせを、疵種「C1」、「C2」を完全に分離できる組み合わせとして判別する。そして、特徴量組み合わせ判別部33eは、その疵データを配置した座標空間の軸の各特徴量の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、特徴量f1〜f150について行う。
When the eyelid data is placed in the coordinate space by the data
学習モデル生成部33fは、特徴量組み合わせ判別部33eにより一時的に記憶された各特徴量の値の組み合わせと、疵データに付与した疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から、学習モデルAを生成する。
前述したようにして棄却クラス判定部33bにより、学習モデルAを適用した疵データが、疵種「C1」、「C2」の何れにも属さないものであると判定されると、その疵データは棄却データとなる。疵種抽出部33は、その疵データ(棄却データ)の夫々について、学習モデル更新部34に記憶されている学習モデルBを適用して(すなわち棄却データである疵データを学習モデルBに含まれる各部分特徴量空間に配置して)、部分特徴量空間の夫々において、各疵データのデータ点の位置から、疵データが疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。
The learning model generation unit 33f determines each feature based on the combination of the values of the feature values temporarily stored by the feature value combination determination unit 33e and the species “C1” and “C2” assigned to the bag data. A learning model A is generated from a partial feature amount space for associating a pair of quantity values with a seed type.
As described above, when the rejection
次に、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルBを適用した疵データが、疵種「C1」に属すものか、疵種「C2」に属すものか、それとも、疵種「C1」、「C2」の何れにも属さないものかを判定する。
Next, the rejection
疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C1」に属すと判定された疵データに対し、疵種「C1」のデータを紐つけて付与する。また、疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C2」に属すと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。
The species
データ点配置部33dは、疵種「C1」、「C2」の何れかのデータが付与された疵データのデータ点を、150種の特徴量f1〜f150の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部33dは、150種の特徴量f1〜f150の全ての組み合わせについて、その組み合わせを軸とする座標空間に疵データのデータ点を配置する(図4を参照)。尚、データ点配置部32aは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
The data
特徴量組み合わせ判別部33eは、データ点配置部33dにより座標空間に疵データが配置されると、夫々の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合、その疵データが配置されている座標空間の各軸に対応する特徴量の値の組み合わせを、疵種「C1」、「C2」を完全に分離できる組み合わせとして判別する。そして、特徴量組み合わせ判別部33eは、その疵データを配置した座標空間の軸の各特徴量の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、150種の特徴量f1〜f150について行う。
When the eyelid data is placed in the coordinate space by the data
学習モデル生成部33fは、特徴量組み合わせ判別部33eにより一時的に記憶された各特徴量の値の組み合わせと疵データに付与した疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から、前述したように学習モデルBを生成する。 The learning model generation unit 33f determines each feature amount based on the combination of the feature value values temporarily stored by the feature amount combination determination unit 33e and the seed types “C1” and “C2” assigned to the soot data. As described above, the learning model B is generated from the partial feature amount space for associating the value set and the species.
前述したように、棄却クラス判定部33bにより、学習モデルBを適用した疵データが、疵種「C1」、「C2」の何れにも属さないものであると判定されると、その疵データは棄却データとなる。疵種抽出部33は、その疵データ(棄却データ)の夫々について、学習モデル更新部34に記憶されている学習モデルCを適用して(すなわち棄却データである疵データを学習モデルCに含まれる各部分特徴量空間に配置して)、部分特徴量空間の夫々において、各疵データ(棄却データ)のデータ点の位置から、疵データ(棄却データ)が疵種「C1」、「C2」の何れに属するかの判断結果の情報を抽出する。
As described above, when the rejection
次に、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、部分特徴量空間による判断結果である疵種「C1」、「C2」の個数に基づいて、学習モデルCを適用した疵データが、疵種「C1」に属すものか、それとも、疵種「C2」に属すものかを判定する。
Next, the rejection
疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C1」に属すと判定された疵データに対し、疵種「C1」のデータを紐つけて付与する。また、疵種データ付与部33cは、棄却クラス判定部33bにより、疵種「C2」に属すと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。
The species
データ点配置部33dは、疵種「C1」、「C2」の何れかのデータが付与された疵データのデータ点を、150の特徴量f1〜f150の値に基づき、各特徴量を軸とする座標空間(特徴量空間)に配置する。すなわち、データ点配置部33dは、特徴量f1〜f150の全ての組み合わせについて、その組み合わせを各軸とする座標空間に疵データのデータ点を配置する(図4を参照)。尚、データ点配置部32aは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
The data
特徴量組み合わせ判別部33eは、データ点配置部33dにより座標空間に疵データが配置されると、夫々の配置位置に基づいて、それらの疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合、その疵データが配置されている座標空間の軸の各特徴量の値の組み合わせを、疵種「C1」、「C2」を完全に分離できる組み合わせとして判別する。そして、特徴量組み合わせ判別部33eは、その疵データを配置した座標空間の軸の各特徴量の値の組み合わせを一時的に記憶する。特徴量組み合わせ判別部32bは、このような動作を、特徴量f1〜f150について行う。
When the eyelid data is placed in the coordinate space by the data
学習モデル生成部33fは、特徴量組み合わせ判別部33eにより一時的に記憶された各特徴量の値の組み合わせと疵データに付与した疵種「C1」、「C2」とに基づいて、各特徴量の値の組と疵種とを対応付けるための部分特徴量空間から、前述したように学習モデルCを生成する。 The learning model generation unit 33f determines each feature amount based on the combination of the feature value values temporarily stored by the feature amount combination determination unit 33e and the seed types “C1” and “C2” assigned to the soot data. As described above, the learning model C is generated from the partial feature amount space for associating the value set and the species.
以上のようにして本実施形態では、教師あり学習では、検査員によって入力された"疵種に関する正解データ"を疵データに付与して学習モデルA〜Cを生成するのに対し、教師なし学習では、既に生成されている学習モデルA〜Cに疵データを適用して得られた疵種のデータを当該疵データに付与して学習モデルA〜Cを生成する。すなわち、教師なし学習では、人手を借りずに、疵学習装置9が自律して学習モデルを生成(学習)することができる。
As described above, according to the present embodiment, in supervised learning, learning models A to C are generated by adding “correct data relating to species” input by an inspector to the kite data, whereas unsupervised learning is performed. Then, the learning models A to C are generated by assigning the soot data obtained by applying the soot data to the already generated learning models A to C to the soot data. In other words, in unsupervised learning, the
教師なし学習を行った場合も、教師あり学習を行った場合と同様に、3つの学習モデルA〜Cが生成され、生成された学習モデル(部分特徴量空間)は、学習モデル更新部34と学習モデル出力部35に出力される。そして、学習モデル更新部34は、既に記憶されている学習モデル(部分特徴量空間)を、入力した学習モデル(部分特徴量空間)に書き換える(図8を参照)。また、学習モデル出力部35は、学習モデル(部分特徴量空間)を入力すると、その学習モデルを疵判定装置6に送信する。 When unsupervised learning is performed, three learning models A to C are generated as in the case of supervised learning, and the generated learning model (partial feature amount space) is connected to the learning model update unit 34. It is output to the learning model output unit 35. Then, the learning model update unit 34 rewrites the already stored learning model (partial feature amount space) to the input learning model (partial feature amount space) (see FIG. 8). In addition, when a learning model (partial feature amount space) is input, the learning model output unit 35 transmits the learning model to the wrinkle determination device 6.
更に、自律学習判定部36は、例えば、今回の教師なし学習において計数した数と、前回の教師あり学習において計数した数との差の絶対値が閾値以下である場合、自律学習判定部36は、自律学習フラグをオンのままとし、教師なし学習を継続する。一方、前回の教師なし学習において計数した数と、今回の教師なし学習において計数した数との差の絶対値が閾値以下でない場合、自律学習判定部36は、自律学習フラグをオフし、教師なし学習から教師付き学習に学習の方法を自動的に切り替える。 Furthermore, when the absolute value of the difference between the number counted in the current unsupervised learning and the number counted in the previous supervised learning is equal to or less than a threshold value, the autonomous learning determination unit 36 The autonomous learning flag is kept on and the unsupervised learning is continued. On the other hand, if the absolute value of the difference between the number counted in the previous unsupervised learning and the number counted in the current unsupervised learning is not less than or equal to the threshold value, the autonomous learning determination unit 36 turns off the autonomous learning flag and unsupervised Automatically switches the learning method from learning to supervised learning.
次に、図10のフローチャートを参照しながら、疵判定装置6の動作の一例を説明する。
まず、ステップS1において、画像入力部21は、撮像装置5から画像データを入力したか否かを判定する。この判定の結果、撮像装置5から画像データを入力していない場合には、後述するステップS21に進む。
一方、撮像装置5から画像データを入力した場合には、ステップS2に進み、ラベリング/特徴量計算部24は、シェーディング補正部22及び二値化部23により処理が行われた画像データに対して、ラベリング処理を行った後、特徴量を計算する。
Next, an example of the operation of the eyelid determination device 6 will be described with reference to the flowchart of FIG.
First, in step S <b> 1, the
On the other hand, when image data is input from the
次に、ステップS3において、疵判定部27は、疵学習装置9から学習モデルA〜Cを取得しているか否かを判定する。この判定の結果、学習モデルA〜Cを取得していない場合には、疵判定装置6は初期状態等であると判断し、後述するステップS16に進む。
一方、学習モデルA〜Cを取得している場合には、ステップS4に進む。ステップS4に進むと、疵判定部27は、ステップS2で計算した疵データの夫々について、取得している学習モデルAを適用し、学習モデルAに含まれている各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を得る。
Next, in step S <b> 3, the
On the other hand, if learning models A to C have been acquired, the process proceeds to step S4. In step S4, the
次に、ステップS5において、疵判定部27は、ステップS4の実行結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が90%以上である場合には、ステップS6に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C1」に属すものであると判断する。そして、後述するステップS16に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%以下である場合には、ステップS7に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C2」に属すものであると判断する。そして、後述するステップS16に進む。
Next, in step S5, the
Further, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 10% or less, the process proceeds to step S7, and the
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合には、ステップS8に進む。ステップS8に進むと、疵判定部27は、ステップS2で計算した疵データの夫々について、取得している学習モデルBを適用し、学習モデルBに含まれている各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を得る。
On the other hand, if the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is greater than 10% and smaller than 90%, the process proceeds to step S8. In step S8, the
次に、ステップS9において、疵判定部27は、ステップS8の実行結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が90%以上である場合には、ステップS10に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C1」に属すものであると判断する。そして、後述するステップS16に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%以下である場合には、ステップS11に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C2」に属すものであると判断する。そして、後述するステップS16に進む。
Next, in step S9, the
If the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 10% or less, the process proceeds to step S11, and the
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合には、ステップS12に進む。ステップS12に進むと、疵判定部27は、ステップS2で計算した疵データの夫々について、取得している学習モデルCを適用し、学習モデルCに含まれている各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を得る。
On the other hand, if the ratio of the number of species “C1” to the total number of species “C1” and “C2” is greater than 10% and less than 90%, the process proceeds to step S12. In step S12, the
次に、ステップS13において、疵判定部27は、ステップS12の実行結果である疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が50%以上である場合には、ステップS14に進み、疵判定部27は、ステップS2で計算した疵データは疵種C1に属すものであると判断する。そして、後述するステップS16に進む。
一方、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が50%よりも小さい場合には、ステップS15に進み、疵判定部27は、ステップS2で計算した疵データは疵種「C2」に属すものであると判断する。そして、ステップS16に進む。
Next, in step S13, the
On the other hand, if the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is less than 50%, the process proceeds to step S15, and the
ステップS16に進むと、疵判定部27は、ステップS2で計算した疵データを疵データ記憶部25に記憶する。このとき、学習モデルA〜Cで疵種「C1」、「C2」の何れかが得られている場合には(ステップS3以外のステップからステップS16に進んだ場合には)、その判断されている疵種「C1」、「C2」のデータと、ステップS2で計算した疵データとを対応付けて疵データ記憶部25に記憶する。
In step S16, the
次に、ステップS17において、疵判定部27は、所定の範囲の画像データについて疵判定を行ったか否かを判定することにより、疵種を表示するタイミングであるか否かを判定する。この判定の結果、所定の範囲の画像データについて疵判定を行い、疵種を表示するタイミングである場合には、ステップS18に進む。ステップS18に進むと、疵判定部27は、疵を模した画像を重ね合わせた疵検出画像データ(マップ)を生成し、表示装置8に表示する。そして、ステップS19に進む。
Next, in step S <b> 17, the
一方、所定の範囲の画像データについて疵判定を行っておらず、疵種を表示するタイミングでない場合には、ステップS18を省略してステップS19に進む。
ステップS19に進むと、疵データ出力判定部28は、疵データ記憶部25に記憶されている疵データを疵学習装置9に出力するタイミングであるか否かを判定する。
On the other hand, if the wrinkle determination is not performed for the image data in the predetermined range and it is not the time to display the wrinkle type, step S18 is omitted and the process proceeds to step S19.
In step S 19, the heel data
この判定の結果、疵データを疵学習装置9に出力するタイミングである場合には、ステップS20に進む。ステップS20に進むと、疵データ出力部29は、疵データ記憶部25に記憶されている疵データのうち、予め設定された時に得られた疵データを疵学習装置9に送信する。前述したように本実施形態では、所定の日時から半年が経過する度に、その日の最初のコイルについての疵データを疵学習装置9に送信する。そして、ステップS1に戻る。
If it is determined that it is time to output the heel data to the
ステップS1において、撮像装置5から画像データを入力していないと判定されると、ステップS21に進む。ステップS21に進むと、学習モデル取得部26は、疵学習装置9から学習モデルを取得したか否かを判定する。この判定の結果、学習モデルを取得していない場合には、ステップS1に戻る。
一方、学習モデルを取得している場合には、ステップS22に進み、学習モデル取得部26は、ステップS21で取得したと判定された学習モデルと同種の学習モデルを既に取得済みであるか否かを判定する。
If it is determined in step S1 that image data has not been input from the
On the other hand, if the learning model has been acquired, the process proceeds to step S22, where the learning
この判定の結果、ステップS21で取得したと判定された学習モデルと同種の学習モデルを取得済みでない場合には、ステップS23に進む。ステップS23に進むと、疵判定部27は、ステップS21で取得された学習モデルを新規登録する。そして、ステップS1に戻る。
一方、ステップS21で取得したと判定された学習モデルと同種の学習モデルを既に取得済みである場合には、ステップS24に進む。ステップS24に進むと、疵判定部27は、取得済みである学習モデルをステップS21で取得された学習モデルに書き換える。そして、ステップS1に戻る。
As a result of this determination, if a learning model of the same type as the learning model determined to have been acquired in step S21 has not been acquired, the process proceeds to step S23. In step S23, the
On the other hand, if a learning model of the same type as the learning model determined to have been acquired in step S21 has already been acquired, the process proceeds to step S24. In step S24, the
次に、図11のフローチャートを参照しながら、疵学習装置9の動作の一例を説明する。
まず、ステップS101において、疵データ取得部31は、疵判定装置6から疵データを取得するまで待機する。そして、疵データを取得するとステップS102に進む。前述したように本実施形態では、疵種「C1」、「C2」に関する、150種の特徴量を含む複数の疵データを取得する。そして、ステップS102に進むと、自律学習判定部36は、自律学習フラグがオンされているか否かを判定することにより、教師なし学習を行えるか否かを判定する。この判定の結果、自律学習フラグがオンされており、教師なし学習を行える場合には、後述する図11−5のステップS154に進む。
以上のように本実施形態では、ステップS101の処理を実行することにより取得手段が実現される。
Next, an example of the operation of the
First, in step S <b> 101, the eyelid
As described above, in the present embodiment, an acquisition unit is realized by executing the process of step S101.
一方、自律学習フラグがオフされており、教師なし学習を行えない場合には、教師付き学習を行うと判断し、ステップS103に進む。ステップS103に進むと、データ点配置部32aは、ステップS101で取得したと判定された複数個の疵データを3つの疵データの群に分割し、そのうちの第1群の疵データに基づく画像を表示装置10に表示し、その表示した画像に対して検査員により入力された正解データを、対応する疵データに紐つけて付与する。
次に、ステップS104において、データ点配置部32aは、第1群の特徴量f1〜f50の組み合わせの1つを選択し、選択した組み合わせの各特徴量を軸とする座標空間(特徴量空間)に、ステップS103で疵種「C1」、「C2」の正解データが付与された"疵種に関する複数個の疵データ"の夫々のデータ点を配置する。尚、部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
On the other hand, if the autonomous learning flag is off and unsupervised learning cannot be performed, it is determined that supervised learning is performed, and the process proceeds to step S103. In step S103, the data
Next, in step S104, the data
次に、ステップS105において、特徴量組み合わせ判別部32bは、ステップS104におけるデータ点の夫々の配置位置に基づいて、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していない場合には、後述するステップS108に進む。
一方、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複している場合には、ステップS106に進む。ステップS106に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS104で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルAに含まれている場合には、ステップS107に進む。
Next, in step S105, the feature amount combination determination unit 32b, based on the arrangement positions of the data points in step S104, the feature amount of the cocoon data to which correct data of the cocoon types “C1” and “C2” are assigned. It is determined whether or not the value areas overlap with each other. As a result of the determination, if the regions of the feature value values of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are not overlapped with each other, the process proceeds to step S108 described later.
On the other hand, if the regions of the feature value values of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are added, the process proceeds to step S106. When the process proceeds to step S106, the learning
ステップS107に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルAから削除して、学習モデルAを更新する。そして、後述するステップS110に進む。
一方、ステップS104で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれていない場合には、ステップS107を省略して、後述するステップS110に進む。
In step S107, the learning model update unit 34 deletes the partial feature amount space from the learning model A and updates the learning model A. And it progresses to step S110 mentioned later.
On the other hand, the learning model A does not include a partial feature amount space for associating a pair of feature values of the axes of the coordinate space in which the eyelid data is arranged in step S104 with the species “C1” and “C2” In this case, step S107 is omitted and the process proceeds to step S110 described later.
ステップS105において、疵種「C1」、「C2」の正解データが付与された疵データの特徴量の値の領域が相互に重複していないと判定された場合には、ステップS108に進む。ステップS108に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS104で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルAに含まれていない場合には、ステップS109に進む。
If it is determined in step S105 that the regions of the feature value values of the cocoon data to which the correct data of the cocoon types “C1” and “C2” are not overlapped with each other, the process proceeds to step S108. In step S108, the learning
ステップS109に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルAに追加して、学習モデルAを更新する。そして、ステップS110に進む。
一方、当該部分特徴量空間が学習モデルAに含まれている場合には、ステップS109を省略してステップS110に進む。
In step S109, the learning model updating unit 34 adds the partial feature amount space to the learning model A and updates the learning model A. Then, the process proceeds to step S110.
On the other hand, when the partial feature amount space is included in the learning model A, step S109 is omitted and the process proceeds to step S110.
以上のように本実施形態では、ステップS104の処理を実行することにより配置手段が実現され、ステップS105の処理を実行することにより第1の判別手段が実現され、ステップS106〜S109の処理を実行することにより第1の生成手段、更新手段が実現される。 As described above, in this embodiment, the placement unit is realized by executing the process of step S104, the first determination unit is realized by executing the process of step S105, and the processes of steps S106 to S109 are executed. By doing so, the first generating means and updating means are realized.
ステップS110に進むと、特徴量組み合わせ判別部32bは、第1群の特徴量f1〜f50の組み合わせを全て選択したか否かを判定する。この判定の結果、第1群の特徴量f1〜f50の組み合わせを全て選択していない場合には、ステップS104に戻り、第1群の特徴量f1〜f50の組み合わせを全て選択するまで、ステップS104〜ステップS110の処理を繰り返し行う。そして、ステップS111に進む。
尚、本実施形態では、第1群の特徴量f1〜f50の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、第1群の特徴量f1〜f50の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S110, the feature amount combination determining unit 32b determines whether all combinations of the first group of feature amounts f1 to f50 have been selected. As a result of the determination, if all the combinations of the feature amounts f1 to f50 of the first group are not selected, the process returns to step S104, and step S104 is performed until all the combinations of the feature amounts f1 to f50 of the first group are selected. -Repeat the process of step S110. Then, the process proceeds to step S111.
In the present embodiment, all combinations of the first group of feature quantities f1 to f50 are selected, but this is not necessarily required. For example, 2 to n (n is an integer greater than or equal to 3 (for example, 8)) combinations among the combinations of the feature amounts f1 to f50 of the first group may be selected.
ステップS111に進むと、学習モデル生成部32cは、ステップS104〜S110の結果に基づいて、最新の学習モデルAの内容を確定する。
次に、ステップS112において、学習モデル出力部35は、ステップS111で確定された学習モデルAのデータを疵判定装置6に出力する。
次に、図11−2のステップS113において、疵種抽出部32dは、ステップS103で分割された3つの疵データの群のうち、第2群の疵データの夫々について、学習モデルAを適用して(学習モデルAに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS113の処理を実行することにより抽出手段が実現される。
If it progresses to step S111, the learning model production |
Next, in step S112, the learning model output unit 35 outputs the data of the learning model A determined in step S111 to the wrinkle determination device 6.
Next, in step S113 of FIG. 11-2, the soot
Thus, in this embodiment, an extraction means is implement | achieved by performing the process of step S113.
次に、ステップS114において、棄却クラス判定部32eは、第2群の疵データの夫々について疵種抽出部32dにより抽出された、ステップS113の実行結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した結果として、当該第2群の疵データの疵種を特定できるか否かを判定する。具体的に本実施形態では、疵種抽出部32dにより抽出された疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合に、棄却クラス判定部32eは、疵種を特定できないと判定する。
このように本実施形態では、ステップS114の処理を実行することにより判定手段が実現される。
この判定の結果、疵種を特定できない場合には、ステップS115に進む。ステップS115に進むと、棄却クラス判定部32eは、疵種を特定できないと判定した第2群の疵データを棄却データとして抽出する。そして、ステップS116に進む。
Next, in step S114, the rejection
As described above, in this embodiment, the determination unit is realized by executing the process of step S114.
If the result of this determination is that the species cannot be identified, the process proceeds to step S115. When the process proceeds to step S115, the rejection
一方、疵種を特定できる場合には、ステップS115を省略してステップS116に進む。
ステップS116に進むと、疵種抽出部32dは、第2群の疵データの全てについて、ステップS113〜S116の処理を行ったか否かを判定する。この判定の結果、第2群の疵データの全てについて、ステップS113〜S116の処理を行っていない場合には、ステップS113に戻り、第2群の疵データの全てについて、ステップS113〜S116の処理を行うまで、ステップS113〜S116を繰り返し行う。そしてステップS117に進む。
On the other hand, when the species can be specified, step S115 is omitted and the process proceeds to step S116.
In step S116, the soy
ステップS117に進むと、データ点配置部32aは、ステップS115において棄却データが少なくとも1つ抽出されたか否かを判定する。この判定の結果、ステップS115において棄却データが少なくとも1つも抽出されなかった場合には、後述する図11−4のステップS149に進む。
一方、ステップS115において棄却データが少なくとも1つ抽出された場合には、ステップS118に進む。ステップS118に進むと、データ点配置部32aは、棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像を表示装置10に表示し、その表示した画像に対して検査員により入力された正解データを、対応する棄却データに紐つけて付与する。
In step S117, the data
On the other hand, if at least one rejection data is extracted in step S115, the process proceeds to step S118. In step S118, the data
次に、ステップS119において、データ点配置部32aは、第2群の特徴量f51〜f100の組み合わせの1つを選択し、選択した組み合わせの各特徴量を軸とする座標空間(特徴量空間)に、ステップS118で疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の夫々のデータ点を配置する。尚、部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
Next, in step S119, the data
次に、ステップS120において、特徴量組み合わせ判別部32bは、ステップS119におけるデータ点の夫々の配置結果に基づいて、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の特徴量の値の領域が相互に重複していない場合には、後述するステップS123に進む。
一方、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の特徴量の値の領域が相互に重複している場合には、ステップS121に進む。ステップS121に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS119で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルBに含まれている場合には、ステップS122に進む。
Next, in step S120, the feature amount combination determination unit 32b, based on the result of arrangement of the data points in step S119, reject data to which correct data of types “C1” and “C2” is assigned (
On the other hand, when the regions of the feature values of the rejection data (second group of cocoon data in which the cocoon type cannot be specified) with the correct data of the cocoon types “C1” and “C2” are mutually overlapped The process proceeds to step S121. In step S121, the learning
ステップS122に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルBから削除して、学習モデルBを更新する。そして、後述するステップS125に進む。
一方、ステップS119で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれていない場合には、ステップS122を省略して、後述するステップS125に進む。
In step S122, the learning model update unit 34 deletes the partial feature amount space from the learning model B and updates the learning model B. And it progresses to step S125 mentioned later.
On the other hand, the learning model B does not include a partial feature amount space for associating the feature value values of the axes of the coordinate space in which the eyelid data are arranged in step S119 with the species “C1” and “C2”. In this case, step S122 is omitted and the process proceeds to step S125 described later.
ステップS120において、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第2群の疵データ)の特徴量の値の領域が相互に重複していないと判定された場合には、ステップS123に進む。ステップS123に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS119で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルBに含まれていない場合には、ステップS124に進む。
In step S120, if the regions of the feature values of the rejection data (the second group of cocoon data in which the cocoon type cannot be specified) to which the correct data of the cocoon types “C1” and “C2” are assigned do not overlap each other If it is determined, the process proceeds to step S123. When the process proceeds to step S123, the learning
ステップS124に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルBに追加して、学習モデルBを更新する。そして、ステップS125に進む。
一方、当該部分特徴量空間が学習モデルBに含まれている場合には、ステップS124を省略してステップS125に進む。
In step S124, the learning model update unit 34 adds the partial feature amount space to the learning model B and updates the learning model B. Then, the process proceeds to step S125.
On the other hand, when the partial feature amount space is included in the learning model B, step S124 is omitted and the process proceeds to step S125.
以上のように本実施形態では、ステップS119の処理を実行することにより配置手段が実現され、ステップS120の処理を実行することにより第2の判別手段が実現され、ステップS121〜S124の処理を実行することにより第2の生成手段、更新手段が実現される。 As described above, in the present embodiment, the placement unit is realized by executing the process of step S119, the second determination unit is realized by executing the process of step S120, and the processes of steps S121 to S124 are executed. By doing so, the second generating means and updating means are realized.
ステップS125に進むと、特徴量組み合わせ判別部32bは、第2群の特徴量f51〜f100の組み合わせを全て選択したか否かを判定する。この判定の結果、第2群の特徴量f51〜f100の組み合わせを全て選択していない場合には、ステップS119に戻り、第2群の特徴量f51〜f100の組み合わせを全て選択するまで、ステップS119〜ステップS125の処理を繰り返し行う。そして、ステップS126に進む。
尚、本実施形態では、第2群の特徴量f51〜f100の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、第2群の特徴量f51〜f100の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S125, the feature amount combination determination unit 32b determines whether all combinations of the second group of feature amounts f51 to f100 have been selected. As a result of the determination, if all the combinations of the feature amounts f51 to f100 of the second group are not selected, the process returns to step S119, and step S119 is performed until all the combinations of the feature amounts f51 to f100 of the second group are selected. -Repeat the process of step S125. Then, the process proceeds to step S126.
In the present embodiment, all combinations of the second group of feature quantities f51 to f100 are selected, but this is not always necessary. For example, 2 to n (n is an integer greater than or equal to 3 (for example, 8)) combinations may be selected from among the combinations of the feature amounts f51 to f100 of the second group.
ステップS126に進むと、学習モデル生成部32cは、ステップS119〜S125の結果に基づいて、最新の学習モデルBの内容を確定する。
次に、ステップS127において、学習モデル出力部35は、ステップS126で確定された学習モデルBのデータを疵判定装置6に出力する。
次に、図11−3のステップS128において、疵種抽出部32dは、ステップS103で分割された3つの疵データの群のうち、第3群の疵データの夫々について、学習モデルAを適用して(第3群の疵データを学習モデルAに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
In step S126, the learning
Next, in step S127, the learning model output unit 35 outputs the data of the learning model B determined in step S126 to the wrinkle determination device 6.
Next, in step S128 of FIG. 11-3, the sow
次に、ステップS129において、棄却クラス判定部32eは、第3群の疵データの夫々について疵種抽出部32dにより抽出された、ステップS128の実行結果である疵種「C1」、「C2」の個数に基づいて、学習モデルAを適用した結果として、当該第3群の疵データの疵種を特定できるか否かを判定する。
この判定の結果、疵種を特定できない場合には、ステップS115に進む。ステップS115に進むと、棄却クラス判定部32eは、疵種を特定できないと判定した第3群の疵データを棄却データとして抽出する。そして、ステップS131に進む。
Next, in step S129, the rejection
If the result of this determination is that the species cannot be identified, the process proceeds to step S115. When the process proceeds to step S115, the rejection
一方、疵種を特定できる場合には、ステップS130を省略してステップS131に進む。
ステップS131に進むと、疵種抽出部32dは、第3群の疵データの全てについて、ステップS128〜S131の処理を行ったか否かを判定する。この判定の結果、第3群の疵データの全てについて、ステップS128〜S131の処理を行っていない場合には、ステップS128に戻り、第3群の疵データの全てについて、ステップS128〜S131の処理を行うまで、ステップS128〜S131を繰り返し行う。そしてステップS132に進む。
On the other hand, if the species can be specified, step S130 is omitted and the process proceeds to step S131.
In step S131, the soy
ステップS132に進むと、データ点配置部32aは、ステップS130において棄却データが少なくとも1つ抽出されたか否かを判定する。この判定の結果、ステップS130において棄却データが少なくとも1つも抽出されなかった場合には、後述する図11−4のステップS149に進む。
一方、ステップS130において棄却データが少なくとも1つ抽出された場合には、ステップS133に進む。ステップS133に進むと、データ点配置部32aは、棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像を表示装置10に表示し、その表示した画像に対して検査員により入力された正解データを、対応する棄却データに紐つけて付与する。
In step S132, the data
On the other hand, when at least one rejection data is extracted in step S130, the process proceeds to step S133. In step S133, the data
次に、ステップS134において、疵種抽出部32dは、棄却クラス判定部32eにより疵種を特定できないと判定された疵データ(棄却データ)の夫々について、学習モデルBを適用して(棄却クラス判定部32eにより疵種を特定できないと判定された疵データを学習モデルBに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS134の処理を実行することにより第2の抽出手段が実現される。
Next, in step S134, the soot
Thus, in the present embodiment, the second extraction unit is realized by executing the process of step S134.
次に、ステップS135において、棄却クラス判定部32eは、疵種を特定できないと判定された疵データの夫々について疵種抽出部32dにより抽出された、ステップS134の実行結果である疵種「C1」、「C2」の個数に基づいて、学習モデルBを適用した結果として、当該疵データの疵種を特定できるか否かを判定する。具体的に本実施形態では、疵種抽出部32dにより抽出された疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合に、棄却クラス判定部32eは、疵種を特定できないと判定する。
このように本実施形態では、ステップS135の処理を実行することにより第2の判定手段が実現される。
この判定の結果、疵種を特定できない場合には、ステップS136に進む。ステップS136に進むと、棄却クラス判定部32eは、疵種を特定できないと判定した第3群の疵データを棄却データとして抽出する。そして、ステップS137に進む。
Next, in step S135, the rejection
Thus, in the present embodiment, the second determination unit is realized by executing the process of step S135.
As a result of this determination, if the species cannot be identified, the process proceeds to step S136. If it progresses to step S136, the rejection
一方、疵種を特定できる場合には、ステップS136を省略してステップS137に進む。
ステップS137に進むと、疵種抽出部32dは、ステップS130で抽出された棄却データの全てについて、ステップS133〜S137の処理を行ったか否かを判定する。この判定の結果、ステップS130で抽出された棄却データの全てについて、ステップS133〜S137の処理を行っていない場合には、ステップS133に戻り、ステップS130で抽出された棄却データの全てについて、ステップS128〜S131の処理を行うまで、ステップSS133〜S137を繰り返し行う。そしてステップS138に進む。
On the other hand, if the species can be specified, step S136 is omitted and the process proceeds to step S137.
If it progresses to step S137, the grape
ステップS138に進むと、データ点配置部32aは、ステップS136において棄却データが少なくとも1つ抽出されたか否かを判定する。この判定の結果、ステップS136において棄却データが少なくとも1つも抽出されなかった場合には、後述する図11−4のステップS149に進む。
一方、ステップS136において棄却データが少なくとも1つ抽出された場合には、ステップS139に進む。ステップS139に進むと、データ点配置部32aは、棄却データが示す特徴量(疵種を特定できない特徴量)を表す画像を表示装置10に表示し、その表示した画像に対して検査員により入力された正解データを、対応する棄却データに紐つけて付与する。
In step S138, the data
On the other hand, if at least one rejection data is extracted in step S136, the process proceeds to step S139. In step S139, the data
次に、図11−4のステップS140において、データ点配置部32aは、第3群の特徴量f101〜f150の組み合わせの1つを選択し、選択した組み合わせの各特徴量を軸とする座標空間(特徴量空間)に、ステップS139で疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の夫々のデータ点を配置する。尚、部分特徴量空間が既に生成されている場合、データ点配置部32aは、その部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
Next, in step S140 of FIG. 11-4, the data
次に、ステップS141において、特徴量組み合わせ判別部32bは、ステップS140におけるデータ点の夫々の配置結果に基づいて、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の特徴量の値の領域が相互に重複していない場合には、後述するステップS144に進む。
一方、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の特徴量の値の領域が相互に重複している場合には、ステップS142に進む。ステップS142に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS140で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルCに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルCに含まれている場合には、ステップS143に進む。
Next, in step S141, the feature amount combination determination unit 32b, based on the result of the arrangement of the data points in step S140, reject data (species of “C1” and “C2”). It is determined whether or not the region of the feature value values of the third group (疵 data that cannot be specified) overlap each other. As a result of this determination, the feature value areas of the rejection data (third group of cocoon data in which the cocoon type cannot be identified) to which correct data of the cocoon types “C1” and “C2” are assigned do not overlap each other. In this case, the process proceeds to step S144 described later.
On the other hand, when the areas of the feature value values of the rejection data (third group of cocoon data for which the cocoon type cannot be identified) to which the correct data of the cocoon types “C1” and “C2” are assigned overlap each other The process proceeds to step S142. When the process proceeds to step S142, the learning
ステップS143に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルCから削除して、学習モデルCを更新する。そして、後述するステップS146に進む。
一方、当該部分特徴量空間が学習モデルCに含まれていない場合には、ステップS143を省略して、後述するステップS146に進む。
In step S143, the learning model update unit 34 deletes the partial feature amount space from the learning model C and updates the learning model C. And it progresses to step S146 mentioned later.
On the other hand, when the partial feature amount space is not included in the learning model C, step S143 is omitted and the process proceeds to step S146 described later.
ステップS141において、疵種「C1」、「C2」の正解データが付与された棄却データ(疵種を特定できない第3群の疵データ)の特徴量の値の領域が相互に重複していないと判定された場合には、ステップS145に進む。ステップS145に進むと、学習モデル生成部32cは、学習モデル更新部34を参照し、ステップS140で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルCに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルCに含まれていない場合には、ステップS145に進む。
In step S141, the feature value value areas of the reject data (third group cocoon data in which the cocoon type cannot be identified) to which the correct data of the cocoon types “C1” and “C2” are assigned do not overlap each other. If it is determined, the process proceeds to step S145. When the process proceeds to step S145, the learning
ステップS145に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルCに追加して、学習モデルCを更新する。そして、ステップS146に進む。
一方、当該部分特徴量空間が学習モデルCに含まれている場合には、ステップS145を省略してステップS146に進む。
In step S145, the learning model update unit 34 updates the learning model C by adding the partial feature amount space to the learning model C. Then, the process proceeds to step S146.
On the other hand, when the partial feature amount space is included in the learning model C, step S145 is omitted and the process proceeds to step S146.
以上のように本実施形態では、ステップS140の処理を実行することにより配置手段が実現され、ステップS141の処理を実行することにより第3の判別手段が実現され、ステップS142〜S145の処理を実行することにより第3の生成手段、更新手段が実現される。 As described above, in the present embodiment, the placement unit is realized by executing the process of step S140, the third determination unit is realized by executing the process of step S141, and the processes of steps S142 to S145 are executed. Thus, the third generation unit and the update unit are realized.
ステップS146に進むと、特徴量組み合わせ判別部32bは、第3群の特徴量f101〜f150の組み合わせを全て選択したか否かを判定する。この判定の結果、第3群の特徴量f101〜f150の組み合わせを全て選択していない場合には、ステップS140に戻り、第3群の特徴量f101〜f150の組み合わせを全て選択するまで、ステップS140〜ステップS146の処理を繰り返し行う。そして、ステップS147に進む。
尚、本実施形態では、第3群の特徴量f101〜f150の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、第3群の特徴量f101〜f150の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S146, the feature amount combination determination unit 32b determines whether all combinations of the third group of feature amounts f101 to f150 have been selected. As a result of the determination, if all combinations of the third group of feature quantities f101 to f150 have not been selected, the process returns to step S140, and step S140 is continued until all of the third group of feature quantities f101 to f150 are selected. Step S146 is repeated. Then, the process proceeds to step S147.
In the present embodiment, all combinations of the third group of feature amounts f101 to f150 are selected, but this is not necessarily required. For example, 2 to n (n is an integer greater than or equal to 3 (for example, 8)) combinations among the combinations of the feature amounts f101 to f150 of the third group may be selected.
ステップS147に進むと、学習モデル生成部32cは、ステップS140〜S147の結果に基づいて、最新の学習モデルCの内容を確定する。
次に、ステップS148において、学習モデル出力部35は、ステップS147で確定された学習モデルCのデータを疵判定装置6に出力する。そして、ステップS149に進む。
ステップS149に進むと、自律学習判定部36は、ステップS107、S109、S122、S124、S143、S145の結果に基づいて、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、自律学習判定部36は、今回の学習において計数した数と、前回の学習において計数した数との差の絶対値が閾値以下であるか否かを判定する。
この判定の結果、そして、自律学習判定部36は、例えば、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でない場合には、後述するステップS152に進む。
In step S147, the learning
Next, in step S148, the learning model output unit 35 outputs the data of the learning model C determined in step S147 to the wrinkle determination device 6. Then, the process proceeds to step S149.
Proceeding to step S149, the autonomous learning determination unit 36 has not been updated among the partial feature amount spaces included in the learning models A to C based on the results of steps S107, S109, S122, S124, S143, and S145. The number of partial feature space is counted. And the autonomous learning determination part 36 determines whether the absolute value of the difference of the number counted in this learning and the number counted in the last learning is below a threshold value.
As a result of this determination, the autonomous learning determination unit 36, for example, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, It progresses to step S152 mentioned later.
一方、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下である場合には、教師なし学習を行えると判断してステップS150に進む。ステップS150に進むと、自律学習判定部36は、自律学習フラグがオフされているか否かを判定する。この判定の結果、自律学習フラグがオフされている場合には、ステップS151に進む。ステップS151に進むと、自律学習判定部36は、自律学習フラグをオンする。そして、図11のフローチャートによる処理を終了する。 On the other hand, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is equal to or less than the threshold, it is determined that unsupervised learning can be performed, and the process proceeds to step S150. . In step S150, the autonomous learning determination unit 36 determines whether or not the autonomous learning flag is turned off. As a result of this determination, if the autonomous learning flag is turned off, the process proceeds to step S151. In step S151, the autonomous learning determination unit 36 turns on the autonomous learning flag. And the process by the flowchart of FIG. 11 is complete | finished.
一方、自律学習フラグがオンされている場合には、ステップS151を省略して、図11のフローチャートによる処理を終了する。
ステップS149において、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でないと判定された場合には、教師なし学習を行えないと判断してステップS152に進む。ステップS152に進むと、自律学習判定部36は、自律学習フラグがオンされているか否かを判定する。この判定の結果、自律学習フラグがオンされている場合には、ステップS153に進む。ステップS153に進むと、自律学習判定部36は、自律学習フラグをオフする。そして、図11のフローチャートによる処理を終了する。
一方、自律学習フラグがオフされている場合には、ステップS153を省略して、図11のフローチャートによる処理を終了する。
On the other hand, when the autonomous learning flag is turned on, step S151 is omitted and the process according to the flowchart of FIG. 11 is terminated.
If it is determined in step S149 that the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, it is determined that unsupervised learning cannot be performed. Then, the process proceeds to step S152. In step S152, the autonomous learning determination unit 36 determines whether or not the autonomous learning flag is turned on. If the result of this determination is that the autonomous learning flag is on, processing proceeds to step S153. In step S153, the autonomous learning determination unit 36 turns off the autonomous learning flag. And the process by the flowchart of FIG. 11 is complete | finished.
On the other hand, when the autonomous learning flag is turned off, step S153 is omitted and the process according to the flowchart of FIG. 11 is terminated.
図11−1のステップS102において、自律学習フラグがオンされており、教師なし学習を行えると判定された場合には、図11−5のステップS154に進む。ステップS154に進むと、疵種抽出部33aは、疵データ取得部31により取得された疵データの夫々について、学習モデル更新部34に記憶されている学習モデルAを適用して(疵データの夫々を学習モデルAに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS154の処理を実行することにより抽出手段が実現される。
If it is determined in step S102 in FIG. 11A that the autonomous learning flag is on and unsupervised learning can be performed, the process proceeds to step S154 in FIG. 11-5. In step S154, the cocoon
As described above, in the present embodiment, the extraction unit is realized by executing the process of step S154.
次に、ステップS155において、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、ステップS154の実行結果である疵種「C1」、「C2」の個数に基づいて、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。
このように本実施形態では、ステップS155の処理を実行することにより判定手段が実現される。
この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が90%以上である場合には、ステップS156に進み、棄却クラス判定部33bは、学習モデルAを適用した疵データは疵種「C1」に属すものであると判断する。そして、後述するステップS158に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%以下である場合には、ステップS157に進み、棄却クラス判定部33bは、学習モデルAを適用した疵データは疵種「C2」属すものであると判断する。そして、後述するステップS158に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合には、図11−6のステップS174に進む。
Next, in step S155, the rejection
Thus, in the present embodiment, the determination unit is realized by executing the process of step S155.
As a result of the determination, when the ratio of the number of the species “C1” to the total number of the species “C1” and “C2” is 90% or more, the process proceeds to step S156, and the rejection
Further, when the ratio of the number of types “C1” to the total number of types “C1” and “C2” is 10% or less, the process proceeds to step S157, and the rejection
Further, when the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is larger than 10% and smaller than 90%, the process proceeds to step S174 in FIG. 11-6.
ステップS158に進むと、疵種データ付与部33cは、ステップS156で疵種「C1」に属すものと判定された疵データに対し、疵種「C1」のデータを紐つけて付与し、ステップS157で疵種「C2」に属すものと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。これにより、学習モデルAにより疵種「C1」、「C2」が特定された疵データと疵種「C1」、「C2」のデータとが対応付けられる。
次に、ステップS159において、データ点配置部33dは、特徴量f1〜f150の組み合わせの1つを選択し、選択した各特徴量を軸とする座標空間(特徴量空間)に、ステップS158で疵種「C1」、「C2」のデータが付与された疵データのデータ点を配置する。尚、データ点配置部33dは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
In step S158, the species
Next, in step S159, the data
次に、ステップS160において、特徴量組み合わせ判別部33eは、ステップS159における結果に基づいて、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合には、後述するステップS163に進む。
一方、それらの疵データの特徴量の値の領域が相互に重複している場合には、ステップS161に進む。ステップS161に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS159で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルAに含まれている場合には、ステップS162に進む。
Next, in step S160, the feature amount combination determination unit 33e, based on the result in step S159, sets the feature value value areas of the cocoon data to which the data of the cocoon types “C1” and “C2” are assigned to each other. It is determined whether or not there are duplicates. As a result of this determination, if the regions of the feature value values of the eyelid data do not overlap each other, the process proceeds to step S163 described later.
On the other hand, when the regions of the feature value values of the eyelid data overlap with each other, the process proceeds to step S161. When the process proceeds to step S161, the learning model generation unit 33f refers to the learning model update unit 34, and sets the feature value values of the axis of the coordinate space in which the eyelid data is arranged in step S159 and the kind “C1”, “ It is determined whether or not the learning model A includes a partial feature amount space for associating with “C2”. As a result of this determination, when the partial feature amount space is included in the learning model A, the process proceeds to step S162.
ステップS162に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルAから削除して、学習モデルAを更新する。そして、後述するステップS165に進む。
一方、当該部分特徴量空間が学習モデルAに含まれていない場合には、ステップS162を省略して、後述するステップS165に進む。
In step S162, the learning model update unit 34 deletes the partial feature amount space from the learning model A and updates the learning model A. And it progresses to step S165 mentioned later.
On the other hand, when the partial feature amount space is not included in the learning model A, step S162 is omitted and the process proceeds to step S165 described later.
ステップS160において、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複していないと判定された場合には、ステップS163に進む。ステップS163に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS159で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルAに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルAに含まれていない場合には、ステップS164に進む。 If it is determined in step S160 that the feature value areas of the cocoon data to which the cocoon species “C1” and “C2” data are assigned do not overlap with each other, the process proceeds to step S163. When the process proceeds to step S163, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S159 and the kind “C1”, “ It is determined whether or not a partial feature amount space for associating with “C2” is included in the learning model A. As a result of the determination, if the partial feature amount space is not included in the learning model A, the process proceeds to step S164.
ステップS164に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルAに追加して、学習モデルAを更新する。そして、ステップS165に進む。
一方、当該部分特徴量空間が学習モデルAに含まれている場合には、ステップS164を省略してステップS165に進む。
In step S164, the learning model update unit 34 adds the partial feature amount space to the learning model A and updates the learning model A. Then, the process proceeds to step S165.
On the other hand, when the partial feature amount space is included in the learning model A, step S164 is omitted and the process proceeds to step S165.
以上のように本実施形態では、ステップS159の処理を実行することにより配置手段が実現され、ステップS160の処理を実行することにより第1の判別手段が実現され、ステップS161〜S164の処理を実行することにより第1の生成手段、更新手段が実現される。 As described above, in the present embodiment, the placement unit is realized by executing the processing of step S159, the first determination unit is realized by executing the processing of step S160, and the processing of steps S161 to S164 is executed. By doing so, the first generating means and updating means are realized.
ステップS165に進むと、特徴量組み合わせ判別部33eは、特徴量f1〜f150の組み合わせを全て選択したか否かを判定する。この判定の結果、特徴量f1〜f150の組み合わせを全て選択していない場合には、ステップS159に戻り、特徴量f1〜f150の組み合わせを全て選択するまで、ステップS159〜S165の処理を繰り返し行う。そして、ステップS166に進む。
尚、本実施形態では、特徴量f1〜f150の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、特徴量f1〜f150の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S165, the feature amount combination determination unit 33e determines whether all combinations of the feature amounts f1 to f150 have been selected. As a result of the determination, if all the combinations of the feature amounts f1 to f150 are not selected, the process returns to step S159, and the processes of steps S159 to S165 are repeated until all the combinations of the feature amounts f1 to f150 are selected. Then, the process proceeds to step S166.
In the present embodiment, all combinations of the feature amounts f1 to f150 are selected, but it is not always necessary to do so. For example, all the combinations of 2 to n (n is an integer of 3 or more (for example, 8)) among the combinations of the feature amounts f1 to f150 may be selected.
ステップS166に進むと、学習モデル生成部33fは、ステップS159〜S165の結果に基づいて、最新の学習モデルAの内容を確定する。
次に、ステップS167において、学習モデル出力部35は、ステップS166で確定された学習モデルAのデータを疵判定装置6に出力する。
次に、ステップS168において、疵種抽出部33aは、疵データ取得部31により取得された疵データの全てについて処理を行ったか否かを判定する。この判定の結果、疵データ取得部31により取得された疵データの全てについて処理を行っていない場合には、ステップS154に戻り、残りの疵データに対して、前述したステップS154の処理を実行する。
一方、疵データ取得部31により取得された疵データの全てについて処理を行った場合には、図11−7のステップS169に進む。ステップS169に進むと、自律学習判定部36は、ステップS162、S164や、後述するステップS182、S184、S197、S199の結果に基づいて、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、自律学習判定部36は、今回の学習において計数した数と、前回の学習において計数した数との差の絶対値が閾値以下であるか否かを判定する。
この判定の結果、そして、自律学習判定部36は、例えば、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でない場合には、後述するステップS172に進む。
In step S166, the learning model generation unit 33f determines the content of the latest learning model A based on the results of steps S159 to S165.
Next, in step S167, the learning model output unit 35 outputs the data of the learning model A determined in step S166 to the wrinkle determination device 6.
Next, in step S168, the soy
On the other hand, when processing has been performed for all of the eyelid data acquired by the eyelid
As a result of this determination, the autonomous learning determination unit 36, for example, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, It progresses to step S172 mentioned later.
一方、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下である場合には、教師なし学習を行えると判断してステップS170に進む。ステップS170に進むと、自律学習判定部36は、自律学習フラグがオフされているか否かを判定する。この判定の結果、自律学習フラグがオフされている場合には、ステップS171に進む。ステップS171に進むと、自律学習判定部36は、自律学習フラグをオンする。そして、図11のフローチャートによる処理を終了する。 On the other hand, if the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is less than or equal to the threshold, it is determined that unsupervised learning can be performed, and the process proceeds to step S170. . In step S170, the autonomous learning determination unit 36 determines whether or not the autonomous learning flag is turned off. If the result of this determination is that the autonomous learning flag is off, processing proceeds to step S171. In step S171, the autonomous learning determination unit 36 turns on the autonomous learning flag. And the process by the flowchart of FIG. 11 is complete | finished.
一方、自律学習フラグがオンされている場合には、ステップS171を省略して、図11のフローチャートによる処理を終了する。
ステップS170において、今回の教師付き学習において計数した数と、前回の教師付き学習において計数した数との差の絶対値が閾値以下でないと判定された場合には、教師なし学習を行えないと判断してステップS172に進む。ステップS172に進むと、自律学習判定部36は、自律学習フラグがオンされているか否かを判定する。この判定の結果、自律学習フラグがオンされている場合には、ステップS173に進む。ステップS173に進むと、自律学習判定部36は、自律学習フラグをオフする。そして、図11のフローチャートによる処理を終了する。
一方、自律学習フラグがオフされている場合には、ステップS173を省略して、図11のフローチャートによる処理を終了する。
On the other hand, when the autonomous learning flag is turned on, step S171 is omitted and the processing according to the flowchart of FIG. 11 is terminated.
If it is determined in step S170 that the absolute value of the difference between the number counted in the current supervised learning and the number counted in the previous supervised learning is not less than or equal to the threshold value, it is determined that unsupervised learning cannot be performed. Then, the process proceeds to step S172. In step S172, the autonomous learning determination unit 36 determines whether or not the autonomous learning flag is turned on. If the result of this determination is that the autonomous learning flag is on, processing proceeds to step S173. In step S173, the autonomous learning determination unit 36 turns off the autonomous learning flag. And the process by the flowchart of FIG. 11 is complete | finished.
On the other hand, when the autonomous learning flag is turned off, step S173 is omitted and the process according to the flowchart of FIG. 11 is terminated.
ステップS155において、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さいと判定された場合には、図11−6のステップS174に進む。ステップS174に進むと、疵種抽出部33aは、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さいと判定され、学習モデルAでは疵種「C1」、「C2」が特定できなかった疵データの夫々について、学習モデル更新部34に記憶されている学習モデルBを適用して(疵データの夫々を学習モデルBに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS174の処理を実行することにより第2の抽出手段が実現される。
If it is determined in step S155 that the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is greater than 10% and less than 90%, the step of FIG. 11-6 is performed. The process proceeds to S174. Proceeding to step S174, the culm
Thus, in the present embodiment, the second extraction unit is realized by executing the process of step S174.
次に、ステップS175において、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、ステップS174の実行結果である疵種「C1」、「C2」の個数に基づいて、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。
このように本実施形態では、ステップS175の処理を実行することにより第2の判定手段が実現される。
この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が90%以上である場合には、ステップS176に進み、棄却クラス判定部33bは、学習モデルBを適用した疵データは疵種「C1」に属すものであると判断する。そして、後述するステップS178に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%以下である場合には、ステップS177に進み、棄却クラス判定部33bは、学習モデルBを適用した疵データは疵種「C2」に属すものであると判断する。そして、後述するステップS178に進む。
また、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さい場合には、図11−7のステップS189に進む。
Next, in step S175, the rejection
Thus, in the present embodiment, the second determination unit is realized by executing the process of step S175.
As a result of the determination, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 90% or more, the process proceeds to step S176, and the rejection
Further, when the ratio of the number of types “C1” to the total number of types “C1” and “C2” is 10% or less, the process proceeds to step S177, and the rejection
Further, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is larger than 10% and smaller than 90%, the process proceeds to step S189 in FIG. 11-7.
ステップS178に進むと、疵種データ付与部33cは、ステップS176で疵種「C1」に属すものと判定された疵データに対し、疵種「C1」のデータを付与し、ステップS177で疵種「C2」に属すものと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。これにより、学習モデルBにより疵種「C1」、「C2」が特定された疵データと疵種「C1」、「C2」のデータとが対応付けられる。
次に、ステップS179において、データ点配置部33dは、特徴量f1〜f150の組み合わせの1つを選択し、選択した各特徴量を軸とする座標空間(特徴量空間)に、ステップS178で疵種「C1」、「C2」のデータが付与された疵データのデータ点を配置する。尚、データ点配置部33dは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
When the process proceeds to step S178, the soot seed
Next, in step S179, the data
次に、ステップS180において、特徴量組み合わせ判別部33eは、ステップS159における結果に基づいて、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合には、後述するステップS183に進む。
一方、それらの疵データの特徴量の値の領域が相互に重複している場合には、ステップS181に進む。ステップS181に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS179で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルBに含まれている場合には、ステップS182に進む。
Next, in step S180, the feature amount combination determination unit 33e, based on the result in step S159, sets the feature value value areas of the cocoon data to which the varieties “C1” and “C2” data are assigned to each other. It is determined whether or not there are duplicates. As a result of this determination, if the regions of the feature value values of the eyelid data do not overlap with each other, the process proceeds to step S183 described later.
On the other hand, if the regions of the feature value values of the eyelid data overlap each other, the process proceeds to step S181. When the process proceeds to step S181, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature quantity of the axis of the coordinate space in which the eyelid data is arranged in step S179 and the kind “C1”, “ It is determined whether or not a partial feature amount space for associating with “C2” is included in the learning model B. As a result of this determination, if the partial feature amount space is included in the learning model B, the process proceeds to step S182.
ステップS182に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルBから削除して、学習モデルBを更新する。そして、後述するステップS185に進む。
一方、当該部分特徴量空間が学習モデルBに含まれていない場合には、ステップS182を省略して、後述するステップS185に進む。
In step S182, the learning model update unit 34 deletes the partial feature amount space from the learning model B and updates the learning model B. And it progresses to step S185 mentioned later.
On the other hand, when the partial feature amount space is not included in the learning model B, step S182 is omitted and the process proceeds to step S185 described later.
ステップS180において、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複していないと判定された場合には、ステップS183に進む。ステップS183に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS179で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルBに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルBに含まれていない場合には、ステップS184に進む。 If it is determined in step S180 that the feature value areas of the cocoon data to which the cocoon species “C1” and “C2” data are assigned do not overlap with each other, the process proceeds to step S183. When the process proceeds to step S183, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature amount of the coordinate space axis in which the eyelid data is arranged in step S179 and the kind “C1”, “ It is determined whether or not the learning model B includes a partial feature amount space for associating with “C2”. As a result of the determination, if the partial feature amount space is not included in the learning model B, the process proceeds to step S184.
ステップS184に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルBに追加して、学習モデルBを更新する。そして、ステップS185に進む。
一方、当該部分特徴量空間が学習モデルBに含まれている場合には、ステップS184を省略してステップS185に進む。
In step S184, the learning model update unit 34 adds the partial feature amount space to the learning model B and updates the learning model B. Then, the process proceeds to step S185.
On the other hand, if the partial feature amount space is included in the learning model B, step S184 is omitted and the process proceeds to step S185.
以上のように本実施形態では、ステップS179の処理を実行することにより配置手段が実現され、ステップS180の処理を実行することにより第2の判別手段が実現され、ステップS181〜S184の処理を実行することにより第2の生成手段、更新手段が実現される。 As described above, in the present embodiment, the placement unit is realized by executing the process of step S179, the second determination unit is realized by executing the process of step S180, and the processes of steps S181 to S184 are executed. By doing so, the second generating means and updating means are realized.
ステップS185に進むと、特徴量組み合わせ判別部33eは、特徴量f1〜f150の組み合わせを全て選択したか否かを判定する。この判定の結果、特徴量f1〜f150の組み合わせを全て選択していない場合には、ステップS179に戻り、特徴量f1〜f150の組み合わせを全て選択するまで、ステップS179〜ステップS185の処理を繰り返し行う。そして、ステップS186に進む。
尚、本実施形態では、特徴量f1〜f150の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、特徴量f1〜f150の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S185, the feature amount combination determination unit 33e determines whether all combinations of the feature amounts f1 to f150 have been selected. As a result of the determination, if all the combinations of the feature amounts f1 to f150 have not been selected, the process returns to step S179, and the processes of steps S179 to S185 are repeated until all the combinations of the feature amounts f1 to f150 are selected. . Then, the process proceeds to step S186.
In the present embodiment, all combinations of the feature amounts f1 to f150 are selected, but it is not always necessary to do so. For example, all the combinations of 2 to n (n is an integer of 3 or more (for example, 8)) among the combinations of the feature amounts f1 to f150 may be selected.
ステップS186に進むと、学習モデル生成部33fは、ステップS179〜S185の結果に基づいて、最新の学習モデルBの内容を確定する。
次に、ステップS187において、学習モデル出力部35は、ステップS186で確定された学習モデルBのデータを疵判定装置6に出力する。
次に、ステップS188において、疵種抽出部33aは、疵データ取得部31により取得された疵データの全てについて処理を行ったか否かを判定する。この判定の結果、疵データ取得部31により取得された疵データの全てについて処理を行っていない場合には、図11−5のステップS154に戻り、残りの疵データに対して、前述したステップS154の処理を実行する。
In step S186, the learning model generation unit 33f determines the content of the latest learning model B based on the results of steps S179 to S185.
Next, in step S187, the learning model output unit 35 outputs the learning model B data determined in step S186 to the wrinkle determination device 6.
Next, in step S188, the soy
一方、疵データ取得部31により取得された疵データの全てについて処理を行った場合には、前述した図11−7のステップS169に進む。ステップS169に進むと、自律学習判定部36は、前述したステップS162、S164や、ステップS182、S184や、後述するS197、S199の結果に基づいて、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、ステップS170〜S173において、自律学習判定部36は、教師付き学習を行う場合には自律学習フラグをオフし、教師なし学習を行う場合には自律学習フラグをオンして図11のフローチャートを終了する。
On the other hand, when processing has been performed for all of the eyelid data acquired by the eyelid
ステップS175において、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さいと判定された場合には、図11−7のステップS189に進む。ステップS189に進むと、疵種抽出部33aは、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が10%よりも大きく90%よりも小さいと判定され、学習モデルA、Bでは疵種「C1」、「C2」が特定できなかった疵データの夫々について、学習モデル更新部34に記憶されている学習モデルCを適用して(疵データの夫々を学習モデルCに含まれる各部分特徴量空間に配置して)、各部分特徴量空間から疵種「C1」、「C2」の何れかの情報を抽出する。
このように本実施形態では、ステップS189の処理を実行することにより第3の抽出手段が実現される。
If it is determined in step S175 that the ratio of the number of seeds “C1” to the total number of seeds “C1” and “C2” is greater than 10% and less than 90%, the step of FIG. 11-7 is performed. The process proceeds to S189. Proceeding to step S189, the soot
As described above, in the present embodiment, the third extraction unit is realized by executing the process of step S189.
次に、ステップS190において、棄却クラス判定部33bは、疵種抽出部33aにより抽出された、ステップS189の実行結果である疵種「C1」、「C2」の個数に基づいて、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合を判定する。
このように本実施形態では、ステップS190の処理を実行することにより第3の判定手段が実現される。
この判定の結果、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が50%以上である場合には、ステップS191に進み、棄却クラス判定部33bは、学習モデルCを適用した疵データは疵種「C1」に属すものであると判断する。そして、ステップS193に進む。
一方、疵種「C1」、「C2」の総数に対する疵種「C1」の個数の割合が50%よりも低い場合には、ステップS192に進み、棄却クラス判定部33bは、学習モデルCを適用した疵データは疵種「C2」に属すものであると判断する。そして、ステップS193に進む。
Next, in step S190, the rejection
Thus, in the present embodiment, the third determination unit is realized by executing the process of step S190.
As a result of the determination, when the ratio of the number of the seeds “C1” to the total number of the seeds “C1” and “C2” is 50% or more, the process proceeds to step S191, and the rejection
On the other hand, when the ratio of the number of species “C1” to the total number of species “C1” and “C2” is lower than 50%, the process proceeds to step S192, and the rejection
ステップS193に進むと、疵種データ付与部33cは、ステップS191で疵種C1に属すものと判定された疵データに対し、疵種「C1」のデータを付与し、ステップS192で疵種「C2」に属すものと判定された疵データに対し、疵種「C2」のデータを紐つけて付与する。これにより、学習モデルBにより疵種「C1」、「C2」が特定された疵データと疵種「C1」、「C2」のデータとが対応付けられる。
次に、ステップS194において、データ点配置部33dは、特徴量f1〜f150の組み合わせの1つを選択し、選択した各特徴量を軸とする座標空間(特徴量空間)に、ステップS193で疵種「C1」、「C2」のデータが付与された疵データのデータ点を配置する。尚、データ点配置部33dは、既に存在している部分特徴量空間を生成する際に使用した疵データのデータ点も座標空間に配置するようにする。
Proceeding to step S193, the species
Next, in step S194, the data
次に、ステップS195において、特徴量組み合わせ判別部33eは、ステップS194における結果に基づいて、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複しているか否かを判定する。この判定の結果、それらの疵データの特徴量の値の領域が相互に重複していない場合には、後述するステップS198に進む。
一方、それらの疵データの特徴量の値の領域が相互に重複している場合には、ステップS196に進む。ステップS196に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS194で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルCに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルCに含まれている場合には、ステップS197に進む。
Next, in step S195, the feature amount combination determination unit 33e, based on the result in step S194, sets the regions of the feature amount values of the cocoon data to which the data of the cocoon types “C1” and “C2” are attached to each other. It is determined whether or not there are duplicates. As a result of this determination, if the regions of the feature value values of the eyelid data do not overlap each other, the process proceeds to step S198 described later.
On the other hand, if the regions of the feature value values of the eyelid data overlap each other, the process proceeds to step S196. When the process proceeds to step S196, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S194 and the kind “C1”, “ It is determined whether or not the learning model C includes a partial feature amount space for associating with “C2”. As a result of this determination, if the partial feature amount space is included in the learning model C, the process proceeds to step S197.
ステップS197に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルCから削除して、学習モデルCを更新する。そして、後述するステップS200に進む。
一方、当該部分特徴量空間が学習モデルCに含まれていない場合には、ステップS197を省略して、後述するステップS200に進む。
In step S197, the learning model update unit 34 deletes the partial feature amount space from the learning model C and updates the learning model C. And it progresses to step S200 mentioned later.
On the other hand, when the partial feature amount space is not included in the learning model C, step S197 is omitted and the process proceeds to step S200 described later.
ステップS195において、疵種「C1」、「C2」のデータが付与された疵データの特徴量の値の領域が相互に重複していないと判定された場合には、ステップS198に進む。ステップS198に進むと、学習モデル生成部33fは、学習モデル更新部34を参照し、ステップS194で疵データを配置した座標空間の軸の各特徴量の値の組と疵種「C1」、「C2」とを対応付けるための部分特徴量空間が学習モデルCに含まれているか否かを判定する。この判定の結果、当該部分特徴量空間が学習モデルCに含まれていない場合には、ステップS199に進む。 If it is determined in step S195 that the feature value areas of the cocoon data to which the cocoon species “C1” and “C2” data are assigned do not overlap with each other, the process proceeds to step S198. When the process proceeds to step S198, the learning model generation unit 33f refers to the learning model update unit 34, and sets the value of each feature value of the axis of the coordinate space in which the eyelid data is arranged in step S194 and the kind “C1”, “ It is determined whether or not the learning model C includes a partial feature amount space for associating with “C2”. As a result of the determination, if the partial feature amount space is not included in the learning model C, the process proceeds to step S199.
ステップS199に進むと、学習モデル更新部34は、当該部分特徴量空間を学習モデルCに追加して、学習モデルCを更新する。そして、ステップS200に進む。
一方、当該部分特徴量空間が学習モデルCに含まれている場合には、ステップS199を省略してステップS200に進む。
In step S199, the learning model update unit 34 adds the partial feature amount space to the learning model C and updates the learning model C. Then, the process proceeds to step S200.
On the other hand, if the partial feature amount space is included in the learning model C, step S199 is omitted and the process proceeds to step S200.
以上のように本実施形態では、ステップS194の処理を実行することにより配置手段が実現され、ステップS195の処理を実行することにより第3の判別手段が実現され、ステップS196〜S199の処理を実行することにより第3の生成手段、更新手段が実現される。 As described above, in the present embodiment, the placement unit is realized by executing the process of step S194, the third determining unit is realized by executing the process of step S195, and the processes of steps S196 to S199 are executed. Thus, the third generation unit and the update unit are realized.
ステップS200に進むと、特徴量組み合わせ判別部33eは、特徴量f1〜f150の組み合わせを全て選択したか否かを判定する。この判定の結果、特徴量f1〜f150の組み合わせを全て選択していない場合には、ステップS194に戻り、特徴量f1〜f150の組み合わせを全て選択するまで、ステップS194〜ステップS200の処理を繰り返し行う。そして、ステップS201に進む。
尚、本実施形態では、特徴量f1〜f150の組み合わせを全て選択するようにしたが必ずしもこのようにする必要はない。例えば、特徴量f1〜f150の組み合わせのうち、2〜n(nは3以上の整数(例えば8))個の組み合わせを全て選択するようにしてもよい。
In step S200, the feature amount combination determination unit 33e determines whether all combinations of the feature amounts f1 to f150 have been selected. As a result of the determination, if all the combinations of the feature amounts f1 to f150 are not selected, the process returns to step S194, and the processes of steps S194 to S200 are repeatedly performed until all the combinations of the feature amounts f1 to f150 are selected. . Then, the process proceeds to step S201.
In the present embodiment, all combinations of the feature amounts f1 to f150 are selected, but it is not always necessary to do so. For example, all the combinations of 2 to n (n is an integer of 3 or more (for example, 8)) among the combinations of the feature amounts f1 to f150 may be selected.
ステップS201に進むと、学習モデル生成部33fは、ステップS194〜S200の結果に基づいて、最新の学習モデルCの内容を確定する。
次に、ステップS202において、学習モデル出力部35は、ステップS201で確定された学習モデルCのデータを疵判定装置6に出力する。
次に、ステップS203において、疵種抽出部33aは、疵データ取得部31により取得された疵データの全てについて処理を行ったか否かを判定する。この判定の結果、疵データ取得部31により取得された疵データの全てについて処理を行っていない場合には、図11−5のステップS154に戻り、残りの疵データに対して、前述したステップS154の処理を実行する。
In step S201, the learning model generation unit 33f determines the content of the latest learning model C based on the results of steps S194 to S200.
Next, in step S202, the learning model output unit 35 outputs the data of the learning model C determined in step S201 to the wrinkle determination device 6.
Next, in step S <b> 203, the soy
一方、疵データ取得部31により取得された疵データの全てについて処理を行った場合には、前述したステップS169に進む。ステップS169に進むと、自律学習判定部36は、前述したステップS162、S164、S182、S184や、ステップS197、S199の結果に基づいて、学習モデルA〜Cに含まれる部分特徴量空間のうち、更新されなかった部分特徴量空間の数を計数する。そして、ステップS170〜S173において、自律学習判定部36は、教師付き学習を行う場合には自律学習フラグをオフし、教師なし学習を行う場合には自律学習フラグをオンして図11のフローチャートを終了する。
On the other hand, when processing has been performed for all of the eyelid data acquired by the eyelid
以上のように本実施形態では、まず、第1群の特徴量f1〜f50について、第1群の特徴量f1〜f50の値の組と疵種「C1」、「C2」とを対応付けるための複数の部分特徴量空間を生成して学習モデルAを形成(学習)する。次に、第2群の特徴量f51〜f100のデータの夫々について学習モデルAを適用する。この結果、第2群の特徴量f51〜f100のデータのうち、学習モデルAでは疵種「C1」、「C2」を特定できない疵データを棄却クラスのデータとする。そして、学習モデルAでは疵種「C1」、「C2」を特定できない特徴量の値の組と疵種「C1」、「C2」とを対応付けるための複数の部分特徴量空間を生成して学習モデルBを形成(再学習)する。更に、第3群の特徴量f101〜f150のデータの夫々について学習モデルA、Bを順次適用する。この結果、第3群の特徴量f101〜f150のデータのうち、学習モデルAでも学習モデルBでも疵種「C1」、「C2」を特定できない疵データを棄却クラスのデータとする。そして、学習モデルAでも学習モデルBでも疵種「C1」、「C2」を特定できない特徴量の値の組と疵種「C1」、「C2」とを対応付けるための複数(好ましくは3つ以上)の部分特徴量空間を生成して学習モデルCを形成(再学習)する。 As described above, in the present embodiment, first, for the first group of feature quantities f1 to f50, the value groups of the first group of feature quantities f1 to f50 are associated with the species “C1” and “C2”. A plurality of partial feature amount spaces are generated to form (learn) the learning model A. Next, the learning model A is applied to each of the data of the feature amounts f51 to f100 of the second group. As a result, among the data of the feature quantities f51 to f100 of the second group, the soot data for which the soot species “C1” and “C2” cannot be specified in the learning model A is set as the rejection class data. In the learning model A, learning is performed by generating a plurality of partial feature amount spaces for associating the feature type values that cannot identify the species “C1” and “C2” with the species “C1” and “C2”. Model B is formed (relearned). Furthermore, the learning models A and B are sequentially applied to the data of the feature amounts f101 to f150 of the third group. As a result, among the data of the feature amounts f101 to f150 of the third group, the trap data that cannot identify the trap types “C1” and “C2” in both the learning model A and the learning model B are set as rejection class data. A plurality (preferably three or more) are associated with a pair of feature values that cannot identify the types “C1” and “C2” in the learning model A and the learning model B and the types “C1” and “C2”. ) To generate a learning model C (relearning).
以上のように、部分特徴量空間により構築される上位の学習モデル(学習モデルA、B)では疵種「C1」、「C2」を特定できない疵データについては、上位の学習モデル(学習モデルA、B)とは異なる特徴量で構成された部分特徴量空間により構築される下位の学習モデル(学習モデルB、C)を適用して疵種「C1」、「C2」を特定するようにした。したがって、上位の学習モデルで疵種「C1」、「C2」を特定できれば早い段階で疵の判別を行うことができる。一方、上位の学習モデルで疵種「C1」、「C2」を特定できなかった場合には、下位の学習モデルで疵種「C1」、「C2」を特定するようにして(学習モデルB、Cにより)学習モデルを強化することにより、疵種「C1」、「C2」を可及的に正確に特定することができる。よって、処理の負荷の増大を抑制しつつ、疵の判別性能を従来よりも向上させることができる。 As described above, in the upper learning model (learning model A, B) constructed by the partial feature amount space, the upper learning model (learning model A , B) is applied to a lower learning model (learning models B and C) constructed by a partial feature amount space constituted by feature amounts different from those of B), and the species “C1” and “C2” are specified. . Therefore, if the species “C1” and “C2” can be identified by the higher-level learning model, it is possible to determine the soot at an early stage. On the other hand, when the upper learning model cannot identify the species “C1” and “C2”, the lower learning model identifies the species “C1” and “C2” (learning model B, By strengthening the learning model (by C), the species “C1” and “C2” can be identified as accurately as possible. Therefore, it is possible to improve the discrimination performance of wrinkles as compared with the conventional one while suppressing an increase in processing load.
また、本実施形態では、学習モデルA〜Cを更新すると、それら学習モデルA〜Cに含まれる部分特徴量空間のうち、更新前後において変化のなかった部分特徴量空間の数に基づいて、検査員が設定した"疵種に関する正解データ"を疵データに付与して学習モデルを生成する教師付き学習と、学習モデルを適用することにより得られた"疵種のデータ"を疵データに付与して学習モデルを生成する教師なし学習との何れを行うのかを自動的に判定するようにした。したがって、学習モデルをして生成するか否かを判定するための普遍的な指標を与えることができ、従来のように正解データ(教師データ)を定常的に付与する必要がなくなるので、正解データ(教師データ)を付与する時間及び労力を低減させることができ、疵判定装置6における疵の判別性能を長時間に亘り自動的に維持することが容易に実現できる。その結果、疵判定装置6が安定して動作し、疵判定装置6の機能が長期間に亘り、検査対象物である鋼鈑1全体に対して発揮されるようになる。
Further, in the present embodiment, when the learning models A to C are updated, the inspection is performed based on the number of partial feature amount spaces that have not changed before and after the update among the partial feature amount spaces included in the learning models A to C. The supervised learning that generates the learning model by assigning the "correct data on the species" set by the staff to the learning data, and the "type data" obtained by applying the learning model Thus, it is automatically determined whether to perform unsupervised learning for generating a learning model. Therefore, it is possible to give a universal index for determining whether or not to generate a learning model, and there is no need to regularly provide correct answer data (teacher data) as in the past. It is possible to reduce the time and labor for giving (teacher data), and to easily maintain the wrinkle discrimination performance in the wrinkle determination device 6 for a long time. As a result, the scissors determination device 6 operates stably, and the function of the scissors determination device 6 is exerted on the
尚、本実施形態では、疵種が疵種「C1」、「C2」である場合を例に挙げて説明したが、疵種の数は2つに限定されない。また、疵種の内容は、疵の種類及び等級に限定されるものではない。
また、本実施形態では、学習モデルA〜Cを生成(学習)するようにしたが、学習モデルの数は2つ以上であれば3つに限定されない。また、各学習モデルA〜Cにおける疵種を特定するための判別条件は、図10のステップS5、S9、S13に限定されるものではない。ただし、最後に生成される学習モデル(本実施形態では学習モデルC)については、特徴量が何れかの疵種「C1」、「C2」に属するように(すなわち、棄却クラスができないように)判別条件を生成する。
In the present embodiment, the case where the seeds are the seeds “C1” and “C2” has been described as an example, but the number of seeds is not limited to two. Moreover, the content of a cocoon kind is not limited to the kind and grade of a cocoon.
In the present embodiment, learning models A to C are generated (learned), but the number of learning models is not limited to three as long as the number is two or more. In addition, the determination conditions for specifying the species in each learning model A to C are not limited to steps S5, S9, and S13 in FIG. However, the last generated learning model (learning model C in the present embodiment) is such that the feature quantity belongs to one of the species “C1” and “C2” (that is, the rejection class cannot be made). A discrimination condition is generated.
また、本実施形態では、教師付き学習を行う場合、疵学習装置9の疵データ取得部31で取得された疵データを第1群〜第3群の疵データに分け、第1群〜第3群の疵データを、夫々学習モデルA〜Cの生成(学習)用に使用した。しかしながら、必ずしもこのようにする必要はなく、学習モデルA〜Cの生成(学習)用に、疵データを疵データ取得部31が個別に取得するようにしてもよい。
In this embodiment, when supervised learning is performed, the eyelid data acquired by the eyelid
また、本実施形態では、学習モデルA〜Cを生成(学習)するに際し、疵種「C1」、「C2」を完全に分離できる特徴量の値として、互いに異なる特徴量の値の組み合わせを抽出するようにした。すなわち、学習モデルAを生成(学習)する場合には、第1群の特徴量f1〜f50の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出し、学習モデルBを生成(学習)する場合には、第2群の特徴量f51〜f100の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出し、学習モデルCを生成(学習)する場合には、第3群の特徴量f101〜f150の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出するようにした。しかしながら、必ずしもこのようにする必要はない。 In the present embodiment, when generating (learning) the learning models A to C, combinations of different feature value values are extracted as feature value values that can completely separate the grape species “C1” and “C2”. I tried to do it. That is, when generating (learning) the learning model A, a combination of feature value values that can completely separate the species “C1” and “C2” from the feature values f1 to f50 of the first group is extracted. When generating (learning) the learning model B, a combination of feature value values that can completely separate the species “C1” and “C2” is extracted from the feature values f51 to f100 of the second group. When generating (learning) the learning model C, a combination of feature value values that can completely separate the species “C1” and “C2” is extracted from the feature values f101 to f150 of the third group. I tried to do it. However, this is not always necessary.
例えば、学習モデルA〜Cを生成(学習)するに際し、疵種「C1」、「C2」を完全に分離できる特徴量として、一部が重複する特徴量の値の組み合わせを抽出するようにしてもよい。例えば、学習モデルAを生成(学習)する場合には、第1群の特徴量f1〜f60の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出し、学習モデルBを生成(学習)する場合には、第2群の特徴量f51〜f110の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出し、学習モデルCを生成(学習)する場合には、第3群の特徴量f101〜f150の中から、疵種「C1」、「C2」を完全に分離できる特徴量の値の組み合わせを抽出するようにしてもよい。 For example, when generating (learning) the learning models A to C, combinations of feature value values that partially overlap are extracted as feature values that can completely separate the varieties “C1” and “C2”. Also good. For example, when generating (learning) the learning model A, a combination of feature value values that can completely separate the species “C1” and “C2” is extracted from the feature values f1 to f60 of the first group. Then, when generating (learning) the learning model B, a combination of feature value values that can completely separate the species “C1” and “C2” from the feature values f51 to f110 of the second group is extracted. When generating (learning) the learning model C, a combination of feature value values that can completely separate the species “C1” and “C2” is extracted from the feature values f101 to f150 of the third group. You may make it do.
また、本実施形態では、今回の学習において計数した"更新されなかった部分特徴量空間"の数と、前回の学習において計数した"更新されなかった部分特徴量空間"の数との差の絶対値が閾値以下であるか否かを判定して、教師付き学習を行うか、教師なし学習を行うかを判定するようにした。しかしながら、必ずしもこのようにする必要はない。例えば、今回の学習において計数した"更新されなかった部分特徴量空間"の数が閾値以上であるか否かを判定するようにしてもよい。また、"更新されなかった部分特徴量空間"の数ではなく、"更新された部分特徴量空間"の数を計数するようにしてもよい。 In the present embodiment, the absolute difference between the number of “non-updated partial feature amount spaces” counted in the current learning and the number of “partial feature amount spaces not updated” counted in the previous learning is absolute. It is determined whether or not the value is equal to or less than a threshold value, and whether to perform supervised learning or unsupervised learning is determined. However, this is not always necessary. For example, it may be determined whether or not the number of “partial feature amount spaces not updated” counted in the current learning is equal to or greater than a threshold value. Further, the number of “updated partial feature amount spaces” may be counted instead of the number of “partial feature amount spaces that have not been updated”.
また、本実施形態では、疵判定装置6及び疵学習装置9がLANを介して相互に通信可能に接続されている場合を例に挙げて示したが、必ずしもこのようにする必要はない。例えば、疵判定装置6及び疵学習装置9は、相互に通信可能でなくてもよい。このようにした場合、疵学習装置9で得られた学習モデルをリムーバブルディスク等に記憶し、学習モデルを記憶したリムーバブルディスクを検査員が疵判定装置6に挿入し、学習モデルを疵判定装置6にインストールするようにすればよい。また、疵判定装置6及び疵学習装置9を1つの装置として構成してもよい。
In the present embodiment, the case where the eyelid determination device 6 and the
尚、本実施形態では、部分特徴量空間を使った学習モデルを前提として説明を行ったが、決定木やSVM(Support Vector Machine)においても棄却クラスという概念を導入することができる。
まず、決定木について説明する。例えば、疵データに含まれている特徴量fxの値が1<fx<100の場合に疵種「C1」であると判断する判別条件が決定木に設定されているとする。この場合、この判別条件に代えて、疵データに含まれている特徴量fxの値が、10<fx<90の場合に疵種「C1」であると判断し、1<fx≦10或いは90≦fx<100の場合に棄却クラスであると判断する判別条件を設定する。そして、棄却クラスと判断された場合には、その疵データを使って、前記決定木の判別条件と異なる判別条件の決定木を生成(学習)する。
次に、SVMについて説明する。例えば、2つの特徴量の値の識別面からの距離Dが−X<D<X(Xは正数)の範囲内にある疵データを棄却クラスのデータとし、棄却クラスのデータとなった疵データを使って、前記SVMとは異なるSVMを生成(学習)する。この他、疵種「C1」、「C2」のサポートベクトルの境界面内にある疵データを棄却クラスのデータとしてもよい。
In the present embodiment, the description has been made on the premise of a learning model using a partial feature amount space, but the concept of a rejection class can also be introduced in a decision tree or SVM (Support Vector Machine).
First, the decision tree will be described. For example, it is assumed that a determination condition is set in the decision tree when the value of the feature value fx included in the cocoon data is 1 <fx <100, and it is determined that the cocoon type “C1”. In this case, instead of this determination condition, when the value of the feature quantity fx included in the bag data is 10 <fx <90, it is determined that the bag type is “C1”, and 1 <fx ≦ 10 or 90 A determination condition for determining that the class is a rejection class when ≦ fx <100 is set. If it is determined that the class is a rejection class, a decision tree having a determination condition different from the determination condition of the determination tree is generated (learned) using the trap data.
Next, SVM will be described. For example, 疵 data in which the distance D from the identification plane of the two feature values is within the range of −X <D <X (X is a positive number) is set as the rejection class data, and the 疵 data becomes the rejection class data. Using the data, an SVM different from the SVM is generated (learned). In addition, the defect data in the boundary surface of the support vectors of the species “C1” and “C2” may be used as the rejection class data.
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。前述した第1の実施形態では、学習モデルにおける部分特徴量空間の個数に基づいて、教師付き学習を行うか、教師なし学習を行うかを判定するようにした。これに対し、本実施形態では、学習モデル間の距離に基づいて、教師付き学習を行うか、教師なし学習を行うかを判定する。このように本実施形態と前述した第1の実施形態とは、教師付き学習を行うか、教師なし学習を行うかの判定基準が主として異なる。したがって、本実施形態の説明において、前述した第1の実施形態と同一の部分については、図1〜図11に付した符号と同一の符号を付すこと等により、詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the first embodiment described above, whether to perform supervised learning or unsupervised learning is determined based on the number of partial feature amount spaces in the learning model. In contrast, in this embodiment, it is determined whether to perform supervised learning or unsupervised learning based on the distance between learning models. In this way, the present embodiment and the first embodiment described above are mainly different in criteria for performing supervised learning or unsupervised learning. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment described above are denoted by the same reference numerals as those in FIGS.
図12は、学習モデル間の距離の一例を概念的に示す図である。
図12に示す例では、図12(a)に示すものの方が、図12(b)に示すものよりも、a(aは自然数)番目に生成された学習モデルPaと、(a+1)番目に生成された学習モデルPa+1との距離Dが大きい。学習モデルPa、Pa+1間の距離Dは、例えば、学習モデルPaの重心と、学習モデルPa+1の重心との間の距離により定めることができる。
ここで、学習モデルPa、Pa+1間の距離Dの算出方法の具体例を説明する。
まず、n次元の特徴量空間Fは、特徴量をfとすると、以下の(1)式のように表される。
F={f1,f2,・・・,fn}・・・(1)
FIG. 12 is a diagram conceptually illustrating an example of a distance between learning models.
In the example shown in FIG. 12, the direction of that shown in FIG. 12 (a), than that shown in FIG. 12 (b), a (a is a natural number) learning model P a which is generated th, (a + 1) -th The distance D from the learning model P a + 1 generated in ( 1) is large. Learning model P a, the distance D between the P a + 1, for example, it can be determined and the center of gravity of the learning model P a, the distance between the learning model P a + 1 of the center of gravity.
Here, learning model P a, an embodiment of a method of calculating the distance D between the P a + 1 will be described.
First, the n-dimensional feature amount space F is represented by the following equation (1), where f is the feature amount.
F = {f 1 , f 2 ,..., F n } (1)
このn次元の特徴量空間Fから、m個の特徴量fを取り出して得られるm次元の部分特徴量空間Gkは、以下の(2)式のように表される。
Gk={fθ1,fθ2,・・・,fθm}
ただし、1≦m≦n、k={1,2,2n−1}・・・(2)
An m-dimensional partial feature amount space G k obtained by extracting m feature amounts f from the n-dimensional feature amount space F is expressed by the following equation (2).
G k = {fθ 1 , fθ 2 ,..., Fθ m }
However, 1 ≦ m ≦ n, k = {1, 2, 2 n −1} (2)
このとき、a番目に生成される部分特徴量空間の集合(学習モデル)Paは、La個の部分特徴量空間Fから成るものとする。そうすると、部分特徴量空間の集合Paは、以下の(3)式のように表される。ここで、任意の部分特徴量空間に、ある特徴量が含まれているか否かを表す関数ξを、以下の(4)式のように定義する。そうすると、部分特徴量空間の集合は、以下の(5)式のように表される。 In this case, a set of partial feature space that is generated a second (learning model) P a is assumed to consist of L a number of partial feature amount space F. Then, the set P a of the partial feature amount space is expressed as the following equation (3). Here, a function ξ representing whether or not a certain feature amount is included in an arbitrary partial feature amount space is defined as the following equation (4). Then, the set of partial feature amount spaces is expressed as the following equation (5).
そして、(5)式を用いると、部分特徴量空間の集合の重心μaは、以下の(6)式のように表される。そうすると、重心間の距離Dは、以下の(7)式で表される。 Then, using equation (5), the center of gravity μ a of the set of partial feature amount spaces is expressed as the following equation (6). Then, the distance D between the centroids is expressed by the following equation (7).
本実施形態では、例えば、図11−4のステップS149、図11−7のステップS169において、(7)式により求めた重心間の距離Dが閾値以下であるか否かを判定するようにする。そして、重心間の距離Dが閾値以下である場合には、教師なし学習を行い、閾値より大きい場合には、教師付き学習を行う。 In this embodiment, for example, in step S149 of FIG. 11-4 and step S169 of FIG. 11-7, it is determined whether or not the distance D between the centroids obtained by the equation (7) is equal to or less than a threshold value. . When the distance D between the centroids is equal to or smaller than the threshold value, unsupervised learning is performed. When the distance D is larger than the threshold value, supervised learning is performed.
図13は、学習モデルの重心間の距離及び疵種一致率と、学習実行日時との関係の一例を示す図である。
図13において、一点鎖線で表している線が、学習モデルの重心間の距離を表している。また、白丸で結ばれている線が教師付き学習を行った場合の疵種一致率であり、黒丸で結ばれている線が教師なし学習を行った場合の疵種一致率である。尚、疵種一致率とは、疵判定装置6で判別された疵種が実際の疵種に一致した割合を示すものである。
FIG. 13 is a diagram illustrating an example of the relationship between the distance between the centroids of the learning model, the species match rate, and the learning execution date and time.
In FIG. 13, a line represented by a one-dot chain line represents a distance between the centroids of the learning model. Further, the line connected by white circles is the species match rate when supervised learning is performed, and the line connected by black circles is the species match rate when unsupervised learning is performed. Note that the soot type match rate indicates the rate at which the soot type determined by the soot determining device 6 matches the actual soot type.
図13から明らかなように、学習モデルの重心間の距離が大きい日時vで、教師付き学習から教師なし学習に切り替えると、疵種一致率が低下してしまう。これに対し、学習モデルの重心間の距離が小さい日時wで、教師付き学習から教師なし学習に切り替えると、教師付き学習と教師なし学習とで疵種一致率は殆ど変わらない。
このように、教師付き学習と教師なし学習とを切り替える判断の指標として、学習モデル間の距離を用いることによっても、第1の実施形態で説明したのと同様の効果を得ることができる。尚、学習モデル間の距離は前述したものに限定されるものではない。
As can be seen from FIG. 13, when the distance between the centroids of the learning model is large and the date and time v is switched from supervised learning to unsupervised learning, the species match rate decreases. On the other hand, when switching from supervised learning to unsupervised learning at a date and time w where the distance between the centroids of the learning model is small, the species match rate hardly changes between supervised learning and unsupervised learning.
As described above, the same effect as described in the first embodiment can also be obtained by using the distance between learning models as an index for determining switching between supervised learning and unsupervised learning. Note that the distance between the learning models is not limited to that described above.
尚、以上説明した本発明の実施形態は、コンピュータがプログラムを実行することによって実現することができる。また、プログラムをコンピュータに供給するための手段、例えばかかるプログラムを記録したCD−ROM等のコンピュータ読み取り可能な記録媒体、又はかかるプログラムを伝送する伝送媒体も本発明の実施の形態として適用することができる。また、前記プログラムを記録したコンピュータ読み取り可能な記録媒体などのプログラムプロダクトも本発明の実施の形態として適用することができる。前記のプログラム、コンピュータ読み取り可能な記録媒体、伝送媒体及びプログラムプロダクトは、本発明の範疇に含まれる。
また、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
The embodiment of the present invention described above can be realized by a computer executing a program. Further, a means for supplying the program to the computer, for example, a computer-readable recording medium such as a CD-ROM recording such a program, or a transmission medium for transmitting such a program may be applied as an embodiment of the present invention. it can. A program product such as a computer-readable recording medium that records the program can also be applied as an embodiment of the present invention. The programs, computer-readable recording media, transmission media, and program products are included in the scope of the present invention.
In addition, the above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
1 鋼板
2 搬送ロール
3 ロータリーエンコーダ
4 照明装置
5 撮像装置
6 疵判定装置
7 仕上圧延機
8、10 表示装置
9 疵学習装置
DESCRIPTION OF
Claims (11)
前記取得手段により取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別手段と、
前記第1の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成手段と、
前記取得手段により取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成手段により生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出手段と、
前記抽出手段により各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出手段により各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定手段と、
前記判定手段によりクラスを特定することができないと判定されると、前記抽出手段により抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別手段と、
前記第2の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成手段とを有することを特徴とする疵学習装置。 Acquisition means for acquiring wrinkle data including a characteristic amount related to wrinkles from the image of the inspection object;
First discriminating means for discriminating a combination of feature value values capable of separating the plurality of soot species, using soot data in a plurality of soot species, which is the soot data obtained by the obtaining means;
A learning model is generated from a partial feature amount space for associating a plurality of feature value values determined to be separable by the first determining means with a plurality of feature types. Generating means;
The wrinkle data acquired by the acquisition means and different from the wrinkle data already used is arranged in a plurality of partial feature amount spaces generated by the first generation means, and each partial feature amount An extraction means for extracting cocoon data corresponding to the cocoon data from the space;
The ratio of the number of specific types of data extracted from each partial feature amount space by the extraction unit to the total number of types of data extracted from each partial feature amount space by the extraction unit is compared with a threshold value. And determining means for determining whether or not a class relating to the species can be specified;
If it is determined that the class cannot be specified by the determination means, the defect data corresponding to the kind data extracted by the extraction means, and the defect data in a plurality of kinds as the rejection class data And a second determination unit that determines a combination of feature value values that can separate the plurality of species.
A learning model is generated from a partial feature amount space for associating a set of feature value values determined to be able to separate a plurality of species by the second discrimination means and the plurality of species. And a generation means.
前記第2〜第nの抽出手段により抽出された疵種のデータの総数に対する、前記第2〜第nの抽出手段により抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する第2〜第nの判定手段と、
前記第2〜第nの判定手段によりクラスを特定することができないと判定されると、前記第2〜第nの抽出手段により抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第3〜第(n+1)の判別手段と、
前記第3〜第(n+1)の判別手段により、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第3〜第(n+1)の生成手段とを有することを特徴とする請求項1に記載の疵学習装置。 The feature value of the cocoon data acquired by the acquisition unit and different from the already used data is arranged in the learning model generated by the nth generation unit (n is an integer of 2 or more). A second to n-th extraction means for extracting the cocoon species data corresponding to the cocoon data;
Comparing the ratio of the number of specific types of data extracted by the second to nth extraction means to the total number of data of the specific types extracted by the second to nth extraction means and the threshold value A second to n-th determining means for determining whether or not a class relating to the species can be specified;
When it is determined that the class cannot be specified by the second to nth determining means, the cocoon data corresponding to the cocoon type data extracted by the second to nth extracting means, Third to (n + 1) discriminating means for discriminating combinations of feature value values capable of separating the plurality of soot species, using soot data of the soot species as rejection class data;
A learning model is obtained from a partial feature amount space for associating a set of feature values determined to be able to separate a plurality of species by the third to (n + 1) discrimination means and the plurality of variants. The wrinkle learning device according to claim 1, further comprising third to (n + 1) generation means for generating.
前記判別手段は、前記配置手段により疵データの特徴量の値が配置された座標空間のうち、当該疵データの特徴量の値の領域が相互に重複しない座標空間の軸を構成する特徴量の値の組み合わせを判別することを特徴とする請求項1〜4の何れか1項に記載の疵学習装置。 The cocoon data acquired by the acquisition means, and the value of the feature value of the cocoon data in which the kind data is given as correct data, the two or more feature values of the plurality of feature values as axes Having an arrangement means for arranging in a coordinate space,
In the coordinate space in which the feature value values of the eyelid data are arranged by the arrangement means, the determining means is a feature amount constituting an axis of the coordinate space in which the feature value value areas of the eyelid data do not overlap each other. The wrinkle learning apparatus according to claim 1, wherein a combination of values is discriminated.
前記取得ステップにより取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別ステップと、
前記第1の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成ステップと、
前記取得ステップにより取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成ステップにより生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出ステップと、
前記抽出ステップにより各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出ステップにより各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定ステップと、
前記判定ステップによりクラスを特定することができないと判定されると、前記抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別ステップと、
前記第2の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成ステップとを有することを特徴とする疵学習方法。 An acquisition step of acquiring wrinkle data including a feature amount related to wrinkles from the image of the inspection object;
A first determination step of determining a combination of feature value values capable of separating the plurality of seeds using the seed data in the plurality of seeds, which is the eyelid data acquired in the acquisition step;
The first determination step generates a learning model from a partial feature amount space for associating a set of feature value values determined to be able to separate a plurality of species and the plurality of variants. Generation step;
The wrinkle data acquired by the acquisition step, which is different from the wrinkle data already used, is arranged in the plurality of partial feature amount spaces generated by the first generation step, and each partial feature amount An extraction step for extracting cocoon data corresponding to the cocoon data from the space;
The ratio of the number of specific types of data extracted from each partial feature amount space by the extraction step to the total number of types of data extracted from each partial feature amount space by the extraction step is compared with a threshold value. And a determination step for determining whether or not a class relating to the species can be specified;
If it is determined that the class cannot be specified by the determination step, the defect data corresponding to the defect data extracted by the extraction step, and the defect data in a plurality of defect types as the rejection class data A second determination step of determining a combination of feature value values that can be used to separate the plurality of species;
A learning model is generated from a partial feature amount space for associating a set of feature values determined to be able to separate a plurality of species by the second discrimination step and the plurality of variants. And a generation step.
前記第2〜第nの抽出ステップにより抽出された疵種のデータの総数に対する、前記第2〜第nの抽出ステップにより抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する第2〜第nの判定ステップと、
前記第2〜第nの判定ステップによりクラスを特定することができないと判定されると、前記第2〜第nの抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第3〜第(n+1)の判別ステップと、
前記第3〜第(n+1)の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第3〜第(n+1)の生成ステップとを有することを特徴とする請求項6に記載の疵学習方法。 The feature value of the eyelid data obtained by the obtaining step, which is different from the already used data, is arranged in the learning model generated by the nth generation step (n is an integer of 2 or more). And the 2nd-nth extraction step which extracts the data of the soot kind corresponding to the said soot data,
Comparing the ratio of the number of data of a specific grape type extracted by the second to nth extraction steps to the total number of the species data extracted by the second to nth extraction steps, and a threshold value Then, the second to nth determination steps for determining whether or not the class relating to the species can be specified;
When it is determined that the class cannot be specified by the second to nth determination steps, the cocoon data corresponding to the varieties of data extracted by the second to nth extraction steps, Third to (n + 1) discrimination steps for discriminating combinations of feature values that can separate the plurality of soot species using soot data of the soot species as rejection class data;
A learning model is extracted from the partial feature amount space for associating a set of feature values determined to be able to separate a plurality of variants by the third to (n + 1) discrimination steps and the plurality of variants. The third to (n + 1) generation steps to be generated are included in the learning method according to claim 6.
前記判別ステップは、前記配置ステップにより疵データの特徴量の値が配置された座標空間のうち、当該疵データの特徴量の値の領域が相互に重複しない座標空間の軸を構成する特徴量の値の組み合わせを判別することを特徴とする請求項6〜9の何れか1項に記載の疵学習方法。 The cocoon data acquired by the acquisition step, wherein the value of the feature value of the cocoon data in which the cocoon type data is given as the correct answer data, the two or more feature values of the plurality of feature values as axes A placement step for placing in a coordinate space,
In the determination step, among the coordinate spaces in which the feature value values of the eyelid data are arranged in the placement step, the feature amount constituting the axis of the coordinate space in which the feature value value areas of the eyelid data do not overlap each other The combination of values is discriminated, The wrinkle learning method according to any one of claims 6 to 9.
前記取得ステップにより取得された疵データであって、複数の疵種における疵データを用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第1の判別ステップと、
前記第1の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第1の生成ステップと、
前記取得ステップにより取得された疵データであって、既に使用された疵データと異なる疵データを、前記第1の生成ステップにより生成された複数の部分特徴量空間に配置して、各部分特徴量空間から当該疵データに対応する疵種のデータを抽出する抽出ステップと、
前記抽出ステップにより各部分特徴量空間から抽出された疵種のデータの総数に対する、前記抽出ステップにより各部分特徴量空間から抽出された特定の疵種のデータの個数の割合と、閾値とを比較して、疵種に関するクラスを特定することができるか否かを判定する判定ステップと、
前記判定ステップによりクラスを特定することができないと判定されると、前記抽出ステップにより抽出された疵種のデータに対応する疵データであって、複数の疵種における疵データを棄却クラスのデータとして用いて、当該複数の疵種を分離できる特徴量の値の組み合わせを判別する第2の判別ステップと、
前記第2の判別ステップにより、複数の疵種を分離できると判別された特徴量の値の組と、当該複数の疵種とを対応付けるための部分特徴量空間から学習モデルを生成する第2の生成ステップとをコンピュータに実行させることを特徴とするコンピュータプログラム。 An acquisition step of acquiring wrinkle data including a feature amount related to wrinkles from the image of the inspection object;
A first determination step of determining a combination of feature value values capable of separating the plurality of seeds using the seed data in the plurality of seeds, which is the eyelid data acquired in the acquisition step;
The first determination step generates a learning model from a partial feature amount space for associating a set of feature value values determined to be able to separate a plurality of species and the plurality of variants. Generation step;
The wrinkle data acquired by the acquisition step, which is different from the wrinkle data already used, is arranged in the plurality of partial feature amount spaces generated by the first generation step, and each partial feature amount An extraction step for extracting cocoon data corresponding to the cocoon data from the space;
The ratio of the number of specific types of data extracted from each partial feature amount space by the extraction step to the total number of types of data extracted from each partial feature amount space by the extraction step is compared with a threshold value. And a determination step for determining whether or not a class relating to the species can be specified;
If it is determined that the class cannot be specified by the determination step, the defect data corresponding to the defect data extracted by the extraction step, and the defect data in a plurality of defect types as the rejection class data A second determination step of determining a combination of feature value values that can be used to separate the plurality of species;
A learning model is generated from a partial feature amount space for associating a set of feature value values determined to be capable of separating a plurality of species and the plurality of species by the second determining step. A computer program for causing a computer to execute a generating step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008097459A JP5211810B2 (en) | 2008-04-03 | 2008-04-03 | Acupuncture learning device, acupuncture learning method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008097459A JP5211810B2 (en) | 2008-04-03 | 2008-04-03 | Acupuncture learning device, acupuncture learning method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009250722A true JP2009250722A (en) | 2009-10-29 |
JP5211810B2 JP5211810B2 (en) | 2013-06-12 |
Family
ID=41311603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008097459A Expired - Fee Related JP5211810B2 (en) | 2008-04-03 | 2008-04-03 | Acupuncture learning device, acupuncture learning method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5211810B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011192032A (en) * | 2010-03-15 | 2011-09-29 | Nippon Steel Corp | Flaw learning device, flaw learning method and computer program |
JP2020030145A (en) * | 2018-08-23 | 2020-02-27 | 東京エレクトロンデバイス株式会社 | Inspection apparatus and inspection system |
JP7050470B2 (en) | 2017-11-21 | 2022-04-08 | 千代田化工建設株式会社 | Inspection support system, learning device, and judgment device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057349A (en) * | 1998-08-10 | 2000-02-25 | Hitachi Ltd | Method for sorting defect, device therefor and method for generating data for instruction |
JP2001256480A (en) * | 2000-03-09 | 2001-09-21 | Hitachi Ltd | Automatic picture classifying method and its device |
JP2004295879A (en) * | 2003-03-12 | 2004-10-21 | Hitachi High-Technologies Corp | Defect classification method |
WO2008004559A1 (en) * | 2006-07-06 | 2008-01-10 | Asahi Glass Company, Limited | Clustering system, and defect kind judging device |
-
2008
- 2008-04-03 JP JP2008097459A patent/JP5211810B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000057349A (en) * | 1998-08-10 | 2000-02-25 | Hitachi Ltd | Method for sorting defect, device therefor and method for generating data for instruction |
JP2001256480A (en) * | 2000-03-09 | 2001-09-21 | Hitachi Ltd | Automatic picture classifying method and its device |
JP2004295879A (en) * | 2003-03-12 | 2004-10-21 | Hitachi High-Technologies Corp | Defect classification method |
WO2008004559A1 (en) * | 2006-07-06 | 2008-01-10 | Asahi Glass Company, Limited | Clustering system, and defect kind judging device |
Non-Patent Citations (1)
Title |
---|
JPN6012041701; 坂田幸辰 他: 'テスト特徴法に基づく逐次パタン学習' 電子情報通信学会技術研究報告 Vol.102, No.381, 20021017, pp.25-30 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011192032A (en) * | 2010-03-15 | 2011-09-29 | Nippon Steel Corp | Flaw learning device, flaw learning method and computer program |
JP7050470B2 (en) | 2017-11-21 | 2022-04-08 | 千代田化工建設株式会社 | Inspection support system, learning device, and judgment device |
JP2020030145A (en) * | 2018-08-23 | 2020-02-27 | 東京エレクトロンデバイス株式会社 | Inspection apparatus and inspection system |
Also Published As
Publication number | Publication date |
---|---|
JP5211810B2 (en) | 2013-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011192032A (en) | Flaw learning device, flaw learning method and computer program | |
CN108562589B (en) | Method for detecting surface defects of magnetic circuit material | |
JP5546317B2 (en) | Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program | |
JP6869490B2 (en) | Defect inspection equipment, defect inspection methods, and their programs | |
JP2018005640A (en) | Classifying unit generation device, image inspection device, and program | |
JP2019159889A (en) | Defect inspection device, defect inspection method, and program thereof | |
CN107437243B (en) | Tire impurity detection method and device based on X-ray image | |
JP2018005639A (en) | Image classification device, image inspection device, and program | |
CN111919117A (en) | Cell image analysis device, cell image analysis system, learning data generation method, learning data generation program, manufacturing method, and learning model generation method | |
CN107084991A (en) | The detection of quartz pushrod bubble and quality grading method based on machine vision | |
CN105849274A (en) | Method and system for classifying and identifying individual cells in a microscopy image | |
JP2014178229A (en) | Teacher data creation method, image classification method and image classification device | |
CN113711234A (en) | Yarn quality control | |
CN111582294A (en) | Method for constructing convolutional neural network model for surface defect detection and application thereof | |
CN104854620A (en) | Image processing device, image processing system, and program | |
US10726535B2 (en) | Automatically generating image datasets for use in image recognition and detection | |
JP5211810B2 (en) | Acupuncture learning device, acupuncture learning method, and computer program | |
JP2006293528A (en) | Method and apparatus for selecting learning image, and method, apparatus, program and recording medium for creating image processing algorithm | |
JP5163505B2 (en) | Acupuncture learning device, acupuncture learning method, and computer program | |
CN103149210A (en) | System and method for detecting fabric cashmere content based on scale graphic features | |
JP6596260B2 (en) | Teaching support method and image classification method | |
CN116051541B (en) | Bearing end face gentle abrasion detection method and device based on stroboscopic light source | |
TW202034421A (en) | Color filter inspection device, inspection device, color filter inspection method, and inspection method | |
JP6126290B1 (en) | Appearance inspection device | |
Maarouf et al. | Transfer learning-based ensemble deep learning for road cracks detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130129 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130211 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5211810 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160308 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |