JP2016192007A - Machine learning device, machine learning method, and machine learning program - Google Patents

Machine learning device, machine learning method, and machine learning program Download PDF

Info

Publication number
JP2016192007A
JP2016192007A JP2015070586A JP2015070586A JP2016192007A JP 2016192007 A JP2016192007 A JP 2016192007A JP 2015070586 A JP2015070586 A JP 2015070586A JP 2015070586 A JP2015070586 A JP 2015070586A JP 2016192007 A JP2016192007 A JP 2016192007A
Authority
JP
Japan
Prior art keywords
information
rule
unit
machine learning
generation unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015070586A
Other languages
Japanese (ja)
Other versions
JP6492880B2 (en
Inventor
匡人 結城
Masato Yuki
匡人 結城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2015070586A priority Critical patent/JP6492880B2/en
Publication of JP2016192007A publication Critical patent/JP2016192007A/en
Application granted granted Critical
Publication of JP6492880B2 publication Critical patent/JP6492880B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To increase a detection accuracy.SOLUTION: A determination unit determines the presence or the absence of a target in a predetermined region of image data by applying a preset rule to feature information showing features extracted from the predetermined region. The acquisition unit acquires user information that a user has input by seeing an image shown in the image data. An information generation unit generates information combining the feature information and user information acquired by the acquisition unit. A model generation unit generates a learning model by a machine learning system on the basis of the information generated by the information generation unit. An update unit updates a rule in accordance with the learning model generated by the model generation unit.SELECTED DRAWING: Figure 1

Description

本発明は、画像から所望の対象物を判別する機械学習装置、機械学習方法、および機械学習プログラムに関する。   The present invention relates to a machine learning device, a machine learning method, and a machine learning program for discriminating a desired object from an image.

画像データから所望の対象物を検知する際に、ユーザが設定したルールに従って対象物を検知すると共に、対象物の検知結果を機械学習させることにより、検知精度を向上させる技術が知られている。   When detecting a desired object from image data, a technique is known in which the object is detected according to a rule set by a user and the detection result of the object is machine-learned to improve detection accuracy.

このような技術として、例えば、特許文献1には、ユーザ環境下の画像データに基づいて機械学習用の事例データを収集し、識別関数を生成して画像データを分類することにより、個々のユーザ環境に合った適切な分類を提供することができると共に、その分類方法を学習する技術が開示されている。   As such a technique, for example, in Patent Document 1, machine learning case data is collected based on image data under a user environment, and an identification function is generated to classify the image data. A technique capable of providing an appropriate classification suitable for the environment and learning the classification method is disclosed.

また、特許文献2には、評価データに適切な学習データを用いて精度の高い機械学習を行い、評価対象となるデータが与えられる度に、学習データと評価データから学習データを選択するための第2の素性を抽出し、第2の素性を基に機械学習に用いるのに適した学習データを選択する技術が開示されている。   Patent Document 2 discloses a method for performing highly accurate machine learning using appropriate learning data as evaluation data and selecting learning data from the learning data and the evaluation data every time data to be evaluated is given. A technique for extracting a second feature and selecting learning data suitable for use in machine learning based on the second feature is disclosed.

また、特許文献3には、事例データベースは、各事例に関する情報を蓄積し、学習器は、正解事例の集合から、カテゴリを判定するための推論規則を生成して、未知事例のカテゴリを推論し、問い合わせ生成部は、未知事例の推論結果が正しいか否かの判定を仰ぐための問い合わせを生成し、ユーザインターフェースは、その問い合わせを画面に表示し、ユーザが判定結果を入力すると、中央コントローラは、判定された未知事例を、新たな正解事例として事例データベースに記録する技術が開示されている。   Further, in Patent Document 3, the case database stores information on each case, and the learning device generates an inference rule for determining the category from the set of correct answer cases, and infers the category of the unknown case. The query generation unit generates a query for determining whether or not the inference result of the unknown case is correct, the user interface displays the query on the screen, and when the user inputs the determination result, the central controller A technique for recording a determined unknown case in a case database as a new correct answer case is disclosed.

特開2010−92413号公報JP 2010-92413 A 特開2005−182696号公報JP 2005-182696 A 特開2002−222083号公報JP 2002-222083 A

しかしながら、特許文献1から3に開示された技術では、ユーザが設定したルールが対象物の検知に適さない場合、機械学習を行って好適な画像データを選択しても検知精度が向上しない場合がある。
本発明の目的は、上述した課題を解決する機械学習装置、機械学習方法、および機械学習プログラムを提供することである。
However, in the techniques disclosed in Patent Documents 1 to 3, when the rules set by the user are not suitable for detecting an object, the detection accuracy may not be improved even if machine learning is performed and suitable image data is selected. is there.
An object of the present invention is to provide a machine learning device, a machine learning method, and a machine learning program that solve the above-described problems.

本発明は上記の課題を解決するためになされたものであり、画像データの所定領域から抽出される特徴を示す特徴情報に、予め定められたルールを適用して、前記所定領域内に対象物が存在しているか否かを判定する判定部と、ユーザに前記画像データが示す画像を視認させることにより入力させたユーザ情報を取得する取得部と、前記特徴情報と、前記取得部により取得されたユーザ情報とを組み合わせた情報を生成する情報生成部と、前記情報生成部により生成された情報に基づいて、機械学習方式により学習モデルを生成するモデル生成部と、前記モデル生成部により生成された学習モデルに従って、前記ルールを更新する更新部と、を備えることを特徴とする機械学習装置である。   The present invention has been made to solve the above-described problem, and applies a predetermined rule to feature information indicating features extracted from a predetermined area of image data, and an object within the predetermined area. Is acquired by the determination unit that determines whether or not exists, the acquisition unit that acquires the user information that is input by allowing the user to visually recognize the image indicated by the image data, the feature information, and the acquisition unit An information generation unit that generates information that is combined with the user information, a model generation unit that generates a learning model by a machine learning method based on the information generated by the information generation unit, and the model generation unit An update unit that updates the rule according to the learning model.

また、本発明は、画像データの所定領域から抽出される特徴を示す特徴情報に、予め定められたルールを適用して、前記所定領域内に対象物が存在しているか否かを判定し、ユーザに前記画像データが示す画像を視認させることにより選択させたユーザ情報を取得し、前記特徴情報と、前記取得されたユーザ情報とを組み合わせた情報を生成し、前記生成された情報に基づいて、機械学習方式により学習モデルを生成し、前記生成された学習モデルに従って、前記ルールを更新する、機械学習方法である。   The present invention also applies a predetermined rule to feature information indicating features extracted from a predetermined area of image data to determine whether an object exists in the predetermined area, The user information selected by causing the user to visually recognize the image indicated by the image data is acquired, information that combines the feature information and the acquired user information is generated, and based on the generated information A machine learning method that generates a learning model by a machine learning method and updates the rule according to the generated learning model.

また、本発明は、コンピュータに、画像データの所定領域から抽出される特徴を示す特徴情報に、予め定められたルールを適用して、前記所定領域内に対象物が存在しているか否かを判定させ、ユーザに前記画像データが示す画像を視認させることにより選択させたユーザ情報を取得させ、前記特徴情報と、前記取得されたユーザ情報とを組み合わせた情報を生成させ、前記生成された情報に基づいて、機械学習方式により学習モデルを生成させ、前記生成された学習モデルに従って、前記ルールを更新させるための機械学習プログラムある。   Further, the present invention applies a predetermined rule to feature information indicating features extracted from a predetermined area of image data, and determines whether or not an object exists in the predetermined area. The user information selected by allowing the user to make a determination and viewing the image indicated by the image data, generating information combining the feature information and the acquired user information, and generating the generated information. Is a machine learning program for generating a learning model by a machine learning method and updating the rule according to the generated learning model.

本発明によれば、検知精度を向上させることができる。   According to the present invention, detection accuracy can be improved.

本発明における機械学習装置1の基本構成の一例を示す図である。It is a figure which shows an example of the basic composition of the machine learning apparatus 1 in this invention. 一実施形態における機械学習装置1の構成の一例を示す図である。It is a figure showing an example of composition of machine learning device 1 in one embodiment. 上空から地上の飛行場を撮影した画像データの一例を示す図である。It is a figure which shows an example of the image data which image | photographed the ground airfield from the sky. ルール情報の一例を示す図である。It is a figure which shows an example of rule information. ルール検知実行部220による検知結果の一例を示す図である。It is a figure which shows an example of the detection result by the rule detection execution part 220. FIG. 図5に示すルール検知実行部220の検知結果に対するユーザの検知判断結果の一例を示す図である。It is a figure which shows an example of the user's detection judgment result with respect to the detection result of the rule detection execution part 220 shown in FIG. 教師データの一例を示す図である。It is a figure which shows an example of teacher data. モデル分類実施部320による分類結果の一例を示す図である。It is a figure which shows an example of the classification result by the model classification implementation part 320. FIG. モデル分類実施部320におけるデータ列の分類処理の概念を説明するための図である。6 is a diagram for explaining the concept of data string classification processing in a model classification execution unit 320. FIG. モデル分類実施部320におけるデータ列の分類処理の概念を説明するための図である。6 is a diagram for explaining the concept of data string classification processing in a model classification execution unit 320. FIG. 一実施形態における機械学習装置1の処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of the machine learning apparatus 1 in one Embodiment.

以下、本発明の実施形態の機械学習装置、機械学習方法、および機械学習プログラムを、図面を参照して説明する。   Hereinafter, a machine learning device, a machine learning method, and a machine learning program according to an embodiment of the present invention will be described with reference to the drawings.

(基本構成)
図1は、本発明における機械学習装置1の基本構成の一例を示す図である。
本発明における機械学習装置1は、判定部10と、取得部20と、情報生成部30と、モデル生成部40と、更新部50とを基本構成とする。
(Basic configuration)
FIG. 1 is a diagram illustrating an example of a basic configuration of a machine learning device 1 according to the present invention.
The machine learning device 1 according to the present invention has a basic configuration of a determination unit 10, an acquisition unit 20, an information generation unit 30, a model generation unit 40, and an update unit 50.

判定部10は、画像データの検知領域から抽出される特徴を示す特徴情報に、ユーザによって設定されるルールを適用して、検知領域内に対象物OBが存在しているか否かを判定する。判定部10は、後述する実施形態における「ルール検知実行部220」に相当する。   The determination unit 10 applies a rule set by the user to the feature information indicating the feature extracted from the detection area of the image data, and determines whether or not the object OB exists in the detection area. The determination unit 10 corresponds to a “rule detection execution unit 220” in an embodiment described later.

取得部20は、上述したユーザの検知判断結果を取得する。取得部20は、後述する実施形態における「教師データ生成部311」に相当する。   The acquisition unit 20 acquires the detection detection result of the user described above. The acquisition unit 20 corresponds to a “teacher data generation unit 311” in an embodiment described later.

情報生成部30は、取得部20により取得されたユーザの検知判断結果と画像データ上の検知領域Aから抽出される特徴を示す特徴情報とを組み合わせた教師データを生成する。情報生成部30は、後述する実施形態における「教師データ生成部311」に相当する。   The information generation unit 30 generates teacher data that combines the user detection determination result acquired by the acquisition unit 20 and the feature information indicating the feature extracted from the detection area A on the image data. The information generation unit 30 corresponds to a “teacher data generation unit 311” in an embodiment described later.

モデル生成部40は、情報生成部30により生成された教師データに基づいて、機械学習方式により学習モデルを生成する。モデル生成部40は、後述する実施形態における「学習モデル生成部313」に相当する。   The model generation unit 40 generates a learning model by a machine learning method based on the teacher data generated by the information generation unit 30. The model generation unit 40 corresponds to a “learning model generation unit 313” in an embodiment described later.

更新部50は、モデル生成部40により生成された学習モデルに従って、ユーザによって設定されるルールを更新する。更新部50は、は、後述する実施形態における「ルール検証実行部233」に相当する。   The update unit 50 updates rules set by the user according to the learning model generated by the model generation unit 40. The update unit 50 corresponds to a “rule verification execution unit 233” in an embodiment described later.

これによって、機械学習装置1は、画像データ全体に点在する対象物OBの検知に対するルールを、機械学習の結果に基づいて、より適切なルールに更新することができる。この結果、機械学習装置1は、検知精度を向上させることができる。   Thereby, the machine learning device 1 can update the rule for detection of the object OB scattered in the entire image data to a more appropriate rule based on the result of the machine learning. As a result, the machine learning device 1 can improve detection accuracy.

図2は、一実施形態における機械学習装置1の構成の一例を示す図である。
本実施形態における機械学習装置1は、画像データから所望の対象物OBを検知する装置である。機械学習装置1は、例えば、人工衛星や航空機を使用して上空から地上の飛行場を撮影した画像データから所望の対象物OBとして航空機を検知する。図3は、上空から地上の飛行場を撮影した画像データの一例を示す図である。図3の例の場合、画像データ上には、検知の対象物OBである航空機が複数機存在している。以下、図3に示す画像データを一例として参照し、機械学習装置1の動作を説明する。
FIG. 2 is a diagram illustrating an example of the configuration of the machine learning device 1 according to an embodiment.
The machine learning device 1 in the present embodiment is a device that detects a desired object OB from image data. For example, the machine learning device 1 detects an aircraft as a desired object OB from image data obtained by photographing an airfield on the ground from above using an artificial satellite or an aircraft. FIG. 3 is a diagram illustrating an example of image data obtained by photographing a ground airfield from above. In the case of the example in FIG. 3, there are a plurality of aircraft that are objects to be detected OB on the image data. The operation of the machine learning device 1 will be described below with reference to the image data shown in FIG. 3 as an example.

機械学習装置1は、画像表示部100と、ルール制御部200と、機械学習部300と、データ管理部400とを備える。画像表示部100と、ルール制御部200と、機械学習部300と、データ管理部400とのうち一部または全部は、CPU(Central Processing Unit)等のプロセッサが図示しない記憶装置に記憶されたプログラムを実行することにより機能するソフトウェア機能部である。また、上述した機能部のうち一部または全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   The machine learning device 1 includes an image display unit 100, a rule control unit 200, a machine learning unit 300, and a data management unit 400. Some or all of the image display unit 100, the rule control unit 200, the machine learning unit 300, and the data management unit 400 are programs stored in a storage device (not shown) such as a CPU (Central Processing Unit). This is a software function unit that functions by executing. Also, some or all of the functional units described above may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

画像表示部100は、入力された情報に基づく画像を表示する。画像表示部100は、液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイ等である。   The image display unit 100 displays an image based on the input information. The image display unit 100 is a liquid crystal display, an organic EL (Electroluminescence) display, or the like.

画像表示部100は、画像表示制御部110を有する。画像表示制御部110は、画像を表示させるように画像表示部100を制御する。画像表示制御部110は、例えば、後述するルール検知実行部220による実行結果や教師データを生成するための情報を画像表示部100に表示させる。   The image display unit 100 includes an image display control unit 110. The image display control unit 110 controls the image display unit 100 to display an image. For example, the image display control unit 110 causes the image display unit 100 to display an execution result by the rule detection execution unit 220 described later and information for generating teacher data.

ルール制御部200は、ユーザにより設定されたルールに従って画像データから航空機を検知するための機能部である。ルール制御部200は、ルール情報管理部210と、ルール検知実行部220と、ルール検証部230とを有する。   The rule control unit 200 is a functional unit for detecting an aircraft from image data according to a rule set by a user. The rule control unit 200 includes a rule information management unit 210, a rule detection execution unit 220, and a rule verification unit 230.

ルール情報管理部210は、ユーザから入力されたルールを示す情報(以下、「ルール情報」と称する)をデータ管理部400に出力し、ルール情報をデータ管理部400に管理させる。ルール情報とは、航空機を検知する際に参照される制約条件であり、例えばプログラムの形式で表される。ルール制御部200は、例えば、ユーザから図示しないユーザインターフェースを介して入力されるルール情報を受け付けてもよいし、ハードウェアインターフェースを介して接続される記憶装置からルール情報を取得してもよい。   The rule information management unit 210 outputs information (hereinafter referred to as “rule information”) indicating a rule input by the user to the data management unit 400 and causes the data management unit 400 to manage the rule information. The rule information is a constraint condition that is referred to when detecting an aircraft, and is expressed in a program format, for example. For example, the rule control unit 200 may accept rule information input from a user via a user interface (not shown), or may acquire rule information from a storage device connected via a hardware interface.

図4は、ルール情報の一例を示す図である。図4の例の場合、ルール情報には、後述するルール検知実行部220により抽出が予定されている特徴ごとにルールが設定される。特徴とは、長さ、幅、面積等の形状に関する特徴である。例えば、ルール番号r001には、長さの特徴が割り振られ、当該長さが300以上且つ400以下の場合に、検知領域A内に対象物OBが存在していると判断してよい旨の内容が格納されている。ルール番号は、一つ一つのルールを識別可能な識別情報である。また、ルール番号r002には、幅の特徴が割り振られ、当該幅が280以上且つ370以下の場合に、検知領域A内に対象物OBが存在していると判断してよい旨の内容が格納されている。図4の例の場合、ルールの数は15個としているが、特段数には制限が存在しない。従って、ルール情報を構成するルールの数は、割り振る特徴の数に応じて適時調整してもよい。また、ルールの内容もユーザによって適宜変更されてもよい。このような場合、ルール制御部200は、マウスやキーボード等のユーザインターフェースを介して、ユーザから入力されるルールの変更内容を示す情報を受け付ける。   FIG. 4 is a diagram illustrating an example of rule information. In the case of the example in FIG. 4, a rule is set in the rule information for each feature that is scheduled to be extracted by a rule detection execution unit 220 described later. A feature is a feature related to a shape such as length, width, area, and the like. For example, the rule number r001 is assigned a length feature, and when the length is 300 or more and 400 or less, the content that it may be determined that the object OB exists in the detection area A Is stored. The rule number is identification information that can identify each rule. Further, the rule number r002 stores a content indicating that the object OB can be determined to exist in the detection area A when the width feature is allocated and the width is 280 or more and 370 or less. Has been. In the example of FIG. 4, the number of rules is 15, but there is no limit to the number of rules. Therefore, the number of rules constituting the rule information may be adjusted as appropriate according to the number of features to be allocated. Also, the content of the rules may be changed as appropriate by the user. In such a case, the rule control unit 200 receives information indicating a rule change content input from the user via a user interface such as a mouse or a keyboard.

ルール検知実行部220は、後述する代表データ取得部231により取得された画像データに対して、データ管理部400において記憶されているルールに従って、画像データから対象物OB(航空機)を検知する。   The rule detection execution unit 220 detects an object OB (aircraft) from the image data according to the rules stored in the data management unit 400 with respect to the image data acquired by the representative data acquisition unit 231 described later.

具体的には、まず、ルール検知実行部220は、画像データの全範囲(または一部範囲)に対して特徴の抽出処理を行う。次に、ルール検知実行部220は、ルール情報に含まれるルール番号r001からr015の全ルールを参照して、抽出した特徴ごとにルール内容に示される制約条件を満たすか否かを判定し、全ての特徴が制約条件(ルール内容)を満たす領域を、対象物OBが存在している検知領域Aである旨の検知結果を出力する。ルール検知実行部220は、対象物OBが存在している検知領域Aである旨の検知結果として、例えば、対象物OBが存在している検知領域Aのみを表示させた画像情報を画像表示部100に出力する。   Specifically, the rule detection execution unit 220 first performs feature extraction processing on the entire range (or a partial range) of the image data. Next, the rule detection execution unit 220 refers to all the rules with the rule numbers r001 to r015 included in the rule information, determines whether or not the constraint conditions indicated in the rule contents are satisfied for each extracted feature, A detection result indicating that a region satisfying the constraint condition (rule content) is a detection region A in which the object OB exists is output. The rule detection execution unit 220 displays, for example, image information that displays only the detection region A in which the object OB exists as a detection result indicating that the detection region A in which the object OB exists. Output to 100.

図5は、ルール検知実行部220による検知結果の一例を示す図である。図5の例の場合、検知領域A内に対象物OBが存在していない領域が2箇所含まれている。すなわち、ルール検知実行部220は、誤検知を含む検知結果を出力する場合がある。誤検知の要因は、ルール内容に示される制約条件が、対象物OBの存在を検知する指標として適していないことが一例として挙げられる。   FIG. 5 is a diagram illustrating an example of a detection result by the rule detection execution unit 220. In the case of the example in FIG. 5, two areas where the object OB does not exist are included in the detection area A. That is, the rule detection execution unit 220 may output a detection result including erroneous detection. As an example of the cause of erroneous detection, the constraint condition indicated in the rule content is not suitable as an index for detecting the presence of the object OB.

ルール検証部230は、ユーザにより設定されたルールが妥当であるか否かを検証する機能部である。ルールが妥当であるとは、画像データから対象物OBを精度良く検知することができることを表している。ルール検証部230は、代表データ取得部231と、調査データ生成部232と、ルール検証実行部233とを有する。   The rule verification unit 230 is a functional unit that verifies whether the rule set by the user is valid. The rule being valid means that the object OB can be detected from the image data with high accuracy. The rule verification unit 230 includes a representative data acquisition unit 231, a survey data generation unit 232, and a rule verification execution unit 233.

代表データ取得部231は、データ管理部400により管理される複数の画像データから代表となる画像データをランダムに選択する。以下、代表データ取得部231により取得される画像データを、「代表データ」と記載する。   The representative data acquisition unit 231 randomly selects representative image data from a plurality of image data managed by the data management unit 400. Hereinafter, the image data acquired by the representative data acquisition unit 231 is referred to as “representative data”.

調査データ生成部232は、後述するモデル分類実施部320により分類処理が行われている場合、検知領域A内に所望の対象物OBが存在しているデータ、或いは検知領域A内に所望の対象物OBが存在していないデータに分類されなかったデータ列をn次元空間上から抽出する。すなわち、調査データ生成部232は、信頼度が所定値と同値であるデータ列、または信頼度が所定範囲内のデータ列をn次元空間上から抽出する。調査データ生成部232は、抽出したデータ列を組み合わせた調査データを生成する。なお、調査データ生成部232は、「抽出部」の一例である。   When the classification processing is performed by the model classification execution unit 320, which will be described later, the survey data generation unit 232 is data in which a desired object OB exists in the detection area A, or a desired target in the detection area A. A data string that is not classified into data in which no object OB exists is extracted from the n-dimensional space. That is, the survey data generation unit 232 extracts from the n-dimensional space a data string whose reliability is the same as a predetermined value or a data string whose reliability is within a predetermined range. The survey data generation unit 232 generates survey data that combines the extracted data strings. The survey data generation unit 232 is an example of an “extraction unit”.

ルール検証実行部233は、後述するモデル分類実施部320による学習モデルを適用した分類結果と、調査データを構成するデータ列の特徴情報をユーザにより設定されたルールに適用させた検知結果とを比較し、学習モデルを適用した分類結果とルールを適用した検知結果とが一致するか否かを判定する。ルール検証実行部233は、学習モデルを適用した分類結果とルールを適用した検知結果とが一致しない場合、学習モデルを適用した分類結果に対してルールを適用した検知結果を近づけるようにルールを変更する。ルール検証実行部233は、例えば、特徴ごとに設定される閾値を大きくし、ルールごとの制約条件(ルール内容)を緩める。なお、学習モデルを適用した分類結果は、「モデル判定結果」の一例であり、ユーザにより設定されたルールに適用させた検知結果は、「ルール判定結果」の一例である。   The rule verification execution unit 233 compares the classification result obtained by applying the learning model by the model classification execution unit 320, which will be described later, with the detection result obtained by applying the feature information of the data string constituting the survey data to the rule set by the user. Then, it is determined whether the classification result applying the learning model matches the detection result applying the rule. When the classification result to which the learning model is applied and the detection result to which the rule is applied do not match, the rule verification execution unit 233 changes the rule so that the detection result to which the rule is applied is brought closer to the classification result to which the learning model is applied. To do. For example, the rule verification execution unit 233 increases the threshold value set for each feature and relaxes the constraint condition (rule content) for each rule. The classification result to which the learning model is applied is an example of “model determination result”, and the detection result applied to the rule set by the user is an example of “rule determination result”.

機械学習部300は、教師データ管理部310と、モデル分類実施部320とを有する。教師データ管理部310は、教師データ生成部311と、特徴情報生成部312と、学習モデル生成部313とを有する。   The machine learning unit 300 includes a teacher data management unit 310 and a model classification execution unit 320. The teacher data management unit 310 includes a teacher data generation unit 311, a feature information generation unit 312, and a learning model generation unit 313.

教師データ生成部311は、ルール検知実行部220による検知結果をユーザに提示し、当該検知結果が誤りであるか否かをユーザに判断させる。具体的には、教師データ生成部311は、上述したルール検知実行部220に対して検知結果(例えば図5)を画像表示部100に出力させる。この結果、画像表示部100は、ルール検知実行部220による検知結果を表示する。このとき、ユーザは、画像表示部100により表示されたルール検知実行部220の検知結果を見て、当該検知結果が誤りであるか否かを判断する。   The teacher data generation unit 311 presents the detection result from the rule detection execution unit 220 to the user, and causes the user to determine whether or not the detection result is an error. Specifically, the teacher data generation unit 311 causes the rule detection execution unit 220 described above to output a detection result (eg, FIG. 5) to the image display unit 100. As a result, the image display unit 100 displays the detection result by the rule detection execution unit 220. At this time, the user looks at the detection result of the rule detection execution unit 220 displayed by the image display unit 100 and determines whether or not the detection result is an error.

例えば、ユーザは、ルール検知実行部220の検知結果の一部または全部が誤りであると判断した場合、誤りである旨の情報を、ユーザインターフェースを介して機械学習部300に入力する。この場合、教師データ生成部311は、ルール検知実行部220に対して検知結果を画像表示部100に出力させた後、ユーザから入力される情報を受け付ける。以下、ルール検知実行部220の検知結果を画像表示部100に出力させた後にユーザから入力される情報を、「ユーザの検知判断結果」と記載する。なお、ユーザの検知判断結果は、「ユーザ情報」の一例である。   For example, when the user determines that a part or all of the detection result of the rule detection execution unit 220 is an error, the user inputs information indicating an error to the machine learning unit 300 via the user interface. In this case, the teacher data generation unit 311 causes the rule detection execution unit 220 to output the detection result to the image display unit 100 and then receives information input from the user. Hereinafter, information input from the user after the detection result of the rule detection execution unit 220 is output to the image display unit 100 will be referred to as “user detection determination result”. Note that the user's detection determination result is an example of “user information”.

図6は、図5に示すルール検知実行部220の検知結果に対するユーザの検知判断結果の一例を示す図である。図6の例では、ユーザは、誤検知であると判断した検知領域Aを指定する操作を行い、ルール検知実行部220の検知結果から誤検知の検知領域Aを削除している。このとき、教師データ生成部311は、ルール検知実行部220の検知結果上において、ユーザから誤検知の指定を受けた検知領域Aに誤りである識別子(ラベル)を付与しておく。なお、誤検知の指定を受けた検知領域Aは、図中において破線で示し、誤検知の指定を受けていない検知領域Aは、図中において実線で示している。   FIG. 6 is a diagram illustrating an example of a user detection determination result with respect to the detection result of the rule detection execution unit 220 illustrated in FIG. In the example of FIG. 6, the user performs an operation of designating the detection area A determined to be erroneous detection, and deletes the erroneous detection area A from the detection result of the rule detection execution unit 220. At this time, on the detection result of the rule detection execution unit 220, the teacher data generation unit 311 assigns an erroneous identifier (label) to the detection area A that has been designated for erroneous detection by the user. The detection area A that has been designated for erroneous detection is indicated by a broken line in the figure, and the detection area A that has not been designated for erroneous detection is indicated by a solid line in the figure.

教師データ生成部311は、上述した方法で取得したユーザの検知判断結果と画像データ上の検知領域Aから抽出される特徴を示す特徴情報とを含む教師データを生成する。   The teacher data generation unit 311 generates teacher data including a user detection determination result acquired by the above-described method and feature information indicating features extracted from the detection area A on the image data.

図7は、教師データの一例を示す図である。教師データを構成する各データ列には、特徴ごとにルールを適用した際の特徴量と、ユーザの検知判断結果を示す情報が格納される。各データ列には、ルール検知実行部220により対象物OBが存在していると判定された検知領域Aごとにデータ番号が割り振られる。すなわち、データ番号は、ルール検知実行部220により対象物OBが存在していると判定された検知領域Aの数と対応する。   FIG. 7 is a diagram illustrating an example of teacher data. Each data string constituting the teacher data stores a feature amount when a rule is applied for each feature and information indicating a user's detection determination result. Each data string is assigned a data number for each detection region A where the rule detection execution unit 220 determines that the object OB exists. That is, the data number corresponds to the number of detection areas A where the rule detection execution unit 220 determines that the object OB exists.

例えば、データ番号d000001で示されるデータ列には、ルール番号r001の制約条件を適用させた際に参照した特徴量390と、ルール番号r002の制約条件を適用させた際に参照した特徴量345と、以下省略し、ルール番号r015の制約条件を適用させた際に参照した特徴量55とが格納される。このデータ列において、データ番号d000001と対応する検知領域Aに誤検知を示す識別子(ラベル)が付与されている場合、当該データ列には、ユーザの検知判断結果として“NO”の情報が格納される。なお、検知領域Aに誤検知を示す識別子(ラベル)が付与されていない場合、当該検知領域Aと対応するデータ番号が示すデータ列には、ユーザの検知判断結果として“YES”の情報が格納される。   For example, in the data string indicated by the data number d000001, a feature quantity 390 referred to when the constraint condition of the rule number r001 is applied, and a feature quantity 345 referred to when the constraint condition of the rule number r002 is applied. The feature quantity 55 referred to when the constraint condition of the rule number r015 is applied is omitted. In this data string, when an identifier (label) indicating erroneous detection is given to the detection area A corresponding to the data number d000001, information of “NO” is stored in the data string as a result of the user's detection determination. The If an identifier (label) indicating erroneous detection is not assigned to the detection area A, the data string indicated by the data number corresponding to the detection area A stores “YES” information as a user detection determination result. Is done.

特徴情報生成部312は、例えば、2次微分処理やハフ変換等の画像処理技術を用いて、ルール検知実行部220により対象物OBが存在していると判定された検知領域Aから特徴を抽出し、当該特徴を示す特徴情報を生成する。なお、本実施形態において、特徴情報生成部312は、上述した形状に関する特徴を抽出するものに限られない。例えば、特徴情報生成部312は、特徴点や色に関する特徴を抽出するものであってもよい。また、特徴情報生成部312は、ユーザが指定する検知領域Aから特徴を抽出し、当該特徴を示す特徴情報を生成してもよい。   The feature information generation unit 312 extracts features from the detection area A in which the object OB is determined to be present by the rule detection execution unit 220 using, for example, an image processing technique such as secondary differential processing or Hough transform. Then, feature information indicating the feature is generated. In the present embodiment, the feature information generation unit 312 is not limited to the one that extracts features related to the shape described above. For example, the feature information generation unit 312 may extract features related to feature points and colors. Further, the feature information generation unit 312 may extract features from the detection area A designated by the user and generate feature information indicating the features.

学習モデル生成部313は、教師データ生成部311により生成される教師データに対して、サポートベクトルマシン(SVM)等の機械学習手法を用いて学習モデルを生成する。学習モデルは、例えば、所望の対象物(本実施形態では航空機)の形状パターンを機械学習装置1に自動で認識させるためのモデル(プログラム)である。   The learning model generation unit 313 generates a learning model for the teacher data generated by the teacher data generation unit 311 using a machine learning method such as a support vector machine (SVM). The learning model is, for example, a model (program) for causing the machine learning device 1 to automatically recognize a shape pattern of a desired object (aircraft in the present embodiment).

モデル分類実施部320は、学習モデル生成部313により生成された学習モデルを適用し、教師データ生成部311により生成された教師データに含まれるデータ列ごとに、信頼度を算出する。信頼度とは、検知領域A内部に対象物OBが存在している確率を示す。すなわち、信頼度は、検知領域A内における対象物OBの存在の有無を判定するルールに適合する度合を表し、ルールに適合する度合が高いものほど信頼度の値は高くなる。なお、モデル分類実施部320は、「算出部」の一例である。   The model classification execution unit 320 applies the learning model generated by the learning model generation unit 313, and calculates a reliability for each data string included in the teacher data generated by the teacher data generation unit 311. The reliability indicates the probability that the object OB exists in the detection area A. That is, the reliability represents the degree of conformity with the rule for determining whether or not the object OB exists in the detection area A, and the higher the degree of conformance with the rule, the higher the reliability value. The model classification execution unit 320 is an example of a “calculation unit”.

モデル分類実施部320は、学習モデル生成部313により生成された学習モデルを適用し、調査データ生成部232により生成された調査データを構成するデータ列ごとに検知領域A内に所望の対象物OBが存在しているか否かを判定し、調査データ上において、対象物OBが存在していると判定したデータ列と、対象物OBが存在していないと判定したデータ列との2パターンに分類する。以下、図8から図10を参照してモデル分類実施部320の信頼度に基づくデータ列の分類処理についてより詳細に説明する。   The model classification execution unit 320 applies the learning model generated by the learning model generation unit 313, and sets a desired object OB in the detection area A for each data string constituting the survey data generated by the survey data generation unit 232. Is classified into two patterns, that is, a data string in which the object OB is determined to exist and a data string in which it is determined that the object OB does not exist on the survey data. To do. Hereinafter, the data string classification processing based on the reliability of the model classification execution unit 320 will be described in more detail with reference to FIGS.

図8は、モデル分類実施部320による分類結果の一例を示す図である。また、図9および図10は、モデル分類実施部320におけるデータ列の分類処理の概念を説明するための図である。   FIG. 8 is a diagram illustrating an example of a classification result obtained by the model classification execution unit 320. 9 and 10 are diagrams for explaining the concept of data string classification processing in the model classification execution unit 320. FIG.

モデル分類実施部320は、調査データを構成するデータ列の特徴情報(ルール番号)の数nを次元数としたn次元空間上に、データ列を一つ一つプロットする。図9の例の場合、モデル分類実施部320は、2つの特徴情報である特徴情報AおよびBを変数とした2次元空間上にデータ列をプロットしている。このとき、図9に示すように、モデル分類実施部320は、算出した信頼度が所定値(例えば0.5)である境界線BDを境に2次元空間を2つに分類する。   The model classification execution unit 320 plots the data strings one by one on the n-dimensional space where the number n of feature information (rule numbers) of the data strings constituting the survey data is the number of dimensions. In the case of the example in FIG. 9, the model classification execution unit 320 plots a data string on a two-dimensional space with two pieces of feature information, feature information A and B, as variables. At this time, as shown in FIG. 9, the model classification execution unit 320 classifies the two-dimensional space into two with the boundary line BD having the calculated reliability being a predetermined value (for example, 0.5) as a boundary.

また、図10に示すように、モデル分類実施部320は、境界線BDにある程度の幅を持たせて2次元空間を2つに分類してもよい。モデル分類実施部320は、例えば、所定範囲(例えば0.4〜0.6程度)の信頼度を示す領域を境に2次元空間を2つに分類する。信頼度が0.5程度の場合、検知領域A内部に対象物OBが存在しているかの判断が難しいデータであることを表している。これによって、機械学習装置1は、信頼度が0や1に近いものはその結果になることが明らかなデータ列であり、このようなデータを利用せず、コンピュータの処理において判断が難しいデータ列に対して、検知領域A内部に対象物OBが存在しているかの判定を行うことができる。この結果、機械学習装置1は、信頼度が0.5程度のデータ列、すなわち、判断が難しいデータ列の特徴情報を教師データに取り入れることができる。従って、機械学習装置1は、判断が難しいデータ列の特徴情報を含む教師データに基づいて新しい学習モデルを生成し、新たに生成した学習モデルに従って画像データから対象物OBを検知することにより、対象物OBの検知精度を高めることができる。   As shown in FIG. 10, the model classification execution unit 320 may classify the two-dimensional space into two by giving the boundary line BD a certain width. For example, the model classification execution unit 320 classifies the two-dimensional space into two with respect to an area indicating reliability within a predetermined range (for example, about 0.4 to 0.6). When the reliability is about 0.5, it indicates that it is difficult to determine whether the object OB exists in the detection area A. As a result, the machine learning device 1 is a data string that is clearly the result when the reliability is close to 0 or 1, and does not use such data and is difficult to determine in computer processing. On the other hand, it can be determined whether or not the object OB exists in the detection area A. As a result, the machine learning device 1 can incorporate feature information of a data string having a reliability of about 0.5, that is, a data string that is difficult to determine, into the teacher data. Accordingly, the machine learning device 1 generates a new learning model based on the teacher data including the feature information of the data string that is difficult to determine, and detects the object OB from the image data according to the newly generated learning model. The detection accuracy of the object OB can be increased.

モデル分類実施部320は、分類した空間のうち、信頼度が所定値(所定範囲)よりも大きい空間に属すデータ列を、検知領域A内に所望の対象物OBが存在しているデータとして判定し、信頼度が所定値(所定幅)よりも小さい空間に属すデータ列を、検知領域A内に所望の対象物OBが存在していないデータとして判定する。   The model classification execution unit 320 determines a data string belonging to a space having a reliability higher than a predetermined value (predetermined range) among the classified spaces as data in which a desired object OB exists in the detection area A. Then, a data string belonging to a space whose reliability is smaller than a predetermined value (predetermined width) is determined as data in which a desired object OB does not exist in the detection area A.

モデル分類実施部320は、分類した結果を画像表示部100に出力する。モデル分類実施部320は、例えば、検知領域A内に所望の対象物が存在していると判定した場合、“YES”の分類結果を出力する。また、モデル分類実施部320は、例えば、検知領域A内に所望の対象物が存在していないと判定した場合、“NO”の分類結果を出力する。   The model classification execution unit 320 outputs the classification result to the image display unit 100. For example, if the model classification execution unit 320 determines that a desired object exists in the detection area A, the model classification execution unit 320 outputs a classification result of “YES”. For example, when the model classification execution unit 320 determines that the desired object does not exist in the detection area A, the model classification execution unit 320 outputs a classification result of “NO”.

データ管理部400は、画像データ管理部410と、ルールデータ管理部420と、機械学習データ管理部430とを有する。
画像データ管理部410は、ハードウェアインターフェースを介して接続される記憶装置から画像データを取得して、取得した画像データを画像データ記憶部411に記憶させる。画像データ管理部410は、ルール制御部200や機械学習部300から画像データを取得するための要求を受信した場合、画像データ記憶部411に記憶させた画像データを要求元に出力する。
The data management unit 400 includes an image data management unit 410, a rule data management unit 420, and a machine learning data management unit 430.
The image data management unit 410 acquires image data from a storage device connected via a hardware interface, and stores the acquired image data in the image data storage unit 411. When the image data management unit 410 receives a request for acquiring image data from the rule control unit 200 or the machine learning unit 300, the image data management unit 410 outputs the image data stored in the image data storage unit 411 to the request source.

ルールデータ管理部420は、ルール情報管理部210によって取得されたルール情報をルール情報記憶部421に記憶させる。ルールデータ管理部420は、ルール制御部200や機械学習部300からルール情報を取得するための要求を受信した場合、ルール情報記憶部421に記憶させたルール情報を要求元に出力する。   The rule data management unit 420 causes the rule information storage unit 421 to store the rule information acquired by the rule information management unit 210. When the rule data management unit 420 receives a request for acquiring rule information from the rule control unit 200 or the machine learning unit 300, the rule data management unit 420 outputs the rule information stored in the rule information storage unit 421 to the request source.

機械学習データ管理部430は、教師データ生成部311により生成された教師データを教師データ記憶部431に記憶させる。また、機械学習データ管理部430は、学習モデル生成部313により生成された学習モデルをモデルデータ記憶部432に記憶させる。機械学習データ管理部430は、ルール制御部200や機械学習部300から教師データや学習モデルを取得するための要求を受信した場合、各情報と対応した記憶部から要求されている情報を取得し、取得した情報を要求元に出力する。   The machine learning data management unit 430 causes the teacher data storage unit 431 to store the teacher data generated by the teacher data generation unit 311. Further, the machine learning data management unit 430 stores the learning model generated by the learning model generation unit 313 in the model data storage unit 432. When the machine learning data management unit 430 receives a request for acquiring teacher data or a learning model from the rule control unit 200 or the machine learning unit 300, the machine learning data management unit 430 acquires the requested information from the storage unit corresponding to each information. The acquired information is output to the request source.

上述した画像データ記憶部411、ルール情報記憶部421、教師データ記憶部431、およびモデルデータ記憶部432は、例えば、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等の不揮発性の記憶媒体と、RAM(Random Access Memory)、レジスタ等の揮発性の記憶媒体とを含む。   The image data storage unit 411, the rule information storage unit 421, the teacher data storage unit 431, and the model data storage unit 432 described above are non-volatile such as ROM (Read Only Memory), flash memory, HDD (Hard Disk Drive), and the like. Storage media and volatile storage media such as RAM (Random Access Memory) and registers.

図11は、一実施形態における機械学習装置1の処理の一例を示すフローチャートである。本実施形態における機械学習装置1は、所定周期で本フローチャートの処理を行う。   FIG. 11 is a flowchart illustrating an example of processing of the machine learning device 1 according to an embodiment. The machine learning device 1 in the present embodiment performs the processing of this flowchart at a predetermined cycle.

まず、代表データ取得部231は、データ管理部400により管理される複数の画像データから代表となる画像データをランダムに選択する(ステップS100)。次に、ルール検知実行部220は、代表データ取得部231により取得された画像データに対して、データ管理部400において記憶されているルールに従って、画像データから対象物OB(航空機)を検知する(ステップS102)。   First, the representative data acquisition unit 231 randomly selects representative image data from a plurality of image data managed by the data management unit 400 (step S100). Next, the rule detection execution unit 220 detects the object OB (aircraft) from the image data according to the rules stored in the data management unit 400 for the image data acquired by the representative data acquisition unit 231 ( Step S102).

次に、特徴情報生成部312は、ルール検知実行部220により対象物OBが存在していると判定された検知領域Aから特徴を抽出し、当該特徴を示す特徴情報を生成する(ステップS104)。次に、教師データ生成部311は、ルール検知実行部220に対して検知結果を画像表示部100に出力させた後、ユーザから入力されるユーザの検知判断結果を受け付ける(ステップS106)。   Next, the feature information generation unit 312 extracts features from the detection area A where the rule detection execution unit 220 determines that the object OB exists, and generates feature information indicating the features (step S104). . Next, the teacher data generation unit 311 causes the rule detection execution unit 220 to output a detection result to the image display unit 100, and then receives a user detection determination result input from the user (step S106).

次に、教師データ生成部311は、ユーザの検知判断結果と画像データ上の検知領域Aから抽出される特徴を示す特徴情報とを含む教師データを生成する(ステップS108)。次に、学習モデル生成部313は、教師データ生成部311により生成される教師データに対して、機械学習手法を用いて学習モデルを生成する(ステップS110)。   Next, the teacher data generation unit 311 generates teacher data including the detection determination result of the user and feature information indicating the feature extracted from the detection area A on the image data (step S108). Next, the learning model generation unit 313 generates a learning model for the teacher data generated by the teacher data generation unit 311 using a machine learning method (step S110).

次に、調査データ生成部232は、モデル分類実施部320により分類処理が行われている場合、検知領域A内に所望の対象物OBが存在しているデータ、或いは検知領域A内に所望の対象物OBが存在していないデータに分類されなかったデータ列をn次元空間上から抽出する。すなわち、調査データ生成部232は、モデル分類実施部320により参照される教師データから所定の信頼度を有するデータ列を抽出する(ステップS112)。   Next, when the classification processing is performed by the model classification execution unit 320, the survey data generation unit 232 has data in which the desired object OB exists in the detection area A, or a desired data in the detection area A. A data string that is not classified into data in which the object OB does not exist is extracted from the n-dimensional space. In other words, the survey data generation unit 232 extracts a data string having a predetermined reliability from the teacher data referred to by the model classification execution unit 320 (step S112).

次に、調査データ生成部232は、抽出したデータ列を組み合わせて調査データを生成する(ステップS114)。次に、モデル分類実施部320は、学習モデル生成部313により生成された学習モデルを適用し、調査データ生成部232により生成された調査データを構成するデータ列ごとに検知領域A内に所望の対象物OBが存在しているか否かを判定し、調査データ上において、対象物OBが存在していると判定したデータ列と、対象物OBが存在していないと判定したデータ列との2パターンに分類する(ステップS116)。   Next, the survey data generation unit 232 generates survey data by combining the extracted data strings (step S114). Next, the model classification execution unit 320 applies the learning model generated by the learning model generation unit 313, and sets a desired value in the detection area A for each data string constituting the survey data generated by the survey data generation unit 232. It is determined whether or not the object OB exists, and on the survey data, a data string that is determined as the object OB is present and a data string that is determined as the object OB is not present 2 The patterns are classified (step S116).

次に、ルール検証実行部233は、モデル分類実施部320による学習モデルを適用した分類結果と、調査データを構成するデータ列の特徴情報をユーザにより設定されたルールに適用させた検知結果とを比較し、学習モデルを適用した分類結果とルールを適用した検知結果とが一致するか否かを判定する(ステップS118)。   Next, the rule verification execution unit 233 uses the classification result obtained by applying the learning model by the model classification execution unit 320 and the detection result obtained by applying the feature information of the data string constituting the survey data to the rule set by the user. A comparison is made to determine whether or not the classification result to which the learning model is applied matches the detection result to which the rule is applied (step S118).

ルール検証実行部233は、学習モデルを適用した分類結果とルールを適用した検知結果とが一致しない場合(ステップS118;Yes)、学習モデルを適用した分類結果に対してルールを適用した検知結果を近づけるようにルールを変更する(ステップS120)。ルール検証実行部233は、学習モデルを適用した分類結果とルールを適用した検知結果とが一致する場合(ステップS118;No)、現在ルール情報記憶部421に記憶されているルールを保持する(ステップS122)。これによって、機械学習装置1は、本フローチャートの処理を終了する。   When the classification result to which the learning model is applied and the detection result to which the rule is applied do not match (step S118; Yes), the rule verification execution unit 233 displays the detection result to which the rule is applied to the classification result to which the learning model is applied. The rule is changed so as to approach (step S120). When the classification result applying the learning model matches the detection result applying the rule (Step S118; No), the rule verification execution unit 233 holds the rule currently stored in the rule information storage unit 421 (Step S118). S122). Thereby, the machine learning device 1 ends the processing of this flowchart.

このように、本実施形態によれば、機械学習装置1は、画像データの検知領域から抽出される特徴を示す特徴情報に、ユーザによって設定されるルールを適用して、検知領域内に対象物OBが存在しているか否かを判定し、ユーザの検知判断結果と画像データ上の検知領域Aから抽出される特徴を示す特徴情報とを組み合わせた教師データを生成し、生成した教師データに基づいて、機械学習方式により学習モデルを生成し、生成した学習モデルに従って、ユーザによって設定されるルールを更新することができる。これによって、機械学習装置1は、画像データ全体に点在する対象物OBの検知に対するルールを、機械学習の結果に基づいて、より適切なルールに更新することができる。この結果、機械学習装置1は、検知精度を向上させることができる。   As described above, according to the present embodiment, the machine learning device 1 applies the rule set by the user to the feature information indicating the feature extracted from the detection region of the image data, so that the target object is included in the detection region. It is determined whether or not an OB exists, and teacher data is generated by combining a user's detection determination result and feature information indicating features extracted from the detection area A on the image data, and based on the generated teacher data Thus, a learning model can be generated by a machine learning method, and rules set by the user can be updated according to the generated learning model. Thereby, the machine learning device 1 can update the rule for detection of the object OB scattered in the entire image data to a more appropriate rule based on the result of the machine learning. As a result, the machine learning device 1 can improve detection accuracy.

また、本実施形態によれば、機械学習装置1は、新しい画像データが追加された際にも、追加された画像データに対応したルールの更新が自動で行えるため、ルールの制約条件を画像データごとに設定する負担を軽減させることができる。   Further, according to the present embodiment, the machine learning device 1 can automatically update the rule corresponding to the added image data even when new image data is added. The burden set for each can be reduced.

(その他の実施形態(変形例))
以下、発明のその他の実施例として、様々な事案に対応したルールベースの構成についても、本実施例が利用可能であることを説明する。
機械学習装置1は、例えば、ルール間の優先順位の見直しが必要となる場合については、今回の手法で教師データを作成したのと同様に、優先順位の関係上、適用されなかったルールの特徴についても情報を取得して教師データに格納しておいてもよい。これにより、機械学習装置1は、学習モデルによる判断結果をもとにし、調査データを使って、現状の優先順位に沿ってルールを適用した場合に正しく検知結果を得られるかどうか検証することができる。
(Other Embodiments (Modifications))
Hereinafter, as another embodiment of the invention, it will be described that this embodiment can be used for a rule-based configuration corresponding to various cases.
For example, when it is necessary to review the priority order between rules, the machine learning device 1 has characteristics of rules that have not been applied due to the priority order as in the case of creating teacher data by the current method. Information may also be acquired and stored in teacher data. Thereby, the machine learning device 1 can verify whether or not the detection result can be obtained correctly when the rule is applied according to the current priority order using the survey data based on the determination result by the learning model. it can.

また、機械学習装置1は、ルールの要不要については、ルール検知による精度結果を記憶して判断してもよい。機械学習装置1は、例えば、ルール更新によって精度が上がらない場合、パラメータ調整だけでは限界があり、矛盾するルールを抱えている可能性が想定される。このような場合、機械学習装置1は、矛盾している可能性のある2つのルールの特徴情報について、値を細かく変更した多数のパターンのサンプリングデータを作成することで、学習モデルによる判断を行うことが可能となる。   Further, the machine learning device 1 may determine whether the rule is necessary or not by storing an accuracy result by rule detection. For example, when the accuracy does not increase due to the rule update, the machine learning device 1 is limited only by parameter adjustment, and a possibility of having contradictory rules is assumed. In such a case, the machine learning device 1 makes a determination based on a learning model by creating sampling data of a large number of patterns whose values are finely changed for feature information of two rules that may be contradictory. It becomes possible.

なお、上述の機械学習装置1は内部に、コンピュータシステムを有している。そして、上述した各処理部の動作は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   The machine learning device 1 described above has a computer system inside. The operation of each processing unit described above is stored in a computer-readable recording medium in the form of a program, and the above processing is performed by the computer reading and executing this program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1…機械学習装置、100…画像表示部、110…画像表示制御部、200…ルール制御部、210…ルール情報管理部、220…ルール検知実行部、230…ルール検証部、231…代表データ取得部、232…調査データ生成部、233…ルール検証実行部、300…機械学習部、310…教師データ管理部、311…教師データ生成部、312…特徴情報生成部、313…学習モデル生成部、320…モデル分類実施部、400…データ管理部、410…画像データ管理部、411…画像データ記憶部、420…ルール情報管理部、421…ルール情報記憶部、430…機械学習データ管理部、431…教師データ記憶部、432…モデルデータ記憶部 DESCRIPTION OF SYMBOLS 1 ... Machine learning apparatus, 100 ... Image display part, 110 ... Image display control part, 200 ... Rule control part, 210 ... Rule information management part, 220 ... Rule detection execution part, 230 ... Rule verification part, 231 ... Representative data acquisition , 232 ... Survey data generation unit, 233 ... Rule verification execution unit, 300 ... Machine learning unit, 310 ... Teacher data management unit, 311 ... Teacher data generation unit, 312 ... Feature information generation unit, 313 ... Learning model generation unit, 320 ... Model classification execution unit, 400 ... Data management unit, 410 ... Image data management unit, 411 ... Image data storage unit, 420 ... Rule information management unit, 421 ... Rule information storage unit, 430 ... Machine learning data management unit, 431 ... teacher data storage unit, 432 ... model data storage unit

Claims (7)

画像データの所定領域から抽出される特徴を示す特徴情報に、予め定められたルールを適用して、前記所定領域内に対象物が存在しているか否かを判定する判定部と、
ユーザに前記画像データが示す画像を視認させることにより入力させたユーザ情報を取得する取得部と、
前記特徴情報と、前記取得部により取得されたユーザ情報とを組み合わせた情報を生成する情報生成部と、
前記情報生成部により生成された情報に基づいて、機械学習方式により学習モデルを生成するモデル生成部と、
前記モデル生成部により生成された学習モデルに従って、前記ルールを更新する更新部と、
を備えることを特徴とする機械学習装置。
A determination unit that applies a predetermined rule to feature information indicating a feature extracted from a predetermined region of image data and determines whether or not an object exists in the predetermined region;
An acquisition unit for acquiring user information input by allowing a user to visually recognize an image indicated by the image data;
An information generation unit that generates information that combines the feature information and the user information acquired by the acquisition unit;
A model generation unit that generates a learning model by a machine learning method based on the information generated by the information generation unit;
An update unit for updating the rule according to the learning model generated by the model generation unit;
A machine learning device comprising:
前記情報生成部は、前記特徴情報と、前記取得部により取得されたユーザ情報とを組み合わせた情報を複数生成し、
前記情報生成部により生成された情報に含まれる特徴情報が前記ルールに適合する度合を示す指標を算出する算出部と、
前記情報生成部により生成された複数の情報から、前記算出部により算出された指標が所定範囲内の情報を抽出する抽出部と、をさらに備え、
前記判定部は、前記抽出部により抽出された情報に含まれる特徴情報に対して、前記学習モデルを適用して前記所定領域内に対象物が存在しているか否かを判定し、
前記更新部は、前記抽出部に抽出させた情報に含まれる特徴情報に対して、前記学習モデルを適用させて前記所定領域内に対象物が存在しているか否かを前記判定部に対して判定させたモデル判定結果と、前記ルールを適用させて前記所定領域内に対象物が存在しているか否かを前記判定部に対して判定させたルール判定結果とに基づいて、前記ルールを更新する、
請求項1記載の機械学習装置。
The information generation unit generates a plurality of information that combines the feature information and the user information acquired by the acquisition unit,
A calculation unit that calculates an index indicating the degree to which the feature information included in the information generated by the information generation unit conforms to the rule;
An extraction unit that extracts information within a predetermined range of the index calculated by the calculation unit from the plurality of pieces of information generated by the information generation unit;
The determination unit determines whether or not an object exists in the predetermined region by applying the learning model to feature information included in the information extracted by the extraction unit,
The update unit applies the learning model to the feature information included in the information extracted by the extraction unit, and determines whether or not an object exists in the predetermined area to the determination unit. The rule is updated based on the determined model determination result and the rule determination result in which the determination unit determines whether an object exists in the predetermined region by applying the rule. To
The machine learning device according to claim 1.
前記更新部は、前記モデル判定結果と前記ルール判定結果とが一致しない場合に、前記ルール判定結果を前記前記モデル判定結果に一致させるように前記ルールを更新する、
請求項2記載の機械学習装置。
The update unit updates the rule so that the rule determination result matches the model determination result when the model determination result and the rule determination result do not match.
The machine learning device according to claim 2.
前記所定範囲とは、前記指標が第1の所定値以上の範囲と、前記第1の所定値よりも低い第2の所定値以下の範囲とを除く範囲である、
請求項2または3記載の機械学習装置。
The predetermined range is a range excluding a range where the index is equal to or greater than a first predetermined value and a range equal to or less than a second predetermined value which is lower than the first predetermined value.
The machine learning device according to claim 2 or 3.
前記算出部は、前記情報生成部により生成される情報に複数の特徴情報が含まれる場合、前記複数の特徴情報ごとに指標を算出し、
前記抽出部は、前記複数の特徴情報の数と対応した次元数の空間上に、前記算出部により算出された指標を有する情報をプロットし、前記指標が前記所定範囲内であることを示す空間領域から前記情報を抽出する、
請求項2記載の機械学習装置。
The calculation unit calculates an index for each of the plurality of feature information when the information generated by the information generation unit includes a plurality of feature information,
The extraction unit plots information having an index calculated by the calculation unit on a space having a number of dimensions corresponding to the number of the plurality of feature information, and indicates that the index is within the predetermined range Extracting the information from the region,
The machine learning device according to claim 2.
画像データの所定領域から抽出される特徴を示す特徴情報に、予め定められたルールを適用して、前記所定領域内に対象物が存在しているか否かを判定し、
ユーザに前記画像データが示す画像を視認させることにより選択させたユーザ情報を取得し、
前記特徴情報と、前記取得されたユーザ情報とを組み合わせた情報を生成し、
前記生成された情報に基づいて、機械学習方式により学習モデルを生成し、
前記生成された学習モデルに従って、前記ルールを更新する、
機械学習方法。
Applying a predetermined rule to the feature information indicating the feature extracted from the predetermined area of the image data, it is determined whether or not an object exists in the predetermined area,
Obtaining user information selected by allowing the user to visually recognize the image indicated by the image data;
Generating information that combines the feature information and the acquired user information;
Based on the generated information, a learning model is generated by a machine learning method,
Updating the rules according to the generated learning model;
Machine learning method.
コンピュータに、
画像データの所定領域から抽出される特徴を示す特徴情報に、予め定められたルールを適用して、前記所定領域内に対象物が存在しているか否かを判定させ、
ユーザに前記画像データが示す画像を視認させることにより選択させたユーザ情報を取得させ、
前記特徴情報と、前記取得されたユーザ情報とを組み合わせた情報を生成させ、
前記生成された情報に基づいて、機械学習方式により学習モデルを生成させ、
前記生成された学習モデルに従って、前記ルールを更新させるための、
機械学習プログラム。
On the computer,
Applying a predetermined rule to the feature information indicating the feature extracted from the predetermined region of the image data, it is determined whether or not an object exists in the predetermined region,
Causing the user to obtain user information selected by visually recognizing the image indicated by the image data;
Generating information that combines the feature information and the acquired user information;
Based on the generated information, a learning model is generated by a machine learning method,
In order to update the rule according to the generated learning model,
Machine learning program.
JP2015070586A 2015-03-31 2015-03-31 Machine learning device, machine learning method, and machine learning program Active JP6492880B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015070586A JP6492880B2 (en) 2015-03-31 2015-03-31 Machine learning device, machine learning method, and machine learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015070586A JP6492880B2 (en) 2015-03-31 2015-03-31 Machine learning device, machine learning method, and machine learning program

Publications (2)

Publication Number Publication Date
JP2016192007A true JP2016192007A (en) 2016-11-10
JP6492880B2 JP6492880B2 (en) 2019-04-03

Family

ID=57246847

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015070586A Active JP6492880B2 (en) 2015-03-31 2015-03-31 Machine learning device, machine learning method, and machine learning program

Country Status (1)

Country Link
JP (1) JP6492880B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019176058A1 (en) * 2018-03-15 2019-09-19 日本音響エンジニアリング株式会社 Learning data generation method, learning data generation device and learning data generation program
CN110520876A (en) * 2017-03-29 2019-11-29 新克赛特株式会社 Learning outcome output device and learning outcome output program
WO2020031960A1 (en) * 2018-08-06 2020-02-13 日本電信電話株式会社 Error determination device, error determination method, and program
CN111133492A (en) * 2017-12-19 2020-05-08 日本音响工程株式会社 Device for acquiring actual performance information of aircraft in shipping
WO2020136761A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and program
WO2020179729A1 (en) * 2019-03-04 2020-09-10 Sppテクノロジーズ株式会社 Manufacturing process determination device for substrate processing device, substrate processing system, manufacturing process determination device for substrate processing device, group of learning models, method for generating group of learning models, and program
WO2021144852A1 (en) * 2020-01-14 2021-07-22 日本電信電話株式会社 Data classification device, data classification method, and program
JP7502925B2 (en) 2020-08-05 2024-06-19 前田建設工業株式会社 Safety belt usage monitoring system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222083A (en) * 2001-01-29 2002-08-09 Fujitsu Ltd Device and method for instance storage
US20070201739A1 (en) * 2006-02-27 2007-08-30 Ryo Nakagaki Method and apparatus for reviewing defects
JP2011013720A (en) * 2009-06-30 2011-01-20 Jfe Steel Corp Method and device for creating category determination rule, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002222083A (en) * 2001-01-29 2002-08-09 Fujitsu Ltd Device and method for instance storage
US20070201739A1 (en) * 2006-02-27 2007-08-30 Ryo Nakagaki Method and apparatus for reviewing defects
JP2007225531A (en) * 2006-02-27 2007-09-06 Hitachi High-Technologies Corp Defect observation method and its device
JP2011013720A (en) * 2009-06-30 2011-01-20 Jfe Steel Corp Method and device for creating category determination rule, and computer program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110520876B (en) * 2017-03-29 2024-05-14 新克赛特株式会社 Learning result output device and learning result output program
CN110520876A (en) * 2017-03-29 2019-11-29 新克赛特株式会社 Learning outcome output device and learning outcome output program
US11450217B2 (en) 2017-12-19 2022-09-20 Nihon Onkyo Engineering Co., Ltd. Device for collecting aircraft operation history information
CN111133492B (en) * 2017-12-19 2022-03-25 日本音响工程株式会社 Device for acquiring actual performance information of aircraft in shipping
CN111133492A (en) * 2017-12-19 2020-05-08 日本音响工程株式会社 Device for acquiring actual performance information of aircraft in shipping
JPWO2019176058A1 (en) * 2018-03-15 2021-02-25 日本音響エンジニアリング株式会社 Learning data generation method, learning data generation device and learning data generation program
KR102475554B1 (en) * 2018-03-15 2022-12-08 니혼온쿄엔지니어링 가부시키가이샤 Learning data generation method, learning data generation device, and learning data generation program
CN111902851A (en) * 2018-03-15 2020-11-06 日本音响工程株式会社 Learning data generation method, learning data generation device, and learning data generation program
KR20200130854A (en) * 2018-03-15 2020-11-20 니혼온쿄엔지니어링 가부시키가이샤 Learning data generation method, learning data generation device, and learning data generation program
WO2019176058A1 (en) * 2018-03-15 2019-09-19 日本音響エンジニアリング株式会社 Learning data generation method, learning data generation device and learning data generation program
JP7007459B2 (en) 2018-03-15 2022-01-24 日本音響エンジニアリング株式会社 Learning data generation method, learning data generation device and learning data generation program
JP2020024513A (en) * 2018-08-06 2020-02-13 日本電信電話株式会社 Error determination device, error determination method, and program
JP7143672B2 (en) 2018-08-06 2022-09-29 日本電信電話株式会社 ERROR DETERMINATION DEVICE, ERROR DETERMINATION METHOD, AND PROGRAM
WO2020031960A1 (en) * 2018-08-06 2020-02-13 日本電信電話株式会社 Error determination device, error determination method, and program
JP7151787B2 (en) 2018-12-26 2022-10-12 日本電気株式会社 Information processing device, information processing method, and program
US20220058395A1 (en) * 2018-12-26 2022-02-24 Nec Corporation Information processing apparatus, information processing method, and program
JPWO2020136761A1 (en) * 2018-12-26 2021-11-11 日本電気株式会社 Information processing equipment, information processing methods, and programs
US11763561B2 (en) * 2018-12-26 2023-09-19 Nec Corporation Information processing apparatus, information processing method, and program
WO2020136761A1 (en) * 2018-12-26 2020-07-02 日本電気株式会社 Information processing device, information processing method, and program
WO2020179729A1 (en) * 2019-03-04 2020-09-10 Sppテクノロジーズ株式会社 Manufacturing process determination device for substrate processing device, substrate processing system, manufacturing process determination device for substrate processing device, group of learning models, method for generating group of learning models, and program
JP7504863B2 (en) 2019-03-04 2024-06-24 Sppテクノロジーズ株式会社 Manufacturing process determination device for substrate processing apparatus, substrate processing system, manufacturing process determination method for substrate processing apparatus, learning model group, learning model group generating method and program
JPWO2021144852A1 (en) * 2020-01-14 2021-07-22
WO2021144852A1 (en) * 2020-01-14 2021-07-22 日本電信電話株式会社 Data classification device, data classification method, and program
JP7310933B2 (en) 2020-01-14 2023-07-19 日本電信電話株式会社 Data classification device, data classification method, and program
JP7502925B2 (en) 2020-08-05 2024-06-19 前田建設工業株式会社 Safety belt usage monitoring system

Also Published As

Publication number Publication date
JP6492880B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6492880B2 (en) Machine learning device, machine learning method, and machine learning program
US9886669B2 (en) Interactive visualization of machine-learning performance
JP6629678B2 (en) Machine learning device
JP6708385B2 (en) Discriminator creating device, discriminator creating method, and program
US20210064934A1 (en) Selecting logo images using machine-learning-logo classifiers
US8595233B2 (en) Data processing apparatus, data processing method, program, and integrated circuit
JP6203077B2 (en) Learning device, density measuring device, learning method, learning program, and density measuring system
JP2018173890A (en) Information processing device, information processing method, and program
JP2016004525A (en) Data analysis system and data analysis method
JP2014123341A (en) Information processor, information processing method, program and recording medium
JP6863926B2 (en) Data analysis system and data analysis method
CN112001488A (en) Training generative antagonistic networks
JP6426441B2 (en) Density measuring device, density measuring method, and program
CN111783812B (en) Forbidden image recognition method, forbidden image recognition device and computer readable storage medium
CN110909868A (en) Node representation method and device based on graph neural network model
JP2019045929A (en) Information processing device, information processing method, and program
US11164036B2 (en) Human-assisted machine learning through geometric manipulation and refinement
JP6146209B2 (en) Information processing apparatus, character recognition method, and program
US20230134218A1 (en) Continuous learning for document processing and analysis
JP2017151679A (en) Identification device and identification program
CN110895703A (en) Legal document routing identification method and device
JP5520353B2 (en) BoF expression generation device and BoF expression generation method
CN111783088A (en) Malicious code family clustering method and device and computer equipment
JP6393982B2 (en) Space division method, space division apparatus, and space division program
CN116246161A (en) Method and device for identifying target fine type of remote sensing image under guidance of domain knowledge

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190218

R150 Certificate of patent or registration of utility model

Ref document number: 6492880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150