JP7402082B2 - Information processing method and information processing system - Google Patents

Information processing method and information processing system Download PDF

Info

Publication number
JP7402082B2
JP7402082B2 JP2020033062A JP2020033062A JP7402082B2 JP 7402082 B2 JP7402082 B2 JP 7402082B2 JP 2020033062 A JP2020033062 A JP 2020033062A JP 2020033062 A JP2020033062 A JP 2020033062A JP 7402082 B2 JP7402082 B2 JP 7402082B2
Authority
JP
Japan
Prior art keywords
evaluation data
model
training
inference result
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020033062A
Other languages
Japanese (ja)
Other versions
JP2021018798A (en
Inventor
裕介 塚本
和史 石川
宗太郎 築澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to CN202010635507.XA priority Critical patent/CN112241792A/en
Priority to EP20185041.9A priority patent/EP3767537A1/en
Priority to US16/929,541 priority patent/US11494704B2/en
Publication of JP2021018798A publication Critical patent/JP2021018798A/en
Application granted granted Critical
Publication of JP7402082B2 publication Critical patent/JP7402082B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本開示は、コンピュータに実行させる情報処理方法及び当該情報処理方法を実行する情報処理システムに関する。 The present disclosure relates to an information processing method that is executed by a computer, and an information processing system that executes the information processing method.

高い精度での実現例が報告されているディープラーニングを用いた物体検出技術(例えば非特許文献1参照)は、各種の用途での実用化が見込まれる。 Object detection technology using deep learning, which has been reported to be implemented with high accuracy (see, for example, Non-Patent Document 1), is expected to be put to practical use in various applications.

当該ディープラーニング等の機械学習を利用した物体検出技術における検出異常(誤検出及び未検出を含む)への対策としては、検出異常が発生した検出処理対象のデータを追加した訓練データを用いての機械学習によるモデルの訓練が行われる(特許文献1参照)。 As a countermeasure against detection abnormalities (including false detections and non-detections) in object detection technology using machine learning such as deep learning, it is possible to use training data to which data for detection processing in which detection abnormalities have occurred is added. A model is trained by machine learning (see Patent Document 1).

特開2002-342739号公報Japanese Patent Application Publication No. 2002-342739

Qijie Zhao、外6名、"M2Det: A Single-Shot Object Detector based on Multi-Level Feature Pyramid Network"、2018年11月、[online]、arXiv、[2020年2月26日検索]、インターネット〈URL:https://arxiv.org/abs/1811.04533〉Qijie Zhao, 6 others, "M2Det: A Single-Shot Object Detector based on Multi-Level Feature Pyramid Network", November 2018, [online], arXiv, [searched on February 26, 2020], Internet <URL : https://arxiv.org/abs/1811.04533〉

しかし、追加した訓練データを用いた訓練によっても検出異常が解消されない場合がある。検出異常が解消されるか否か、すなわち訓練限界であるか否かの判断は困難である。 However, the detection abnormality may not be resolved even by training using the added training data. It is difficult to judge whether the detection abnormality is resolved, that is, whether it is at the training limit.

本開示は、機械学習の訓練限界を判断することができる情報処理方法等を提供する。 The present disclosure provides an information processing method and the like that can determine the training limit of machine learning.

本開示の一態様に係る情報処理方法は、コンピュータにより実行される方法であって、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する情報処理方法である。 An information processing method according to an aspect of the present disclosure is a method executed by a computer, which acquires evaluation data, inputs the evaluation data to a first model that performs inference processing, and obtains a first inference result. and, based on the first inference result and the reference information of the evaluation data, perform a first determination to determine whether the first inference result is an error or omission with respect to the evaluation data, and determine whether there is an error or omission in the first inference result. A second model is obtained through first training of machine learning, which is performed by including in training data one or both of the first evaluation data that has been evaluated and data similar to the first evaluation data, and the second model is inputting evaluation data to obtain a second inference result, and performing a second determination of determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and reference information of the evaluation data; one or both of second evaluation data in which the second inference result contained an error or omission that was not present in the first inference result among the evaluation data; and data similar to the second evaluation data. A third model is obtained through second training of machine learning performed by including the above in the training data, the evaluation data is input to the third model to obtain a third inference result, and the third inference result and the evaluation data are A third judgment is performed to determine errors or omissions in the evaluation data in the third inference result based on the reference information of the third inference result, and the error or omission in the third inference result is determined based on the error or omission in the third inference result and in the first inference result. The information processing method outputs information regarding a training limit of the first model when errors or omissions are identified as being the same.

また、本開示の一態様に係る情報処理システムは、推論処理部と、異常判定部と、モデル訓練部と、通知制御部とを備え、前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する。 Further, an information processing system according to an aspect of the present disclosure includes an inference processing unit, an abnormality determination unit, a model training unit, and a notification control unit, and the inference processing unit acquires evaluation data and performs inference processing. The evaluation data is input to a first model that executes to obtain a first inference result, and the abnormality determination unit determines the first inference result based on the first inference result and reference information of the evaluation data. The model training unit executes a first determination to determine errors or omissions in the evaluation data, and the model training unit determines the first evaluation data in which there is an error or omission in the first inference result, and data similar to the first evaluation data. A second model is obtained by first training of machine learning performed by including one or both of the above in the training data, and the inference processing unit further inputs the evaluation data to the second model to obtain a second inference result. and the abnormality determination unit further executes a second determination for determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and reference information of the evaluation data, The model training unit further includes second evaluation data in which the second inference result has an error or omission that was not present in the first inference result among the evaluation data, and data similar to the second evaluation data. A third model is obtained through second training of machine learning performed by including one or both of them in training data, and the inference processing unit further inputs the evaluation data into the third model to obtain a third inference result. , the abnormality determination unit further executes a third determination for determining an error or omission of the third inference result with respect to the evaluation data based on the third inference result and reference information of the evaluation data, and controls the notification control. The unit outputs information regarding a training limit of the first model when it is identified that an error or omission in the third inference result and an error or omission in the first inference result are the same.

なお、包括的又は具体的なこれらの態様は、上記の方法及びシステムの他に、装置、集積回路、又はCD-ROM等のコンピュータ読み取り可能な記録媒体で実現されてもよく、装置、システム、集積回路、方法、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition to the methods and systems described above, these comprehensive or specific aspects may be realized by an apparatus, an integrated circuit, or a computer-readable recording medium such as a CD-ROM, and may be realized by an apparatus, a system, It may be implemented in any combination of integrated circuits, methods, computer programs, and storage media.

本開示に係る情報処理方法等によって、機械学習の訓練限界を判断することができる。 The training limit of machine learning can be determined by the information processing method and the like according to the present disclosure.

図1は、実施の形態に係る情報処理方法を実行する情報処理システムの機能構成例を示すブロック図である。FIG. 1 is a block diagram showing an example of a functional configuration of an information processing system that executes an information processing method according to an embodiment. 図2は、実施の形態に係る情報処理方法における、異常判定の手順例を示すフロー図である。FIG. 2 is a flow diagram illustrating an example of an abnormality determination procedure in the information processing method according to the embodiment. 図3は、実施の形態に係る情報処理方法の手順例を示すフロー図である。FIG. 3 is a flow diagram illustrating a procedure example of the information processing method according to the embodiment.

(本開示の基礎となった知見)
発明者らは、従来の技術では以下の問題が生じることを見出した。
(Findings that formed the basis of this disclosure)
The inventors discovered that the following problems occur with the conventional technology.

例えば物体検出技術は、自動運転等の高い信頼性が要求される用途への適用にあたって、誤検出及び未検出といった検出異常への対策が不可欠である。このような検出異常は、人命に関わる事故の要因となるためである。 For example, when applying object detection technology to applications that require high reliability such as autonomous driving, it is essential to take measures against detection abnormalities such as false detection and non-detection. This is because such a detection abnormality becomes a cause of an accident involving human life.

ディープラーニング等の機械学習の手法を利用した物体検出技術では、検出異常への対策として、機械学習モデルの訓練を、検出異常が発生した検出処理対象のデータを含む訓練データを用いて行うのが一般的である。しかしながら、発生していた検出異常がこの訓練の結果として得たモデルで解消されていても、このモデルでは他の検出異常が発生しないか、つまり、このような訓練によって当該モデルによる物体検出の精度が総合的に向上しているのか限界なのかの判断は、モデルの訓練の担当者の経験則又は直感のようなものに負うところが大きいのが現状である。例えば、さらに精度の高い物体検出モデルを得るために、経験を積んだ担当者であればネットワーク構成の変更を検討するところ、現実には経験の浅い担当者が、訓練データを追加した訓練をさらに行って得るモデルでの結果を見ることを選択するということが起こり得る。このように、作業の担当者の技術レベルによって、機械学習の訓練の限界についての判断にばらつきが生じるという問題が生じている。 In object detection technology that uses machine learning methods such as deep learning, as a countermeasure against detection abnormalities, it is recommended to train the machine learning model using training data that includes the data to be processed for detection where detection abnormalities have occurred. Common. However, even if the detection anomaly that occurred is resolved in the model obtained as a result of this training, it is possible to determine whether other detection anomalies will occur in this model. At present, the judgment as to whether there is a comprehensive improvement or a limit depends largely on the empirical rules or intuition of the person in charge of model training. For example, in order to obtain a more accurate object detection model, an experienced person would consider changing the network configuration, but in reality, an inexperienced person may need to perform further training with additional training data. It may happen that you choose to go and see the results in the model you get. As described above, a problem arises in that judgments about the limits of machine learning training vary depending on the technical level of the person in charge of the work.

このような問題に鑑みて案出された本開示の一態様に係る情報処理方法は、コンピュータにより実行される方法であって、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する情報処理方法である。 An information processing method according to an aspect of the present disclosure devised in view of such problems is a method executed by a computer, which acquires evaluation data and applies the evaluation data to a first model that performs inference processing. Input data and obtain a first inference result, and perform a first determination to determine whether the first inference result is an error or omission with respect to the evaluation data based on the first inference result and reference information of the evaluation data. However, the first training of machine learning performed by including in the training data one or both of the first evaluation data in which there was an error or omission in the first inference result and the data similar to the first evaluation data obtain a model, input the evaluation data into the second model to obtain a second inference result, and based on the second inference result and reference information of the evaluation data, the evaluation data of the second inference result A second determination is performed to determine an error or omission in the second inference result, and the second evaluation data includes an error or omission in the second inference result that was not in the first inference result among the evaluation data, and Obtaining a third model through second training of machine learning performed by including one or both of data similar to the evaluation data in the training data, and inputting the evaluation data into the third model to obtain a third inference result. Based on the third inference result and the reference information of the evaluation data, a third judgment is performed to determine an error or omission in the third inference result with respect to the evaluation data, and an error in the third inference result is determined. Alternatively, the information processing method outputs information regarding the training limit of the first model when the omission and the error or omission in the first inference result are identified as being the same.

これにより、推論モデルの性能の、機械学習の訓練による向上の限界が、推論モデルの作成担当者の技術レベルによらずに判断されるようになる。 This makes it possible to determine the limit of improvement in the performance of an inference model through machine learning training, regardless of the technical level of the person in charge of creating the inference model.

また、前記評価データは画像データであり、前記推論処理は物体検出処理であり、前記第1推論結果、前記第2推論結果及び前記第3推論結果は、それぞれ物体検出結果であってもよい。 Further, the evaluation data may be image data, the inference process may be an object detection process, and each of the first inference result, the second inference result, and the third inference result may be an object detection result.

すなわち、画像データに対する物体検出処理を行う推論モデルの性能の向上の限界を、作成担当者の技術レベルによらず判断することができる。 That is, it is possible to determine the limit of improvement in performance of an inference model that performs object detection processing on image data, regardless of the technical level of the person in charge of creating it.

また、前記物体検出結果は、前記物体検出処理の結果としての物体の検出枠である第1検出枠を含み、前記リファレンス情報は、リファレンスとしての物体の検出枠である第2検出枠を含み、前記誤り又は前記漏れは、前記第1検出枠と前記第2検出枠とに基づいて判定されてもよい。 Further, the object detection result includes a first detection frame that is an object detection frame as a result of the object detection process, and the reference information includes a second detection frame that is an object detection frame as a reference, The error or the omission may be determined based on the first detection frame and the second detection frame.

物体検出の異常はこのようにして判定することができる。 An abnormality in object detection can be determined in this way.

また、前記情報の出力によって、前記訓練限界に到達した可能性の通知が実行され、前記通知は、画像又は音声を介して実行されてもよい。 Further, by outputting the information, notification of the possibility that the training limit has been reached may be performed, and the notification may be performed via an image or sound.

これにより、推論モデルの作成者に、推論モデルの性能向上のために、正常に推論されなかったデータに基づく追加の訓練以外の方法の検討材料が与えられ、作業の効率化に資する。 This provides the creator of the inference model with material for considering methods other than additional training based on data that was not successfully inferred, in order to improve the performance of the inference model, contributing to efficiency of work.

また、本開示の一態様に係る情報処理システムは、推論処理部と、異常判定部と、モデル訓練部と、通知制御部とを備え、前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する。 Further, an information processing system according to an aspect of the present disclosure includes an inference processing unit, an abnormality determination unit, a model training unit, and a notification control unit, and the inference processing unit acquires evaluation data and performs inference processing. The evaluation data is input to a first model that executes to obtain a first inference result, and the abnormality determination unit determines the first inference result based on the first inference result and reference information of the evaluation data. The model training unit executes a first determination to determine errors or omissions in the evaluation data, and the model training unit determines the first evaluation data in which there is an error or omission in the first inference result, and data similar to the first evaluation data. A second model is obtained by first training of machine learning performed by including one or both of the above in the training data, and the inference processing unit further inputs the evaluation data to the second model to obtain a second inference result. and the abnormality determination unit further executes a second determination for determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and reference information of the evaluation data, The model training unit further includes second evaluation data in which the second inference result has an error or omission that was not present in the first inference result among the evaluation data, and data similar to the second evaluation data. A third model is obtained through second training of machine learning performed by including one or both of them in training data, and the inference processing unit further inputs the evaluation data into the third model to obtain a third inference result. , the abnormality determination unit further executes a third determination for determining an error or omission of the third inference result with respect to the evaluation data based on the third inference result and reference information of the evaluation data, and controls the notification control. The unit outputs information regarding a training limit of the first model when it is identified that an error or omission in the third inference result and an error or omission in the first inference result are the same.

これにより、機械学習の訓練による推論モデルの性能の向上の限界が、推論モデルの作成者の技術レベルによらずに判断されるようになる。 As a result, the limit of improvement in the performance of an inference model through machine learning training can be determined regardless of the technical level of the creator of the inference model.

なお、包括的又は具体的なこれらの態様は、上記の方法及びシステムの他に、装置、集積回路、又はCD-ROM等のコンピュータが読み取り可能な記録媒体で実現されてもよく、装置、システム、集積回路、方法、コンピュータプログラム及び記録媒体の任意な組合せで実現されてもよい。 In addition to the above-mentioned methods and systems, these comprehensive or specific aspects may be realized by a device, an integrated circuit, or a computer-readable recording medium such as a CD-ROM. , integrated circuits, methods, computer programs, and recording media may be implemented in any combination.

以下、本開示の一態様に係る情報処理方法及び情報処理システムの実施の形態について、図面を参照しながら説明する。ここで示す実施の形態は、本開示の一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、構成要素、構成要素の配置及び接続形態、並びにステップ(工程)及びステップの順序等は一例であって、本開示を限定するものではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素は任意に付加可能な構成要素である。また、各図は模式図であり、必ずしも厳密に図示されたものではない。 Embodiments of an information processing method and an information processing system according to one aspect of the present disclosure will be described below with reference to the drawings. The embodiment shown here shows one specific example of the present disclosure. Therefore, the numerical values, shapes, components, arrangement and connection forms of the components, steps (processes) and order of steps, etc. shown in the following embodiments are merely examples, and do not limit the present disclosure. Furthermore, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims are constituent elements that can be added arbitrarily. Furthermore, each figure is a schematic diagram and is not necessarily strictly illustrated.

(実施の形態)
実施の形態に係る情報処理方法は、コンピュータに実行させるものであって、機械学習の訓練によって得た推論モデルによる処理結果の異常(漏れ又は誤り)に基づいて、さらなる訓練を実行しても性能の向上の可能性が低いこと、つまりは実質的な限界(以下、訓練限界ともいう)を判定するための方法である。以下ではこの情報処理方法について、画像に対する物体検出を行う推論モデルの訓練限界の判定のために用いるケースを例に説明する。
(Embodiment)
The information processing method according to the embodiment is executed by a computer, and based on an abnormality (omission or error) in the processing result of an inference model obtained through machine learning training, performance remains unchanged even after further training. This is a method for determining that the possibility of improvement is low, that is, the practical limit (hereinafter also referred to as training limit). This information processing method will be explained below using an example case in which it is used to determine the training limit of an inference model that performs object detection in an image.

[1.構成]
図1は、本実施の形態に係る情報処理方法を実行する情報処理システムの機能構成例を示すブロック図である。
[1. composition]
FIG. 1 is a block diagram showing an example of the functional configuration of an information processing system that executes the information processing method according to the present embodiment.

本実施の形態に係る情報処理システム100では、機械学習の訓練を行って推論モデルを生成又は更新し、また、この生成又は更新した推論モデルの評価が行われる。そして情報処理システム100は、この評価の結果に基づいて、訓練による性能の向上の限界であるかの判定がなされる。 In the information processing system 100 according to the present embodiment, machine learning training is performed to generate or update an inference model, and the generated or updated inference model is evaluated. Based on the results of this evaluation, the information processing system 100 determines whether there is a limit to the performance improvement due to training.

情報処理システム100は、各々プロセッサ及びメモリを備える一台以上のコンピュータで構成されてこの情報処理方法を実行するサーバを含む。図1に示す例では、このサーバは機能的な構成要素として検出処理部10、異常判定部20、誤検出識別部30、未検出識別部40、通知制御部50及びモデル訓練部60を備える。 The information processing system 100 includes a server configured of one or more computers each having a processor and a memory and executing this information processing method. In the example shown in FIG. 1, this server includes a detection processing section 10, an abnormality determination section 20, a false detection identification section 30, an undetected identification section 40, a notification control section 50, and a model training section 60 as functional components.

検出処理部10は、機械学習による訓練が既に実行された物体検出モデル(以下、簡略に訓練済みモデルともいう)に、性能評価のための物体検出処理を実行させる。訓練済みモデルの性能評価に用いる評価データ(この例では画像データ)を取得した検出処理部10は、この性能評価に用いる画像に対する前処理を行う。ここでいう前処理とは、物体検出の準備のために行われる処理であり、例えば画像の解像度の調整又は画素値の正規化である。検出処理部10は、評価対象の訓練済みモデルを取得すると、前処理が済んだ各画像をこの訓練済みモデルに入力して、物体検出モデルによる推論処理である物体検出処理の結果(以下、物体検出結果という)を出力させる。物体検出結果とは、具体的には、物体検出モデルが画像で検出した、例えば歩行者、障害物等の物体を囲む検出枠である。取得された検出枠の情報は、検出処理部10から異常判定部20へと出力される。この情報には、例えば、物体検出処理が行われた画像を特定する情報、当該画像における検出枠の範囲(位置及び大きさ)及び確度(尤度とも称する)が含まれる。検出処理部10は、本実施の形態における推論処理部の例であり、検出処理部10が物体検出結果から取得する物体検出結果は、本実施の形態における第1推論結果、第2推論結果及び第3推論結果の例である。 The detection processing unit 10 causes an object detection model that has already been trained by machine learning (hereinafter also simply referred to as a trained model) to perform object detection processing for performance evaluation. The detection processing unit 10 that has acquired evaluation data (image data in this example) used for performance evaluation of the trained model performs preprocessing on the image used for this performance evaluation. The preprocessing referred to here is processing performed in preparation for object detection, such as adjusting the resolution of an image or normalizing pixel values. When the detection processing unit 10 acquires the trained model to be evaluated, it inputs each preprocessed image into the trained model and calculates the result of object detection processing (hereinafter referred to as object detection processing), which is inference processing by the object detection model. (referred to as the detection result) is output. Specifically, the object detection result is a detection frame surrounding an object, such as a pedestrian or an obstacle, detected in an image by the object detection model. The acquired detection frame information is output from the detection processing section 10 to the abnormality determination section 20. This information includes, for example, information specifying the image on which the object detection process has been performed, the range (position and size) and accuracy (also referred to as likelihood) of the detection frame in the image. The detection processing unit 10 is an example of the inference processing unit in the present embodiment, and the object detection results that the detection processing unit 10 acquires from the object detection results are the first inference result, the second inference result, and the second inference result in the present embodiment. This is an example of the third inference result.

異常判定部20は、検出処理部10から入力を受けた検出枠の情報に加えて、この画像における物体検出の正解をリファレンスとして示す検出枠(以下、正解枠ともいう)の情報を取得する。そして異常判定部20は、検出処理部10から入力を受けた検出枠と、正解を示す検出枠とに基づいて、訓練済みモデルによる物体検出結果の異常について判定する。この例での異常には、誤検出(誤り)及び未検出(漏れ)が含まれる。図2は、異常判定部20が行う物体検出結果のこれらの異常についての判定方法の手順例を示すフロー図である。 In addition to the information on the detection frame input from the detection processing unit 10, the abnormality determination unit 20 acquires information on a detection frame (hereinafter also referred to as a correct frame) that indicates the correct answer for object detection in this image as a reference. Then, the abnormality determining unit 20 determines whether the object detection result obtained by the trained model is abnormal based on the detection frame input from the detection processing unit 10 and the detection frame indicating the correct answer. Abnormalities in this example include false detections (errors) and non-detections (omissions). FIG. 2 is a flowchart showing a procedure example of a method for determining these abnormalities in the object detection results performed by the abnormality determining section 20.

異常判定部20は、検出処理部10から入力を受けた情報が示す一の画像について取得された検出枠の確度の降順で異常判定を行う。まず異常判定部20は、異常判定が未実施の検出枠のうち、確度の最も高いものを特定する(ステップS01)。 The abnormality determination unit 20 performs abnormality determination in descending order of accuracy of the detection frames acquired for one image indicated by the information input from the detection processing unit 10. First, the abnormality determination unit 20 identifies the one with the highest accuracy among the detection frames for which abnormality determination has not been performed (step S01).

次に異常判定部20は、ステップS01で特定した検出枠と当該画像の正解枠とのIoU(Intersection over Union)とを算出する(ステップS02)。 Next, the abnormality determination unit 20 calculates IoU (Intersection over Union) between the detection frame identified in step S01 and the correct frame of the image (step S02).

次に異常判定部20は、各検出枠のステップS02で算出した正解枠とのIoUが0.5を超えるか否かを判定する(ステップS03)。正解枠とのIoUが0.5を超える検出枠である場合(ステップS03でYes)、異常判定部20は、この検出枠を正検出によるものと判定し、IoUが0.5を超える正解枠とペアリングする(ステップS04)。正解枠とのIoUが0.5を超えない検出枠である場合(ステップS03でNo)、異常判定部20は、この検出枠を誤検出によるものと判定する(ステップS05)。 Next, the abnormality determining unit 20 determines whether the IoU of each detection frame with the correct frame calculated in step S02 exceeds 0.5 (step S03). If the detection frame has an IoU of more than 0.5 with respect to the correct frame (Yes in step S03), the abnormality determination unit 20 determines that this detection frame is due to correct detection, and uses the correct frame with an IoU of more than 0.5. (Step S04). If the detection frame has an IoU with respect to the correct frame that does not exceed 0.5 (No in step S03), the abnormality determining unit 20 determines that this detection frame is due to erroneous detection (step S05).

次に異常判定部20は、この画像について取得された検出枠にS05までの一連の手順が未実施の検出枠がさらにあるか確認する(ステップS06)。 Next, the abnormality determination unit 20 checks whether there are any further detection frames that have not been subjected to the series of steps up to S05 among the detection frames acquired for this image (step S06).

この手順が未実施の検出枠がある場合(ステップS06でYes)、異常判定部20はステップS01に戻る。 If there is a detection frame for which this procedure has not been performed (Yes in step S06), the abnormality determination unit 20 returns to step S01.

この画像について取得された全ての検出枠についてステップS05までの手順が実施済みである場合(ステップS06でNo)、異常判定部20は、この画像についての正解枠のうちで、ここまでの手順でいずれの検出枠ともステップS04におけるペアリングによるペアが成立していない正解枠の存否を確認する(ステップS07)。 If the steps up to step S05 have been performed for all detection frames acquired for this image (No in step S06), the abnormality determination unit 20 determines which of the correct frames for this image have been It is checked whether there is a correct frame in which no pair is established by pairing in step S04 with any of the detection frames (step S07).

ペアが成立していない正解枠がある場合(ステップS07でYes)、異常判定部20は、この正解枠を未検出によるものと判定し(ステップS08)、一連の手順は終了する。 If there is a correct answer frame in which no pair has been established (Yes in step S07), the abnormality determination unit 20 determines that this correct answer frame is due to undetection (step S08), and the series of procedures ends.

ペアが成立していない正解枠がない、つまり全ての正解枠がいずれの検出枠とペアになっている場合(ステップS07でNo)、この画像に対する物体検出処理の異常についての判定のための一連の手順は終了する。 If there is no correct frame that does not form a pair, that is, all correct frames are paired with any detection frame (No in step S07), a series of steps for determining whether there is an abnormality in object detection processing for this image is performed. The procedure ends.

異常判定部20による判定の結果、つまり各検出枠正誤等に関する情報(以下、誤検出情報ともいう)は誤検出識別部30へ出力され、未検出に関する情報(以下、未検出情報ともいう)は未検出識別部40へ出力される。誤検出情報及び未検出情報については後述する。 The results of the determination by the abnormality determining unit 20, that is, information regarding the correctness of each detection frame (hereinafter also referred to as false detection information), are output to the false detection identifying unit 30, and information regarding non-detection (hereinafter also referred to as undetected information) is output to the false detection identifying unit 30. It is output to the undetected identification section 40. Erroneous detection information and non-detection information will be described later.

なお、上記の手順例は、説明の簡便のために、検出枠が一種類の物体検出対象のみに対して取得されている場合を想定して説明している。検出対象の物体が複数種類ある場合には、ステップS02が同種の物体についての検出枠と正解枠との間で実行されてもよい。この場合、例えば異常判定部20が取得する検出枠の情報及び正解枠の情報それぞれにさらに含まれる、検出された物体の種類に関する情報が利用される。 Note that, for the sake of simplicity, the above procedure example is described assuming that a detection frame is acquired for only one type of object detection target. If there are multiple types of objects to be detected, step S02 may be performed between the detection frame and the correct frame for the same type of object. In this case, for example, information regarding the type of detected object, which is further included in each of the detection frame information and the correct frame information acquired by the abnormality determination unit 20, is used.

また、ステップS03におけるIoUの基準値0.5は一例であり、以下の説明でも例として用いる。この基準値は、例えばひとつの検出枠と複数の正解枠の各々との間で算出されたIoUのうち一つのみが超えるように設定される。しかし、それでも複数のIoUが基準値を超える場合、例えばIoUが最も高い検出枠と正解枠との組み合わせがステップS04でペアリングされてもよい。または、曖昧な検出結果であるとの考えに基づいて、当該検出枠は誤検出によるものと判定してもよい。 Further, the reference value of IoU of 0.5 in step S03 is an example, and will be used as an example in the following description. This reference value is set, for example, so that only one of the IoUs calculated between one detection frame and each of a plurality of correct answer frames exceeds it. However, if a plurality of IoUs still exceed the reference value, for example, a combination of the detection frame and the correct frame with the highest IoU may be paired in step S04. Alternatively, based on the idea that the detection result is ambiguous, it may be determined that the detection frame is due to an erroneous detection.

異常判定部20が検出処理部10から入力を受ける情報が示す検出枠は、本実施の形態における第1検出枠の例である。また、異常判定部20が取得した正解枠の情報は本実施の形態におけるリファレンス情報の例であり、正解枠は第2検出枠の例である。また、異常判定部20が図2に例示する手順に沿って行う判定は、本実施の形態における第1判定、第2判定及び第3判定の例である。 The detection frame indicated by the information that the abnormality determination unit 20 receives from the detection processing unit 10 is an example of the first detection frame in this embodiment. Further, the information on the correct frame acquired by the abnormality determining unit 20 is an example of reference information in this embodiment, and the correct frame is an example of the second detection frame. Further, the determinations that the abnormality determination unit 20 performs in accordance with the procedure illustrated in FIG. 2 are examples of the first determination, the second determination, and the third determination in this embodiment.

誤検出識別部30は、異常判定部20から誤検出情報を取得し、また、この誤検出情報を蓄積する。誤検出情報は、例えば物体検出が実行された画像、検出結果の正誤、及び誤検出と判定された物体検出結果の検出枠(以下、誤検出枠ともいう)等の、発生した誤検出の詳細を示す情報を含む。誤検出識別部30は、異常判定部20から新たに取得した誤検出情報に詳細が示される誤検出が既出の誤検出の再発生であるか否かについて、蓄積してある誤検出情報を用いて判定する。具体例として、誤検出識別部30は、新たに取得した誤検出情報が示す誤検出枠と、性能評価済みのより古い物体検出モデルによる同じ画像に対する物体検出処理で発生した誤検出による誤検出枠とのIoUを算出する。そしてこのIoUが所定の基準値(例えば0.5)を超える場合、誤検出識別部30は、新たに取得した誤検出情報に詳細が示される誤検出は、より古い物体検出モデルで発生した誤検出と同じ誤検出であると識別して、既出の誤検出の再発生であると判定する。また、このIoUが所定の閾値以下である場合、誤検出識別部30は、新たに取得した誤検出情報に詳細が示される誤検出は既出の誤検出ではない(新規の誤検出である)と判定する。そして、この判定の結果に関する情報が、誤検出識別部30から通知制御部50に出力される。判定の結果に関する情報には、判定の結果以外に例えば誤検出が発生した画像を特定する情報が含まれる。この判定の結果に関する情報は、後述のモデル訓練部60に渡されて、次回実行される機械学習の訓練で用いられる訓練データの取得に用いられる。 The false detection identification unit 30 acquires false detection information from the abnormality determination unit 20 and also accumulates this false detection information. The false detection information includes details of the false detection that occurred, such as the image on which object detection was performed, the correctness of the detection result, and the detection frame (hereinafter also referred to as false detection frame) of the object detection result that was determined to be false detection. Contains information indicating. The false detection identification unit 30 uses the accumulated false detection information to determine whether the false detection whose details are shown in the false detection information newly acquired from the abnormality determination unit 20 is a reoccurrence of a previous false detection. Make a judgment. As a specific example, the false detection identification unit 30 distinguishes between a false detection frame indicated by newly acquired false detection information and a false detection frame caused by false detection generated in object detection processing for the same image using an older object detection model whose performance has been evaluated. Calculate the IoU with. If this IoU exceeds a predetermined reference value (for example, 0.5), the false detection identification unit 30 determines that the false detection detailed in the newly acquired false detection information is an error that occurred in an older object detection model. It is identified that this is the same false detection as the previous detection, and it is determined that this is a reoccurrence of the previous false detection. Furthermore, if this IoU is less than or equal to a predetermined threshold, the false detection identification unit 30 determines that the false detection detailed in the newly acquired false detection information is not an existing false detection (it is a new false detection). judge. Then, information regarding the result of this determination is output from the false detection identification section 30 to the notification control section 50. In addition to the determination result, the information regarding the determination result includes, for example, information specifying an image in which an erroneous detection has occurred. Information regarding the result of this determination is passed to the model training unit 60, which will be described later, and is used to obtain training data to be used in the next machine learning training.

未検出識別部40は、異常判定部20から未検出に関する情報を取得し、また、この未検出情報を蓄積する。未検出情報とは、例えば物体検出が実行された画像、及び未検出と判定された正解枠(以下、未検出枠ともいう)等の、発生した未検出の詳細を示す情報を含む。未検出識別部40は、異常判定部20から新たに取得した未検出情報に詳細が示されている未検出が既出の未検出の再発生であるか否かについて、蓄積してある未検出情報を用いて判定する。具体例として、未検出識別部40は、新たに取得した未検出情報が示す未検出枠が、性能評価済みのより古い物体検出モデルによる同じ画像に対する物体検出処理で発生した未検出による未検出枠と同一であるか否か識別する。そしてこれら二つの未検出枠が同一である場合、未検出識別部40は、新たに取得した未検出情報に詳細が示される未検出は、既出の未検出の再発生であると判定する。また、これら二つの未検出枠が同一ではない場合、未検出識別部40は、新たに取得した未検出情報に詳細が示される未検出は既出の未検出ではない(新規の未検出である)と判定する。そして、この判定の結果に関する情報が、未検出識別部40から通知制御部50に出力される。判定の結果に関する情報には、判定の結果以外に例えば新規の未検出が発生した画像を特定する情報が含まれる。この判定の結果に関する情報は、後述のモデル訓練部60に渡されて、次回実行される機械学習の訓練で用いられる訓練データの取得に用いられる。 The undetected identifying unit 40 acquires information regarding undetected from the abnormality determining unit 20, and also accumulates this undetected information. The undetected information includes information indicating details of the undetected items that have occurred, such as images in which object detection has been performed and correct frames that have been determined to be undetected (hereinafter also referred to as undetected frames). The undetected identification unit 40 determines whether the undetected information whose details are newly acquired from the abnormality determination unit 20 is a reoccurrence of the previously reported undetected information. Judgment is made using As a specific example, the undetected identification unit 40 determines that the undetected frame indicated by the newly acquired undetected information is an undetected frame due to undetected objects generated in object detection processing for the same image using an older object detection model whose performance has been evaluated. Identify whether it is the same as or not. If these two undetected frames are the same, the undetected identification unit 40 determines that the undetected item detailed in the newly acquired undetected information is a reoccurrence of the previously reported undetected item. In addition, if these two undetected frames are not the same, the undetected identification unit 40 determines that the undetected whose details are shown in the newly acquired undetected information is not an already detected undetected (it is a new undetected). It is determined that Then, information regarding the result of this determination is output from the undetected identification section 40 to the notification control section 50. In addition to the determination result, the information regarding the determination result includes, for example, information specifying an image in which a new non-detection has occurred. Information regarding the result of this determination is passed to the model training unit 60, which will be described later, and is used to obtain training data to be used in the next machine learning training.

通知制御部50は、誤検出識別部30及び未検出識別部40から入力を受ける判定の結果に関する情報に基づいて背反の発生の有無を判定し、この判定の結果に応じた通知をモデル訓練部60に送る。ここでいう背反とは、機械学習の訓練によっていったん解消した誤検出又は未検出が、その後に別の誤検出又は未検出を解消する訓練を経て取得された訓練済みモデルで再発することである。通知の具体例としては、背反が発生していると判定した場合、通知制御部50は、訓練限界に関する情報として、訓練限界であることを情報処理システム100のユーザ、つまりは物体検出モデルの作成担当者に通知する。訓練限界に関する情報として、発生していると判定された背反に関わる検出結果(検出枠)が出力されてもよい。この通知は、例えば、図1のサーバを構成するコンピュータに接続された表示装置(図示なし)に表示される画像を介して行われる。また、背反が発生していないと判定した場合、通知制御部50は、ユーザに訓練の正常終了を通知してもよい。これらの通知は、図1のサーバを構成するコンピュータに接続されたスピーカ(図示なし)から出力される音声を介して行われてもよい。また、背反は発生していないと判定した場合、通知制御部50は、誤検出識別部30及び未検出識別部40から入力を受けた新規の誤検出に関する情報又は新規の未検出に関する情報をモデル訓練部60に出力する。 The notification control unit 50 determines whether or not a conflict has occurred based on the information regarding the determination results inputted from the false detection identification unit 30 and the non-detection identification unit 40, and sends a notification according to the result of this determination to the model training unit. Send to 60. The trade-off here refers to the fact that false detections or non-detections that were once resolved through machine learning training reoccur in trained models obtained through training to eliminate other false detections or non-detections. As a specific example of the notification, when it is determined that a conflict has occurred, the notification control unit 50 sends information regarding the training limit to the user of the information processing system 100, that is, to the creation of the object detection model. Notify the person in charge. As information regarding the training limit, a detection result (detection frame) related to the conflict determined to have occurred may be output. This notification is performed, for example, via an image displayed on a display device (not shown) connected to a computer that constitutes the server in FIG. Furthermore, if it is determined that no conflict has occurred, the notification control unit 50 may notify the user that the training has ended normally. These notifications may be made via audio output from a speaker (not shown) connected to a computer constituting the server in FIG. Further, when it is determined that no conflict has occurred, the notification control unit 50 models the information regarding new false detections or the information regarding new non-detections input from the false detection identification unit 30 and the non-detection identification unit 40. Output to the training section 60.

モデル訓練部60は、機械学習の訓練を実行して、性能評価の対象となる物体検知モデルを取得する。モデル訓練部60は、通知制御部50から新規の誤検出に関する情報の入力を受けると、この誤検出を解消するための訓練に用いる訓練データを訓練データD20から取得する。誤検出を解消するための訓練に用いる訓練データとは、例えば新規の誤検出に関する情報で特定される、この新規の誤検出が発生した画像のデータである。モデル訓練部60はまた、通知制御部50から新規の未検出に関する情報の入力を受けると、この未検出を解消するための訓練に用いる訓練データを訓練データD20から取得する。未検出を解消するための訓練に用いる訓練データとは、例えば新規の未検出に関する情報で特定される、この新規の未検出が発生した画像のデータである。つまり訓練データD20に加えて、評価データD10由来のデータを機械学習の訓練に。また、誤検出を解消するための訓練に用いる訓練データとして、新規の誤検出が発生した画像に類似の画像のデータが用いられてもよい。同様に、未検出を解消するための訓練に用いる訓練データとして、新規の誤検出が発生した画像に類似する画像のデータが用いられてもよい。類似する画像とは、例えば当該画像と同じ又は近い構図であって、露出又はシャッター速度等の撮影設定を変えて撮影された画像である。類似する画像の別の例としては、当該画像に画像処理を施して、ノイズが付加若しくは低減された画像、及び明るさ、コントラスト、彩度若しくはホワイトバランス等が変更された画像が挙げられる。 The model training unit 60 executes machine learning training to obtain an object detection model to be subjected to performance evaluation. When the model training unit 60 receives information regarding a new false detection from the notification control unit 50, it acquires training data used for training to eliminate this false detection from the training data D20. The training data used for training to eliminate false detections is, for example, data of an image in which a new false detection has occurred, which is specified by information regarding the new false detection. When the model training unit 60 also receives input of information regarding new non-detection from the notification control unit 50, it acquires training data to be used for training to eliminate this non-detection from the training data D20. The training data used for training to eliminate the non-detection is, for example, data of an image in which the new non-detection has occurred, which is specified by information regarding the new non-detection. In other words, in addition to the training data D20, data derived from the evaluation data D10 is used for machine learning training. Moreover, data of an image similar to the image in which a new false detection has occurred may be used as training data used for training to eliminate false detection. Similarly, data of an image similar to the image in which a new false detection has occurred may be used as training data used for training to eliminate non-detection. A similar image is, for example, an image that has the same or similar composition as the image, and is photographed with different photographic settings such as exposure or shutter speed. Other examples of similar images include images in which noise has been added or reduced by performing image processing on the image, and images in which brightness, contrast, saturation, white balance, etc. have been changed.

機械学習の訓練を実行するために、モデル訓練部60は、取得した上記の訓練データと、誤検知又は未検知が発生した訓練済みモデルを得るための訓練に用いた訓練データと合わせたデータセットを用意する。そしてモデル訓練部60は、このデータセットを用いて、所定の構成の物体検出モデルに対する機械学習の訓練を実行する。訓練が完了すると、モデル訓練部60からは新規な訓練済みモデルが出力される。 In order to perform machine learning training, the model training unit 60 generates a dataset combining the acquired training data and the training data used for training to obtain a trained model in which false detection or non-detection occurred. Prepare. Then, the model training unit 60 uses this data set to perform machine learning training on an object detection model with a predetermined configuration. When the training is completed, the model training unit 60 outputs a new trained model.

これらの機能的な構成要素は、サーバを構成するコンピュータで、メモリに保持されるプログラムをプロセッサが実行し、必要に応じてメモリにデータを保存し、又はメモリに保存されたデータを読み出すことで実現される。 These functional components are computers that constitute a server, in which a processor executes a program held in memory, and stores data in memory or reads data stored in memory as necessary. Realized.

なお、図1の例では、情報処理システム100において評価データD10及び訓練データD20はサーバの外部からサーバへと入力されているが、一方又は両方がサーバ内に配置されていてもよい。 In the example of FIG. 1, the evaluation data D10 and the training data D20 are input into the server from outside the server in the information processing system 100, but one or both may be placed inside the server.

[2.動作]
次に、上述した構成の情報処理システム100で実行される情報処理方法について説明する。この情報処理方法によって、機械学習の訓練を経て生成又は更新された推論モデルの性能が評価され、この評価の結果に基づいて、訓練による性能の向上の限界であるか否かが判定される。図3は、この情報処理方法の手順例を示すフロー図である。なお、当該情報処理方法の概要の把握を容易にするために、手順の一部を簡略にしたり、ある想定した状況に沿って全体を説明して、後ほど補足する。図3に例示しているのは、物体検出モデルの精度向上の作業過程において、訓練済みモデルに評価用の画像データを入力して物体検出結果を取得し、この物体検出結果と評価用の画像データのリファレンス情報とに基づく異常判定部20による異常判定(図2参照)の結果が得られたところからの手順である。ここで、図3に示す手順の前に評価データが入力されて物体検出を実行した訓練済みの物体検出モデルは本実施の形態における第1モデルの例、この物体検出モデルが出力した物体検出結果は第1推論結果の例、この物体検出結果に対する異常判定部20による異常判定は第1判定の例である。
[2. motion]
Next, an information processing method executed by the information processing system 100 configured as described above will be described. With this information processing method, the performance of an inference model generated or updated through machine learning training is evaluated, and based on the result of this evaluation, it is determined whether or not there is a limit to the performance improvement due to training. FIG. 3 is a flow diagram showing an example of the procedure of this information processing method. In order to make it easier to understand the outline of the information processing method, some of the procedures will be simplified or the entire procedure will be explained based on a certain assumed situation, and supplementary information will be provided later. What is illustrated in Figure 3 is that in the process of improving the accuracy of the object detection model, image data for evaluation is input to the trained model to obtain object detection results, and this object detection result and the image for evaluation are The procedure starts from the point where the result of the abnormality determination (see FIG. 2) by the abnormality determination unit 20 based on the data reference information is obtained. Here, the trained object detection model that has been input with evaluation data and executed object detection before the procedure shown in FIG. 3 is an example of the first model in this embodiment, and the object detection result output by this object detection model is is an example of the first inference result, and the abnormality determination by the abnormality determination unit 20 with respect to this object detection result is an example of the first determination.

この第1判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報を過去に受け取って蓄積した誤検出情報と照らし合わせて、第1モデルの評価のためにした物体検出処理で、新規の誤検出が発生しているか否かを判定する(ステップS10)。新規の誤検出が発生していない間(ステップS10でNo)、この情報処理方法は次の手順へ進まない。つまり同じと識別される誤検出が再発生している間は、例えばその誤検出の解消を図るための作業が行われる。 Among the results of this first determination, the false detection identification unit 30 receives the false detection information from the abnormality determination unit 20, and compares this false detection information with the false detection information received and accumulated in the past. It is determined whether a new false detection has occurred in the object detection process performed for evaluation (step S10). As long as no new false detection occurs (No in step S10), this information processing method does not proceed to the next step. In other words, while an erroneous detection that is identified as the same occurs again, work is performed to eliminate the erroneous detection, for example.

新規の誤検出が発生している場合(ステップS10でYes)に、この情報処理方法はステップS11へ進む。ステップS11では、この判定の結果に関する情報を誤検出識別部30から通知制御部50を介して受け取ったモデル訓練部60が、機械学習の訓練によって新たな物体検出モデルを取得する。この訓練では、上記の新規の誤検出(この新規の誤検出を指して便宜的に誤検出Aと称する)を発生させた物体検出モデルの訓練に用いた既存の訓練データと、誤検出Aが発生した評価データである画像のデータ及びこの画像に類似する画像のデータとの一方又は両方とが訓練データに用いられる。ステップS11で取得された物体検出モデルを、以下では便宜的にモデルaと称する。ステップS11におけるモデル訓練部60による上記の訓練は、本実施の形態における第1訓練の例であり、モデルaは、本実施の形態における第2モデルの例である。また、評価データとしてモデルaに入力された画像データのうち、検出に誤りがあった画像、つまり誤検出Aが発生した画像のデータは、本実施の形態における第1評価データの例である。 If a new false detection has occurred (Yes in step S10), the information processing method advances to step S11. In step S11, the model training unit 60, which has received information regarding the result of this determination from the false detection identification unit 30 via the notification control unit 50, acquires a new object detection model through machine learning training. In this training, we will use the existing training data used to train the object detection model that caused the above-mentioned new false detection (this new false detection will be referred to as false detection A for convenience) and the false detection A. One or both of image data, which is generated evaluation data, and image data similar to this image is used as training data. The object detection model acquired in step S11 is hereinafter referred to as model a for convenience. The above training by the model training unit 60 in step S11 is an example of the first training in this embodiment, and model a is an example of the second model in this embodiment. Further, among the image data input to the model a as evaluation data, data of an image with a detection error, that is, an image in which erroneous detection A has occurred, is an example of the first evaluation data in this embodiment.

次は検出処理部10が、モデルaに評価データである画像のデータを入力し、この入力に対してモデルaが出力する物体検出結果を取得する(ステップS20)。モデルaが出力する物体検出結果は、本実施の形態における第2推論結果の例である。 Next, the detection processing unit 10 inputs image data, which is evaluation data, to model a, and obtains an object detection result output by model a in response to this input (step S20). The object detection result output by model a is an example of the second inference result in this embodiment.

次は異常判定部20が、ステップS20でモデルaに入力された評価データのリファレンス情報と、その入力に対してモデルaが出力した物体検出結果とに基づいて、図2に手順を例示した異常判定を実行する(ステップS21)。ステップS21でのこの異常判定は、本実施の形態における第2判定の例である。 Next, the abnormality determination unit 20 detects an abnormality, the procedure of which is illustrated in FIG. A determination is made (step S21). This abnormality determination in step S21 is an example of the second determination in this embodiment.

次に、この第2判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報と過去に受け取って蓄積した誤検出情報と照らし合わせて、誤検出Aと同じか否か識別、つまり、誤検出Aが解消しているか否か確認する(ステップS22)。誤検出Aが解消していない場合(ステップS22でNo)、ステップS11からやり直す。この場合のステップS11は、例えば前回のステップS11の実行時とは使用する訓練データ、又はバッチサイズ、イテレーション数又はエポック数等の機械学習の訓練におけるハイパーパラメータを変えて実行されてもよい。 Next, the false detection identification unit 30 that receives the false detection information from the abnormality determination unit 20 among the results of this second determination compares this false detection information with the false detection information received and accumulated in the past. It is determined whether or not it is the same as detection A, that is, it is confirmed whether or not erroneous detection A has been resolved (step S22). If the false detection A has not been resolved (No in step S22), the process starts over from step S11. In this case, step S11 may be executed by changing the training data used or the hyperparameters in machine learning training, such as the batch size, number of iterations, or number of epochs, from the previous execution of step S11, for example.

誤検出Aが解消している場合(ステップS22でYes)、第2判定の結果のうち、未検出情報を異常判定部20から受け取った未検出識別部40は、この未検出情報を過去に受け取って蓄積した未検出情報と照らし合わせて、モデルaの評価のために実行した物体検出処理で新規の未検出が発生しているか否かを判定する(ステップS23)。新規の未検出が発生している場合(ステップS23でYes)、この判定の結果に関する情報が、未検出識別部40から通知制御部50を介してモデル訓練部60に渡される。モデル訓練部60は、機械学習の訓練によってさらに新たな物体検出モデルを取得する(ステップS24)。この訓練では、ステップS11でモデルaの訓練に用いた既存の訓練データと、新規の未検出(この新規の未検出を指して便宜的に未検出Bと称する)が発生した評価データである画像のデータ及びこの画像に類似する画像のデータの一方又は両方とが訓練データに用いられる。ステップS24で取得された物体検出モデルを、以下では便宜的にモデルbと称する。ステップS24におけるモデル訓練部60による上記の訓練は、本実施の形態における第2訓練の例であり、モデルbは、本実施の形態における第3モデルの例である。また、評価データとしてモデルbに入力された画像データのうち、検出に漏れがあった画像、つまり未検出Bが発生した画像のデータは、本実施の形態における第2評価データの例である。 If the false detection A has been resolved (Yes in step S22), the non-detection identification unit 40, which received the non-detection information from the abnormality judgment unit 20, among the results of the second determination, determines whether the non-detection information has been received in the past. It is determined whether or not a new non-detection has occurred in the object detection process executed to evaluate the model a (step S23). If a new non-detection has occurred (Yes in step S23), information regarding the result of this determination is passed from the non-detection identification unit 40 to the model training unit 60 via the notification control unit 50. The model training unit 60 further acquires a new object detection model through machine learning training (step S24). In this training, existing training data used for training model a in step S11 and images that are evaluation data in which new non-detection (this new non-detection is referred to as non-detection B for convenience) have occurred. and/or data of an image similar to this image are used as training data. The object detection model acquired in step S24 is hereinafter referred to as model b for convenience. The above training by the model training unit 60 in step S24 is an example of the second training in this embodiment, and model b is an example of the third model in this embodiment. Further, among the image data input to model b as evaluation data, data of an image in which detection is omitted, that is, an image in which undetected B occurs, is an example of second evaluation data in this embodiment.

次は検出処理部10が、モデルbに評価データである画像のデータを入力して、この入力に対してモデルbが出力する物体検出結果を取得する(ステップS30)。モデルbが出力する物体検出結果は、本実施の形態における第3推論結果の例である。 Next, the detection processing unit 10 inputs image data, which is evaluation data, to model b, and obtains an object detection result output by model b in response to this input (step S30). The object detection result output by model b is an example of the third inference result in this embodiment.

次は異常判定部20が、ステップS30でモデルbに入力された評価データのリファレンス情報と、その入力に対してモデルbが出力した物体検出結果とに基づいて、図2に手順を例示した異常判定を実行する(ステップS31)。ステップS31でのこの異常判定は、本実施の形態における第3判定の例である。 Next, the abnormality determination unit 20 detects an abnormality, the procedure of which is illustrated in FIG. A determination is made (step S31). This abnormality determination in step S31 is an example of the third determination in this embodiment.

次に、この第3判定の結果のうち、未検出情報を異常判定部20から受け取った未検出識別部40は、この未検出情報と過去に受け取って蓄積した未検出情報と照らし合わせて、未検出Bが解消しているか否か確認する(ステップS32)。未検出Bが解消していない場合(ステップS32でNo)、ステップS24からやり直す。この場合のステップS24は、例えば前回のステップS24の実行時とは使用する訓練データ、又はバッチサイズ、イテレーション数又はエポック数等の機械学習の訓練におけるハイパーパラメータを変えて実行されてもよい。 Next, the undetected identifying unit 40 that receives the undetected information from the abnormality determining unit 20 among the results of this third determination compares this undetected information with the undetected information received and accumulated in the past, and compares the undetected information with the undetected information received and accumulated in the past. It is confirmed whether detection B has been resolved (step S32). If undetected B has not been resolved (No in step S32), the process is restarted from step S24. In this case, step S24 may be executed by changing the training data used or hyperparameters in machine learning training such as batch size, number of iterations, or number of epochs from the previous execution of step S24, for example.

未検出Bが解消している場合(ステップS32でYes)、第3判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報に基づいて、誤検出が発生しているか否か判定する(ステップS33)。誤検出が発生している場合(ステップS33でYes)、過去に受け取って蓄積した誤検出情報と照らし合わせて、モデルbで発生したこの誤検出が、いったん解消した誤検出Aの再発生であるか否かさらに判定する(ステップS40)。ステップS40での判定の結果は、通知制御部50に入力される。誤検出Aが再発生している場合(ステップS40でYes)、通知制御部50は、訓練限界に関する情報を出力、例えばこの情報を示す所定のデータを表示装置又はスピーカに出力して、物体検知モデル作成の作業者に通知する(ステップS50)。訓練限界に関する情報は、例えば、訓練限界に到達した可能性を示す。このような通知を受けることで作業者は、取り組んでいた機械学習の訓練によるモデルの性能の向上が限界を迎えたことを知ることができる。 If the non-detection B has been resolved (Yes in step S32), the false detection identification unit 30 that has received the false detection information from the abnormality determination unit 20 among the results of the third determination, based on this false detection information, It is determined whether erroneous detection has occurred (step S33). If a false detection has occurred (Yes in step S33), it is compared with the false detection information received and accumulated in the past, and it is determined that this false detection that occurred in model b is a reoccurrence of the false detection A that was once resolved. It is further determined whether or not (step S40). The result of the determination in step S40 is input to the notification control unit 50. If false detection A has occurred again (Yes in step S40), the notification control unit 50 outputs information regarding the training limit, for example, outputs predetermined data indicating this information to a display device or a speaker, and detects the object. The model creation operator is notified (step S50). Information regarding the training limit indicates, for example, the possibility that the training limit has been reached. By receiving such a notification, the worker can know that the improvement in model performance through machine learning training that they have been working on has reached its limit.

また、図3の例では、誤検出Aが、その後に訓練を経て得られたモデルaで解消しており(ステップS22でYes)、かつ、モデルaでは未検出も発生しない場合(ステップS23でNo)に、背反が発生していないことがユーザに通知される(ステップS51)。同様に、モデルaで発生した未検出Bが、その後に訓練を経て得られたモデルbではいったん解消しており(ステップS32でYes)、かつ、モデルbでは誤検出も発生しない場合(ステップS33でNo)にも、背反が発生していないこと、又は訓練限界未達の旨がユーザに通知される(ステップS51)。 Furthermore, in the example of FIG. 3, if the false detection A is resolved by model a obtained through subsequent training (Yes in step S22), and no non-detection occurs in model a (step S23). If No), the user is notified that no violation has occurred (step S51). Similarly, if undetected B that occurred in model a has been resolved in model b obtained through subsequent training (Yes in step S32), and no false detection occurs in model b (step S33). If the result is No), the user is notified that no violation has occurred or that the training limit has not been reached (step S51).

なお、上記の手順は一例であり、本実施の形態に係る情報処理方法での処理内容はこの例に限定されない。例えば上記の例では、先に発生した誤検出Aをいったん解消させた際に発生した未検出Bを解消すると、すでに解消させていた誤検出Aが再発生するという事象の発生を条件として、訓練限界に到達したと判定されている。訓練限界に到達したと判定する条件としてこのように用い得る事象の内容はこれに限定されず、複数の異常を同時に解消できないという背反の発生であればよい。例えば上記の例における誤検出と未検出とを入れ替え、先に発生した未検出をいったん解消させた際に発生した誤検出を解消すると、すでに解消させていた未検出が再発生するという事象の発生をもって、訓練限界に到達したと判定されてもよい。また、同時に解消できない複数の誤検出の存在という事象、又は同時に解消できない複数の未検出の存在という事象の発生が、訓練限界に到達したと判定する条件である背反の内容であってもよい。 Note that the above procedure is an example, and the processing content of the information processing method according to the present embodiment is not limited to this example. For example, in the above example, training is performed on the condition that an event occurs in which when the undetected B that occurred when the previously occurring false positive A is resolved, the false positive A that has already been resolved will reoccur. It is determined that the limit has been reached. The content of the event that can be used as a condition for determining that the training limit has been reached is not limited to this, and may be any occurrence of a conflict in which multiple abnormalities cannot be resolved at the same time. For example, if you replace the false detection and non-detection in the above example and eliminate the false detection that occurred when the previous non-detection was resolved, an event will occur where the previously resolved non-detection will reoccur. It may be determined that the training limit has been reached. Furthermore, the occurrence of the event of the existence of a plurality of false detections that cannot be resolved at the same time, or the occurrence of the event of the existence of a plurality of undetected items that cannot be resolved at the same time, may be the content of the contradiction that is the condition for determining that the training limit has been reached.

(変形例及びその他の補足事項)
本開示の一又は複数の態様に係る情報処理方法は、上記実施の形態の説明に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が想到する各種の変形を上記の実施の形態に施したものも本開示の態様に含まれる。下記にそのような変形の例、及び実施の形態の説明へのその他の補足事項を挙げる。
(Modifications and other supplementary matters)
The information processing method according to one or more aspects of the present disclosure is not limited to the description of the embodiments above. Various modifications to the above-described embodiments that can be imagined by those skilled in the art are also included in the aspects of the present disclosure, as long as they do not depart from the spirit of the present disclosure. Examples of such modifications and other supplementary matters to the description of the embodiments are listed below.

(1)上記実施の形態の説明では、物体検出モデルが出力した物体検出結果が誤検出であるか否かの評価尺度としてIoUが用いられているが、物体検出結果の評価手法はこれに限定されない。IoU以外に本開示の情報処理方法において利用可能な、検出枠と正解枠とに基づいて取得される評価尺度の例として、Precision(適合率ともいう。誤りの評価に使用)、Recall(再現率ともいう。漏れの評価に使用)及びF値(誤り及び漏れの評価に使用)が挙げられる。 (1) In the description of the above embodiment, IoU is used as an evaluation measure for whether or not the object detection result output by the object detection model is a false detection, but the evaluation method for the object detection result is limited to this. Not done. In addition to IoU, examples of evaluation scales obtained based on the detection frame and the correct frame that can be used in the information processing method of the present disclosure include Precision (also referred to as precision rate, used to evaluate errors), Recall (recall rate), etc. F value (used for evaluating errors and omissions) and F value (used for evaluating errors and omissions).

(2)上記実施の形態の説明における、通知制御部50による、通知のための表示装置又はスピーカで再生するためのデータの出力は、情報処理システム100からの出力の一形態の例であって、他の形態であってもよい。例えば情報処理システム100が備える、又は情報処理システム100の外部の記憶装置(図示なし)で、情報処理システム100での機械学習の訓練に関するログとして保管するためのデータの出力であってもよい。また別の例として、情報処理システム100内又は外部での何らかの情報処理での処理対象のデータ又は参照されるデータとして出力されてもよい。例えば、推論モデルの作成のためのハイパーパラメータを決定する情報処理に用いられてもよい。 (2) In the description of the above embodiment, the notification control unit 50 outputs data to be reproduced on a display device or a speaker for notification, which is an example of one form of output from the information processing system 100. , other forms are also possible. For example, the data may be output to be stored as a log related to machine learning training in the information processing system 100 in a storage device (not shown) provided in the information processing system 100 or external to the information processing system 100. As another example, the data may be output as data to be processed or data to be referenced in some information processing within or outside the information processing system 100. For example, it may be used for information processing to determine hyperparameters for creating an inference model.

(3)上記実施の形態におけるステップS11でモデルa、ステップS24でモデルbを得るための機械学習の訓練は、全訓練データを用いた訓練であって各モデルを一から作成するものであってよい。この場合、第1モデル、第2モデル及び第3モデルは互いに独立したモデルとして取得される。追加した訓練データを用いて既存のモデルに追加的に実行されるものであってもよい。後者について図3の例に沿って具体的に説明すると、ステップS24でモデルbを得るために、モデルaによる物体検出で未検出が発生した画像のデータ及びこの画像に類似する画像のデータの一方又は両方を用いてモデルaに対し追加的な訓練を実行することである。そしてこの場合、第1モデルが更新されたものが第2モデルとして取得され、第2モデルが更新されたものが第3モデルとして取得される。 (3) The machine learning training to obtain model a in step S11 and model b in step S24 in the above embodiment is training using all training data, and each model is created from scratch. good. In this case, the first model, second model, and third model are obtained as mutually independent models. It may be additionally executed on an existing model using additional training data. To explain the latter in detail according to the example of FIG. 3, in order to obtain model b in step S24, one of the data of the image in which non-detection occurred in object detection by model a and the data of an image similar to this image is used. or perform additional training on model a using both. In this case, the updated first model is acquired as the second model, and the updated second model is acquired as the third model.

(4)上記実施の形態では、背反の発生について、あるひとつの異常(未検出又は誤検出)が、いったん解消した後に他のひとつの異常(未検出又は誤検出)を挟んで再発生する例を用いて説明している。しかしながら、この再発生した異常の間に発生する異常は1個に限定されない。例えば、ある所望のモデルを得るために実行される機械学習の訓練、物体検出及び物体検出結果の異常判定を含むサイクルを繰り返す際に、各サイクルで発生した異常の内容に関する情報を蓄積し、各サイクルで異常が発生した場合には各異常と内容を照合する。この照合の結果、最新のサイクルで発生した異常の内容が過去のいずれのサイクルで発生した異常と同一と識別し得る場合も、本開示における背反に含まれ得る。この意味で、本開示における第1推論結果、第2推論結果及び第3推論結果は、上記サイクルの繰り返しの中で時間軸上この順序で取得される任意のものであってよく、連続的に得られるものに限定されない。 (4) In the above embodiment, regarding the occurrence of a conflict, there is an example in which one abnormality (undetected or erroneously detected) is once resolved and then reoccurs with another abnormality (undetected or erroneously detected) in between. It is explained using However, the number of abnormalities that occur during this reoccurring abnormality is not limited to one. For example, when repeating a cycle that includes machine learning training, object detection, and abnormality determination of object detection results to obtain a certain desired model, information about the contents of abnormalities that occur in each cycle is accumulated, and each If an abnormality occurs in the cycle, compare each abnormality with the contents. As a result of this verification, a case where the content of the abnormality that occurred in the latest cycle can be identified as the same as the abnormality that occurred in any past cycle may also be included in the conflict in the present disclosure. In this sense, the first inference result, the second inference result, and the third inference result in the present disclosure may be any one obtained in this order on the time axis during the repetition of the above cycle, and may be obtained continuously. You are not limited to what you can get.

(5)上記実施の形態は、画像データに対する物体検出を行う推論モデルを例に用いて説明しているが、推論モデルによる処理対象は画像データに限定されない。画像データ以外のセンサデータ、具体例として、音声、距離点群、圧力、温度、湿度、におい等のデータでもよいし、センサデータ以外のデータ、例えば言語のデータであってもよい。そして推論モデルは、これらのデータが入力されると、例えば音声認識、話者認識、文体解析等の結果を出力するものであってもよい。 (5) Although the above embodiment has been described using as an example an inference model that performs object detection on image data, the object to be processed by the inference model is not limited to image data. Sensor data other than image data, such as voice, distance point group, pressure, temperature, humidity, odor, etc., may be used as specific examples, or data other than sensor data, such as language data, may be used. The inference model may output, for example, the results of voice recognition, speaker recognition, stylistic analysis, etc., when these data are input.

(6)上述の各情報処理システムが備える機能的な構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)で構成されてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサがこのコンピュータプログラムに従って動作することにより、システムLSIは各構成要素の機能を達成する。 (6) A part or all of the functional components included in each of the above-mentioned information processing systems may be configured by one system LSI (Large Scale Integration). A system LSI is a super-multifunctional LSI manufactured by integrating multiple components on a single chip, and specifically includes a microprocessor, ROM (Read-Only Memory), and RAM (Random Access Memory). It is a computer system that includes the following. A computer program is stored in the ROM. The system LSI achieves the functions of each component by the microprocessor operating according to this computer program.

なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Note that although it is referred to as a system LSI here, it may also be called an IC, LSI, super LSI, or ultra LSI depending on the degree of integration. Moreover, the method of circuit integration is not limited to LSI, and may be implemented using a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connections and settings of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。 Furthermore, if an integrated circuit technology that replaces LSI emerges due to advances in semiconductor technology or other derived technology, the functional blocks may be integrated using that technology. Possibilities include the application of biotechnology.

(7)本開示の一態様は、図2又は図3のフロー図を用いて上述した情報処理方法に限定されず、コンピュータによって実行されるプログラム、及びコンピュータを含む情報処理システムであってもよい。また、本開示の一態様は、そのようなコンピュータプログラムが記録された、コンピュータ読み取り可能な非一時的な記録媒体であってもよい。 (7) One aspect of the present disclosure is not limited to the information processing method described above using the flowchart of FIG. 2 or 3, and may be a program executed by a computer and an information processing system including the computer. . Further, one aspect of the present disclosure may be a computer-readable non-transitory recording medium on which such a computer program is recorded.

本開示に係る情報処理方法等は、機械学習の訓練を通して性能の向上が図られるモデルの開発に利用可能である。 The information processing method and the like according to the present disclosure can be used to develop a model whose performance can be improved through machine learning training.

10 検出処理部
20 異常判定部
30 誤検出識別部
40 未検出識別部
50 通知制御部
60 モデル訓練部
100 情報処理システム
D10 評価データ
D20 訓練データ
10 detection processing unit 20 abnormality determination unit 30 false detection identification unit 40 non-detection identification unit 50 notification control unit 60 model training unit 100 information processing system D10 evaluation data D20 training data

Claims (5)

コンピュータに実行させる情報処理方法であって、
評価データを取得し、
推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、
前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、
前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、
前記第2モデルに前記評価データを入力して第2推論結果を取得し、
前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、
前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、
前記第3モデルに前記評価データを入力して第3推論結果を取得し、
前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、
前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する
情報処理方法。
An information processing method for causing a computer to execute,
Obtain evaluation data,
inputting the evaluation data into a first model that executes inference processing to obtain a first inference result;
Based on the first inference result and reference information of the evaluation data, perform a first determination to determine whether the first inference result is an error or omission in the evaluation data;
A second model is created by first training of machine learning, which is performed by including in training data one or both of the first evaluation data in which there is an error or omission in the first inference result, and data similar to the first evaluation data. Acquired,
inputting the evaluation data into the second model to obtain a second inference result;
Based on the second inference result and reference information of the evaluation data, perform a second determination to determine whether the second inference result is an error or omission in the evaluation data;
Among the evaluation data, one or both of second evaluation data in which the second inference result had an error or omission that was not present in the first inference result and data similar to the second evaluation data are used as training data. A third model is obtained by the second training of machine learning, which is performed by including
inputting the evaluation data into the third model to obtain a third inference result;
Based on the third inference result and reference information of the evaluation data, perform a third determination to determine whether the third inference result is an error or omission in the evaluation data;
If an error or omission in the third inference result and an error or omission in the first inference result are identified as being the same, outputting information regarding a training limit of the first model.
前記評価データは画像データであり、
前記推論処理は物体検出処理であり、
前記第1推論結果、前記第2推論結果及び前記第3推論結果は、それぞれ物体検出結果である
請求項1に記載の情報処理方法。
The evaluation data is image data,
The inference process is an object detection process,
The information processing method according to claim 1, wherein each of the first inference result, the second inference result, and the third inference result is an object detection result.
前記物体検出結果は、前記物体検出処理の結果としての物体の検出枠である第1検出枠を含み、
前記リファレンス情報は、リファレンスとしての物体の検出枠である第2検出枠を含み、
前記誤り又は前記漏れは、前記第1検出枠と前記第2検出枠とに基づいて判定される
請求項2に記載の情報処理方法。
The object detection result includes a first detection frame that is an object detection frame as a result of the object detection process,
The reference information includes a second detection frame that is a detection frame of an object as a reference,
The information processing method according to claim 2, wherein the error or the omission is determined based on the first detection frame and the second detection frame.
前記情報の出力によって、前記訓練限界に到達した可能性の通知が実行され、
前記通知は、画像又は音声を介して実行される
請求項1~3のいずれか一項に記載の情報処理方法。
By outputting the information, a notification of the possibility that the training limit has been reached is executed;
The information processing method according to any one of claims 1 to 3, wherein the notification is performed via image or audio.
推論処理部と、
異常判定部と、
モデル訓練部と、
通知制御部とを備え、
前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、
前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、
前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、
前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、
前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、
前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、
前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、
前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、
前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する
情報処理システム。
An inference processing unit;
An abnormality determination section;
model training department,
and a notification control section,
The inference processing unit obtains evaluation data, inputs the evaluation data into a first model that executes inference processing, and obtains a first inference result;
The abnormality determination unit executes a first determination to determine an error or omission of the first inference result with respect to the evaluation data based on the first inference result and reference information of the evaluation data,
The model training unit performs first machine learning by including in training data one or both of first evaluation data in which there is an error or omission in the first inference result and data similar to the first evaluation data. Obtain a second model by training,
The inference processing unit further inputs the evaluation data into the second model to obtain a second inference result,
The abnormality determination unit further performs a second determination to determine an error or omission of the second inference result with respect to the evaluation data based on the second inference result and reference information of the evaluation data,
The model training unit further includes second evaluation data in which the second inference result has an error or omission that was not present in the first inference result among the evaluation data, and data similar to the second evaluation data. A third model is obtained through second training of machine learning, which is performed by including one or both of the above in the training data,
The inference processing unit further inputs the evaluation data into the third model to obtain a third inference result,
The abnormality determination unit further performs a third determination to determine an error or omission of the third inference result with respect to the evaluation data based on the third inference result and reference information of the evaluation data,
When the error or omission in the third inference result is identified as the same as the error or omission in the first inference result, the notification control unit transmits information regarding the training limit of the first model. Information processing system that outputs.
JP2020033062A 2019-07-19 2020-02-28 Information processing method and information processing system Active JP7402082B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010635507.XA CN112241792A (en) 2019-07-19 2020-07-03 Information processing method and information processing system
EP20185041.9A EP3767537A1 (en) 2019-07-19 2020-07-09 Information processing method and information processing system
US16/929,541 US11494704B2 (en) 2019-07-19 2020-07-15 Information processing method and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962876137P 2019-07-19 2019-07-19
US62/876,137 2019-07-19

Publications (2)

Publication Number Publication Date
JP2021018798A JP2021018798A (en) 2021-02-15
JP7402082B2 true JP7402082B2 (en) 2023-12-20

Family

ID=74566078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020033062A Active JP7402082B2 (en) 2019-07-19 2020-02-28 Information processing method and information processing system

Country Status (1)

Country Link
JP (1) JP7402082B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135649A (en) 2007-11-29 2009-06-18 Mitsubishi Electric Corp Data processing apparatus, data processing method, and program
JP2018005520A (en) 2016-06-30 2018-01-11 クラリオン株式会社 Object detection device and object detection method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009135649A (en) 2007-11-29 2009-06-18 Mitsubishi Electric Corp Data processing apparatus, data processing method, and program
JP2018005520A (en) 2016-06-30 2018-01-11 クラリオン株式会社 Object detection device and object detection method

Also Published As

Publication number Publication date
JP2021018798A (en) 2021-02-15

Similar Documents

Publication Publication Date Title
EP3785603B1 (en) Machine learning-based fundus image detection method, apparatus, and system
US11501428B2 (en) Method, apparatus and system for detecting fundus image based on machine learning
CN109727229B (en) Method and device for detecting false solder
US10235629B2 (en) Sensor data confidence estimation based on statistical analysis
US11189019B2 (en) Method for detecting defects, electronic device, and computer readable medium
CN112116557B (en) Radiographic image weld area defect detection method, storage medium and equipment
CN111914665A (en) Face shielding detection method, device, equipment and storage medium
US11204315B2 (en) Method for controlling optical substance detection device, optical substance detection device and computer-readable storage medium
JP7402082B2 (en) Information processing method and information processing system
KR102132077B1 (en) Facility data fault diagnosis system and method of the same
US11494704B2 (en) Information processing method and information processing system
JPWO2019215746A5 (en)
US11282229B2 (en) Inspection apparatus
US20240005477A1 (en) Index selection device, information processing device, information processing system, inspection device, inspection system, index selection method, and index selection program
CN115861161A (en) Machine learning system, learning data collection method, and storage medium
WO2022164846A1 (en) Medical device troubleshooting using computational models
CN113537407A (en) Image data evaluation processing method and device based on machine learning
JP2019106213A5 (en)
CN108762959B (en) Method, device and equipment for selecting system parameters
Trinks et al. Image mining for real time quality assurance in rapid prototyping
US20230316718A1 (en) Learning model generating method and inspection device
KR102613633B1 (en) Ai model training apparatus and method for reading test results of a diagnostic kit
US11727273B2 (en) System improvement for deep neural networks
JP7257470B2 (en) Defect inspection device, defect inspection method, and prediction model generation method
US20220292371A1 (en) Information processing method, information processing system, and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231208

R150 Certificate of patent or registration of utility model

Ref document number: 7402082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150