JP2021018798A - Information processing method and information processing system - Google Patents

Information processing method and information processing system Download PDF

Info

Publication number
JP2021018798A
JP2021018798A JP2020033062A JP2020033062A JP2021018798A JP 2021018798 A JP2021018798 A JP 2021018798A JP 2020033062 A JP2020033062 A JP 2020033062A JP 2020033062 A JP2020033062 A JP 2020033062A JP 2021018798 A JP2021018798 A JP 2021018798A
Authority
JP
Japan
Prior art keywords
evaluation data
model
inference result
training
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020033062A
Other languages
Japanese (ja)
Other versions
JP7402082B2 (en
Inventor
裕介 塚本
Yusuke Tsukamoto
裕介 塚本
石川 和史
Kazufumi Ishikawa
和史 石川
宗太郎 築澤
Sotaro Tsukizawa
宗太郎 築澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to CN202010635507.XA priority Critical patent/CN112241792A/en
Priority to EP20185041.9A priority patent/EP3767537A1/en
Priority to US16/929,541 priority patent/US11494704B2/en
Publication of JP2021018798A publication Critical patent/JP2021018798A/en
Application granted granted Critical
Publication of JP7402082B2 publication Critical patent/JP7402082B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide an information processing method capable of determining a limit of training of a machine learning model.SOLUTION: An information processing method causing a computer to execute, comprises: inputting acquired evaluation data into a first model to acquire a first inference result; determining abnormality of the first inference result based on the first inference result and reference information of the evaluation data; acquiring a second model by training of machine learning based on the determination result; inputting the evaluation data into the second model to acquire a second inference result; determining abnormality of the second inference result based on the second inference result and the reference information of the evaluation data; acquiring a third model by training of the machine learning based on the determination result; inputting the evaluation data into the third model to acquire a third inference result; determining abnormality of the third inference result based on the third inference result and the reference information of the evaluation data; and, when it is identified that the abnormalities of the third inference result and the first inference result are same, outputting information relating to the training limit of the first model.SELECTED DRAWING: Figure 2

Description

本開示は、コンピュータに実行させる情報処理方法及び当該情報処理方法を実行する情報処理システムに関する。 The present disclosure relates to an information processing method to be executed by a computer and an information processing system to execute the information processing method.

高い精度での実現例が報告されているディープラーニングを用いた物体検出技術(例えば非特許文献1参照)は、各種の用途での実用化が見込まれる。 The object detection technology using deep learning (see, for example, Non-Patent Document 1), for which realization examples with high accuracy have been reported, is expected to be put into practical use in various applications.

当該ディープラーニング等の機械学習を利用した物体検出技術における検出異常(誤検出及び未検出を含む)への対策としては、検出異常が発生した検出処理対象のデータを追加した訓練データを用いての機械学習によるモデルの訓練が行われる(特許文献1参照)。 As a countermeasure against detection abnormalities (including false detection and undetection) in the object detection technology using machine learning such as deep learning, training data to which the data of the detection processing target in which the detection abnormality has occurred is added is used. Model training is performed by machine learning (see Patent Document 1).

特開2002−342739号公報JP-A-2002-342739

Qijie Zhao、外6名、"M2Det: A Single-Shot Object Detector based on Multi-Level Feature Pyramid Network"、2018年11月、[online]、arXiv、[2020年2月26日検索]、インターネット〈URL:https://arxiv.org/abs/1811.04533〉Qijie Zhao, 6 outsiders, "M2Det: A Single-Shot Object Detector based on Multi-Level Feature Pyramid Network", November 2018, [online], arXiv, [Search February 26, 2020], Internet <URL : Https://arxiv.org/abs/1811.04533>

しかし、追加した訓練データを用いた訓練によっても検出異常が解消されない場合がある。検出異常が解消されるか否か、すなわち訓練限界であるか否かの判断は困難である。 However, the detection abnormality may not be resolved even by training using the added training data. It is difficult to judge whether or not the detection abnormality is resolved, that is, whether or not it is the training limit.

本開示は、機械学習の訓練限界を判断することができる情報処理方法等を提供する。 The present disclosure provides an information processing method and the like capable of determining the training limit of machine learning.

本開示の一態様に係る情報処理方法は、コンピュータにより実行される方法であって、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する情報処理方法である。 The information processing method according to one aspect of the present disclosure is a method executed by a computer, and the evaluation data is acquired, the evaluation data is input to the first model for executing the inference processing, and the first inference result is acquired. Then, based on the first inference result and the reference information of the evaluation data, the first determination for determining the error or omission of the first inference result with respect to the evaluation data is executed, and the first inference result is in error or omission. The second model was acquired by the first training of machine learning in which one or both of the first evaluation data and the data similar to the first evaluation data were included in the training data, and the second model was described as described above. The second determination is made by inputting the evaluation data to acquire the second inference result and determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and the reference information of the evaluation data. One or both of the second evaluation data in which the error or omission in the evaluation data that was not in the first inference result was in the second inference result and the data similar to the second evaluation data. The third model is acquired by the second training of machine learning performed by including the above in the training data, the evaluation data is input to the third model to acquire the third inference result, and the third inference result and the evaluation data are obtained. Based on the reference information of the above, the third determination for determining the error or omission of the third inference result with respect to the evaluation data was executed, and the error or omission in the third inference result and the first inference result were found. It is an information processing method that outputs information regarding the training limit of the first model when it is identified that the error or omission is the same.

また、本開示の一態様に係る情報処理システムは、推論処理部と、異常判定部と、モデル訓練部と、通知制御部とを備え、前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する。 Further, the information processing system according to one aspect of the present disclosure includes an inference processing unit, an abnormality determination unit, a model training unit, and a notification control unit, and the inference processing unit acquires evaluation data and performs inference processing. The evaluation data is input to the first model for executing the above, and the first inference result is acquired. The abnormality determination unit of the first inference result is based on the first inference result and the reference information of the evaluation data. The first determination for determining an error or omission in the evaluation data is executed, and the model training unit executes the first evaluation data in which the first inference result has an error or omission, and data similar to the first evaluation data. The second model is acquired by the first training of machine learning in which one or both of the above are included in the training data, and the inference processing unit further inputs the evaluation data into the second model and obtains the second inference result. Upon acquisition, the abnormality determination unit further executes a second determination for determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and the reference information of the evaluation data. The model training unit further includes, among the evaluation data, the second evaluation data in which the error or omission that was not in the first inference result was in the second inference result, and the data similar to the second evaluation data. The third model is acquired by the second training of machine learning in which one or both are included in the training data, and the inference processing unit further inputs the evaluation data into the third model to acquire the third inference result. The abnormality determination unit further executes a third determination to determine an error or omission of the third inference result with respect to the evaluation data based on the third inference result and the reference information of the evaluation data, and performs the notification control. When it is identified that the error or omission in the third inference result and the error or omission in the first inference result are the same, the unit outputs information regarding the training limit of the first model.

なお、包括的又は具体的なこれらの態様は、上記の方法及びシステムの他に、装置、集積回路、又はCD−ROM等のコンピュータ読み取り可能な記録媒体で実現されてもよく、装置、システム、集積回路、方法、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition to the above methods and systems, these comprehensive or specific embodiments may be realized by a device, an integrated circuit, or a computer-readable recording medium such as a CD-ROM. It may be realized by any combination of integrated circuits, methods, computer programs and recording media.

本開示に係る情報処理方法等によって、機械学習の訓練限界を判断することができる。 The training limit of machine learning can be determined by the information processing method or the like according to the present disclosure.

図1は、実施の形態に係る情報処理方法を実行する情報処理システムの機能構成例を示すブロック図である。FIG. 1 is a block diagram showing a functional configuration example of an information processing system that executes the information processing method according to the embodiment. 図2は、実施の形態に係る情報処理方法における、異常判定の手順例を示すフロー図である。FIG. 2 is a flow chart showing an example of an abnormality determination procedure in the information processing method according to the embodiment. 図3は、実施の形態に係る情報処理方法の手順例を示すフロー図である。FIG. 3 is a flow chart showing a procedure example of the information processing method according to the embodiment.

(本開示の基礎となった知見)
発明者らは、従来の技術では以下の問題が生じることを見出した。
(Knowledge on which this disclosure was based)
The inventors have found that the following problems occur in the prior art.

例えば物体検出技術は、自動運転等の高い信頼性が要求される用途への適用にあたって、誤検出及び未検出といった検出異常への対策が不可欠である。このような検出異常は、人命に関わる事故の要因となるためである。 For example, when applying object detection technology to applications that require high reliability such as automatic driving, it is indispensable to take measures against detection abnormalities such as false detection and non-detection. This is because such a detection abnormality causes an accident that may affect human life.

ディープラーニング等の機械学習の手法を利用した物体検出技術では、検出異常への対策として、機械学習モデルの訓練を、検出異常が発生した検出処理対象のデータを含む訓練データを用いて行うのが一般的である。しかしながら、発生していた検出異常がこの訓練の結果として得たモデルで解消されていても、このモデルでは他の検出異常が発生しないか、つまり、このような訓練によって当該モデルによる物体検出の精度が総合的に向上しているのか限界なのかの判断は、モデルの訓練の担当者の経験則又は直感のようなものに負うところが大きいのが現状である。例えば、さらに精度の高い物体検出モデルを得るために、経験を積んだ担当者であればネットワーク構成の変更を検討するところ、現実には経験の浅い担当者が、訓練データを追加した訓練をさらに行って得るモデルでの結果を見ることを選択するということが起こり得る。このように、作業の担当者の技術レベルによって、機械学習の訓練の限界についての判断にばらつきが生じるという問題が生じている。 In object detection technology that uses machine learning methods such as deep learning, as a countermeasure against detection abnormalities, training of machine learning models is performed using training data that includes data of detection processing targets in which detection abnormalities have occurred. It is common. However, even if the detection anomaly that occurred is resolved in the model obtained as a result of this training, does this model cause other detection anomalies, that is, the accuracy of object detection by the model by such training? At present, the judgment as to whether or not the overall improvement is the limit depends largely on the rules of thumb or intuition of the person in charge of model training. For example, in order to obtain a more accurate object detection model, an experienced person may consider changing the network configuration, but in reality, an inexperienced person may further train by adding training data. It can happen that you choose to go and see the results in the model you get. As described above, there is a problem that the judgment about the limit of machine learning training varies depending on the skill level of the person in charge of the work.

このような問題に鑑みて案出された本開示の一態様に係る情報処理方法は、コンピュータにより実行される方法であって、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する情報処理方法である。 The information processing method according to one aspect of the present disclosure, which was devised in view of such a problem, is a method executed by a computer, and the evaluation is performed on a first model that acquires evaluation data and executes inference processing. Data is input to acquire the first inference result, and based on the first inference result and the reference information of the evaluation data, the first determination for determining an error or omission of the first inference result with respect to the evaluation data is executed. Then, by the first training of machine learning performed by including one or both of the first evaluation data in which the first inference result is erroneous or omission and the data similar to the first evaluation data in the training data, the second The model is acquired, the evaluation data is input to the second model, the second inference result is acquired, and the evaluation data of the second inference result is based on the second inference result and the reference information of the evaluation data. A second determination for determining an error or omission is executed, and among the evaluation data, an error or omission that was not in the first inference result is found in the second inference result, and the second evaluation data and the second inference result. The third model is acquired by the second training of machine learning in which one or both of the data similar to the evaluation data is included in the training data, and the evaluation data is input to the third model to acquire the third inference result. Then, based on the third inference result and the reference information of the evaluation data, the third determination for determining the error or omission of the third inference result with respect to the evaluation data is executed, and the error in the third inference result is found. Alternatively, when it is identified that the leak and the error or leak in the first inference result are the same, it is an information processing method that outputs information regarding the training limit of the first model.

これにより、推論モデルの性能の、機械学習の訓練による向上の限界が、推論モデルの作成担当者の技術レベルによらずに判断されるようになる。 As a result, the limit of improvement in the performance of the inference model by training of machine learning can be judged regardless of the skill level of the person in charge of creating the inference model.

また、前記評価データは画像データであり、前記推論処理は物体検出処理であり、前記第1推論結果、前記第2推論結果及び前記第3推論結果は、それぞれ物体検出結果であってもよい。 Further, the evaluation data may be image data, the inference process may be an object detection process, and the first inference result, the second inference result, and the third inference result may be object detection results, respectively.

すなわち、画像データに対する物体検出処理を行う推論モデルの性能の向上の限界を、作成担当者の技術レベルによらず判断することができる。 That is, the limit of improvement in the performance of the inference model that performs the object detection process on the image data can be determined regardless of the technical level of the person in charge of creation.

また、前記物体検出結果は、前記物体検出処理の結果としての物体の検出枠である第1検出枠を含み、前記リファレンス情報は、リファレンスとしての物体の検出枠である第2検出枠を含み、前記誤り又は前記漏れは、前記第1検出枠と前記第2検出枠とに基づいて判定されてもよい。 Further, the object detection result includes a first detection frame which is a detection frame of an object as a result of the object detection process, and the reference information includes a second detection frame which is a detection frame of an object as a reference. The error or the omission may be determined based on the first detection frame and the second detection frame.

物体検出の異常はこのようにして判定することができる。 The abnormality of object detection can be determined in this way.

また、前記情報の出力によって、前記訓練限界に到達した可能性の通知が実行され、前記通知は、画像又は音声を介して実行されてもよい。 Further, the output of the information may be executed to notify the possibility that the training limit has been reached, and the notification may be executed via an image or a voice.

これにより、推論モデルの作成者に、推論モデルの性能向上のために、正常に推論されなかったデータに基づく追加の訓練以外の方法の検討材料が与えられ、作業の効率化に資する。 As a result, the creator of the inference model is given materials for studying methods other than additional training based on data that were not inferred normally in order to improve the performance of the inference model, which contributes to the efficiency of work.

また、本開示の一態様に係る情報処理システムは、推論処理部と、異常判定部と、モデル訓練部と、通知制御部とを備え、前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する。 Further, the information processing system according to one aspect of the present disclosure includes an inference processing unit, an abnormality determination unit, a model training unit, and a notification control unit, and the inference processing unit acquires evaluation data and performs inference processing. The evaluation data is input to the first model for executing the above, and the first inference result is acquired. The abnormality determination unit of the first inference result is based on the first inference result and the reference information of the evaluation data. The first determination for determining an error or omission in the evaluation data is executed, and the model training unit executes the first evaluation data in which the first inference result has an error or omission, and data similar to the first evaluation data. The second model is acquired by the first training of machine learning in which one or both of the above are included in the training data, and the inference processing unit further inputs the evaluation data into the second model and obtains the second inference result. Upon acquisition, the abnormality determination unit further executes a second determination for determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and the reference information of the evaluation data. The model training unit further includes, among the evaluation data, the second evaluation data in which the error or omission that was not in the first inference result was in the second inference result, and the data similar to the second evaluation data. The third model is acquired by the second training of machine learning in which one or both are included in the training data, and the inference processing unit further inputs the evaluation data into the third model to acquire the third inference result. The abnormality determination unit further executes a third determination to determine an error or omission of the third inference result with respect to the evaluation data based on the third inference result and the reference information of the evaluation data, and performs the notification control. When it is identified that the error or omission in the third inference result and the error or omission in the first inference result are the same, the unit outputs information regarding the training limit of the first model.

これにより、機械学習の訓練による推論モデルの性能の向上の限界が、推論モデルの作成者の技術レベルによらずに判断されるようになる。 As a result, the limit of improvement in the performance of the inference model by the training of machine learning can be judged regardless of the skill level of the creator of the inference model.

なお、包括的又は具体的なこれらの態様は、上記の方法及びシステムの他に、装置、集積回路、又はCD−ROM等のコンピュータが読み取り可能な記録媒体で実現されてもよく、装置、システム、集積回路、方法、コンピュータプログラム及び記録媒体の任意な組合せで実現されてもよい。 In addition to the above methods and systems, these comprehensive or specific aspects may be realized by a device, an integrated circuit, or a computer-readable recording medium such as a CD-ROM, and the device, system. , Integrated circuits, methods, computer programs and any combination of recording media.

以下、本開示の一態様に係る情報処理方法及び情報処理システムの実施の形態について、図面を参照しながら説明する。ここで示す実施の形態は、本開示の一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、構成要素、構成要素の配置及び接続形態、並びにステップ(工程)及びステップの順序等は一例であって、本開示を限定するものではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素は任意に付加可能な構成要素である。また、各図は模式図であり、必ずしも厳密に図示されたものではない。 Hereinafter, an information processing method and an embodiment of an information processing system according to one aspect of the present disclosure will be described with reference to the drawings. The embodiments shown here show a specific example of the present disclosure. Therefore, the numerical values, shapes, components, arrangement and connection forms of the components, steps (processes), order of steps, and the like shown in the following embodiments are examples, and do not limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims are components that can be arbitrarily added. Further, each figure is a schematic view and is not necessarily exactly shown.

(実施の形態)
実施の形態に係る情報処理方法は、コンピュータに実行させるものであって、機械学習の訓練によって得た推論モデルによる処理結果の異常(漏れ又は誤り)に基づいて、さらなる訓練を実行しても性能の向上の可能性が低いこと、つまりは実質的な限界(以下、訓練限界ともいう)を判定するための方法である。以下ではこの情報処理方法について、画像に対する物体検出を行う推論モデルの訓練限界の判定のために用いるケースを例に説明する。
(Embodiment)
The information processing method according to the embodiment is to be executed by a computer, and even if further training is executed based on the abnormality (leakage or error) of the processing result by the inference model obtained by the machine learning training, the performance is performed. It is a method for determining that the possibility of improvement is low, that is, a substantial limit (hereinafter, also referred to as a training limit). In the following, this information processing method will be described as an example of a case used for determining the training limit of an inference model that detects an object on an image.

[1.構成]
図1は、本実施の形態に係る情報処理方法を実行する情報処理システムの機能構成例を示すブロック図である。
[1. Constitution]
FIG. 1 is a block diagram showing a functional configuration example of an information processing system that executes the information processing method according to the present embodiment.

本実施の形態に係る情報処理システム100では、機械学習の訓練を行って推論モデルを生成又は更新し、また、この生成又は更新した推論モデルの評価が行われる。そして情報処理システム100は、この評価の結果に基づいて、訓練による性能の向上の限界であるかの判定がなされる。 In the information processing system 100 according to the present embodiment, machine learning training is performed to generate or update an inference model, and the generated or updated inference model is evaluated. Then, based on the result of this evaluation, the information processing system 100 determines whether or not it is the limit of performance improvement by training.

情報処理システム100は、各々プロセッサ及びメモリを備える一台以上のコンピュータで構成されてこの情報処理方法を実行するサーバを含む。図1に示す例では、このサーバは機能的な構成要素として検出処理部10、異常判定部20、誤検出識別部30、未検出識別部40、通知制御部50及びモデル訓練部60を備える。 The information processing system 100 includes a server that is composed of one or more computers, each having a processor and a memory, and executes this information processing method. In the example shown in FIG. 1, this server includes a detection processing unit 10, an abnormality determination unit 20, a false detection identification unit 30, an undetected identification unit 40, a notification control unit 50, and a model training unit 60 as functional components.

検出処理部10は、機械学習による訓練が既に実行された物体検出モデル(以下、簡略に訓練済みモデルともいう)に、性能評価のための物体検出処理を実行させる。訓練済みモデルの性能評価に用いる評価データ(この例では画像データ)を取得した検出処理部10は、この性能評価に用いる画像に対する前処理を行う。ここでいう前処理とは、物体検出の準備のために行われる処理であり、例えば画像の解像度の調整又は画素値の正規化である。検出処理部10は、評価対象の訓練済みモデルを取得すると、前処理が済んだ各画像をこの訓練済みモデルに入力して、物体検出モデルによる推論処理である物体検出処理の結果(以下、物体検出結果という)を出力させる。物体検出結果とは、具体的には、物体検出モデルが画像で検出した、例えば歩行者、障害物等の物体を囲む検出枠である。取得された検出枠の情報は、検出処理部10から異常判定部20へと出力される。この情報には、例えば、物体検出処理が行われた画像を特定する情報、当該画像における検出枠の範囲(位置及び大きさ)及び確度(尤度とも称する)が含まれる。検出処理部10は、本実施の形態における推論処理部の例であり、検出処理部10が物体検出結果から取得する物体検出結果は、本実施の形態における第1推論結果、第2推論結果及び第3推論結果の例である。 The detection processing unit 10 causes an object detection model (hereinafter, also simply referred to as a trained model) that has already been trained by machine learning to execute object detection processing for performance evaluation. The detection processing unit 10 that has acquired the evaluation data (image data in this example) used for the performance evaluation of the trained model performs preprocessing on the image used for the performance evaluation. The pre-processing referred to here is a process performed in preparation for object detection, for example, adjustment of image resolution or normalization of pixel values. When the detection processing unit 10 acquires the trained model to be evaluated, it inputs each preprocessed image into the trained model, and the result of the object detection processing which is the inference processing by the object detection model (hereinafter, the object). Output the detection result). Specifically, the object detection result is a detection frame that surrounds an object such as a pedestrian or an obstacle detected by the object detection model in the image. The acquired detection frame information is output from the detection processing unit 10 to the abnormality determination unit 20. This information includes, for example, information that identifies an image that has undergone object detection processing, a range (position and size) of a detection frame in the image, and an accuracy (also referred to as likelihood). The detection processing unit 10 is an example of the inference processing unit in the present embodiment, and the object detection result acquired by the detection processing unit 10 from the object detection result is the first inference result, the second inference result and the second inference result in the present embodiment. This is an example of the third inference result.

異常判定部20は、検出処理部10から入力を受けた検出枠の情報に加えて、この画像における物体検出の正解をリファレンスとして示す検出枠(以下、正解枠ともいう)の情報を取得する。そして異常判定部20は、検出処理部10から入力を受けた検出枠と、正解を示す検出枠とに基づいて、訓練済みモデルによる物体検出結果の異常について判定する。この例での異常には、誤検出(誤り)及び未検出(漏れ)が含まれる。図2は、異常判定部20が行う物体検出結果のこれらの異常についての判定方法の手順例を示すフロー図である。 The abnormality determination unit 20 acquires the information of the detection frame (hereinafter, also referred to as the correct answer frame) indicating the correct answer of the object detection in this image as a reference, in addition to the information of the detection frame received from the detection processing unit 10. Then, the abnormality determination unit 20 determines the abnormality of the object detection result by the trained model based on the detection frame received from the detection processing unit 10 and the detection frame indicating the correct answer. The anomalies in this example include false detection (error) and undetected (leakage). FIG. 2 is a flow chart showing a procedure example of a determination method for these abnormalities in the object detection result performed by the abnormality determination unit 20.

異常判定部20は、検出処理部10から入力を受けた情報が示す一の画像について取得された検出枠の確度の降順で異常判定を行う。まず異常判定部20は、異常判定が未実施の検出枠のうち、確度の最も高いものを特定する(ステップS01)。 The abnormality determination unit 20 makes an abnormality determination in descending order of the accuracy of the detection frame acquired for one image indicated by the information input from the detection processing unit 10. First, the abnormality determination unit 20 identifies the detection frame having the highest accuracy among the detection frames for which the abnormality determination has not been performed (step S01).

次に異常判定部20は、ステップS01で特定した検出枠と当該画像の正解枠とのIoU(Intersection over Union)とを算出する(ステップS02)。 Next, the abnormality determination unit 20 calculates the IOU (Intersection over Union) between the detection frame specified in step S01 and the correct answer frame of the image (step S02).

次に異常判定部20は、各検出枠のステップS02で算出した正解枠とのIoUが0.5を超えるか否かを判定する(ステップS03)。正解枠とのIoUが0.5を超える検出枠である場合(ステップS03でYes)、異常判定部20は、この検出枠を正検出によるものと判定し、IoUが0.5を超える正解枠とペアリングする(ステップS04)。正解枠とのIoUが0.5を超えない検出枠である場合(ステップS03でNo)、異常判定部20は、この検出枠を誤検出によるものと判定する(ステップS05)。 Next, the abnormality determination unit 20 determines whether or not the IoU with the correct answer frame calculated in step S02 of each detection frame exceeds 0.5 (step S03). When the IoU with the correct answer frame is a detection frame exceeding 0.5 (Yes in step S03), the abnormality determination unit 20 determines that this detection frame is due to the correct detection, and the correct answer frame with the IoU exceeding 0.5. Pair with (step S04). When the IoU with the correct answer frame is a detection frame that does not exceed 0.5 (No in step S03), the abnormality determination unit 20 determines that this detection frame is due to erroneous detection (step S05).

次に異常判定部20は、この画像について取得された検出枠にS05までの一連の手順が未実施の検出枠がさらにあるか確認する(ステップS06)。 Next, the abnormality determination unit 20 confirms whether or not the detection frame acquired for this image includes a detection frame for which the series of procedures up to S05 has not been performed (step S06).

この手順が未実施の検出枠がある場合(ステップS06でYes)、異常判定部20はステップS01に戻る。 If there is a detection frame for which this procedure has not been performed (Yes in step S06), the abnormality determination unit 20 returns to step S01.

この画像について取得された全ての検出枠についてステップS05までの手順が実施済みである場合(ステップS06でNo)、異常判定部20は、この画像についての正解枠のうちで、ここまでの手順でいずれの検出枠ともステップS04におけるペアリングによるペアが成立していない正解枠の存否を確認する(ステップS07)。 When the procedure up to step S05 has been performed for all the detection frames acquired for this image (No in step S06), the abnormality determination unit 20 uses the procedure up to this point in the correct answer frame for this image. It is confirmed in each detection frame whether or not there is a correct answer frame in which the pairing by pairing in step S04 is not established (step S07).

ペアが成立していない正解枠がある場合(ステップS07でYes)、異常判定部20は、この正解枠を未検出によるものと判定し(ステップS08)、一連の手順は終了する。 If there is a correct answer frame in which the pair is not established (Yes in step S07), the abnormality determination unit 20 determines that this correct answer frame is due to undetection (step S08), and the series of procedures ends.

ペアが成立していない正解枠がない、つまり全ての正解枠がいずれの検出枠とペアになっている場合(ステップS07でNo)、この画像に対する物体検出処理の異常についての判定のための一連の手順は終了する。 When there is no correct answer frame for which no pair is established, that is, when all the correct answer frames are paired with any detection frame (No in step S07), a series for determining an abnormality in the object detection process for this image. The procedure of is completed.

異常判定部20による判定の結果、つまり各検出枠正誤等に関する情報(以下、誤検出情報ともいう)は誤検出識別部30へ出力され、未検出に関する情報(以下、未検出情報ともいう)は未検出識別部40へ出力される。誤検出情報及び未検出情報については後述する。 The result of the determination by the abnormality determination unit 20, that is, the information regarding the correctness of each detection frame (hereinafter, also referred to as false detection information) is output to the false detection identification unit 30, and the information regarding undetection (hereinafter, also referred to as undetected information) is output. It is output to the undetected identification unit 40. False detection information and undetected information will be described later.

なお、上記の手順例は、説明の簡便のために、検出枠が一種類の物体検出対象のみに対して取得されている場合を想定して説明している。検出対象の物体が複数種類ある場合には、ステップS02が同種の物体についての検出枠と正解枠との間で実行されてもよい。この場合、例えば異常判定部20が取得する検出枠の情報及び正解枠の情報それぞれにさらに含まれる、検出された物体の種類に関する情報が利用される。 For the sake of simplicity, the above procedure example is described on the assumption that the detection frame is acquired for only one type of object detection target. When there are a plurality of types of objects to be detected, step S02 may be executed between the detection frame and the correct answer frame for the same type of objects. In this case, for example, information regarding the type of the detected object, which is further included in the information of the detection frame and the information of the correct answer frame acquired by the abnormality determination unit 20, is used.

また、ステップS03におけるIoUの基準値0.5は一例であり、以下の説明でも例として用いる。この基準値は、例えばひとつの検出枠と複数の正解枠の各々との間で算出されたIoUのうち一つのみが超えるように設定される。しかし、それでも複数のIoUが基準値を超える場合、例えばIoUが最も高い検出枠と正解枠との組み合わせがステップS04でペアリングされてもよい。または、曖昧な検出結果であるとの考えに基づいて、当該検出枠は誤検出によるものと判定してもよい。 Further, the reference value 0.5 of IoU in step S03 is an example, and will be used as an example in the following description. This reference value is set so that, for example, only one of the IoUs calculated between one detection frame and each of the plurality of correct answer frames exceeds. However, if a plurality of IoUs still exceed the reference value, for example, the combination of the detection frame having the highest IoU and the correct answer frame may be paired in step S04. Alternatively, based on the idea that the detection result is ambiguous, the detection frame may be determined to be due to erroneous detection.

異常判定部20が検出処理部10から入力を受ける情報が示す検出枠は、本実施の形態における第1検出枠の例である。また、異常判定部20が取得した正解枠の情報は本実施の形態におけるリファレンス情報の例であり、正解枠は第2検出枠の例である。また、異常判定部20が図2に例示する手順に沿って行う判定は、本実施の形態における第1判定、第2判定及び第3判定の例である。 The detection frame indicated by the information in which the abnormality determination unit 20 receives the input from the detection processing unit 10 is an example of the first detection frame in the present embodiment. Further, the information of the correct answer frame acquired by the abnormality determination unit 20 is an example of the reference information in the present embodiment, and the correct answer frame is an example of the second detection frame. Further, the determination performed by the abnormality determination unit 20 according to the procedure illustrated in FIG. 2 is an example of the first determination, the second determination, and the third determination in the present embodiment.

誤検出識別部30は、異常判定部20から誤検出情報を取得し、また、この誤検出情報を蓄積する。誤検出情報は、例えば物体検出が実行された画像、検出結果の正誤、及び誤検出と判定された物体検出結果の検出枠(以下、誤検出枠ともいう)等の、発生した誤検出の詳細を示す情報を含む。誤検出識別部30は、異常判定部20から新たに取得した誤検出情報に詳細が示される誤検出が既出の誤検出の再発生であるか否かについて、蓄積してある誤検出情報を用いて判定する。具体例として、誤検出識別部30は、新たに取得した誤検出情報が示す誤検出枠と、性能評価済みのより古い物体検出モデルによる同じ画像に対する物体検出処理で発生した誤検出による誤検出枠とのIoUを算出する。そしてこのIoUが所定の基準値(例えば0.5)を超える場合、誤検出識別部30は、新たに取得した誤検出情報に詳細が示される誤検出は、より古い物体検出モデルで発生した誤検出と同じ誤検出であると識別して、既出の誤検出の再発生であると判定する。また、このIoUが所定の閾値以下である場合、誤検出識別部30は、新たに取得した誤検出情報に詳細が示される誤検出は既出の誤検出ではない(新規の誤検出である)と判定する。そして、この判定の結果に関する情報が、誤検出識別部30から通知制御部50に出力される。判定の結果に関する情報には、判定の結果以外に例えば誤検出が発生した画像を特定する情報が含まれる。この判定の結果に関する情報は、後述のモデル訓練部60に渡されて、次回実行される機械学習の訓練で用いられる訓練データの取得に用いられる。 The erroneous detection identification unit 30 acquires erroneous detection information from the abnormality determination unit 20 and accumulates the erroneous detection information. The false detection information is the details of the false detection that has occurred, such as the image in which the object detection is executed, the correctness of the detection result, and the detection frame of the object detection result determined to be false detection (hereinafter, also referred to as false detection frame). Contains information indicating. The erroneous detection identification unit 30 uses the accumulated erroneous detection information as to whether or not the erroneous detection whose details are shown in the erroneous detection information newly acquired from the abnormality determination unit 20 is a reoccurrence of the erroneous detection already described. To judge. As a specific example, the false detection identification unit 30 has a false detection frame indicated by newly acquired false detection information and a false detection frame due to false detection generated in the object detection process for the same image by an older object detection model whose performance has been evaluated. And IoU is calculated. When the IoU exceeds a predetermined reference value (for example, 0.5), the false detection identification unit 30 indicates that the false detection in which the details are shown in the newly acquired false detection information is a false detection that occurred in an older object detection model. It is determined that the false detection is the same as the detection, and it is determined that the false detection has already occurred. Further, when the IoU is equal to or less than a predetermined threshold value, the false positive identification unit 30 states that the false positive whose details are shown in the newly acquired false positive information is not the existing false positive (a new false positive). judge. Then, the information regarding the result of this determination is output from the erroneous detection identification unit 30 to the notification control unit 50. The information regarding the determination result includes, for example, information for identifying an image in which an erroneous detection has occurred, in addition to the determination result. The information regarding the result of this determination is passed to the model training unit 60, which will be described later, and is used for acquiring training data to be used in the next machine learning training to be executed.

未検出識別部40は、異常判定部20から未検出に関する情報を取得し、また、この未検出情報を蓄積する。未検出情報とは、例えば物体検出が実行された画像、及び未検出と判定された正解枠(以下、未検出枠ともいう)等の、発生した未検出の詳細を示す情報を含む。未検出識別部40は、異常判定部20から新たに取得した未検出情報に詳細が示されている未検出が既出の未検出の再発生であるか否かについて、蓄積してある未検出情報を用いて判定する。具体例として、未検出識別部40は、新たに取得した未検出情報が示す未検出枠が、性能評価済みのより古い物体検出モデルによる同じ画像に対する物体検出処理で発生した未検出による未検出枠と同一であるか否か識別する。そしてこれら二つの未検出枠が同一である場合、未検出識別部40は、新たに取得した未検出情報に詳細が示される未検出は、既出の未検出の再発生であると判定する。また、これら二つの未検出枠が同一ではない場合、未検出識別部40は、新たに取得した未検出情報に詳細が示される未検出は既出の未検出ではない(新規の未検出である)と判定する。そして、この判定の結果に関する情報が、未検出識別部40から通知制御部50に出力される。判定の結果に関する情報には、判定の結果以外に例えば新規の未検出が発生した画像を特定する情報が含まれる。この判定の結果に関する情報は、後述のモデル訓練部60に渡されて、次回実行される機械学習の訓練で用いられる訓練データの取得に用いられる。 The undetected identification unit 40 acquires information on the undetected from the abnormality determination unit 20, and also accumulates the undetected information. The undetected information includes information indicating the details of the undetected occurrence, such as an image in which object detection has been executed and a correct answer frame determined to be undetected (hereinafter, also referred to as an undetected frame). The undetected identification unit 40 has accumulated undetected information as to whether or not the undetected information whose details are shown in the undetected information newly acquired from the abnormality determination unit 20 is an existing undetected reoccurrence. Judgment is made using. As a specific example, in the undetected identification unit 40, the undetected frame indicated by the newly acquired undetected information is the undetected frame due to the undetected generated in the object detection process for the same image by the older object detection model whose performance has been evaluated. Identify whether it is the same as. When these two undetected frames are the same, the undetected identification unit 40 determines that the undetected details shown in the newly acquired undetected information is the reoccurrence of the previously undetected. Further, when these two undetected frames are not the same, the undetected identification unit 40 indicates that the undetected information whose details are shown in the newly acquired undetected information is not already undetected (new undetected). Is determined. Then, the information regarding the result of this determination is output from the undetected identification unit 40 to the notification control unit 50. The information regarding the determination result includes, for example, information for identifying an image in which a new undetected image has occurred, in addition to the determination result. The information regarding the result of this determination is passed to the model training unit 60, which will be described later, and is used for acquiring training data to be used in the next machine learning training to be executed.

通知制御部50は、誤検出識別部30及び未検出識別部40から入力を受ける判定の結果に関する情報に基づいて背反の発生の有無を判定し、この判定の結果に応じた通知をモデル訓練部60に送る。ここでいう背反とは、機械学習の訓練によっていったん解消した誤検出又は未検出が、その後に別の誤検出又は未検出を解消する訓練を経て取得された訓練済みモデルで再発することである。通知の具体例としては、背反が発生していると判定した場合、通知制御部50は、訓練限界に関する情報として、訓練限界であることを情報処理システム100のユーザ、つまりは物体検出モデルの作成担当者に通知する。訓練限界に関する情報として、発生していると判定された背反に関わる検出結果(検出枠)が出力されてもよい。この通知は、例えば、図1のサーバを構成するコンピュータに接続された表示装置(図示なし)に表示される画像を介して行われる。また、背反が発生していないと判定した場合、通知制御部50は、ユーザに訓練の正常終了を通知してもよい。これらの通知は、図1のサーバを構成するコンピュータに接続されたスピーカ(図示なし)から出力される音声を介して行われてもよい。また、背反は発生していないと判定した場合、通知制御部50は、誤検出識別部30及び未検出識別部40から入力を受けた新規の誤検出に関する情報又は新規の未検出に関する情報をモデル訓練部60に出力する。 The notification control unit 50 determines whether or not a conflict has occurred based on the information regarding the result of the determination of receiving the input from the false detection identification unit 30 and the undetected identification unit 40, and the model training unit issues a notification according to the result of this determination. Send to 60. The contradictory here means that a false positive or undetected once resolved by machine learning training reoccurs in a trained model acquired after training to resolve another false positive or undetected. As a specific example of the notification, when it is determined that a conflict has occurred, the notification control unit 50 creates a user of the information processing system 100, that is, an object detection model, as information regarding the training limit that the training limit is reached. Notify the person in charge. As information on the training limit, the detection result (detection frame) related to the contradictory determined to have occurred may be output. This notification is made, for example, via an image displayed on a display device (not shown) connected to the computer constituting the server of FIG. 1. Further, when it is determined that no conflict has occurred, the notification control unit 50 may notify the user of the normal end of the training. These notifications may be made via voice output from a speaker (not shown) connected to the computer constituting the server of FIG. 1. When it is determined that no conflict has occurred, the notification control unit 50 models the information regarding the new false detection or the information regarding the new undetection received from the false detection identification unit 30 and the undetected identification unit 40. Output to the training unit 60.

モデル訓練部60は、機械学習の訓練を実行して、性能評価の対象となる物体検知モデルを取得する。モデル訓練部60は、通知制御部50から新規の誤検出に関する情報の入力を受けると、この誤検出を解消するための訓練に用いる訓練データを訓練データD20から取得する。誤検出を解消するための訓練に用いる訓練データとは、例えば新規の誤検出に関する情報で特定される、この新規の誤検出が発生した画像のデータである。モデル訓練部60はまた、通知制御部50から新規の未検出に関する情報の入力を受けると、この未検出を解消するための訓練に用いる訓練データを訓練データD20から取得する。未検出を解消するための訓練に用いる訓練データとは、例えば新規の未検出に関する情報で特定される、この新規の未検出が発生した画像のデータである。つまり訓練データD20に加えて、評価データD10由来のデータを機械学習の訓練に。また、誤検出を解消するための訓練に用いる訓練データとして、新規の誤検出が発生した画像に類似の画像のデータが用いられてもよい。同様に、未検出を解消するための訓練に用いる訓練データとして、新規の誤検出が発生した画像に類似する画像のデータが用いられてもよい。類似する画像とは、例えば当該画像と同じ又は近い構図であって、露出又はシャッター速度等の撮影設定を変えて撮影された画像である。類似する画像の別の例としては、当該画像に画像処理を施して、ノイズが付加若しくは低減された画像、及び明るさ、コントラスト、彩度若しくはホワイトバランス等が変更された画像が挙げられる。 The model training unit 60 executes machine learning training to acquire an object detection model to be evaluated for performance. When the model training unit 60 receives input of information regarding a new false detection from the notification control unit 50, the model training unit 60 acquires training data used for training for eliminating the false detection from the training data D20. The training data used for the training for eliminating the false detection is, for example, the data of the image in which the new false detection occurs, which is specified by the information regarding the new false detection. When the model training unit 60 receives input of new information regarding undetection from the notification control unit 50, the model training unit 60 also acquires training data used for training for resolving the undetection from the training data D20. The training data used for the training for eliminating the undetected is, for example, the data of the image in which the new undetected occurs, which is specified by the information about the new undetected. That is, in addition to the training data D20, the data derived from the evaluation data D10 is used for machine learning training. Further, as the training data used for the training for eliminating the false detection, data of an image similar to the image in which a new false detection has occurred may be used. Similarly, as the training data used for the training for eliminating the undetection, the data of the image similar to the image in which the new false detection has occurred may be used. A similar image is, for example, an image having the same or similar composition as the image and taken by changing the shooting settings such as exposure or shutter speed. Another example of a similar image is an image in which noise is added or reduced by performing image processing on the image, and an image in which brightness, contrast, saturation, white balance, etc. are changed.

機械学習の訓練を実行するために、モデル訓練部60は、取得した上記の訓練データと、誤検知又は未検知が発生した訓練済みモデルを得るための訓練に用いた訓練データと合わせたデータセットを用意する。そしてモデル訓練部60は、このデータセットを用いて、所定の構成の物体検出モデルに対する機械学習の訓練を実行する。訓練が完了すると、モデル訓練部60からは新規な訓練済みモデルが出力される。 In order to execute machine learning training, the model training unit 60 combines the acquired training data with the training data used for training to obtain a trained model in which false detection or undetection has occurred. Prepare. Then, the model training unit 60 uses this data set to perform machine learning training for an object detection model having a predetermined configuration. When the training is completed, the model training unit 60 outputs a new trained model.

これらの機能的な構成要素は、サーバを構成するコンピュータで、メモリに保持されるプログラムをプロセッサが実行し、必要に応じてメモリにデータを保存し、又はメモリに保存されたデータを読み出すことで実現される。 These functional components are the computers that make up the server, where the processor executes programs held in memory, stores data in memory, or reads data stored in memory as needed. It will be realized.

なお、図1の例では、情報処理システム100において評価データD10及び訓練データD20はサーバの外部からサーバへと入力されているが、一方又は両方がサーバ内に配置されていてもよい。 In the example of FIG. 1, in the information processing system 100, the evaluation data D10 and the training data D20 are input to the server from the outside of the server, but one or both of them may be arranged in the server.

[2.動作]
次に、上述した構成の情報処理システム100で実行される情報処理方法について説明する。この情報処理方法によって、機械学習の訓練を経て生成又は更新された推論モデルの性能が評価され、この評価の結果に基づいて、訓練による性能の向上の限界であるか否かが判定される。図3は、この情報処理方法の手順例を示すフロー図である。なお、当該情報処理方法の概要の把握を容易にするために、手順の一部を簡略にしたり、ある想定した状況に沿って全体を説明して、後ほど補足する。図3に例示しているのは、物体検出モデルの精度向上の作業過程において、訓練済みモデルに評価用の画像データを入力して物体検出結果を取得し、この物体検出結果と評価用の画像データのリファレンス情報とに基づく異常判定部20による異常判定(図2参照)の結果が得られたところからの手順である。ここで、図3に示す手順の前に評価データが入力されて物体検出を実行した訓練済みの物体検出モデルは本実施の形態における第1モデルの例、この物体検出モデルが出力した物体検出結果は第1推論結果の例、この物体検出結果に対する異常判定部20による異常判定は第1判定の例である。
[2. motion]
Next, an information processing method executed by the information processing system 100 having the above-described configuration will be described. By this information processing method, the performance of the inference model generated or updated through the training of machine learning is evaluated, and based on the result of this evaluation, it is determined whether or not it is the limit of the improvement of the performance by the training. FIG. 3 is a flow chart showing a procedure example of this information processing method. In addition, in order to easily grasp the outline of the information processing method, a part of the procedure is simplified or the whole is explained according to a certain assumed situation, which will be supplemented later. As illustrated in FIG. 3, in the work process of improving the accuracy of the object detection model, image data for evaluation is input to the trained model to acquire the object detection result, and the object detection result and the image for evaluation are obtained. This is the procedure from the point where the result of the abnormality determination (see FIG. 2) by the abnormality determination unit 20 based on the reference information of the data is obtained. Here, the trained object detection model in which the evaluation data is input and the object detection is executed before the procedure shown in FIG. 3 is an example of the first model in the present embodiment, and the object detection result output by this object detection model. Is an example of the first inference result, and the abnormality determination by the abnormality determination unit 20 for this object detection result is an example of the first determination.

この第1判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報を過去に受け取って蓄積した誤検出情報と照らし合わせて、第1モデルの評価のためにした物体検出処理で、新規の誤検出が発生しているか否かを判定する(ステップS10)。新規の誤検出が発生していない間(ステップS10でNo)、この情報処理方法は次の手順へ進まない。つまり同じと識別される誤検出が再発生している間は、例えばその誤検出の解消を図るための作業が行われる。 Among the results of the first determination, the erroneous detection identification unit 30 that has received the erroneous detection information from the abnormality determination unit 20 compares the erroneous detection information with the erroneous detection information accumulated in the past, and compares the false positive information with the erroneous detection information of the first model. In the object detection process for evaluation, it is determined whether or not a new false detection has occurred (step S10). While no new false positives have occurred (No in step S10), this information processing method does not proceed to the next procedure. That is, while the false positives identified as the same are reoccurring, for example, work is performed to eliminate the false positives.

新規の誤検出が発生している場合(ステップS10でYes)に、この情報処理方法はステップS11へ進む。ステップS11では、この判定の結果に関する情報を誤検出識別部30から通知制御部50を介して受け取ったモデル訓練部60が、機械学習の訓練によって新たな物体検出モデルを取得する。この訓練では、上記の新規の誤検出(この新規の誤検出を指して便宜的に誤検出Aと称する)を発生させた物体検出モデルの訓練に用いた既存の訓練データと、誤検出Aが発生した評価データである画像のデータ及びこの画像に類似する画像のデータとの一方又は両方とが訓練データに用いられる。ステップS11で取得された物体検出モデルを、以下では便宜的にモデルaと称する。ステップS11におけるモデル訓練部60による上記の訓練は、本実施の形態における第1訓練の例であり、モデルaは、本実施の形態における第2モデルの例である。また、評価データとしてモデルaに入力された画像データのうち、検出に誤りがあった画像、つまり誤検出Aが発生した画像のデータは、本実施の形態における第1評価データの例である。 When a new false positive has occurred (Yes in step S10), this information processing method proceeds to step S11. In step S11, the model training unit 60, which receives information on the result of this determination from the erroneous detection identification unit 30 via the notification control unit 50, acquires a new object detection model by machine learning training. In this training, the existing training data used for training the object detection model that generated the above-mentioned new false positive (referred to as false positive A for convenience) and false positive A One or both of the image data which is the generated evaluation data and the image data similar to this image are used for the training data. The object detection model acquired in step S11 is hereinafter referred to as model a for convenience. The above training by the model training unit 60 in step S11 is an example of the first training in the present embodiment, and the model a is an example of the second model in the present embodiment. Further, among the image data input to the model a as the evaluation data, the data of the image in which the detection is erroneous, that is, the image in which the erroneous detection A occurs is an example of the first evaluation data in the present embodiment.

次は検出処理部10が、モデルaに評価データである画像のデータを入力し、この入力に対してモデルaが出力する物体検出結果を取得する(ステップS20)。モデルaが出力する物体検出結果は、本実施の形態における第2推論結果の例である。 Next, the detection processing unit 10 inputs image data which is evaluation data to the model a, and acquires the object detection result output by the model a in response to this input (step S20). The object detection result output by the model a is an example of the second inference result in the present embodiment.

次は異常判定部20が、ステップS20でモデルaに入力された評価データのリファレンス情報と、その入力に対してモデルaが出力した物体検出結果とに基づいて、図2に手順を例示した異常判定を実行する(ステップS21)。ステップS21でのこの異常判定は、本実施の形態における第2判定の例である。 Next, the abnormality determination unit 20 illustrates the procedure in FIG. 2 based on the reference information of the evaluation data input to the model a in step S20 and the object detection result output by the model a with respect to the input. The determination is executed (step S21). This abnormality determination in step S21 is an example of the second determination in the present embodiment.

次に、この第2判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報と過去に受け取って蓄積した誤検出情報と照らし合わせて、誤検出Aと同じか否か識別、つまり、誤検出Aが解消しているか否か確認する(ステップS22)。誤検出Aが解消していない場合(ステップS22でNo)、ステップS11からやり直す。この場合のステップS11は、例えば前回のステップS11の実行時とは使用する訓練データ、又はバッチサイズ、イテレーション数又はエポック数等の機械学習の訓練におけるハイパーパラメータを変えて実行されてもよい。 Next, among the results of the second determination, the erroneous detection identification unit 30 that has received the erroneous detection information from the abnormality determination unit 20 compares the erroneous detection information with the erroneous detection information that has been received and accumulated in the past, and erroneously. Identification of whether or not it is the same as detection A, that is, confirmation of whether or not false detection A has been resolved (step S22). If the false positive A is not resolved (No in step S22), the process is restarted from step S11. In this case, step S11 may be executed by changing the training data to be used, or hyperparameters in machine learning training such as batch size, number of iterations or number of epochs, for example, from the time of execution of the previous step S11.

誤検出Aが解消している場合(ステップS22でYes)、第2判定の結果のうち、未検出情報を異常判定部20から受け取った未検出識別部40は、この未検出情報を過去に受け取って蓄積した未検出情報と照らし合わせて、モデルaの評価のために実行した物体検出処理で新規の未検出が発生しているか否かを判定する(ステップS23)。新規の未検出が発生している場合(ステップS23でYes)、この判定の結果に関する情報が、未検出識別部40から通知制御部50を介してモデル訓練部60に渡される。モデル訓練部60は、機械学習の訓練によってさらに新たな物体検出モデルを取得する(ステップS24)。この訓練では、ステップS11でモデルaの訓練に用いた既存の訓練データと、新規の未検出(この新規の未検出を指して便宜的に未検出Bと称する)が発生した評価データである画像のデータ及びこの画像に類似する画像のデータの一方又は両方とが訓練データに用いられる。ステップS24で取得された物体検出モデルを、以下では便宜的にモデルbと称する。ステップS24におけるモデル訓練部60による上記の訓練は、本実施の形態における第2訓練の例であり、モデルbは、本実施の形態における第3モデルの例である。また、評価データとしてモデルbに入力された画像データのうち、検出に漏れがあった画像、つまり未検出Bが発生した画像のデータは、本実施の形態における第2評価データの例である。 When the erroneous detection A is resolved (Yes in step S22), the undetected identification unit 40 that has received the undetected information from the abnormality determination unit 20 among the results of the second determination receives the undetected information in the past. By comparing with the undetected information accumulated in the above, it is determined whether or not a new undetected has occurred in the object detection process executed for the evaluation of the model a (step S23). When a new undetection has occurred (Yes in step S23), information regarding the result of this determination is passed from the undetected identification unit 40 to the model training unit 60 via the notification control unit 50. The model training unit 60 further acquires a new object detection model by machine learning training (step S24). In this training, the existing training data used for the training of the model a in step S11 and the evaluation data in which new undetected (referred to as undetected B for convenience to refer to this new undetected) are generated. And one or both of the data of the image and the data of the image similar to this image are used for the training data. The object detection model acquired in step S24 is hereinafter referred to as model b for convenience. The above training by the model training unit 60 in step S24 is an example of the second training in the present embodiment, and the model b is an example of the third model in the present embodiment. Further, among the image data input to the model b as the evaluation data, the data of the image in which the detection is omitted, that is, the image in which the undetected B occurs is an example of the second evaluation data in the present embodiment.

次は検出処理部10が、モデルbに評価データである画像のデータを入力して、この入力に対してモデルbが出力する物体検出結果を取得する(ステップS30)。モデルbが出力する物体検出結果は、本実施の形態における第3推論結果の例である。 Next, the detection processing unit 10 inputs image data, which is evaluation data, to the model b, and acquires the object detection result output by the model b in response to this input (step S30). The object detection result output by the model b is an example of the third inference result in the present embodiment.

次は異常判定部20が、ステップS30でモデルbに入力された評価データのリファレンス情報と、その入力に対してモデルbが出力した物体検出結果とに基づいて、図2に手順を例示した異常判定を実行する(ステップS31)。ステップS31でのこの異常判定は、本実施の形態における第3判定の例である。 Next, the abnormality determination unit 20 illustrates the procedure in FIG. 2 based on the reference information of the evaluation data input to the model b in step S30 and the object detection result output by the model b with respect to the input. The determination is executed (step S31). This abnormality determination in step S31 is an example of the third determination in the present embodiment.

次に、この第3判定の結果のうち、未検出情報を異常判定部20から受け取った未検出識別部40は、この未検出情報と過去に受け取って蓄積した未検出情報と照らし合わせて、未検出Bが解消しているか否か確認する(ステップS32)。未検出Bが解消していない場合(ステップS32でNo)、ステップS24からやり直す。この場合のステップS24は、例えば前回のステップS24の実行時とは使用する訓練データ、又はバッチサイズ、イテレーション数又はエポック数等の機械学習の訓練におけるハイパーパラメータを変えて実行されてもよい。 Next, among the results of the third determination, the undetected identification unit 40, which has received the undetected information from the abnormality determination unit 20, has not yet compared the undetected information with the undetected information received and accumulated in the past. It is confirmed whether or not the detection B has been resolved (step S32). If the undetected B is not resolved (No in step S32), the process is restarted from step S24. In this case, step S24 may be executed by changing the training data to be used or hyperparameters in machine learning training such as batch size, number of iterations or number of epochs, for example, from the time of execution of the previous step S24.

未検出Bが解消している場合(ステップS32でYes)、第3判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報に基づいて、誤検出が発生しているか否か判定する(ステップS33)。誤検出が発生している場合(ステップS33でYes)、過去に受け取って蓄積した誤検出情報と照らし合わせて、モデルbで発生したこの誤検出が、いったん解消した誤検出Aの再発生であるか否かさらに判定する(ステップS40)。ステップS40での判定の結果は、通知制御部50に入力される。誤検出Aが再発生している場合(ステップS40でYes)、通知制御部50は、訓練限界に関する情報を出力、例えばこの情報を示す所定のデータを表示装置又はスピーカに出力して、物体検知モデル作成の作業者に通知する(ステップS50)。訓練限界に関する情報は、例えば、訓練限界に到達した可能性を示す。このような通知を受けることで作業者は、取り組んでいた機械学習の訓練によるモデルの性能の向上が限界を迎えたことを知ることができる。 When the undetected B is resolved (Yes in step S32), the erroneous detection identification unit 30 that has received the erroneous detection information from the abnormality determination unit 20 among the results of the third determination is based on the erroneous detection information. It is determined whether or not erroneous detection has occurred (step S33). When a false positive has occurred (Yes in step S33), this false positive that occurred in model b in comparison with the false positive information received and accumulated in the past is a reoccurrence of false positive A that has been once resolved. Whether or not it is further determined (step S40). The result of the determination in step S40 is input to the notification control unit 50. When the false detection A reoccurs (Yes in step S40), the notification control unit 50 outputs information on the training limit, for example, outputs predetermined data indicating this information to a display device or a speaker to detect an object. Notify the model creation worker (step S50). Information about the training limit indicates, for example, the possibility of reaching the training limit. Upon receiving such a notification, the worker can know that the improvement in the performance of the model by the machine learning training that he / she was working on has reached the limit.

また、図3の例では、誤検出Aが、その後に訓練を経て得られたモデルaで解消しており(ステップS22でYes)、かつ、モデルaでは未検出も発生しない場合(ステップS23でNo)に、背反が発生していないことがユーザに通知される(ステップS51)。同様に、モデルaで発生した未検出Bが、その後に訓練を経て得られたモデルbではいったん解消しており(ステップS32でYes)、かつ、モデルbでは誤検出も発生しない場合(ステップS33でNo)にも、背反が発生していないこと、又は訓練限界未達の旨がユーザに通知される(ステップS51)。 Further, in the example of FIG. 3, the false detection A is eliminated by the model a obtained through the subsequent training (Yes in step S22), and no undetection occurs in the model a (in step S23). In No), the user is notified that no conflict has occurred (step S51). Similarly, when the undetected B generated in the model a is once eliminated in the model b obtained through the subsequent training (Yes in step S32), and no false detection occurs in the model b (step S33). In No), the user is notified that no conflict has occurred or that the training limit has not been reached (step S51).

なお、上記の手順は一例であり、本実施の形態に係る情報処理方法での処理内容はこの例に限定されない。例えば上記の例では、先に発生した誤検出Aをいったん解消させた際に発生した未検出Bを解消すると、すでに解消させていた誤検出Aが再発生するという事象の発生を条件として、訓練限界に到達したと判定されている。訓練限界に到達したと判定する条件としてこのように用い得る事象の内容はこれに限定されず、複数の異常を同時に解消できないという背反の発生であればよい。例えば上記の例における誤検出と未検出とを入れ替え、先に発生した未検出をいったん解消させた際に発生した誤検出を解消すると、すでに解消させていた未検出が再発生するという事象の発生をもって、訓練限界に到達したと判定されてもよい。また、同時に解消できない複数の誤検出の存在という事象、又は同時に解消できない複数の未検出の存在という事象の発生が、訓練限界に到達したと判定する条件である背反の内容であってもよい。 The above procedure is an example, and the processing content of the information processing method according to the present embodiment is not limited to this example. For example, in the above example, if the undetected B that occurred when the false detection A that occurred earlier is resolved is eliminated, the training is performed on the condition that the false positive A that has already been resolved reoccurs. It is determined that the limit has been reached. The content of the event that can be used in this way as a condition for determining that the training limit has been reached is not limited to this, and any contradictory occurrence may occur in which a plurality of abnormalities cannot be resolved at the same time. For example, if the false detection and the undetected in the above example are exchanged and the false detection that occurred when the previously generated undetected is once resolved, the undetected that has already been resolved will reoccur. It may be determined that the training limit has been reached. In addition, the occurrence of a plurality of false positives that cannot be resolved at the same time, or the occurrence of a plurality of undetected events that cannot be resolved at the same time may be contradictory conditions that are conditions for determining that the training limit has been reached.

(変形例及びその他の補足事項)
本開示の一又は複数の態様に係る情報処理方法は、上記実施の形態の説明に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が想到する各種の変形を上記の実施の形態に施したものも本開示の態様に含まれる。下記にそのような変形の例、及び実施の形態の説明へのその他の補足事項を挙げる。
(Modification example and other supplementary items)
The information processing method according to one or more aspects of the present disclosure is not limited to the description of the above embodiment. As long as it does not deviate from the gist of the present disclosure, various modifications conceived by those skilled in the art are also included in the embodiment of the present disclosure. Examples of such modifications and other supplements to the description of embodiments are given below.

(1)上記実施の形態の説明では、物体検出モデルが出力した物体検出結果が誤検出であるか否かの評価尺度としてIoUが用いられているが、物体検出結果の評価手法はこれに限定されない。IoU以外に本開示の情報処理方法において利用可能な、検出枠と正解枠とに基づいて取得される評価尺度の例として、Precision(適合率ともいう。誤りの評価に使用)、Recall(再現率ともいう。漏れの評価に使用)及びF値(誤り及び漏れの評価に使用)が挙げられる。 (1) In the description of the above embodiment, IoU is used as an evaluation scale for whether or not the object detection result output by the object detection model is erroneous detection, but the evaluation method for the object detection result is limited to this. Not done. As an example of the evaluation scale acquired based on the detection frame and the correct answer frame, which can be used in the information processing method of the present disclosure other than IoU, Precision (also referred to as precision rate, which is used for error evaluation) and Recall (recall rate). Also referred to as (used for leak evaluation) and F value (used for error and leak evaluation).

(2)上記実施の形態の説明における、通知制御部50による、通知のための表示装置又はスピーカで再生するためのデータの出力は、情報処理システム100からの出力の一形態の例であって、他の形態であってもよい。例えば情報処理システム100が備える、又は情報処理システム100の外部の記憶装置(図示なし)で、情報処理システム100での機械学習の訓練に関するログとして保管するためのデータの出力であってもよい。また別の例として、情報処理システム100内又は外部での何らかの情報処理での処理対象のデータ又は参照されるデータとして出力されてもよい。例えば、推論モデルの作成のためのハイパーパラメータを決定する情報処理に用いられてもよい。 (2) The output of data to be reproduced by the display device for notification or the speaker by the notification control unit 50 in the description of the above embodiment is an example of one form of output from the information processing system 100. , Other forms may be used. For example, it may be an output of data for storage as a log related to machine learning training in the information system 100 in a storage device (not shown) provided in the information system 100 or external to the information system 100. As another example, the data may be output as data to be processed or referenced data in some information processing inside or outside the information processing system 100. For example, it may be used for information processing to determine hyperparameters for creating an inference model.

(3)上記実施の形態におけるステップS11でモデルa、ステップS24でモデルbを得るための機械学習の訓練は、全訓練データを用いた訓練であって各モデルを一から作成するものであってよい。この場合、第1モデル、第2モデル及び第3モデルは互いに独立したモデルとして取得される。追加した訓練データを用いて既存のモデルに追加的に実行されるものであってもよい。後者について図3の例に沿って具体的に説明すると、ステップS24でモデルbを得るために、モデルaによる物体検出で未検出が発生した画像のデータ及びこの画像に類似する画像のデータの一方又は両方を用いてモデルaに対し追加的な訓練を実行することである。そしてこの場合、第1モデルが更新されたものが第2モデルとして取得され、第2モデルが更新されたものが第3モデルとして取得される。 (3) The machine learning training for obtaining the model a in step S11 and the model b in step S24 in the above embodiment is training using all training data, and each model is created from scratch. Good. In this case, the first model, the second model, and the third model are acquired as independent models. It may be additionally executed on an existing model using the added training data. The latter will be specifically described with reference to the example of FIG. 3. One of the data of the image in which the object detection by the model a has not been detected and the data of the image similar to this image in order to obtain the model b in step S24. Or both are used to perform additional training on model a. Then, in this case, the updated version of the first model is acquired as the second model, and the updated version of the second model is acquired as the third model.

(4)上記実施の形態では、背反の発生について、あるひとつの異常(未検出又は誤検出)が、いったん解消した後に他のひとつの異常(未検出又は誤検出)を挟んで再発生する例を用いて説明している。しかしながら、この再発生した異常の間に発生する異常は1個に限定されない。例えば、ある所望のモデルを得るために実行される機械学習の訓練、物体検出及び物体検出結果の異常判定を含むサイクルを繰り返す際に、各サイクルで発生した異常の内容に関する情報を蓄積し、各サイクルで異常が発生した場合には各異常と内容を照合する。この照合の結果、最新のサイクルで発生した異常の内容が過去のいずれのサイクルで発生した異常と同一と識別し得る場合も、本開示における背反に含まれ得る。この意味で、本開示における第1推論結果、第2推論結果及び第3推論結果は、上記サイクルの繰り返しの中で時間軸上この順序で取得される任意のものであってよく、連続的に得られるものに限定されない。 (4) In the above embodiment, with respect to the occurrence of the contradictory, one abnormality (undetected or erroneous detection) is once resolved and then reoccurs with another abnormality (undetected or erroneous detection). Is explained using. However, the number of abnormalities that occur during this reoccurring abnormality is not limited to one. For example, when repeating a cycle including machine learning training executed to obtain a desired model, object detection, and abnormality determination of the object detection result, information on the content of the abnormality generated in each cycle is accumulated and each When an abnormality occurs in the cycle, the contents are collated with each abnormality. As a result of this collation, if the content of the abnormality that occurred in the latest cycle can be identified as the same as the abnormality that occurred in any of the past cycles, it may be included in the contradictory in the present disclosure. In this sense, the first inference result, the second inference result, and the third inference result in the present disclosure may be any one acquired in this order on the time axis in the repetition of the above cycle, and may be continuously obtained. It is not limited to what can be obtained.

(5)上記実施の形態は、画像データに対する物体検出を行う推論モデルを例に用いて説明しているが、推論モデルによる処理対象は画像データに限定されない。画像データ以外のセンサデータ、具体例として、音声、距離点群、圧力、温度、湿度、におい等のデータでもよいし、センサデータ以外のデータ、例えば言語のデータであってもよい。そして推論モデルは、これらのデータが入力されると、例えば音声認識、話者認識、文体解析等の結果を出力するものであってもよい。 (5) Although the above-described embodiment is described using an inference model that detects an object for image data as an example, the processing target by the inference model is not limited to the image data. Sensor data other than image data, as specific examples, data such as voice, distance point group, pressure, temperature, humidity, odor, etc., or data other than sensor data, for example, language data may be used. Then, when these data are input, the inference model may output the results of, for example, voice recognition, speaker recognition, stylistic analysis, and the like.

(6)上述の各情報処理システムが備える機能的な構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)で構成されてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサがこのコンピュータプログラムに従って動作することにより、システムLSIは各構成要素の機能を達成する。 (6) A part or all of the functional components included in each of the above-mentioned information processing systems may be configured by one system LSI (Large Scale Integration). A system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip. Specifically, a microprocessor, a ROM (Read-Only Memory), and a RAM (Random Access Memory) are used. It is a computer system that includes such as. A computer program is stored in the ROM. When the microprocessor operates according to this computer program, the system LSI achieves the function of each component.

なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Although it is referred to as a system LSI here, it may be referred to as an IC, an LSI, a super LSI, or an ultra LSI depending on the degree of integration. Further, the method of making an integrated circuit is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。 Furthermore, if an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology or another technology derived from it, functional blocks may be integrated using that technology. The application of biotechnology, etc. is possible.

(7)本開示の一態様は、図2又は図3のフロー図を用いて上述した情報処理方法に限定されず、コンピュータによって実行されるプログラム、及びコンピュータを含む情報処理システムであってもよい。また、本開示の一態様は、そのようなコンピュータプログラムが記録された、コンピュータ読み取り可能な非一時的な記録媒体であってもよい。 (7) One aspect of the present disclosure is not limited to the information processing method described above using the flow chart of FIG. 2 or FIG. 3, and may be a program executed by a computer and an information processing system including the computer. .. Also, one aspect of the present disclosure may be a computer-readable, non-temporary recording medium on which such a computer program is recorded.

本開示に係る情報処理方法等は、機械学習の訓練を通して性能の向上が図られるモデルの開発に利用可能である。 The information processing method and the like according to the present disclosure can be used for developing a model whose performance is improved through machine learning training.

10 検出処理部
20 異常判定部
30 誤検出識別部
40 未検出識別部
50 通知制御部
60 モデル訓練部
100 情報処理システム
D10 評価データ
D20 訓練データ
10 Detection processing unit 20 Abnormality judgment unit 30 False detection identification unit 40 Undetected identification unit 50 Notification control unit 60 Model training unit 100 Information processing system D10 Evaluation data D20 Training data

Claims (5)

コンピュータに実行させる情報処理方法であって、
評価データを取得し、
推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、
前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、
前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、
前記第2モデルに前記評価データを入力して第2推論結果を取得し、
前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、
前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、
前記第3モデルに前記評価データを入力して第3推論結果を取得し、
前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、
前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する
情報処理方法。
It is an information processing method that is executed by a computer.
Get evaluation data,
The evaluation data is input to the first model that executes the inference process, and the first inference result is acquired.
Based on the first inference result and the reference information of the evaluation data, the first determination for determining an error or omission of the first inference result with respect to the evaluation data is executed.
The second model is created by the first training of machine learning in which one or both of the first evaluation data in which the first inference result is erroneous or omission and the data similar to the first evaluation data are included in the training data. Acquired,
The evaluation data is input to the second model to obtain the second inference result.
Based on the second inference result and the reference information of the evaluation data, a second determination for determining an error or omission of the second inference result with respect to the evaluation data is executed.
Training data of one or both of the second evaluation data in which the error or omission that was not in the first inference result in the evaluation data was in the second inference result and the data similar to the second evaluation data. Acquired the third model by the second training of machine learning performed in
The evaluation data is input to the third model to obtain the third inference result.
Based on the third inference result and the reference information of the evaluation data, a third determination for determining an error or omission of the third inference result with respect to the evaluation data is executed.
An information processing method that outputs information regarding the training limit of the first model when it is identified that the error or omission in the third inference result and the error or omission in the first inference result are the same.
前記評価データは画像データであり、
前記推論処理は物体検出処理であり、
前記第1推論結果、前記第2推論結果及び前記第3推論結果は、それぞれ物体検出結果である
請求項1に記載の情報処理方法。
The evaluation data is image data and
The inference process is an object detection process.
The information processing method according to claim 1, wherein the first inference result, the second inference result, and the third inference result are object detection results, respectively.
前記物体検出結果は、前記物体検出処理の結果としての物体の検出枠である第1検出枠を含み、
前記リファレンス情報は、リファレンスとしての物体の検出枠である第2検出枠を含み、
前記誤り又は前記漏れは、前記第1検出枠と前記第2検出枠とに基づいて判定される
請求項2に記載の情報処理方法。
The object detection result includes a first detection frame which is a detection frame of an object as a result of the object detection process.
The reference information includes a second detection frame, which is a detection frame for an object as a reference.
The information processing method according to claim 2, wherein the error or the omission is determined based on the first detection frame and the second detection frame.
前記情報の出力によって、前記訓練限界に到達した可能性の通知が実行され、
前記通知は、画像又は音声を介して実行される
請求項1〜3のいずれか一項に記載の情報処理方法。
By outputting the information, notification of the possibility that the training limit has been reached is executed, and the notification is executed.
The information processing method according to any one of claims 1 to 3, wherein the notification is executed via an image or voice.
推論処理部と、
異常判定部と、
モデル訓練部と、
通知制御部とを備え、
前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、
前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、
前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、
前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、
前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、
前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、
前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、
前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、
前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する
情報処理システム。
Inference processing unit and
Abnormality judgment unit and
Model training department and
Equipped with a notification control unit
The inference processing unit acquires the evaluation data, inputs the evaluation data into the first model that executes the inference processing, acquires the first inference result, and obtains the first inference result.
The abnormality determination unit executes a first determination for determining an error or omission of the first inference result with respect to the evaluation data based on the first inference result and the reference information of the evaluation data.
The model training unit includes one or both of the first evaluation data in which the first inference result is erroneous or omission and data similar to the first evaluation data in the training data, and the first machine learning is performed. Obtained the second model by training,
The inference processing unit further inputs the evaluation data into the second model to acquire the second inference result.
The abnormality determination unit further executes a second determination for determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and the reference information of the evaluation data.
The model training unit further includes a second evaluation data in which an error or omission that was not in the first inference result in the evaluation data was found in the second inference result, and data similar to the second evaluation data. Acquire the third model by the second training of machine learning that includes one or both in the training data.
The inference processing unit further inputs the evaluation data into the third model to acquire the third inference result.
The abnormality determination unit further executes a third determination for determining an error or omission of the third inference result with respect to the evaluation data based on the third inference result and the reference information of the evaluation data.
When the notification control unit identifies that the error or omission in the third inference result and the error or omission in the first inference result are the same, the notification control unit provides information on the training limit of the first model. Information processing system to output.
JP2020033062A 2019-07-19 2020-02-28 Information processing method and information processing system Active JP7402082B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202010635507.XA CN112241792A (en) 2019-07-19 2020-07-03 Information processing method and information processing system
EP20185041.9A EP3767537A1 (en) 2019-07-19 2020-07-09 Information processing method and information processing system
US16/929,541 US11494704B2 (en) 2019-07-19 2020-07-15 Information processing method and information processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962876137P 2019-07-19 2019-07-19
US62/876,137 2019-07-19

Publications (2)

Publication Number Publication Date
JP2021018798A true JP2021018798A (en) 2021-02-15
JP7402082B2 JP7402082B2 (en) 2023-12-20

Family

ID=74566078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020033062A Active JP7402082B2 (en) 2019-07-19 2020-02-28 Information processing method and information processing system

Country Status (1)

Country Link
JP (1) JP7402082B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113486766A (en) * 2021-07-01 2021-10-08 新疆大学 Remote sensing image vehicle target detection method based on deep neural network

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5720003A (en) * 1994-10-27 1998-02-17 Lucent Technologies Inc. Method and apparatus for determining the accuracy limit of a learning machine for predicting path performance degradation in a communications network
JP2009135649A (en) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp Data processing apparatus, data processing method, and program
JP2018005520A (en) * 2016-06-30 2018-01-11 クラリオン株式会社 Object detection device and object detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5720003A (en) * 1994-10-27 1998-02-17 Lucent Technologies Inc. Method and apparatus for determining the accuracy limit of a learning machine for predicting path performance degradation in a communications network
JP2009135649A (en) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp Data processing apparatus, data processing method, and program
JP2018005520A (en) * 2016-06-30 2018-01-11 クラリオン株式会社 Object detection device and object detection method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113486766A (en) * 2021-07-01 2021-10-08 新疆大学 Remote sensing image vehicle target detection method based on deep neural network

Also Published As

Publication number Publication date
JP7402082B2 (en) 2023-12-20

Similar Documents

Publication Publication Date Title
JP7539511B2 (en) Discrimination for spectroscopic classification with reduced false positives
US11494704B2 (en) Information processing method and information processing system
CN111104335B (en) C language defect detection method and device based on multi-level analysis
CN105677572B (en) Based on self organizing maps model cloud software performance exception error diagnostic method and system
EP3517931A1 (en) Reduced false positive identification for spectroscopic quantification
CN111914665A (en) Face shielding detection method, device, equipment and storage medium
CN109086734A (en) The method and device that pupil image is positioned in a kind of pair of eye image
CN113780466A (en) Model iterative optimization method and device, electronic equipment and readable storage medium
CN115600891B (en) Big data analysis method and system applied to production monitoring of aqueous acrylic resin
CN113838480B (en) Washing machine abnormal sound detection method and device and electronic equipment
CN115861161A (en) Machine learning system, learning data collection method, and storage medium
CN112363936A (en) Method and device for testing differential coverage rate, computer equipment and storage medium
WO2019121655A1 (en) A probability-based detector and controller apparatus, method, computer program
JP2021018798A (en) Information processing method and information processing system
CN113052019B (en) Target tracking method and device, intelligent equipment and computer storage medium
JP6786015B1 (en) Motion analysis system and motion analysis program
CN108762908A (en) System calls method for detecting abnormality and device
CN112534472B (en) Image determination device, image determination method, and recording medium for program thereof
CN111722863A (en) Method and device for updating wind control model
US20190325606A1 (en) Inspection apparatus
JP2019003333A (en) Bug contamination probability calculation program and bug contamination probability calculation method
CN112434959A (en) Engineering measurement data processing method based on cloud computing and computer equipment
KR102613633B1 (en) Ai model training apparatus and method for reading test results of a diagnostic kit
US20230316718A1 (en) Learning model generating method and inspection device
CN112907684B (en) Humidity detection method, device, equipment and medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231208

R150 Certificate of patent or registration of utility model

Ref document number: 7402082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150