JP2021018798A - Information processing method and information processing system - Google Patents
Information processing method and information processing system Download PDFInfo
- Publication number
- JP2021018798A JP2021018798A JP2020033062A JP2020033062A JP2021018798A JP 2021018798 A JP2021018798 A JP 2021018798A JP 2020033062 A JP2020033062 A JP 2020033062A JP 2020033062 A JP2020033062 A JP 2020033062A JP 2021018798 A JP2021018798 A JP 2021018798A
- Authority
- JP
- Japan
- Prior art keywords
- evaluation data
- model
- inference result
- training
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 56
- 238000003672 processing method Methods 0.000 title claims abstract description 35
- 238000012549 training Methods 0.000 claims abstract description 161
- 238000011156 evaluation Methods 0.000 claims abstract description 128
- 230000005856 abnormality Effects 0.000 claims abstract description 81
- 238000010801 machine learning Methods 0.000 claims abstract description 44
- 238000001514 detection method Methods 0.000 claims description 227
- 238000000034 method Methods 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 42
- 230000008569 process Effects 0.000 claims description 18
- 238000005516 engineering process Methods 0.000 description 8
- 230000006872 improvement Effects 0.000 description 8
- 230000008094 contradictory effect Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本開示は、コンピュータに実行させる情報処理方法及び当該情報処理方法を実行する情報処理システムに関する。 The present disclosure relates to an information processing method to be executed by a computer and an information processing system to execute the information processing method.
高い精度での実現例が報告されているディープラーニングを用いた物体検出技術(例えば非特許文献1参照)は、各種の用途での実用化が見込まれる。 The object detection technology using deep learning (see, for example, Non-Patent Document 1), for which realization examples with high accuracy have been reported, is expected to be put into practical use in various applications.
当該ディープラーニング等の機械学習を利用した物体検出技術における検出異常(誤検出及び未検出を含む)への対策としては、検出異常が発生した検出処理対象のデータを追加した訓練データを用いての機械学習によるモデルの訓練が行われる(特許文献1参照)。 As a countermeasure against detection abnormalities (including false detection and undetection) in the object detection technology using machine learning such as deep learning, training data to which the data of the detection processing target in which the detection abnormality has occurred is added is used. Model training is performed by machine learning (see Patent Document 1).
しかし、追加した訓練データを用いた訓練によっても検出異常が解消されない場合がある。検出異常が解消されるか否か、すなわち訓練限界であるか否かの判断は困難である。 However, the detection abnormality may not be resolved even by training using the added training data. It is difficult to judge whether or not the detection abnormality is resolved, that is, whether or not it is the training limit.
本開示は、機械学習の訓練限界を判断することができる情報処理方法等を提供する。 The present disclosure provides an information processing method and the like capable of determining the training limit of machine learning.
本開示の一態様に係る情報処理方法は、コンピュータにより実行される方法であって、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する情報処理方法である。 The information processing method according to one aspect of the present disclosure is a method executed by a computer, and the evaluation data is acquired, the evaluation data is input to the first model for executing the inference processing, and the first inference result is acquired. Then, based on the first inference result and the reference information of the evaluation data, the first determination for determining the error or omission of the first inference result with respect to the evaluation data is executed, and the first inference result is in error or omission. The second model was acquired by the first training of machine learning in which one or both of the first evaluation data and the data similar to the first evaluation data were included in the training data, and the second model was described as described above. The second determination is made by inputting the evaluation data to acquire the second inference result and determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and the reference information of the evaluation data. One or both of the second evaluation data in which the error or omission in the evaluation data that was not in the first inference result was in the second inference result and the data similar to the second evaluation data. The third model is acquired by the second training of machine learning performed by including the above in the training data, the evaluation data is input to the third model to acquire the third inference result, and the third inference result and the evaluation data are obtained. Based on the reference information of the above, the third determination for determining the error or omission of the third inference result with respect to the evaluation data was executed, and the error or omission in the third inference result and the first inference result were found. It is an information processing method that outputs information regarding the training limit of the first model when it is identified that the error or omission is the same.
また、本開示の一態様に係る情報処理システムは、推論処理部と、異常判定部と、モデル訓練部と、通知制御部とを備え、前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する。 Further, the information processing system according to one aspect of the present disclosure includes an inference processing unit, an abnormality determination unit, a model training unit, and a notification control unit, and the inference processing unit acquires evaluation data and performs inference processing. The evaluation data is input to the first model for executing the above, and the first inference result is acquired. The abnormality determination unit of the first inference result is based on the first inference result and the reference information of the evaluation data. The first determination for determining an error or omission in the evaluation data is executed, and the model training unit executes the first evaluation data in which the first inference result has an error or omission, and data similar to the first evaluation data. The second model is acquired by the first training of machine learning in which one or both of the above are included in the training data, and the inference processing unit further inputs the evaluation data into the second model and obtains the second inference result. Upon acquisition, the abnormality determination unit further executes a second determination for determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and the reference information of the evaluation data. The model training unit further includes, among the evaluation data, the second evaluation data in which the error or omission that was not in the first inference result was in the second inference result, and the data similar to the second evaluation data. The third model is acquired by the second training of machine learning in which one or both are included in the training data, and the inference processing unit further inputs the evaluation data into the third model to acquire the third inference result. The abnormality determination unit further executes a third determination to determine an error or omission of the third inference result with respect to the evaluation data based on the third inference result and the reference information of the evaluation data, and performs the notification control. When it is identified that the error or omission in the third inference result and the error or omission in the first inference result are the same, the unit outputs information regarding the training limit of the first model.
なお、包括的又は具体的なこれらの態様は、上記の方法及びシステムの他に、装置、集積回路、又はCD−ROM等のコンピュータ読み取り可能な記録媒体で実現されてもよく、装置、システム、集積回路、方法、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。 In addition to the above methods and systems, these comprehensive or specific embodiments may be realized by a device, an integrated circuit, or a computer-readable recording medium such as a CD-ROM. It may be realized by any combination of integrated circuits, methods, computer programs and recording media.
本開示に係る情報処理方法等によって、機械学習の訓練限界を判断することができる。 The training limit of machine learning can be determined by the information processing method or the like according to the present disclosure.
(本開示の基礎となった知見)
発明者らは、従来の技術では以下の問題が生じることを見出した。
(Knowledge on which this disclosure was based)
The inventors have found that the following problems occur in the prior art.
例えば物体検出技術は、自動運転等の高い信頼性が要求される用途への適用にあたって、誤検出及び未検出といった検出異常への対策が不可欠である。このような検出異常は、人命に関わる事故の要因となるためである。 For example, when applying object detection technology to applications that require high reliability such as automatic driving, it is indispensable to take measures against detection abnormalities such as false detection and non-detection. This is because such a detection abnormality causes an accident that may affect human life.
ディープラーニング等の機械学習の手法を利用した物体検出技術では、検出異常への対策として、機械学習モデルの訓練を、検出異常が発生した検出処理対象のデータを含む訓練データを用いて行うのが一般的である。しかしながら、発生していた検出異常がこの訓練の結果として得たモデルで解消されていても、このモデルでは他の検出異常が発生しないか、つまり、このような訓練によって当該モデルによる物体検出の精度が総合的に向上しているのか限界なのかの判断は、モデルの訓練の担当者の経験則又は直感のようなものに負うところが大きいのが現状である。例えば、さらに精度の高い物体検出モデルを得るために、経験を積んだ担当者であればネットワーク構成の変更を検討するところ、現実には経験の浅い担当者が、訓練データを追加した訓練をさらに行って得るモデルでの結果を見ることを選択するということが起こり得る。このように、作業の担当者の技術レベルによって、機械学習の訓練の限界についての判断にばらつきが生じるという問題が生じている。 In object detection technology that uses machine learning methods such as deep learning, as a countermeasure against detection abnormalities, training of machine learning models is performed using training data that includes data of detection processing targets in which detection abnormalities have occurred. It is common. However, even if the detection anomaly that occurred is resolved in the model obtained as a result of this training, does this model cause other detection anomalies, that is, the accuracy of object detection by the model by such training? At present, the judgment as to whether or not the overall improvement is the limit depends largely on the rules of thumb or intuition of the person in charge of model training. For example, in order to obtain a more accurate object detection model, an experienced person may consider changing the network configuration, but in reality, an inexperienced person may further train by adding training data. It can happen that you choose to go and see the results in the model you get. As described above, there is a problem that the judgment about the limit of machine learning training varies depending on the skill level of the person in charge of the work.
このような問題に鑑みて案出された本開示の一態様に係る情報処理方法は、コンピュータにより実行される方法であって、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する情報処理方法である。 The information processing method according to one aspect of the present disclosure, which was devised in view of such a problem, is a method executed by a computer, and the evaluation is performed on a first model that acquires evaluation data and executes inference processing. Data is input to acquire the first inference result, and based on the first inference result and the reference information of the evaluation data, the first determination for determining an error or omission of the first inference result with respect to the evaluation data is executed. Then, by the first training of machine learning performed by including one or both of the first evaluation data in which the first inference result is erroneous or omission and the data similar to the first evaluation data in the training data, the second The model is acquired, the evaluation data is input to the second model, the second inference result is acquired, and the evaluation data of the second inference result is based on the second inference result and the reference information of the evaluation data. A second determination for determining an error or omission is executed, and among the evaluation data, an error or omission that was not in the first inference result is found in the second inference result, and the second evaluation data and the second inference result. The third model is acquired by the second training of machine learning in which one or both of the data similar to the evaluation data is included in the training data, and the evaluation data is input to the third model to acquire the third inference result. Then, based on the third inference result and the reference information of the evaluation data, the third determination for determining the error or omission of the third inference result with respect to the evaluation data is executed, and the error in the third inference result is found. Alternatively, when it is identified that the leak and the error or leak in the first inference result are the same, it is an information processing method that outputs information regarding the training limit of the first model.
これにより、推論モデルの性能の、機械学習の訓練による向上の限界が、推論モデルの作成担当者の技術レベルによらずに判断されるようになる。 As a result, the limit of improvement in the performance of the inference model by training of machine learning can be judged regardless of the skill level of the person in charge of creating the inference model.
また、前記評価データは画像データであり、前記推論処理は物体検出処理であり、前記第1推論結果、前記第2推論結果及び前記第3推論結果は、それぞれ物体検出結果であってもよい。 Further, the evaluation data may be image data, the inference process may be an object detection process, and the first inference result, the second inference result, and the third inference result may be object detection results, respectively.
すなわち、画像データに対する物体検出処理を行う推論モデルの性能の向上の限界を、作成担当者の技術レベルによらず判断することができる。 That is, the limit of improvement in the performance of the inference model that performs the object detection process on the image data can be determined regardless of the technical level of the person in charge of creation.
また、前記物体検出結果は、前記物体検出処理の結果としての物体の検出枠である第1検出枠を含み、前記リファレンス情報は、リファレンスとしての物体の検出枠である第2検出枠を含み、前記誤り又は前記漏れは、前記第1検出枠と前記第2検出枠とに基づいて判定されてもよい。 Further, the object detection result includes a first detection frame which is a detection frame of an object as a result of the object detection process, and the reference information includes a second detection frame which is a detection frame of an object as a reference. The error or the omission may be determined based on the first detection frame and the second detection frame.
物体検出の異常はこのようにして判定することができる。 The abnormality of object detection can be determined in this way.
また、前記情報の出力によって、前記訓練限界に到達した可能性の通知が実行され、前記通知は、画像又は音声を介して実行されてもよい。 Further, the output of the information may be executed to notify the possibility that the training limit has been reached, and the notification may be executed via an image or a voice.
これにより、推論モデルの作成者に、推論モデルの性能向上のために、正常に推論されなかったデータに基づく追加の訓練以外の方法の検討材料が与えられ、作業の効率化に資する。 As a result, the creator of the inference model is given materials for studying methods other than additional training based on data that were not inferred normally in order to improve the performance of the inference model, which contributes to the efficiency of work.
また、本開示の一態様に係る情報処理システムは、推論処理部と、異常判定部と、モデル訓練部と、通知制御部とを備え、前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する。 Further, the information processing system according to one aspect of the present disclosure includes an inference processing unit, an abnormality determination unit, a model training unit, and a notification control unit, and the inference processing unit acquires evaluation data and performs inference processing. The evaluation data is input to the first model for executing the above, and the first inference result is acquired. The abnormality determination unit of the first inference result is based on the first inference result and the reference information of the evaluation data. The first determination for determining an error or omission in the evaluation data is executed, and the model training unit executes the first evaluation data in which the first inference result has an error or omission, and data similar to the first evaluation data. The second model is acquired by the first training of machine learning in which one or both of the above are included in the training data, and the inference processing unit further inputs the evaluation data into the second model and obtains the second inference result. Upon acquisition, the abnormality determination unit further executes a second determination for determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and the reference information of the evaluation data. The model training unit further includes, among the evaluation data, the second evaluation data in which the error or omission that was not in the first inference result was in the second inference result, and the data similar to the second evaluation data. The third model is acquired by the second training of machine learning in which one or both are included in the training data, and the inference processing unit further inputs the evaluation data into the third model to acquire the third inference result. The abnormality determination unit further executes a third determination to determine an error or omission of the third inference result with respect to the evaluation data based on the third inference result and the reference information of the evaluation data, and performs the notification control. When it is identified that the error or omission in the third inference result and the error or omission in the first inference result are the same, the unit outputs information regarding the training limit of the first model.
これにより、機械学習の訓練による推論モデルの性能の向上の限界が、推論モデルの作成者の技術レベルによらずに判断されるようになる。 As a result, the limit of improvement in the performance of the inference model by the training of machine learning can be judged regardless of the skill level of the creator of the inference model.
なお、包括的又は具体的なこれらの態様は、上記の方法及びシステムの他に、装置、集積回路、又はCD−ROM等のコンピュータが読み取り可能な記録媒体で実現されてもよく、装置、システム、集積回路、方法、コンピュータプログラム及び記録媒体の任意な組合せで実現されてもよい。 In addition to the above methods and systems, these comprehensive or specific aspects may be realized by a device, an integrated circuit, or a computer-readable recording medium such as a CD-ROM, and the device, system. , Integrated circuits, methods, computer programs and any combination of recording media.
以下、本開示の一態様に係る情報処理方法及び情報処理システムの実施の形態について、図面を参照しながら説明する。ここで示す実施の形態は、本開示の一具体例を示すものである。したがって、以下の実施の形態で示される数値、形状、構成要素、構成要素の配置及び接続形態、並びにステップ(工程)及びステップの順序等は一例であって、本開示を限定するものではない。また、以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素は任意に付加可能な構成要素である。また、各図は模式図であり、必ずしも厳密に図示されたものではない。 Hereinafter, an information processing method and an embodiment of an information processing system according to one aspect of the present disclosure will be described with reference to the drawings. The embodiments shown here show a specific example of the present disclosure. Therefore, the numerical values, shapes, components, arrangement and connection forms of the components, steps (processes), order of steps, and the like shown in the following embodiments are examples, and do not limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims are components that can be arbitrarily added. Further, each figure is a schematic view and is not necessarily exactly shown.
(実施の形態)
実施の形態に係る情報処理方法は、コンピュータに実行させるものであって、機械学習の訓練によって得た推論モデルによる処理結果の異常(漏れ又は誤り)に基づいて、さらなる訓練を実行しても性能の向上の可能性が低いこと、つまりは実質的な限界(以下、訓練限界ともいう)を判定するための方法である。以下ではこの情報処理方法について、画像に対する物体検出を行う推論モデルの訓練限界の判定のために用いるケースを例に説明する。
(Embodiment)
The information processing method according to the embodiment is to be executed by a computer, and even if further training is executed based on the abnormality (leakage or error) of the processing result by the inference model obtained by the machine learning training, the performance is performed. It is a method for determining that the possibility of improvement is low, that is, a substantial limit (hereinafter, also referred to as a training limit). In the following, this information processing method will be described as an example of a case used for determining the training limit of an inference model that detects an object on an image.
[1.構成]
図1は、本実施の形態に係る情報処理方法を実行する情報処理システムの機能構成例を示すブロック図である。
[1. Constitution]
FIG. 1 is a block diagram showing a functional configuration example of an information processing system that executes the information processing method according to the present embodiment.
本実施の形態に係る情報処理システム100では、機械学習の訓練を行って推論モデルを生成又は更新し、また、この生成又は更新した推論モデルの評価が行われる。そして情報処理システム100は、この評価の結果に基づいて、訓練による性能の向上の限界であるかの判定がなされる。 In the information processing system 100 according to the present embodiment, machine learning training is performed to generate or update an inference model, and the generated or updated inference model is evaluated. Then, based on the result of this evaluation, the information processing system 100 determines whether or not it is the limit of performance improvement by training.
情報処理システム100は、各々プロセッサ及びメモリを備える一台以上のコンピュータで構成されてこの情報処理方法を実行するサーバを含む。図1に示す例では、このサーバは機能的な構成要素として検出処理部10、異常判定部20、誤検出識別部30、未検出識別部40、通知制御部50及びモデル訓練部60を備える。
The information processing system 100 includes a server that is composed of one or more computers, each having a processor and a memory, and executes this information processing method. In the example shown in FIG. 1, this server includes a
検出処理部10は、機械学習による訓練が既に実行された物体検出モデル(以下、簡略に訓練済みモデルともいう)に、性能評価のための物体検出処理を実行させる。訓練済みモデルの性能評価に用いる評価データ(この例では画像データ)を取得した検出処理部10は、この性能評価に用いる画像に対する前処理を行う。ここでいう前処理とは、物体検出の準備のために行われる処理であり、例えば画像の解像度の調整又は画素値の正規化である。検出処理部10は、評価対象の訓練済みモデルを取得すると、前処理が済んだ各画像をこの訓練済みモデルに入力して、物体検出モデルによる推論処理である物体検出処理の結果(以下、物体検出結果という)を出力させる。物体検出結果とは、具体的には、物体検出モデルが画像で検出した、例えば歩行者、障害物等の物体を囲む検出枠である。取得された検出枠の情報は、検出処理部10から異常判定部20へと出力される。この情報には、例えば、物体検出処理が行われた画像を特定する情報、当該画像における検出枠の範囲(位置及び大きさ)及び確度(尤度とも称する)が含まれる。検出処理部10は、本実施の形態における推論処理部の例であり、検出処理部10が物体検出結果から取得する物体検出結果は、本実施の形態における第1推論結果、第2推論結果及び第3推論結果の例である。
The
異常判定部20は、検出処理部10から入力を受けた検出枠の情報に加えて、この画像における物体検出の正解をリファレンスとして示す検出枠(以下、正解枠ともいう)の情報を取得する。そして異常判定部20は、検出処理部10から入力を受けた検出枠と、正解を示す検出枠とに基づいて、訓練済みモデルによる物体検出結果の異常について判定する。この例での異常には、誤検出(誤り)及び未検出(漏れ)が含まれる。図2は、異常判定部20が行う物体検出結果のこれらの異常についての判定方法の手順例を示すフロー図である。
The
異常判定部20は、検出処理部10から入力を受けた情報が示す一の画像について取得された検出枠の確度の降順で異常判定を行う。まず異常判定部20は、異常判定が未実施の検出枠のうち、確度の最も高いものを特定する(ステップS01)。
The
次に異常判定部20は、ステップS01で特定した検出枠と当該画像の正解枠とのIoU(Intersection over Union)とを算出する(ステップS02)。
Next, the
次に異常判定部20は、各検出枠のステップS02で算出した正解枠とのIoUが0.5を超えるか否かを判定する(ステップS03)。正解枠とのIoUが0.5を超える検出枠である場合(ステップS03でYes)、異常判定部20は、この検出枠を正検出によるものと判定し、IoUが0.5を超える正解枠とペアリングする(ステップS04)。正解枠とのIoUが0.5を超えない検出枠である場合(ステップS03でNo)、異常判定部20は、この検出枠を誤検出によるものと判定する(ステップS05)。
Next, the
次に異常判定部20は、この画像について取得された検出枠にS05までの一連の手順が未実施の検出枠がさらにあるか確認する(ステップS06)。
Next, the
この手順が未実施の検出枠がある場合(ステップS06でYes)、異常判定部20はステップS01に戻る。
If there is a detection frame for which this procedure has not been performed (Yes in step S06), the
この画像について取得された全ての検出枠についてステップS05までの手順が実施済みである場合(ステップS06でNo)、異常判定部20は、この画像についての正解枠のうちで、ここまでの手順でいずれの検出枠ともステップS04におけるペアリングによるペアが成立していない正解枠の存否を確認する(ステップS07)。
When the procedure up to step S05 has been performed for all the detection frames acquired for this image (No in step S06), the
ペアが成立していない正解枠がある場合(ステップS07でYes)、異常判定部20は、この正解枠を未検出によるものと判定し(ステップS08)、一連の手順は終了する。
If there is a correct answer frame in which the pair is not established (Yes in step S07), the
ペアが成立していない正解枠がない、つまり全ての正解枠がいずれの検出枠とペアになっている場合(ステップS07でNo)、この画像に対する物体検出処理の異常についての判定のための一連の手順は終了する。 When there is no correct answer frame for which no pair is established, that is, when all the correct answer frames are paired with any detection frame (No in step S07), a series for determining an abnormality in the object detection process for this image. The procedure of is completed.
異常判定部20による判定の結果、つまり各検出枠正誤等に関する情報(以下、誤検出情報ともいう)は誤検出識別部30へ出力され、未検出に関する情報(以下、未検出情報ともいう)は未検出識別部40へ出力される。誤検出情報及び未検出情報については後述する。
The result of the determination by the
なお、上記の手順例は、説明の簡便のために、検出枠が一種類の物体検出対象のみに対して取得されている場合を想定して説明している。検出対象の物体が複数種類ある場合には、ステップS02が同種の物体についての検出枠と正解枠との間で実行されてもよい。この場合、例えば異常判定部20が取得する検出枠の情報及び正解枠の情報それぞれにさらに含まれる、検出された物体の種類に関する情報が利用される。
For the sake of simplicity, the above procedure example is described on the assumption that the detection frame is acquired for only one type of object detection target. When there are a plurality of types of objects to be detected, step S02 may be executed between the detection frame and the correct answer frame for the same type of objects. In this case, for example, information regarding the type of the detected object, which is further included in the information of the detection frame and the information of the correct answer frame acquired by the
また、ステップS03におけるIoUの基準値0.5は一例であり、以下の説明でも例として用いる。この基準値は、例えばひとつの検出枠と複数の正解枠の各々との間で算出されたIoUのうち一つのみが超えるように設定される。しかし、それでも複数のIoUが基準値を超える場合、例えばIoUが最も高い検出枠と正解枠との組み合わせがステップS04でペアリングされてもよい。または、曖昧な検出結果であるとの考えに基づいて、当該検出枠は誤検出によるものと判定してもよい。 Further, the reference value 0.5 of IoU in step S03 is an example, and will be used as an example in the following description. This reference value is set so that, for example, only one of the IoUs calculated between one detection frame and each of the plurality of correct answer frames exceeds. However, if a plurality of IoUs still exceed the reference value, for example, the combination of the detection frame having the highest IoU and the correct answer frame may be paired in step S04. Alternatively, based on the idea that the detection result is ambiguous, the detection frame may be determined to be due to erroneous detection.
異常判定部20が検出処理部10から入力を受ける情報が示す検出枠は、本実施の形態における第1検出枠の例である。また、異常判定部20が取得した正解枠の情報は本実施の形態におけるリファレンス情報の例であり、正解枠は第2検出枠の例である。また、異常判定部20が図2に例示する手順に沿って行う判定は、本実施の形態における第1判定、第2判定及び第3判定の例である。
The detection frame indicated by the information in which the
誤検出識別部30は、異常判定部20から誤検出情報を取得し、また、この誤検出情報を蓄積する。誤検出情報は、例えば物体検出が実行された画像、検出結果の正誤、及び誤検出と判定された物体検出結果の検出枠(以下、誤検出枠ともいう)等の、発生した誤検出の詳細を示す情報を含む。誤検出識別部30は、異常判定部20から新たに取得した誤検出情報に詳細が示される誤検出が既出の誤検出の再発生であるか否かについて、蓄積してある誤検出情報を用いて判定する。具体例として、誤検出識別部30は、新たに取得した誤検出情報が示す誤検出枠と、性能評価済みのより古い物体検出モデルによる同じ画像に対する物体検出処理で発生した誤検出による誤検出枠とのIoUを算出する。そしてこのIoUが所定の基準値(例えば0.5)を超える場合、誤検出識別部30は、新たに取得した誤検出情報に詳細が示される誤検出は、より古い物体検出モデルで発生した誤検出と同じ誤検出であると識別して、既出の誤検出の再発生であると判定する。また、このIoUが所定の閾値以下である場合、誤検出識別部30は、新たに取得した誤検出情報に詳細が示される誤検出は既出の誤検出ではない(新規の誤検出である)と判定する。そして、この判定の結果に関する情報が、誤検出識別部30から通知制御部50に出力される。判定の結果に関する情報には、判定の結果以外に例えば誤検出が発生した画像を特定する情報が含まれる。この判定の結果に関する情報は、後述のモデル訓練部60に渡されて、次回実行される機械学習の訓練で用いられる訓練データの取得に用いられる。
The erroneous
未検出識別部40は、異常判定部20から未検出に関する情報を取得し、また、この未検出情報を蓄積する。未検出情報とは、例えば物体検出が実行された画像、及び未検出と判定された正解枠(以下、未検出枠ともいう)等の、発生した未検出の詳細を示す情報を含む。未検出識別部40は、異常判定部20から新たに取得した未検出情報に詳細が示されている未検出が既出の未検出の再発生であるか否かについて、蓄積してある未検出情報を用いて判定する。具体例として、未検出識別部40は、新たに取得した未検出情報が示す未検出枠が、性能評価済みのより古い物体検出モデルによる同じ画像に対する物体検出処理で発生した未検出による未検出枠と同一であるか否か識別する。そしてこれら二つの未検出枠が同一である場合、未検出識別部40は、新たに取得した未検出情報に詳細が示される未検出は、既出の未検出の再発生であると判定する。また、これら二つの未検出枠が同一ではない場合、未検出識別部40は、新たに取得した未検出情報に詳細が示される未検出は既出の未検出ではない(新規の未検出である)と判定する。そして、この判定の結果に関する情報が、未検出識別部40から通知制御部50に出力される。判定の結果に関する情報には、判定の結果以外に例えば新規の未検出が発生した画像を特定する情報が含まれる。この判定の結果に関する情報は、後述のモデル訓練部60に渡されて、次回実行される機械学習の訓練で用いられる訓練データの取得に用いられる。
The
通知制御部50は、誤検出識別部30及び未検出識別部40から入力を受ける判定の結果に関する情報に基づいて背反の発生の有無を判定し、この判定の結果に応じた通知をモデル訓練部60に送る。ここでいう背反とは、機械学習の訓練によっていったん解消した誤検出又は未検出が、その後に別の誤検出又は未検出を解消する訓練を経て取得された訓練済みモデルで再発することである。通知の具体例としては、背反が発生していると判定した場合、通知制御部50は、訓練限界に関する情報として、訓練限界であることを情報処理システム100のユーザ、つまりは物体検出モデルの作成担当者に通知する。訓練限界に関する情報として、発生していると判定された背反に関わる検出結果(検出枠)が出力されてもよい。この通知は、例えば、図1のサーバを構成するコンピュータに接続された表示装置(図示なし)に表示される画像を介して行われる。また、背反が発生していないと判定した場合、通知制御部50は、ユーザに訓練の正常終了を通知してもよい。これらの通知は、図1のサーバを構成するコンピュータに接続されたスピーカ(図示なし)から出力される音声を介して行われてもよい。また、背反は発生していないと判定した場合、通知制御部50は、誤検出識別部30及び未検出識別部40から入力を受けた新規の誤検出に関する情報又は新規の未検出に関する情報をモデル訓練部60に出力する。
The
モデル訓練部60は、機械学習の訓練を実行して、性能評価の対象となる物体検知モデルを取得する。モデル訓練部60は、通知制御部50から新規の誤検出に関する情報の入力を受けると、この誤検出を解消するための訓練に用いる訓練データを訓練データD20から取得する。誤検出を解消するための訓練に用いる訓練データとは、例えば新規の誤検出に関する情報で特定される、この新規の誤検出が発生した画像のデータである。モデル訓練部60はまた、通知制御部50から新規の未検出に関する情報の入力を受けると、この未検出を解消するための訓練に用いる訓練データを訓練データD20から取得する。未検出を解消するための訓練に用いる訓練データとは、例えば新規の未検出に関する情報で特定される、この新規の未検出が発生した画像のデータである。つまり訓練データD20に加えて、評価データD10由来のデータを機械学習の訓練に。また、誤検出を解消するための訓練に用いる訓練データとして、新規の誤検出が発生した画像に類似の画像のデータが用いられてもよい。同様に、未検出を解消するための訓練に用いる訓練データとして、新規の誤検出が発生した画像に類似する画像のデータが用いられてもよい。類似する画像とは、例えば当該画像と同じ又は近い構図であって、露出又はシャッター速度等の撮影設定を変えて撮影された画像である。類似する画像の別の例としては、当該画像に画像処理を施して、ノイズが付加若しくは低減された画像、及び明るさ、コントラスト、彩度若しくはホワイトバランス等が変更された画像が挙げられる。
The
機械学習の訓練を実行するために、モデル訓練部60は、取得した上記の訓練データと、誤検知又は未検知が発生した訓練済みモデルを得るための訓練に用いた訓練データと合わせたデータセットを用意する。そしてモデル訓練部60は、このデータセットを用いて、所定の構成の物体検出モデルに対する機械学習の訓練を実行する。訓練が完了すると、モデル訓練部60からは新規な訓練済みモデルが出力される。
In order to execute machine learning training, the
これらの機能的な構成要素は、サーバを構成するコンピュータで、メモリに保持されるプログラムをプロセッサが実行し、必要に応じてメモリにデータを保存し、又はメモリに保存されたデータを読み出すことで実現される。 These functional components are the computers that make up the server, where the processor executes programs held in memory, stores data in memory, or reads data stored in memory as needed. It will be realized.
なお、図1の例では、情報処理システム100において評価データD10及び訓練データD20はサーバの外部からサーバへと入力されているが、一方又は両方がサーバ内に配置されていてもよい。 In the example of FIG. 1, in the information processing system 100, the evaluation data D10 and the training data D20 are input to the server from the outside of the server, but one or both of them may be arranged in the server.
[2.動作]
次に、上述した構成の情報処理システム100で実行される情報処理方法について説明する。この情報処理方法によって、機械学習の訓練を経て生成又は更新された推論モデルの性能が評価され、この評価の結果に基づいて、訓練による性能の向上の限界であるか否かが判定される。図3は、この情報処理方法の手順例を示すフロー図である。なお、当該情報処理方法の概要の把握を容易にするために、手順の一部を簡略にしたり、ある想定した状況に沿って全体を説明して、後ほど補足する。図3に例示しているのは、物体検出モデルの精度向上の作業過程において、訓練済みモデルに評価用の画像データを入力して物体検出結果を取得し、この物体検出結果と評価用の画像データのリファレンス情報とに基づく異常判定部20による異常判定(図2参照)の結果が得られたところからの手順である。ここで、図3に示す手順の前に評価データが入力されて物体検出を実行した訓練済みの物体検出モデルは本実施の形態における第1モデルの例、この物体検出モデルが出力した物体検出結果は第1推論結果の例、この物体検出結果に対する異常判定部20による異常判定は第1判定の例である。
[2. motion]
Next, an information processing method executed by the information processing system 100 having the above-described configuration will be described. By this information processing method, the performance of the inference model generated or updated through the training of machine learning is evaluated, and based on the result of this evaluation, it is determined whether or not it is the limit of the improvement of the performance by the training. FIG. 3 is a flow chart showing a procedure example of this information processing method. In addition, in order to easily grasp the outline of the information processing method, a part of the procedure is simplified or the whole is explained according to a certain assumed situation, which will be supplemented later. As illustrated in FIG. 3, in the work process of improving the accuracy of the object detection model, image data for evaluation is input to the trained model to acquire the object detection result, and the object detection result and the image for evaluation are obtained. This is the procedure from the point where the result of the abnormality determination (see FIG. 2) by the
この第1判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報を過去に受け取って蓄積した誤検出情報と照らし合わせて、第1モデルの評価のためにした物体検出処理で、新規の誤検出が発生しているか否かを判定する(ステップS10)。新規の誤検出が発生していない間(ステップS10でNo)、この情報処理方法は次の手順へ進まない。つまり同じと識別される誤検出が再発生している間は、例えばその誤検出の解消を図るための作業が行われる。
Among the results of the first determination, the erroneous
新規の誤検出が発生している場合(ステップS10でYes)に、この情報処理方法はステップS11へ進む。ステップS11では、この判定の結果に関する情報を誤検出識別部30から通知制御部50を介して受け取ったモデル訓練部60が、機械学習の訓練によって新たな物体検出モデルを取得する。この訓練では、上記の新規の誤検出(この新規の誤検出を指して便宜的に誤検出Aと称する)を発生させた物体検出モデルの訓練に用いた既存の訓練データと、誤検出Aが発生した評価データである画像のデータ及びこの画像に類似する画像のデータとの一方又は両方とが訓練データに用いられる。ステップS11で取得された物体検出モデルを、以下では便宜的にモデルaと称する。ステップS11におけるモデル訓練部60による上記の訓練は、本実施の形態における第1訓練の例であり、モデルaは、本実施の形態における第2モデルの例である。また、評価データとしてモデルaに入力された画像データのうち、検出に誤りがあった画像、つまり誤検出Aが発生した画像のデータは、本実施の形態における第1評価データの例である。
When a new false positive has occurred (Yes in step S10), this information processing method proceeds to step S11. In step S11, the
次は検出処理部10が、モデルaに評価データである画像のデータを入力し、この入力に対してモデルaが出力する物体検出結果を取得する(ステップS20)。モデルaが出力する物体検出結果は、本実施の形態における第2推論結果の例である。
Next, the
次は異常判定部20が、ステップS20でモデルaに入力された評価データのリファレンス情報と、その入力に対してモデルaが出力した物体検出結果とに基づいて、図2に手順を例示した異常判定を実行する(ステップS21)。ステップS21でのこの異常判定は、本実施の形態における第2判定の例である。
Next, the
次に、この第2判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報と過去に受け取って蓄積した誤検出情報と照らし合わせて、誤検出Aと同じか否か識別、つまり、誤検出Aが解消しているか否か確認する(ステップS22)。誤検出Aが解消していない場合(ステップS22でNo)、ステップS11からやり直す。この場合のステップS11は、例えば前回のステップS11の実行時とは使用する訓練データ、又はバッチサイズ、イテレーション数又はエポック数等の機械学習の訓練におけるハイパーパラメータを変えて実行されてもよい。
Next, among the results of the second determination, the erroneous
誤検出Aが解消している場合(ステップS22でYes)、第2判定の結果のうち、未検出情報を異常判定部20から受け取った未検出識別部40は、この未検出情報を過去に受け取って蓄積した未検出情報と照らし合わせて、モデルaの評価のために実行した物体検出処理で新規の未検出が発生しているか否かを判定する(ステップS23)。新規の未検出が発生している場合(ステップS23でYes)、この判定の結果に関する情報が、未検出識別部40から通知制御部50を介してモデル訓練部60に渡される。モデル訓練部60は、機械学習の訓練によってさらに新たな物体検出モデルを取得する(ステップS24)。この訓練では、ステップS11でモデルaの訓練に用いた既存の訓練データと、新規の未検出(この新規の未検出を指して便宜的に未検出Bと称する)が発生した評価データである画像のデータ及びこの画像に類似する画像のデータの一方又は両方とが訓練データに用いられる。ステップS24で取得された物体検出モデルを、以下では便宜的にモデルbと称する。ステップS24におけるモデル訓練部60による上記の訓練は、本実施の形態における第2訓練の例であり、モデルbは、本実施の形態における第3モデルの例である。また、評価データとしてモデルbに入力された画像データのうち、検出に漏れがあった画像、つまり未検出Bが発生した画像のデータは、本実施の形態における第2評価データの例である。
When the erroneous detection A is resolved (Yes in step S22), the
次は検出処理部10が、モデルbに評価データである画像のデータを入力して、この入力に対してモデルbが出力する物体検出結果を取得する(ステップS30)。モデルbが出力する物体検出結果は、本実施の形態における第3推論結果の例である。
Next, the
次は異常判定部20が、ステップS30でモデルbに入力された評価データのリファレンス情報と、その入力に対してモデルbが出力した物体検出結果とに基づいて、図2に手順を例示した異常判定を実行する(ステップS31)。ステップS31でのこの異常判定は、本実施の形態における第3判定の例である。
Next, the
次に、この第3判定の結果のうち、未検出情報を異常判定部20から受け取った未検出識別部40は、この未検出情報と過去に受け取って蓄積した未検出情報と照らし合わせて、未検出Bが解消しているか否か確認する(ステップS32)。未検出Bが解消していない場合(ステップS32でNo)、ステップS24からやり直す。この場合のステップS24は、例えば前回のステップS24の実行時とは使用する訓練データ、又はバッチサイズ、イテレーション数又はエポック数等の機械学習の訓練におけるハイパーパラメータを変えて実行されてもよい。
Next, among the results of the third determination, the
未検出Bが解消している場合(ステップS32でYes)、第3判定の結果のうち、誤検出情報を異常判定部20から受け取った誤検出識別部30は、この誤検出情報に基づいて、誤検出が発生しているか否か判定する(ステップS33)。誤検出が発生している場合(ステップS33でYes)、過去に受け取って蓄積した誤検出情報と照らし合わせて、モデルbで発生したこの誤検出が、いったん解消した誤検出Aの再発生であるか否かさらに判定する(ステップS40)。ステップS40での判定の結果は、通知制御部50に入力される。誤検出Aが再発生している場合(ステップS40でYes)、通知制御部50は、訓練限界に関する情報を出力、例えばこの情報を示す所定のデータを表示装置又はスピーカに出力して、物体検知モデル作成の作業者に通知する(ステップS50)。訓練限界に関する情報は、例えば、訓練限界に到達した可能性を示す。このような通知を受けることで作業者は、取り組んでいた機械学習の訓練によるモデルの性能の向上が限界を迎えたことを知ることができる。
When the undetected B is resolved (Yes in step S32), the erroneous
また、図3の例では、誤検出Aが、その後に訓練を経て得られたモデルaで解消しており(ステップS22でYes)、かつ、モデルaでは未検出も発生しない場合(ステップS23でNo)に、背反が発生していないことがユーザに通知される(ステップS51)。同様に、モデルaで発生した未検出Bが、その後に訓練を経て得られたモデルbではいったん解消しており(ステップS32でYes)、かつ、モデルbでは誤検出も発生しない場合(ステップS33でNo)にも、背反が発生していないこと、又は訓練限界未達の旨がユーザに通知される(ステップS51)。 Further, in the example of FIG. 3, the false detection A is eliminated by the model a obtained through the subsequent training (Yes in step S22), and no undetection occurs in the model a (in step S23). In No), the user is notified that no conflict has occurred (step S51). Similarly, when the undetected B generated in the model a is once eliminated in the model b obtained through the subsequent training (Yes in step S32), and no false detection occurs in the model b (step S33). In No), the user is notified that no conflict has occurred or that the training limit has not been reached (step S51).
なお、上記の手順は一例であり、本実施の形態に係る情報処理方法での処理内容はこの例に限定されない。例えば上記の例では、先に発生した誤検出Aをいったん解消させた際に発生した未検出Bを解消すると、すでに解消させていた誤検出Aが再発生するという事象の発生を条件として、訓練限界に到達したと判定されている。訓練限界に到達したと判定する条件としてこのように用い得る事象の内容はこれに限定されず、複数の異常を同時に解消できないという背反の発生であればよい。例えば上記の例における誤検出と未検出とを入れ替え、先に発生した未検出をいったん解消させた際に発生した誤検出を解消すると、すでに解消させていた未検出が再発生するという事象の発生をもって、訓練限界に到達したと判定されてもよい。また、同時に解消できない複数の誤検出の存在という事象、又は同時に解消できない複数の未検出の存在という事象の発生が、訓練限界に到達したと判定する条件である背反の内容であってもよい。 The above procedure is an example, and the processing content of the information processing method according to the present embodiment is not limited to this example. For example, in the above example, if the undetected B that occurred when the false detection A that occurred earlier is resolved is eliminated, the training is performed on the condition that the false positive A that has already been resolved reoccurs. It is determined that the limit has been reached. The content of the event that can be used in this way as a condition for determining that the training limit has been reached is not limited to this, and any contradictory occurrence may occur in which a plurality of abnormalities cannot be resolved at the same time. For example, if the false detection and the undetected in the above example are exchanged and the false detection that occurred when the previously generated undetected is once resolved, the undetected that has already been resolved will reoccur. It may be determined that the training limit has been reached. In addition, the occurrence of a plurality of false positives that cannot be resolved at the same time, or the occurrence of a plurality of undetected events that cannot be resolved at the same time may be contradictory conditions that are conditions for determining that the training limit has been reached.
(変形例及びその他の補足事項)
本開示の一又は複数の態様に係る情報処理方法は、上記実施の形態の説明に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が想到する各種の変形を上記の実施の形態に施したものも本開示の態様に含まれる。下記にそのような変形の例、及び実施の形態の説明へのその他の補足事項を挙げる。
(Modification example and other supplementary items)
The information processing method according to one or more aspects of the present disclosure is not limited to the description of the above embodiment. As long as it does not deviate from the gist of the present disclosure, various modifications conceived by those skilled in the art are also included in the embodiment of the present disclosure. Examples of such modifications and other supplements to the description of embodiments are given below.
(1)上記実施の形態の説明では、物体検出モデルが出力した物体検出結果が誤検出であるか否かの評価尺度としてIoUが用いられているが、物体検出結果の評価手法はこれに限定されない。IoU以外に本開示の情報処理方法において利用可能な、検出枠と正解枠とに基づいて取得される評価尺度の例として、Precision(適合率ともいう。誤りの評価に使用)、Recall(再現率ともいう。漏れの評価に使用)及びF値(誤り及び漏れの評価に使用)が挙げられる。 (1) In the description of the above embodiment, IoU is used as an evaluation scale for whether or not the object detection result output by the object detection model is erroneous detection, but the evaluation method for the object detection result is limited to this. Not done. As an example of the evaluation scale acquired based on the detection frame and the correct answer frame, which can be used in the information processing method of the present disclosure other than IoU, Precision (also referred to as precision rate, which is used for error evaluation) and Recall (recall rate). Also referred to as (used for leak evaluation) and F value (used for error and leak evaluation).
(2)上記実施の形態の説明における、通知制御部50による、通知のための表示装置又はスピーカで再生するためのデータの出力は、情報処理システム100からの出力の一形態の例であって、他の形態であってもよい。例えば情報処理システム100が備える、又は情報処理システム100の外部の記憶装置(図示なし)で、情報処理システム100での機械学習の訓練に関するログとして保管するためのデータの出力であってもよい。また別の例として、情報処理システム100内又は外部での何らかの情報処理での処理対象のデータ又は参照されるデータとして出力されてもよい。例えば、推論モデルの作成のためのハイパーパラメータを決定する情報処理に用いられてもよい。
(2) The output of data to be reproduced by the display device for notification or the speaker by the
(3)上記実施の形態におけるステップS11でモデルa、ステップS24でモデルbを得るための機械学習の訓練は、全訓練データを用いた訓練であって各モデルを一から作成するものであってよい。この場合、第1モデル、第2モデル及び第3モデルは互いに独立したモデルとして取得される。追加した訓練データを用いて既存のモデルに追加的に実行されるものであってもよい。後者について図3の例に沿って具体的に説明すると、ステップS24でモデルbを得るために、モデルaによる物体検出で未検出が発生した画像のデータ及びこの画像に類似する画像のデータの一方又は両方を用いてモデルaに対し追加的な訓練を実行することである。そしてこの場合、第1モデルが更新されたものが第2モデルとして取得され、第2モデルが更新されたものが第3モデルとして取得される。 (3) The machine learning training for obtaining the model a in step S11 and the model b in step S24 in the above embodiment is training using all training data, and each model is created from scratch. Good. In this case, the first model, the second model, and the third model are acquired as independent models. It may be additionally executed on an existing model using the added training data. The latter will be specifically described with reference to the example of FIG. 3. One of the data of the image in which the object detection by the model a has not been detected and the data of the image similar to this image in order to obtain the model b in step S24. Or both are used to perform additional training on model a. Then, in this case, the updated version of the first model is acquired as the second model, and the updated version of the second model is acquired as the third model.
(4)上記実施の形態では、背反の発生について、あるひとつの異常(未検出又は誤検出)が、いったん解消した後に他のひとつの異常(未検出又は誤検出)を挟んで再発生する例を用いて説明している。しかしながら、この再発生した異常の間に発生する異常は1個に限定されない。例えば、ある所望のモデルを得るために実行される機械学習の訓練、物体検出及び物体検出結果の異常判定を含むサイクルを繰り返す際に、各サイクルで発生した異常の内容に関する情報を蓄積し、各サイクルで異常が発生した場合には各異常と内容を照合する。この照合の結果、最新のサイクルで発生した異常の内容が過去のいずれのサイクルで発生した異常と同一と識別し得る場合も、本開示における背反に含まれ得る。この意味で、本開示における第1推論結果、第2推論結果及び第3推論結果は、上記サイクルの繰り返しの中で時間軸上この順序で取得される任意のものであってよく、連続的に得られるものに限定されない。 (4) In the above embodiment, with respect to the occurrence of the contradictory, one abnormality (undetected or erroneous detection) is once resolved and then reoccurs with another abnormality (undetected or erroneous detection). Is explained using. However, the number of abnormalities that occur during this reoccurring abnormality is not limited to one. For example, when repeating a cycle including machine learning training executed to obtain a desired model, object detection, and abnormality determination of the object detection result, information on the content of the abnormality generated in each cycle is accumulated and each When an abnormality occurs in the cycle, the contents are collated with each abnormality. As a result of this collation, if the content of the abnormality that occurred in the latest cycle can be identified as the same as the abnormality that occurred in any of the past cycles, it may be included in the contradictory in the present disclosure. In this sense, the first inference result, the second inference result, and the third inference result in the present disclosure may be any one acquired in this order on the time axis in the repetition of the above cycle, and may be continuously obtained. It is not limited to what can be obtained.
(5)上記実施の形態は、画像データに対する物体検出を行う推論モデルを例に用いて説明しているが、推論モデルによる処理対象は画像データに限定されない。画像データ以外のセンサデータ、具体例として、音声、距離点群、圧力、温度、湿度、におい等のデータでもよいし、センサデータ以外のデータ、例えば言語のデータであってもよい。そして推論モデルは、これらのデータが入力されると、例えば音声認識、話者認識、文体解析等の結果を出力するものであってもよい。 (5) Although the above-described embodiment is described using an inference model that detects an object for image data as an example, the processing target by the inference model is not limited to the image data. Sensor data other than image data, as specific examples, data such as voice, distance point group, pressure, temperature, humidity, odor, etc., or data other than sensor data, for example, language data may be used. Then, when these data are input, the inference model may output the results of, for example, voice recognition, speaker recognition, stylistic analysis, and the like.
(6)上述の各情報処理システムが備える機能的な構成要素の一部又は全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)で構成されてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。ROMには、コンピュータプログラムが記憶されている。マイクロプロセッサがこのコンピュータプログラムに従って動作することにより、システムLSIは各構成要素の機能を達成する。 (6) A part or all of the functional components included in each of the above-mentioned information processing systems may be configured by one system LSI (Large Scale Integration). A system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip. Specifically, a microprocessor, a ROM (Read-Only Memory), and a RAM (Random Access Memory) are used. It is a computer system that includes such as. A computer program is stored in the ROM. When the microprocessor operates according to this computer program, the system LSI achieves the function of each component.
なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Although it is referred to as a system LSI here, it may be referred to as an IC, an LSI, a super LSI, or an ultra LSI depending on the degree of integration. Further, the method of making an integrated circuit is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. An FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, or a reconfigurable processor that can reconfigure the connection and settings of circuit cells inside the LSI may be used.
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。 Furthermore, if an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology or another technology derived from it, functional blocks may be integrated using that technology. The application of biotechnology, etc. is possible.
(7)本開示の一態様は、図2又は図3のフロー図を用いて上述した情報処理方法に限定されず、コンピュータによって実行されるプログラム、及びコンピュータを含む情報処理システムであってもよい。また、本開示の一態様は、そのようなコンピュータプログラムが記録された、コンピュータ読み取り可能な非一時的な記録媒体であってもよい。 (7) One aspect of the present disclosure is not limited to the information processing method described above using the flow chart of FIG. 2 or FIG. 3, and may be a program executed by a computer and an information processing system including the computer. .. Also, one aspect of the present disclosure may be a computer-readable, non-temporary recording medium on which such a computer program is recorded.
本開示に係る情報処理方法等は、機械学習の訓練を通して性能の向上が図られるモデルの開発に利用可能である。 The information processing method and the like according to the present disclosure can be used for developing a model whose performance is improved through machine learning training.
10 検出処理部
20 異常判定部
30 誤検出識別部
40 未検出識別部
50 通知制御部
60 モデル訓練部
100 情報処理システム
D10 評価データ
D20 訓練データ
10
Claims (5)
評価データを取得し、
推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、
前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、
前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、
前記第2モデルに前記評価データを入力して第2推論結果を取得し、
前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、
前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、
前記第3モデルに前記評価データを入力して第3推論結果を取得し、
前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、
前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する
情報処理方法。 It is an information processing method that is executed by a computer.
Get evaluation data,
The evaluation data is input to the first model that executes the inference process, and the first inference result is acquired.
Based on the first inference result and the reference information of the evaluation data, the first determination for determining an error or omission of the first inference result with respect to the evaluation data is executed.
The second model is created by the first training of machine learning in which one or both of the first evaluation data in which the first inference result is erroneous or omission and the data similar to the first evaluation data are included in the training data. Acquired,
The evaluation data is input to the second model to obtain the second inference result.
Based on the second inference result and the reference information of the evaluation data, a second determination for determining an error or omission of the second inference result with respect to the evaluation data is executed.
Training data of one or both of the second evaluation data in which the error or omission that was not in the first inference result in the evaluation data was in the second inference result and the data similar to the second evaluation data. Acquired the third model by the second training of machine learning performed in
The evaluation data is input to the third model to obtain the third inference result.
Based on the third inference result and the reference information of the evaluation data, a third determination for determining an error or omission of the third inference result with respect to the evaluation data is executed.
An information processing method that outputs information regarding the training limit of the first model when it is identified that the error or omission in the third inference result and the error or omission in the first inference result are the same.
前記推論処理は物体検出処理であり、
前記第1推論結果、前記第2推論結果及び前記第3推論結果は、それぞれ物体検出結果である
請求項1に記載の情報処理方法。 The evaluation data is image data and
The inference process is an object detection process.
The information processing method according to claim 1, wherein the first inference result, the second inference result, and the third inference result are object detection results, respectively.
前記リファレンス情報は、リファレンスとしての物体の検出枠である第2検出枠を含み、
前記誤り又は前記漏れは、前記第1検出枠と前記第2検出枠とに基づいて判定される
請求項2に記載の情報処理方法。 The object detection result includes a first detection frame which is a detection frame of an object as a result of the object detection process.
The reference information includes a second detection frame, which is a detection frame for an object as a reference.
The information processing method according to claim 2, wherein the error or the omission is determined based on the first detection frame and the second detection frame.
前記通知は、画像又は音声を介して実行される
請求項1〜3のいずれか一項に記載の情報処理方法。 By outputting the information, notification of the possibility that the training limit has been reached is executed, and the notification is executed.
The information processing method according to any one of claims 1 to 3, wherein the notification is executed via an image or voice.
異常判定部と、
モデル訓練部と、
通知制御部とを備え、
前記推論処理部は、評価データを取得し、推論処理を実行する第1モデルに前記評価データを入力して第1推論結果を取得し、
前記異常判定部は、前記第1推論結果と前記評価データのリファレンス情報とに基づき、前記第1推論結果の前記評価データに対する誤り又は漏れを判定する第1判定を実行し、
前記モデル訓練部は、前記第1推論結果に誤り又は漏れがあった第1評価データと、前記第1評価データに類似するデータとの一方又両方を訓練データに含めて行う機械学習の第1訓練によって第2モデルを取得し、
前記推論処理部はさらに、前記第2モデルに前記評価データを入力して第2推論結果を取得し、
前記異常判定部はさらに、前記第2推論結果と前記評価データのリファレンス情報とに基づき、前記第2推論結果の前記評価データに対する誤り又は漏れを判定する第2判定を実行し、
前記モデル訓練部はさらに、前記評価データのうちで前記第1推論結果にはなかった誤り又は漏れが前記第2推論結果にあった第2評価データと、前記第2評価データに類似するデータとの一方又は両方を訓練データに含めて行う機械学習の第2訓練によって第3モデルを取得し、
前記推論処理部はさらに、前記第3モデルに前記評価データを入力して第3推論結果を取得し、
前記異常判定部はさらに、前記第3推論結果と前記評価データのリファレンス情報とに基づき、前記第3推論結果の前記評価データに対する誤り又は漏れを判定する第3判定を実行し、
前記通知制御部は、前記第3推論結果にあった誤り又は漏れと前記第1推論結果にあった誤り又は漏れとが同じであると識別される場合、前記第1モデルの訓練限界に関する情報を出力する
情報処理システム。 Inference processing unit and
Abnormality judgment unit and
Model training department and
Equipped with a notification control unit
The inference processing unit acquires the evaluation data, inputs the evaluation data into the first model that executes the inference processing, acquires the first inference result, and obtains the first inference result.
The abnormality determination unit executes a first determination for determining an error or omission of the first inference result with respect to the evaluation data based on the first inference result and the reference information of the evaluation data.
The model training unit includes one or both of the first evaluation data in which the first inference result is erroneous or omission and data similar to the first evaluation data in the training data, and the first machine learning is performed. Obtained the second model by training,
The inference processing unit further inputs the evaluation data into the second model to acquire the second inference result.
The abnormality determination unit further executes a second determination for determining an error or omission of the second inference result with respect to the evaluation data based on the second inference result and the reference information of the evaluation data.
The model training unit further includes a second evaluation data in which an error or omission that was not in the first inference result in the evaluation data was found in the second inference result, and data similar to the second evaluation data. Acquire the third model by the second training of machine learning that includes one or both in the training data.
The inference processing unit further inputs the evaluation data into the third model to acquire the third inference result.
The abnormality determination unit further executes a third determination for determining an error or omission of the third inference result with respect to the evaluation data based on the third inference result and the reference information of the evaluation data.
When the notification control unit identifies that the error or omission in the third inference result and the error or omission in the first inference result are the same, the notification control unit provides information on the training limit of the first model. Information processing system to output.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010635507.XA CN112241792A (en) | 2019-07-19 | 2020-07-03 | Information processing method and information processing system |
EP20185041.9A EP3767537A1 (en) | 2019-07-19 | 2020-07-09 | Information processing method and information processing system |
US16/929,541 US11494704B2 (en) | 2019-07-19 | 2020-07-15 | Information processing method and information processing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962876137P | 2019-07-19 | 2019-07-19 | |
US62/876,137 | 2019-07-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021018798A true JP2021018798A (en) | 2021-02-15 |
JP7402082B2 JP7402082B2 (en) | 2023-12-20 |
Family
ID=74566078
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020033062A Active JP7402082B2 (en) | 2019-07-19 | 2020-02-28 | Information processing method and information processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7402082B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113486766A (en) * | 2021-07-01 | 2021-10-08 | 新疆大学 | Remote sensing image vehicle target detection method based on deep neural network |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5720003A (en) * | 1994-10-27 | 1998-02-17 | Lucent Technologies Inc. | Method and apparatus for determining the accuracy limit of a learning machine for predicting path performance degradation in a communications network |
JP2009135649A (en) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | Data processing apparatus, data processing method, and program |
JP2018005520A (en) * | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | Object detection device and object detection method |
-
2020
- 2020-02-28 JP JP2020033062A patent/JP7402082B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5720003A (en) * | 1994-10-27 | 1998-02-17 | Lucent Technologies Inc. | Method and apparatus for determining the accuracy limit of a learning machine for predicting path performance degradation in a communications network |
JP2009135649A (en) * | 2007-11-29 | 2009-06-18 | Mitsubishi Electric Corp | Data processing apparatus, data processing method, and program |
JP2018005520A (en) * | 2016-06-30 | 2018-01-11 | クラリオン株式会社 | Object detection device and object detection method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113486766A (en) * | 2021-07-01 | 2021-10-08 | 新疆大学 | Remote sensing image vehicle target detection method based on deep neural network |
Also Published As
Publication number | Publication date |
---|---|
JP7402082B2 (en) | 2023-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7539511B2 (en) | Discrimination for spectroscopic classification with reduced false positives | |
US11494704B2 (en) | Information processing method and information processing system | |
CN111104335B (en) | C language defect detection method and device based on multi-level analysis | |
CN105677572B (en) | Based on self organizing maps model cloud software performance exception error diagnostic method and system | |
EP3517931A1 (en) | Reduced false positive identification for spectroscopic quantification | |
CN111914665A (en) | Face shielding detection method, device, equipment and storage medium | |
CN109086734A (en) | The method and device that pupil image is positioned in a kind of pair of eye image | |
CN113780466A (en) | Model iterative optimization method and device, electronic equipment and readable storage medium | |
CN115600891B (en) | Big data analysis method and system applied to production monitoring of aqueous acrylic resin | |
CN113838480B (en) | Washing machine abnormal sound detection method and device and electronic equipment | |
CN115861161A (en) | Machine learning system, learning data collection method, and storage medium | |
CN112363936A (en) | Method and device for testing differential coverage rate, computer equipment and storage medium | |
WO2019121655A1 (en) | A probability-based detector and controller apparatus, method, computer program | |
JP2021018798A (en) | Information processing method and information processing system | |
CN113052019B (en) | Target tracking method and device, intelligent equipment and computer storage medium | |
JP6786015B1 (en) | Motion analysis system and motion analysis program | |
CN108762908A (en) | System calls method for detecting abnormality and device | |
CN112534472B (en) | Image determination device, image determination method, and recording medium for program thereof | |
CN111722863A (en) | Method and device for updating wind control model | |
US20190325606A1 (en) | Inspection apparatus | |
JP2019003333A (en) | Bug contamination probability calculation program and bug contamination probability calculation method | |
CN112434959A (en) | Engineering measurement data processing method based on cloud computing and computer equipment | |
KR102613633B1 (en) | Ai model training apparatus and method for reading test results of a diagnostic kit | |
US20230316718A1 (en) | Learning model generating method and inspection device | |
CN112907684B (en) | Humidity detection method, device, equipment and medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221206 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7402082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |