JP7308775B2 - Machine learning method and information processing device for machine learning - Google Patents

Machine learning method and information processing device for machine learning Download PDF

Info

Publication number
JP7308775B2
JP7308775B2 JP2020021453A JP2020021453A JP7308775B2 JP 7308775 B2 JP7308775 B2 JP 7308775B2 JP 2020021453 A JP2020021453 A JP 2020021453A JP 2020021453 A JP2020021453 A JP 2020021453A JP 7308775 B2 JP7308775 B2 JP 7308775B2
Authority
JP
Japan
Prior art keywords
reliability
image
data
learning
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020021453A
Other languages
Japanese (ja)
Other versions
JP2021128415A (en
JP2021128415A5 (en
Inventor
晴彦 樋口
光二 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Priority to JP2020021453A priority Critical patent/JP7308775B2/en
Priority to PCT/JP2020/044928 priority patent/WO2021161628A1/en
Priority to US17/794,791 priority patent/US20230080978A1/en
Priority to TW110102261A priority patent/TWI754520B/en
Publication of JP2021128415A publication Critical patent/JP2021128415A/en
Publication of JP2021128415A5 publication Critical patent/JP2021128415A5/ja
Application granted granted Critical
Publication of JP7308775B2 publication Critical patent/JP7308775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation

Description

本発明は、機械学習にかかわる情報処理技術に関する。 The present invention relates to information processing technology related to machine learning.

機械学習を用いた処理装置においては、学習によって得られる認識等の処理の信頼性や精度の向上が求められる。 Processing devices using machine learning are required to improve the reliability and accuracy of processing such as recognition obtained by learning.

例えば特許文献1では、機械学習を用いた画像認識技術において、学習用データを選択する技術を開示している。特許文献1に開示されている技術によれば、想定外の環境変化に対して、学習による画像認識処理の認識精度の低下を抑制することができる。 For example, Patent Literature 1 discloses a technique for selecting learning data in an image recognition technique using machine learning. According to the technology disclosed in Patent Literature 1, it is possible to suppress deterioration in recognition accuracy of image recognition processing due to learning due to unexpected environmental changes.

また非特許文献1では、深層学習において、認識における不確かさ(Epistemic Uncertainty)と偶発的な不確かさ(Aleatoric Uncertainty)を評価する技術が報告されている。 In addition, Non-Patent Document 1 reports a technique for evaluating epistemic uncertainty and oleatoric uncertainty in recognition in deep learning.

特開2019-21201号公報Japanese Unexamined Patent Application Publication No. 2019-21201

“What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision?” Alex Kendall et.al, 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA.“What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision?” Alex Kendall et.al, 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA.

特許文献1では、画像認識処理を行うときに、判別の信頼度が低くかつ頻度が少ないデータを、学習に用いるデータとして選択している。 In Patent Document 1, when image recognition processing is performed, data with low reliability and low frequency of discrimination are selected as data to be used for learning.

しかし、電子顕微鏡による材料解析のように、解析すべきデータの量が多くデータもしくはデータから認識すべき対象に異なる重要度があるような場合においては、判別の信頼度が低くかつ頻度が少ないデータを学習に用いても解析精度が低下することがあり得る。例えば、撮影環境が変化したとしても、より重要度の高い物体を検出できることが求められる。 However, in cases where the amount of data to be analyzed is large, such as material analysis using an electron microscope, and the data or objects to be recognized from the data have different levels of importance, the reliability of discrimination is low and the frequency of data is low. is used for learning, the analysis accuracy may decrease. For example, even if the shooting environment changes, it is required to be able to detect objects of higher importance.

本発明は、画像解析の精度を向上し得る学習条件を提示する手法を提供することを目的とする。 An object of the present invention is to provide a method of presenting learning conditions that can improve the accuracy of image analysis.

本発明の好ましい一側面は、画像解析結果の正誤情報を生成する正誤情報生成部と、画像解析処理において解析に関わる信頼性を判定する信頼性判定部と、正誤情報および信頼性に基づき学習条件を提示する学習条件出力部と、を備える、機械学習用情報処理装置である。 A preferred aspect of the present invention includes a correct/incorrect information generating unit that generates correct/incorrect information of an image analysis result, a reliability determination unit that determines reliability related to analysis in image analysis processing, and a learning condition based on the correct/incorrect information and reliability. and a learning condition output unit that presents the information processing apparatus for machine learning.

本発明の好ましい他の一側面は、学習データを用いた機械学習が適用されたモデルが実装され、入力された画像に対して画像解析を行う画像解析装置の機械学習方法である。この方法では、入力された画像に関する画像解析装置の解析結果に対して正誤判定を行う、第1のステップ、モデルの信頼性およびデータの信頼性の少なくとも一つを含む画像解析の信頼性を評価する、第2のステップ、正誤判定と画像解析の信頼性に基づいて、現状維持、入力された画像を学習データに利用することの推奨、入力された画像を学習データに利用しないことの推奨、および学習設定値の変更、の少なくとも一つを提示する第3のステップ、を実行する
さらに具体的な態様を説明すると、モデルの信頼性を所定の閾値と比較して大小を識別する第4のステップを実行し、第3のステップでは、解析結果が正であり、かつモデルの信頼性が大のとき、現状維持を提示し、解析結果が正であり、かつモデルの信頼性が小のとき、前記入力された画像を学習データに利用することの推奨を提示し、解析結果が誤であり、かつモデルの信頼性が大のとき、学習設定値の変更を提示し、解析結果が誤であり、かつモデルの信頼性が小のとき、前記入力された画像を学習データに利用することの推奨を提示する。
Another preferable aspect of the present invention is a machine learning method for an image analysis device in which a model to which machine learning using learning data is applied is implemented, and image analysis is performed on an input image. In this method, the reliability of the image analysis is evaluated including at least one of the reliability of the model and the reliability of the data in the first step of judging whether the analysis result of the image analysis device regarding the input image is correct or incorrect. , the second step, based on the reliability of correctness judgment and image analysis, maintain the status quo, recommend using the input image as learning data, recommend not using the input image as learning data, and a change in the learning set value. a third step, when the analysis result is positive and the model confidence is high, present the status quo; when the analysis result is positive and the model confidence is low , presenting a recommendation to use the input image as learning data, and if the analysis result is incorrect and the reliability of the model is high, presenting a change in the learning set value, and indicating that the analysis result is incorrect. If there is and the reliability of the model is small, a recommendation to use the input image as training data is presented.

別のさらに具体的な態様を説明すると、データの信頼性を所定の閾値と比較して大小を識別する第5のステップを実行し、第3のステップでは、解析結果が正であり、かつデータの信頼性が大のとき、現状維持を提示し、解析結果が正であり、かつデータの信頼性が小のとき、前記入力された画像を学習データに利用しないことの推奨を提示し、解析結果が誤であり、かつデータの信頼性が大のとき、学習設定値の変更を提示し、解析結果が誤であり、かつデータの信頼性が小のとき、前記入力された画像を学習データに利用しないことの推奨を提示する。 Describing another more specific aspect, performing a fifth step of comparing the reliability of the data with a predetermined threshold value to identify large or small; When the reliability of the image is high, presenting the status quo, when the analysis result is positive and the reliability of the data is low, presenting a recommendation not to use the input image as learning data, and analyzing If the result is incorrect and the reliability of the data is high, a change in the learning set value is suggested, and if the analysis result is incorrect and the reliability of the data is low, the input image is used as learning data. present a recommendation not to use

本発明によれば、画像解析の精度を向上し得る学習条件を提示することができる。上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, it is possible to present learning conditions that can improve the accuracy of image analysis. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

機械学習用情報処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structural example of the information processing apparatus for machine learning. 解析対象の画像および解析結果の画像の一例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of an image to be analyzed and an image of an analysis result; 利用者により解析の正誤を選択する方法の例を説明する説明図である。FIG. 10 is an explanatory diagram for explaining an example of a method for a user to select whether an analysis is correct or incorrect; 学習条件の判定の例を説明するための表図である。FIG. 5 is a table diagram for explaining an example of learning condition determination; 信頼性と解析結果の正誤の対応の一例を示す説明図である。FIG. 10 is an explanatory diagram showing an example of correspondence between reliability and correctness/incorrectness of an analysis result; 機械学習用情報処理を示すフローチャートである。It is a flow chart which shows information processing for machine learning. 機械学習用情報処理で用いるインターフェースの画面例を示す平面図である。FIG. 4 is a plan view showing an example screen of an interface used in information processing for machine learning;

以下、図面に基づき、本発明の実施形態を詳述する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている諸要素およびその組み合わせの全てが発明の解決手段に必須であるとは限らない。また実施形態の中で説明されている諸要素を適宜組み合わせた形態も、本願が開示する実施形態に含まれる。 Hereinafter, embodiments of the present invention will be described in detail based on the drawings. In addition, the embodiments described below do not limit the invention according to the claims, and all of the elements described in the embodiments and their combinations are essential to the solution of the invention. Not necessarily. In addition, the embodiments disclosed in the present application also include forms in which various elements described in the embodiments are appropriately combined.

以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、重複する説明は省略することがある。 In the configuration of the invention described below, the same reference numerals may be used in common for the same parts or parts having similar functions between different drawings, and redundant description may be omitted.

同一あるいは同様な機能を有する要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、複数の要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of elements having the same or similar functions, they may be described with the same reference numerals and different suffixes. However, if there is no need to distinguish between multiple elements, the subscripts may be omitted.

本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。 Notations such as “first”, “second”, “third” in this specification etc. are attached to identify the constituent elements, and do not necessarily limit the number, order, or content thereof isn't it. Also, numbers for identifying components are used for each context, and numbers used in one context do not necessarily indicate the same configuration in other contexts. Also, it does not preclude a component identified by a certain number from having the function of a component identified by another number.

図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each component shown in the drawings, etc. may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the positions, sizes, shapes, ranges, etc. disclosed in the drawings and the like.

本明細書で引用した刊行物、特許および特許出願は、そのまま本明細書の説明の一部を構成する。 All publications, patents and patent applications cited herein are hereby incorporated by reference into this description.

本明細書において単数形で表される構成要素は、特段文脈で明らかに示されない限り、複数形を含むものとする。 Elements presented herein in the singular shall include the plural unless the context clearly dictates otherwise.

実施例で説明される機械学習用情報処理装置の一例は、機械学習が適用される解析装置の学習を支援する用途に用いられるものである。機械学習としては、学習データ(教師データ)を用いてニューラルネットワークを学習するものがあげられる。この装置は、画像解析結果の正誤情報を生成する正誤情報生成部と、画像解析処理において解析に関わる信頼性を判定する信頼性判定部と、正誤情報および信頼性に基づき学習条件を提示する学習条件出力部と、を備える。 An example of the information processing device for machine learning described in the embodiments is used for supporting learning of an analysis device to which machine learning is applied. As machine learning, learning data (teacher data) is used to learn a neural network. This device includes a correct/incorrect information generation unit that generates correct/incorrect information of the image analysis result, a reliability determination unit that determines the reliability related to the analysis in the image analysis process, and a learning condition that presents learning conditions based on the correct/incorrect information and reliability. and a condition output unit.

このような機械学習用情報処理装置は、一般的な情報処理装置、例えばサーバーによって構成可能である。一般的なサーバーと同様に、かかる機械学習用情報処理装置は、制御装置と、記憶装置と、入力装置と、出力装置と、各部を接続するバスを備えている。装置で実行されるプログラムは、記憶装置に予め組み込んでおくものとする。以下の説明では、情報処理装置が当然備える制御装置、記憶装置、入力装置、出力装置を敢えて図示することはなく、装置で実現される機能に着目して説明する。 Such an information processing device for machine learning can be configured by a general information processing device such as a server. Like a general server, the information processing device for machine learning includes a control device, a storage device, an input device, an output device, and a bus connecting each part. It is assumed that the program executed by the device is preinstalled in the storage device. In the following description, the control device, storage device, input device, and output device naturally included in the information processing device will not be illustrated, and the description will focus on the functions realized by the device.

具体的には、各機能は記憶装置に記憶され、処理装置で実行されるプログラムによって実現される。すなわち、本実施例では計算や制御等の機能は、記憶装置に格納されたプログラムが処理装置によって実行されることで、定められた処理を他のハードウェアと協働して実現される。計算機などが実行するプログラム、その機能、あるいはその機能を実現する手段を、「機能」、「手段」、「部」、「ユニット」、「モジュール」等と呼ぶ場合がある。 Specifically, each function is stored in a storage device and realized by a program executed by a processing device. That is, in the present embodiment, functions such as calculation and control are realized by cooperating with other hardware by executing a program stored in the storage device by the processing device. A program executed by a computer or the like, its function, or a means for realizing that function may be referred to as a "function," "means," "unit," "unit," "module," or the like.

機械学習用情報処理装置の構成は、単体の装置で構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、ネットワークで接続された他のコンピュータで構成されてもよい。発明の思想としては等価であり、変わるところがない。 The configuration of the information processing device for machine learning may be composed of a single device, or any part of the input device, output device, processing device, and storage device may be composed of other computers connected by a network. may be The idea of the invention is equivalent, and there is no change.

本実施例中、ソフトウェアで構成した機能と同等の機能は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)などのハードウェアでも実現できる。そのような態様も本願発明の範囲に含まれる。 In the present embodiment, functions equivalent to those configured by software can also be realized by hardware such as FPGA (Field Programmable Gate Array) and ASIC (Application Specific Integrated Circuit). Such aspects are also included in the scope of the present invention.

図1は、実施形態に係る機械学習用情報処理装置100の構成例を示すブロック図である。機械学習用情報処理装置100は、正誤情報生成部101、信頼性判定部102、学習条件出力部103および表示内容生成部104を備える。正誤情報生成部101、信頼性判定部102、学習条件出力部103および表示内容生成部104は、バス106を介して接続されている。バス106は、バス106に接続されている各処理部で扱われるデータ、制御情報および解析情報を保持し、もしくは伝送を仲介する。 FIG. 1 is a block diagram showing a configuration example of an information processing apparatus 100 for machine learning according to an embodiment. The machine learning information processing apparatus 100 includes a correct/incorrect information generation unit 101 , a reliability determination unit 102 , a learning condition output unit 103 and a display content generation unit 104 . The correct/wrong information generation unit 101 , reliability determination unit 102 , learning condition output unit 103 and display content generation unit 104 are connected via a bus 106 . The bus 106 holds or mediates transmission of data, control information and analysis information handled by each processing unit connected to the bus 106 .

冒頭で述べたように、本実施例では、正誤情報生成部101、信頼性判定部102、学習条件出力部103および表示内容生成部104はソフトウェアで実装するものとする。また、機械学習用情報処理装置100は情報処理装置として通常備える、各種の入出力装置やインターフェースを備えるものとする。 As described at the beginning, in this embodiment, the correctness/incorrectness information generation unit 101, the reliability determination unit 102, the learning condition output unit 103, and the display content generation unit 104 are implemented by software. In addition, the machine learning information processing apparatus 100 is assumed to include various input/output devices and interfaces that are normally provided as an information processing apparatus.

機械学習用情報処理装置100は、バス106を介して画像解析装置110および入出力装置111に接続されている。機械学習用情報処理装置100は、画像解析装置110および入出力装置111と有線接続されてもよいし、無線接続されてもよい。なお、図1では、画像解析装置110および入出力装置111は、機械学習用情報処理装置100の外部に設けた例で示したが、機械学習用情報処理装置100に内蔵されていてもよい。 The machine learning information processing apparatus 100 is connected to an image analysis apparatus 110 and an input/output apparatus 111 via a bus 106 . The information processing apparatus for machine learning 100 may be wired or wirelessly connected to the image analysis apparatus 110 and the input/output apparatus 111 . Although the image analysis device 110 and the input/output device 111 are provided outside the information processing device 100 for machine learning in FIG. 1, they may be built in the information processing device 100 for machine learning.

画像解析装置110は、画像から特定の対象を解析する機能を有する。画像を解析する処理は、画像を特定の特徴を有するか否かを分類して、1つ以上の分類結果を算出するものでも良いし、画像において特定の対象が含まれる領域を検出して、画像における対象の位置や大きさを算出するものでもよいし、画像において特定の対象が含まれる領域をセグメントとして分けて、他の対象と色を分けた画像として算出するものでも良い。以降、画像の分類、画像の検出、画像のセグメント分けに代表されるように、画像から特定の対象を解析する処理を、画像解析と呼ぶこととする。画像解析処理については公知の技術を用いる。 The image analysis device 110 has a function of analyzing a specific target from an image. The process of analyzing an image may classify the image as to whether or not it has a specific feature and calculate one or more classification results, or detect an area containing a specific target in the image, The position and size of the target in the image may be calculated, or the area including the specific target in the image may be divided into segments and calculated as an image in which the color is different from that of other targets. Hereinafter, processing for analyzing a specific target from an image, represented by image classification, image detection, and image segmentation, will be referred to as image analysis. A known technique is used for image analysis processing.

画像解析装置110は、典型的な例示としては、教師有り学習によって内部パラメータを設定されるディープニューラルネットワーク(DNN)等で構成することができる。当該構成は、ソフトウェアで実装してもよいし、FPGAのようなハードウェアで構成してもよい。画像解析装置110は、一般的には所定の入力に対して所定の出力を行う関数近似器として定義される。一般的な関数近似器とした場合、入力は上記のように画像データでもよいし、音声その他の種類のデータを入力としてもよい。 As a typical example, the image analysis device 110 can be configured with a deep neural network (DNN) or the like in which internal parameters are set by supervised learning. The configuration may be implemented by software, or may be configured by hardware such as FPGA. The image analysis device 110 is generally defined as a function approximator that produces a given output in response to a given input. In the case of a general function approximator, the input may be image data as described above, or voice or other types of data.

図2に、画像解析装置110による画像解析結果の例を示す。撮影画像210は顕微鏡により撮影される画像の例として三日月状の物体201と楕円状の物体202が混在している状態を示している。画像解析装置110は、例えば撮影画像210を入力とすると、三日月状の物体201と楕円状の物体202を識別して分類する。 FIG. 2 shows an example of an image analysis result by the image analysis device 110. As shown in FIG. A photographed image 210 shows a state in which a crescent-shaped object 201 and an elliptical object 202 are mixed as an example of an image photographed by a microscope. For example, when the captured image 210 is input, the image analysis device 110 identifies and classifies the crescent-shaped object 201 and the elliptical object 202 .

例えば、この撮影画像210について、三日月状の物体201は白色に色分けしてセグメント化し、楕円状の物体202及び背景は灰色に色分けしてセグメント化するように画像解析した結果の画像例を解析結果画像220に示す。 For example, for this photographed image 210, image analysis is performed such that the crescent-shaped object 201 is colored white and segmented, and the elliptical object 202 and the background are colored gray and segmented. Shown in image 220 .

解析結果画像220においては、三日月状の物体201A,201B,201Dを正しく白色にセグメント化したセグメント211A,211B,211Dおよび、楕円状の物体202Aを正しく灰色にセグメント化したセグメント212Aがある。一方で、三日月状の物体201Cが正しくセグメント化されていないセグメント211Cや、楕円状の物体202Bが正しくセグメント化されていないセグメント212Bを含んでいる。 In the analysis result image 220, there are segments 211A, 211B, and 211D that correctly segment the crescent-shaped objects 201A, 201B, and 201D in white, and segments 212A that correctly segment the elliptical object 202A in gray. On the other hand, crescent-shaped object 201C contains incorrectly segmented segment 211C, and elliptical object 202B contains incorrectly segmented segment 212B.

入出力装置111は、画像解析装置110により処理された解析結果の正誤に関する情報を機械学習用情報処理装置100に出力する機能を有する。正誤に関する情報を出力する例としては、例えば、画像解析装置110による解析結果を解析結果画像220のような形態で入出力装置111に画像として表示し、利用者により解析の正誤を選択させ、選択した結果を機械学習用情報処理装置100に出力する。 The input/output device 111 has a function of outputting, to the information processing device 100 for machine learning, information regarding the correctness or wrongness of the analysis result processed by the image analysis device 110 . As an example of outputting information about correctness/incorrectness, for example, the analysis result by the image analysis device 110 is displayed as an image on the input/output device 111 in the form of an analysis result image 220, and the user selects whether the analysis is correct/incorrect. The result obtained is output to the information processing apparatus 100 for machine learning.

この場合、入出力装置111は、例として画像を表示するディスプレイと利用者が操作できるマウスもしくはキーボードを有するPCにより構成されるが、解析結果画像220を利用者に出力して、解析結果の正誤を利用者により入力するものであればよい。例えばスマートフォンやタブレット端末が有するタッチパネルディスプレイでも良いし、画像結果をプリンタにより印刷するのでも良いし、音声により利用者の選択を入力するものでも良い。 In this case, the input/output device 111 is composed of, for example, a PC having a display for displaying images and a mouse or keyboard that can be operated by the user. is input by the user. For example, a touch panel display of a smartphone or a tablet terminal may be used, an image result may be printed by a printer, or a user's selection may be input by voice.

入出力装置111が処理し機械学習用情報処理装置100に出力する情報は、解析結果の正誤を利用者により選択したものでも良いし、期待される解析結果を利用者により作成したものでも良い。また、正誤に関する情報を出力する別の例としては、画像解析装置110とは異なる解析手段による情報を入出力装置111から機械学習用情報処理装置100に出力する。例えば、単眼カメラで物体を撮影した画像を用いて、画像解析装置110によりカメラから物体までの距離を解析する場合では、予めレーザースキャナやTOFカメラなどの3Dセンサにより計測した距離を正解情報として、入出力装置111はこの正解情報を機械学習用情報処理装置100に出力する。正解情報を得る手段については、公知の技術を用いる。 The information processed by the input/output device 111 and output to the information processing device 100 for machine learning may be selected by the user as to whether the analysis result is correct or incorrect, or may be the expected analysis result created by the user. As another example of outputting information about correctness/incorrectness, information obtained by analysis means different from the image analysis device 110 is output from the input/output device 111 to the machine learning information processing device 100 . For example, when an image of an object captured by a monocular camera is used to analyze the distance from the camera to the object by the image analysis device 110, the distance measured in advance by a 3D sensor such as a laser scanner or a TOF camera is used as correct information. The input/output device 111 outputs this correct answer information to the information processing device 100 for machine learning. A known technique is used as means for obtaining correct information.

図3を用いて、利用者により解析の正誤を選択する方法の例を説明する。利用者に提示する画像310は、解析結果画像220に基づき作成したもので、利用者に解析結果の正誤を選択するよう促す。利用者による選択の例として、図3ではカーソル301を操作し各セグメントの正誤を選択させる。利用者が選択した結果を正誤選択結果画像320に示す。 An example of a method for the user to select whether the analysis is correct or incorrect will be described with reference to FIG. The image 310 presented to the user is created based on the analysis result image 220 and prompts the user to select whether the analysis result is correct or not. As an example of selection by the user, in FIG. 3, the cursor 301 is operated to select whether each segment is correct or incorrect. A correct/wrong selection result image 320 shows the result selected by the user.

利用者による選択の結果、解析結果が正しい(三日月状の物体201を白色にセグメント化、もしくは楕円状の物体202を灰色にセグメント化)と判断したものについては、「正」と表示しており、解析結果が誤っている(三日月状の物体201ではないものを白色にセグメント化、もしくは三日月状の物体201を灰色にセグメント化)と判断したものを「誤」、解析結果が重要でない(以降の学習に反映させる必要がない)と判断したものを「未選択」として表示している。 As a result of selection by the user, when the analysis result is judged to be correct (segmentation of the crescent-shaped object 201 in white or segmentation of the elliptical object 202 in gray), "Correct" is displayed. , those judged to have an incorrect analysis result (segmentation of objects other than the crescent-shaped object 201 into white, or segmentation of the crescent-shaped object 201 into gray) are “wrong”, and the analysis result is not important (hereinafter ) are displayed as "unselected".

正誤情報生成部101は、入出力装置111から入力する情報に基づき、画像解析結果の正誤情報を生成する。正誤情報の粒度は任意であるが、図3の例では、セグメント対応で正誤情報を与えている。すなわち、この例では、正誤情報は画像の部分的な領域に対応している。あるいは、正誤のカウント数や正誤の比率によって、画像毎に正誤判定を行ってもよい。 The correctness/incorrectness information generation unit 101 generates correctness/incorrectness information of the image analysis result based on the information input from the input/output device 111 . Although the granularity of the correct/incorrect information is arbitrary, in the example of FIG. 3, the correct/incorrect information is given for each segment. That is, in this example, the correct/incorrect information corresponds to a partial area of the image. Alternatively, correct/wrong determination may be performed for each image based on the correct/wrong count or the correct/wrong ratio.

信頼性判定部102は、画像解析の信頼性を判定する。ここで信頼性とは、画像解析における不確かさを指す。画像解析処理を機械学習などにより統計学的にモデル化するとき、モデル化が十分に精緻になされていないと、解析の難度が高いデータを与えたときに、モデル化した解析処理が不確かさを持つことにより、解析結果にばらつきが生じて解析精度が低下し得る。このとき、「モデルが不確かである」ということができ、以降では「モデルの信頼性が低い」と呼ぶ。このケースは、前述の非特許文献1で認識における不確かさと呼ばれているものである。 The reliability determination unit 102 determines reliability of image analysis. Here, reliability refers to uncertainty in image analysis. When image analysis processing is statistically modeled by machine learning, etc., if the modeling is not sufficiently precise, the modeled analysis processing will generate uncertainty when given data that is highly difficult to analyze. This may cause variations in the analysis results and reduce the accuracy of the analysis. At this time, it can be said that "the model is uncertain", which is hereinafter referred to as "the model is unreliable". This case is called uncertainty in recognition in Non-Patent Document 1 mentioned above.

また、画像解析処理のモデル化が十分に精緻であっても、解析対象のデータが他と比べて局所的にノイズを含み解析の難度が高くなっているような場合では、当該データが不確かさを持つことにより、解析結果にばらつきが生じて解析精度が低下し得る。このとき、「データが不確かである」ということができ、以降では「データの信頼性が低い」と呼ぶ。このケースは前述の非特許文献1で偶発的な不確かさと呼ばれているものである。 In addition, even if the modeling of the image analysis process is sufficiently sophisticated, if the data to be analyzed contains local noise compared to others, and the difficulty of analysis is high, the data may be subject to uncertainty. , the analysis results may vary and the accuracy of the analysis may decrease. At this time, it can be said that "the data are uncertain", and hereinafter referred to as "the data are unreliable". This case is called accidental uncertainty in Non-Patent Document 1 mentioned above.

信頼性判定部102では、モデルの信頼性およびデータの信頼性を算出する。信頼性判定部102が判定する信頼性は、モデルの信頼性のみでも良いし、データの信頼性のみでも良いし、モデルの信頼性とデータの信頼性の両方でも良い。モデルの信頼性およびデータの信頼性を算出する手法については、例えば非特許文献1記載の公知の技術を用いる。非特許文献1にも記載されているように、モデルの信頼性およびデータの信頼性は、画像の部分的な領域に対応した連続値として、例えばコントラストや色の差で視覚的に示すことができる。 The reliability determination unit 102 calculates the reliability of the model and the reliability of the data. The reliability determined by the reliability determination unit 102 may be only the reliability of the model, only the reliability of the data, or both the reliability of the model and the reliability of the data. For the method of calculating the reliability of the model and the reliability of the data, for example, the known technique described in Non-Patent Document 1 is used. As described in Non-Patent Document 1, the reliability of a model and the reliability of data can be visually indicated as continuous values corresponding to a partial area of an image, for example, by contrast or color differences. can.

学習条件出力部103は、正誤情報生成部101により生成される画像解析結果の正誤情報と信頼性判定部102により判断される画像解析の信頼性より、学習条件を判定して提示する。 The learning condition output unit 103 determines and presents a learning condition based on the correctness/incorrectness information of the image analysis result generated by the correctness/incorrectness information generation unit 101 and the image analysis reliability determined by the reliability determination unit 102 .

図4は、画像解析結果の正誤情報と画像解析の信頼性に基づいて、学習条件を判定するルールの例を示す表図である。このようなルールは、予め使用者が定めておき、例えばテーブル形式のデータとして機械学習用情報処理装置100の記憶装置(図示せず)に記憶させておく。学習条件出力部103は当該ルールを参照して判定を行う。 FIG. 4 is a table showing an example of rules for determining learning conditions based on correct/incorrect information of image analysis results and reliability of image analysis. Such rules are determined in advance by the user and stored in a storage device (not shown) of the information processing apparatus 100 for machine learning as data in table format, for example. The learning condition output unit 103 makes determination by referring to the rule.

図4のうちテーブル410は、解析結果の正誤情報およびモデルの信頼性から学習条件を判定する例であり、モデルの信頼性に対して閾値aもしくはbを用いて信頼性が高いか否かを判定している。閾値はルールの一部として予め使用者が定めておく。 Table 410 in FIG. 4 is an example of judging the learning condition from the correctness information of the analysis result and the reliability of the model. Judging. The threshold is defined in advance by the user as part of the rule.

410(1)では、解析結果が正しくかつモデルの信頼性が高いと判定していることから、画像解析装置110の学習は適切と考えられる。この場合、学習条件を維持(現状維持)するよう判定結果を提示する。 In 410(1), it is determined that the analysis result is correct and the reliability of the model is high, so the learning of the image analysis device 110 is considered appropriate. In this case, the determination result is presented so as to maintain the learning conditions (maintain the status quo).

410(2)(4)では、モデルの信頼性が低いことから、共に該当するデータを学習データに追加して学習することにより解析精度が向上すると判定している。閾値bを閾値aよりも小さく設定することにより、解析結果が誤っている(4)の方を優先的に学習データに追加させることができる。 In 410 (2) and (4), since the reliability of the model is low, it is determined that the analysis accuracy is improved by learning by adding the corresponding data to the learning data. By setting the threshold value b smaller than the threshold value a, it is possible to preferentially add (4) with an erroneous analysis result to the learning data.

図5は、正誤選択結果画像320と信頼性表示画像510の関係を示している。信頼性表示画像510は非特許文献1にも開示されておりモデルの信頼性を示しているが、データの信頼性も同様に表示できる。この例では、信頼性が閾値より低い部分をグレーで、閾値以上の部分を白で示している。ここで、セグメント511の部分は、解析結果が正しいがモデルの信頼性が低い410(2)に該当する。セグメント512の部分は、解析結果が誤りでモデルの信頼性が低い410(4)に該当する。 FIG. 5 shows the relationship between the correct/wrong selection result image 320 and the reliability display image 510 . The reliability display image 510 is also disclosed in Non-Patent Document 1 and indicates the reliability of the model, but the reliability of the data can be similarly displayed. In this example, portions where the reliability is lower than the threshold are shown in gray, and portions above the threshold are shown in white. Here, the portion of segment 511 corresponds to 410(2) where the analysis result is correct but the reliability of the model is low. The portion of segment 512 corresponds to 410(4) where the analysis result is erroneous and the reliability of the model is low.

学習データへの追加は、正誤選択結果画像320に対応する原画像(画像解析装置110への入力画像)と正解の組を学習データに追加すればよい。あるいは、画像中の該当する部分(例えばセグメント511あるいは512に対応する部分)をカーソル301で指定して切り出し、学習データに追加してもよい。 For addition to the learning data, a set of the original image (input image to the image analysis device 110) corresponding to the correct/wrong selection result image 320 and the correct answer may be added to the learning data. Alternatively, a corresponding portion (for example, a portion corresponding to the segment 511 or 512) in the image may be specified with the cursor 301, cut out, and added to the learning data.

410(3)では、解析結果が誤っているにもかかわらずモデルの信頼性が高い状態であり、図5のセグメント513の部分に対応する。ここでは、学習データの追加よりも学習設定値を変更することによりモデルを大きく変更することが効果的であると判断している。学習設定値とは、例えば学習実行時に学習条件を設定するパラメータや、モデルをチューニングするハイパーパラメータである。 At 410(3), the confidence of the model is high even though the analysis result is incorrect, and corresponds to segment 513 of FIG. Here, it is judged that it is more effective to significantly change the model by changing the learning set value than by adding learning data. The learning setting values are, for example, parameters for setting learning conditions when learning is executed, and hyperparameters for tuning a model.

一方、図4のうちテーブル420は、解析結果の正誤情報およびデータの信頼性から学習条件を判定する例であり、データの信頼性に対して閾値cもしくはdを用いて信頼性が高いか否かを判定している。 On the other hand, a table 420 in FIG. 4 is an example of judging the learning condition from the correct/incorrect information of the analysis result and the reliability of the data. It is determined whether

420()では、解析結果が正しくかつデータの信頼性が高いと判定していることから、学習条件を維持するよう判定結果を提示する。 In 420 ( 5 ), since it is determined that the analysis result is correct and the reliability of the data is high, the determination result is presented so as to maintain the learning conditions.

420()()では、データの信頼性が低く該当するデータに偶発的なノイズが生じていると考えられ、該当するデータを学習データに追加しても解析精度は向上せず、かえって解析精度が低下する恐れがある。すなわち、該当するデータは学習データに使用しない方が良いということである。このことから、当該データの学習データとしての使用は推奨しないことを提示する。さらに学習データを追加して解析精度を向上するためには、データの再取得を提示する。再取得とは、異なる対象についての画像を取得することと、同じ対象についての画像を再取得することの両方があり得る。同じ対象についての画像であっても、条件(例えば撮影条件)によっては学習データに適切なものが取得できる可能性があるからである。具体的には、再度の撮影により、画像中のノイズやハレーションが改善されることが期待される。 In 420 ( 6 ) ( 8 ), it is thought that the reliability of the data is low and accidental noise is generated in the relevant data, and even if the relevant data is added to the learning data, the analysis accuracy does not improve. Analysis accuracy may decrease. That is, it is better not to use the applicable data for learning data. For this reason, we present that the use of this data as learning data is not recommended. In order to add more training data and improve the analysis accuracy, we propose to reacquire the data. Reacquisition can be both acquiring an image of a different object and reacquiring an image of the same object. This is because, even for images of the same object, there is a possibility that images suitable for learning data can be acquired depending on conditions (for example, imaging conditions). Specifically, it is expected that noise and halation in the image will be improved by re-shooting.

420()では、解析結果が誤っているにも関わらずデータの信頼性が高い状態であり、データの再取得よりも学習設定値を変更することによりモデルを大きく変更することが効果的であると判断している。
In 420 ( 7 ), the reliability of the data is high despite the fact that the analysis result is incorrect, and it is more effective to change the learning settings to significantly change the model than to reacquire the data. I believe there is.

表示内容生成部104は、図3で説明したように、入出力装置111にて利用者が画像解析の正誤を選択する際に、利用者に提示する表示内容を生成する。解析結果が正しいもしくは誤っていると利用者が判断できるような表示内容であればよく、画像分類であれば分類結果を文字として表示するのでも良いし画像として表示するのでも良い。画像の検出であれば、画像のうち検出した領域を枠や色を付与して表示するのでも良いし検出した領域のみを切り出して表示するのでも良い。画像のセグメント分けであれば、画像のうちセグメント分けした領域に色を付与して表示するのでも良いし、セグメント分けした領域のみを切り出して表示するのでも良い。ほかにも、画像のうち画像解析した結果を示す手法であれば、公知の技術でも構わない。また、2つ以上ある複数の画像解析結果を並べて表示させ、その中から画像解析の正誤を選択するような表示内容でも構わない。 The display content generation unit 104 generates display content to be presented to the user when the user selects whether the image analysis is correct or incorrect using the input/output device 111, as described with reference to FIG. Any display content that allows the user to determine whether the analysis result is correct or incorrect may be used. In the case of image classification, the classification result may be displayed as characters or as an image. In the case of image detection, the detected area of the image may be displayed with a frame or color added, or only the detected area may be cut out and displayed. In the case of image segmentation, the segmented areas of the image may be colored and displayed, or only the segmented areas may be cut out and displayed. In addition, a known technique may be used as long as it is a technique for indicating the result of image analysis of an image. In addition, display contents may be such that two or more image analysis results are displayed side by side, and correct or incorrect image analysis is selected from among them.

また、表示内容生成部104は、学習条件出力部103の出力結果を表示するための画像データも生成する。また、後に図7で説明するようなインターフェース画像の生成を行う。 The display content generation unit 104 also generates image data for displaying the output result of the learning condition output unit 103 . Also, an interface image is generated as will be described later with reference to FIG.

図4に示した、モデルの信頼性に基づく判定と、データの信頼性に基づく判定は、片方だけを独立に行ってもよいし、両方を行ってもよい。両方行う場合には、先にデータの信頼性に基づく判定を行い、420(6)(8)で学習データへの採用が推奨されない画像を除外してから、モデルの信頼性に基づく判定を行うことで、非推奨データが学習データに用いられることを防止するのがよい。 One of the determination based on the reliability of the model and the determination based on the reliability of the data shown in FIG. 4 may be performed independently, or both may be performed. When performing both, first make a judgment based on the reliability of the data, exclude images that are not recommended to be adopted as learning data in 420 (6) and (8), and then make a judgment based on the reliability of the model. By doing so, it is preferable to prevent non-recommended data from being used as learning data.

図6は、機械学習用情報処理装置100による機械学習用情報処理を示すフローチャートである。図6では、解析結果の正誤情報およびモデルの信頼性から学習条件を判定する処理をフローチャート図により示している。 FIG. 6 is a flowchart showing information processing for machine learning by the information processing apparatus 100 for machine learning. FIG. 6 shows a flow chart of the process of determining the learning condition from the correct/incorrect information of the analysis result and the reliability of the model.

機械学習用情報処理装置100への入力は、画像解析装置110から入力される画像解析結果と、入出力装置111から入力される例えば使用者による正解である。学習データの追加を想定している場合には、画像解析装置110の解析対象として学習データ以外の新しい画像(追加しようとする学習データ候補)を使用する。 Inputs to the information processing apparatus 100 for machine learning are an image analysis result input from the image analysis apparatus 110 and a correct answer input from the input/output device 111 by the user, for example. When it is assumed that learning data will be added, a new image (learning data candidate to be added) other than the learning data is used as the analysis target of the image analysis device 110 .

S601では、画像解析装置110と入出力装置111から入力される情報に基づき、正誤情報生成部101により正誤情報を生成する。正誤情報は、解析結果画像の各々について付与されるものでも良いし、図3の例のように解析結果画像に含まれる1以上の解析結果の各々について付与されるものでも良い。また、入出力装置111において利用者が正誤を判断した画像についてのみ正誤情報を生成するのでも良く、その場合はS603で対象とするデータは、利用者が正誤を判断したデータに限定する。 In S<b>601 , correct/incorrect information is generated by the correct/incorrect information generation unit 101 based on information input from the image analysis device 110 and the input/output device 111 . The correct/incorrect information may be given to each of the analysis result images, or may be given to each of one or more analysis results included in the analysis result image as in the example of FIG. Further, the input/output device 111 may generate correct/wrong information only for images judged correct/wrong by the user. In that case, data targeted in S603 is limited to data judged correct/wrong by the user.

S602では、信頼性判定部102によりモデルの信頼性を判定する。モデルの信頼性は、解析結果画像に対して例えば画像の大きさ(水平方向画素数×垂直方向画素数)の数だけ数値を有するものでも良いし、解析結果画像1つに対して単一の数値を有するものでも良い。信頼性判定の具体例については、例えば非特許文献1に開示がある。 In S602, the reliability determination unit 102 determines the reliability of the model. For the reliability of the analysis result image, for example, it may have a numerical value corresponding to the number of image sizes (horizontal pixel number × vertical pixel number), or a single value for one analysis result image A numerical value may be used. A specific example of reliability determination is disclosed in Non-Patent Document 1, for example.

S603では解析結果画像のうち本実施例で参照するデータ(たとえば追加しようとする学習データ候補)を判定しており、対象データ全ての参照が完了するまでS604からS610までの処理を実行する。参照が全て完了すると、処理を終了する。 In S603, the data to be referred to in this embodiment (for example, learning data candidates to be added) are determined from the analysis result image, and the processing from S604 to S610 is executed until all the target data are referred to. When all references are completed, the process ends.

S604では、解析結果の正誤情報を参照し、解析結果が「正」であった場合はS605に、解析結果が「誤」であった場合はS606にすすむ。S605ではモデルの信頼性が閾値a以上か否かを判定し、S607もしくはS608にすすむ。S606ではモデルの信頼性が閾値b以上か否かを判定し、S609もしくはS610にすすむ。S607からS610に示す学習条件については、前述のとおりである。 In S604, the correct/wrong information of the analysis result is referred to, and if the analysis result is "correct", the process proceeds to S605, and if the analysis result is "wrong", the process proceeds to S606. In S605, it is determined whether or not the reliability of the model is equal to or greater than the threshold a, and the process proceeds to S607 or S608. In S606, it is determined whether or not the reliability of the model is equal to or greater than the threshold value b, and the process proceeds to S609 or S610. The learning conditions shown in S607 to S610 are as described above.

図6では、モデルの信頼性を用いた判定について説明しているが、データの信頼性でも同様の処理を行うことができる。その際には、閾値としてc、dを用いることはいうまでもない。 FIG. 6 illustrates determination using model reliability, but similar processing can be performed using data reliability. In that case, it goes without saying that c and d are used as thresholds.

図7に、機械学習用情報処理装置100を実行するときに用いるGUI(Graphical User Interface)の例を示す。 FIG. 7 shows an example of a GUI (Graphical User Interface) used when executing the information processing apparatus 100 for machine learning.

GUIの画面700は、実行モード704、初期深層ネットワークモデルを格納したディレクトリを指定する欄705、入力データ及び学習データを格納したディレクトリを指定する欄706、推定結果データ、信頼性データ、及び学習後の深層ネットワークモデルを格納するディレクトリを指定する欄707、解析後の推奨データや深層ネットワークモデルを格納するディレクトリを指定する欄708、実行パラメータもしくは解析用パラメータを入力する欄711、実行ボタン714、レポート出力ボタン715、画像もしくは信頼性データを表示する画面702、画面702に表示する情報を指定するための欄701、703、716~721を備える。 A GUI screen 700 includes an execution mode 704, a field 705 for specifying a directory storing an initial deep network model, a field 706 for specifying a directory storing input data and learning data, estimation result data, reliability data, and post-learning data. A field 707 for specifying a directory for storing the deep network model, a field 708 for specifying a directory for storing the recommended data after analysis and the deep network model, a field 711 for inputting an execution parameter or an analysis parameter, an execution button 714, a report It has an output button 715 , a screen 702 for displaying an image or reliability data, and fields 701 , 703 , 716 to 721 for designating information to be displayed on the screen 702 .

画面700の内容は、表示内容生成部104により生成され、入出力装置111の例えば画像モニタに表示される。欄705では、画像解析装置110に実装するモデルを選択する。欄706では、記憶装置に記憶済みの種々のデータを選択して呼び出す。欄707では、生成したデータを記憶装置に保存する。欄708では、図6で示した処理の結果得られる推奨データやモデルを保存する。欄711では、モデルの学習時あるいは実行時に設定するパラメータを入力する。実行ボタン714では、学習や解析の処理を実行する。レポート出力ボタン715では、例えば図6で示した処理の結果得られる推奨データをレポート形式で出力する。画面702では、図2、図3、図5で示したような画像を同時あるいは切り替えて表示する。 The content of the screen 700 is generated by the display content generation unit 104 and displayed on, for example, an image monitor of the input/output device 111 . A column 705 selects a model to be installed in the image analysis device 110 . Column 706 selects and recalls various data stored in the storage device. In column 707, the generated data is saved in the storage device. A column 708 stores recommended data and models obtained as a result of the processing shown in FIG. In column 711, parameters to be set during model learning or execution are entered. An execution button 714 executes learning and analysis processing. A report output button 715 outputs, for example, the recommended data obtained as a result of the processing shown in FIG. 6 in a report format. On the screen 702, the images shown in FIGS. 2, 3, and 5 are displayed simultaneously or alternately.

欄716及び719は、入力データ(例えば図2の210のように表示できる)、正解データ(学習データ)、訓練データ、推論結果データ(例えば図2の220のように表示できる)、信頼性データ(例えば図3の310のように表示できる)などが選択できる。欄717及び720には、欄716及び719で選択したデータのリストが一覧表示される。各データは、機械学習用情報処理装置100の記憶装置あるいは外部の記憶装置に格納しておく。欄718及び721は、欄717及び720に表示されるリストの位置を示すゲージである。 Columns 716 and 719 are input data (which can be displayed, for example, as 210 in FIG. 2), correct data (learning data), training data, inference result data (which can be displayed, for example, as 220 in FIG. 2), and reliability data. (For example, it can be displayed as 310 in FIG. 3) can be selected. Columns 717 and 720 list the data selected in columns 716 and 719 . Each data is stored in the storage device of the information processing apparatus for machine learning 100 or in an external storage device. Columns 718 and 721 are gauges that indicate the position of the list displayed in columns 717 and 720 .

欄701では、合成(濃淡)、合成(カラー)が選択でき、欄717及び720で選択されたデータを、703のゲージの比率で合成したデータが画面702に表示される。すなわち、この例では、異なる画像をオーバラップ表示可能である。そのほか、複数の画像を並べて表示してもよい。 In column 701 , synthesis (shading) or synthesis (color) can be selected, and data obtained by synthesizing the data selected in columns 717 and 720 at the gauge ratio of 703 is displayed on screen 702 . That is, in this example, different images can be displayed in an overlapping manner. Alternatively, a plurality of images may be displayed side by side.

実行モード704には、訓練(training)、推論(inference)、解析(analysis)などが選択できる。 Execution modes 704 may include training, inference, analysis, and the like.

まずは、実行モード704で訓練モードもしくは推論モードに設定し、欄705~707に適切なディレクトリを、欄711に実行パラメータを設定し、実行ボタン714を押下すると、設定したディレクトリ及び実行パラメータにしたがって、画像解析装置110のモデルの訓練もしくは推論が実行される。モデルの訓練や推論は、公知の手順で実行可能である。実行後、学習後の深層ネットワークモデル、推論結果データ、信頼性データが出力ディレクトリに格納される。 First, set the execution mode 704 to training mode or inference mode, set appropriate directories in columns 705 to 707 and execution parameters in column 711, and press the execution button 714. Then, according to the set directory and execution parameters, Training or inference of the model of the image analysis device 110 is performed. Model training and inference can be performed by known procedures. After execution, the trained deep network model, inference result data, and reliability data are stored in the output directory.

実行後、欄701、703、716~721を設定することにより、画面702に表示したいデータを表示することができる。すなわち、入力データ、学習データ、訓練データ、推論結果データ、信頼性データが参照できる。 After execution, the desired data can be displayed on the screen 702 by setting fields 701, 703, 716-721. That is, input data, learning data, training data, inference result data, and reliability data can be referenced.

次に、解析モードに設定し、欄708に、解析後の推奨データなどを格納したディレクトリを設定する。解析モードが実行されると、図6に示した処理が実行される。解析後の推奨データとは、学習データとして追加が推奨されるデータであり、図6の処理S608,S610で追加されたデータである。 Next, the analysis mode is set, and a directory in which recommended data after analysis is stored is set in a field 708 . When the analysis mode is executed, the processing shown in FIG. 6 is executed. The recommended data after analysis is data that is recommended to be added as learning data, and is data that has been added in steps S608 and S610 of FIG.

欄701、703、716~721を設定して、画面702に表示したいデータを表示し、正誤の選択などを行うことで、解析結果の正誤情報の生成処理S601が実行できる。もっとも、解析結果の正誤情報は前もって生成して記憶しておいてもよい。その後、実行ボタン714を押下することにより、処理S602~S610が実行され欄708のディレクトリに推奨データが格納される。 By setting columns 701, 703, and 716 to 721, displaying data to be displayed on the screen 702, and selecting correct/incorrect, the correct/incorrect information generation processing S601 of the analysis result can be executed. However, the correctness/incorrectness information of the analysis result may be generated and stored in advance. After that, by pressing an execution button 714 , the processes S 602 to S 610 are executed and the recommended data is stored in the directory of column 708 .

また、図6の処理S607で学習条件を維持すべきとの判定結果があった場合も、入出力装置111は、例えば画面702にその旨を表示する。図6の処理S609で学習設定値を変更すべきとの判定結果があった場合は、使用者は欄711で任意のパラメータを調整する。 Also, when there is a determination result that the learning conditions should be maintained in the process S607 of FIG. If there is a determination result that the learning set value should be changed in the processing S609 of FIG.

このようにして追加学習あるいはパラメータ変更を実行した後、訓練モードに設定し、欄706を推奨データが格納されているディレクトリに設定して、実行ボタン714を押下することにより、欄707のディレクトリに、改善された学習後の深層ネットワークモデル、推論結果データ、信頼性データが格納される。 After executing additional learning or parameter change in this way, the training mode is set, the column 706 is set to the directory in which the recommended data is stored, and the directory in the column 707 is displayed by pressing the execution button 714. , the improved deep network model after training, inference result data, and reliability data are stored.

機械学習用情報処理装置100、正誤情報生成部101、信頼性判定部102、学習条件出力部103、表示内容生成部104、バス106 Information processing apparatus for machine learning 100 , correct/incorrect information generation unit 101 , reliability determination unit 102 , learning condition output unit 103 , display content generation unit 104 , bus 106

Claims (15)

画像解析結果の正誤情報を生成する正誤情報生成部と、
画像解析処理において解析に関わる信頼性を判定する信頼性判定部と、
前記正誤情報および前記信頼性に基づき学習条件を提示する学習条件出力部と、
を備える、機械学習用情報処理装置。
a correct/incorrect information generation unit that generates correct/incorrect information of the image analysis result;
A reliability determination unit that determines reliability related to analysis in image analysis processing;
a learning condition output unit that presents a learning condition based on the correctness information and the reliability;
An information processing device for machine learning.
前記正誤情報生成部において、
前記画像解析結果と前記画像解析結果に対して入力される利用者の操作結果から前記正誤情報を生成する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
In the correct/incorrect information generation unit,
generating the correct/incorrect information from the image analysis result and a user's operation result input with respect to the image analysis result;
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記正誤情報生成部において、
解析対象となる画像を別の手法により解析した結果を正解情報とし、前記画像解析結果と前記正解情報と照合することにより前記正誤情報を生成する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
In the correct/incorrect information generation unit,
The result of analyzing the image to be analyzed by another method is used as correct information, and the correct/incorrect information is generated by comparing the image analysis result with the correct information.
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記正誤情報生成部において、
画像1つに対して1つの正誤情報を生成する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
In the correct/incorrect information generation unit,
Generate one correct/incorrect information for one image,
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記正誤情報生成部において、
画像1つに含まれる2つ以上の解析結果に対して2つ以上の正誤情報を生成する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
In the correct/incorrect information generation unit,
generating two or more correct/incorrect information for two or more analysis results contained in one image;
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記学習条件は、
前記正誤情報が生成された画像解析結果に対応する画像を学習データに追加することを含む、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
The learning conditions are
Adding an image corresponding to the image analysis result for which the correctness information is generated to the learning data,
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記学習条件は、
前記正誤情報が生成された画像解析結果に対応する画像を学習データに追加することを非推奨とすることを含む、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
The learning conditions are
Including deprecating the addition of the image corresponding to the image analysis result for which the correctness information was generated to the learning data,
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記学習条件は、
学習に関わる設定値を変更することを含む、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
The learning conditions are
Including changing settings related to learning,
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記学習条件は、
前記正誤情報が生成された画像解析結果に対応する画像を再取得することを含む、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
The learning conditions are
Reacquiring an image corresponding to the image analysis result for which the correctness information was generated;
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記学習条件出力部において、
信頼性を数値として扱い、当該数値が閾値よりも大きいときに、当該数値が閾値よりも小さいときと異なる学習条件を提示する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
In the learning condition output unit,
Reliability is treated as a numerical value, and when the numerical value is greater than a threshold, different learning conditions are presented than when the numerical value is less than the threshold.
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記解析に関わる信頼性について、
画像解析処理のモデルに起因するモデルの信頼性を用いる、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
Regarding the reliability related to the analysis,
using the reliability of the model resulting from the model of image analysis processing,
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記解析に関わる信頼性について、
解析対象である画像データに起因するデータの信頼性を用いる、
ことを特徴とする請求項1記載の機械学習用情報処理装置。
Regarding the reliability related to the analysis,
using the reliability of the data attributed to the image data to be analyzed;
2. The information processing apparatus for machine learning according to claim 1, wherein:
学習データを用いた機械学習が適用されたモデルが実装され、入力された画像に対して画像解析を行う画像解析装置の機械学習方法であって、
入力された画像に関する画像解析装置の解析結果に対して正誤判定を行う、第1のステップ、
モデルの信頼性およびデータの信頼性の少なくとも一つを含む画像解析の信頼性を評価する、第2のステップ、
前記正誤判定と前記画像解析の信頼性に基づいて、現状維持、前記入力された画像を学習データに利用することの推奨、前記入力された画像を学習データに利用しないことの推奨、および学習設定値の変更、の少なくとも一つを提示する第3のステップ、
を実行する機械学習方法。
A machine learning method for an image analysis device that implements a model to which machine learning using learning data is applied and performs image analysis on an input image,
A first step of judging whether the analysis result of the image analysis device regarding the input image is correct or incorrect;
a second step of assessing reliability of the image analysis including at least one of model reliability and data reliability;
Maintaining the status quo, recommending the use of the input image as learning data, recommending not using the input image as learning data, and learning settings based on the correctness determination and the reliability of the image analysis a third step of presenting at least one of:
A machine learning method that performs
前記モデルの信頼性を所定の閾値と比較して大小を識別する第4のステップを実行し、
前記第3のステップでは、
解析結果が正であり、かつモデルの信頼性が大のとき、現状維持を提示し、
解析結果が正であり、かつモデルの信頼性が小のとき、前記入力された画像を学習データに利用することの推奨を提示し、
解析結果が誤であり、かつモデルの信頼性が大のとき、学習設定値の変更を提示し、
解析結果が誤であり、かつモデルの信頼性が小のとき、前記入力された画像を学習データに利用することの推奨を提示する、
請求項13記載の機械学習方法。
performing a fourth step of comparing the reliability of the model to a predetermined threshold to discriminate between large and small;
In the third step,
When the analysis result is positive and the reliability of the model is high, the status quo is presented,
presenting a recommendation to use the input image as learning data when the analysis result is positive and the reliability of the model is small;
When the analysis result is incorrect and the reliability of the model is high, suggesting a change in the learning setting value,
Presenting a recommendation to use the input image as learning data when the analysis result is incorrect and the reliability of the model is low;
14. The machine learning method of claim 13.
前記データの信頼性を所定の閾値と比較して大小を識別する第5のステップを実行し、
前記第3のステップでは、
解析結果が正であり、かつデータの信頼性が大のとき、現状維持を提示し、
解析結果が正であり、かつデータの信頼性が小のとき、前記入力された画像を学習データに利用しないことの推奨を提示し、
解析結果が誤であり、かつデータの信頼性が大のとき、学習設定値の変更を提示し、
解析結果が誤であり、かつデータの信頼性が小のとき、前記入力された画像を学習データに利用しないことの推奨を提示する、
請求項13記載の機械学習方法。
performing a fifth step of comparing the reliability of the data with a predetermined threshold to identify large or small;
In the third step,
When the analysis result is positive and the reliability of the data is high, the status quo is presented,
presenting a recommendation not to use the input image as learning data when the analysis result is positive and the reliability of the data is low;
When the analysis result is incorrect and the reliability of the data is high, suggesting a change in the learning setting value,
presenting a recommendation not to use the input image as learning data when the analysis result is incorrect and the reliability of the data is low;
14. The machine learning method of claim 13.
JP2020021453A 2020-02-12 2020-02-12 Machine learning method and information processing device for machine learning Active JP7308775B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020021453A JP7308775B2 (en) 2020-02-12 2020-02-12 Machine learning method and information processing device for machine learning
PCT/JP2020/044928 WO2021161628A1 (en) 2020-02-12 2020-12-02 Machine learning method, and information processing device for machine learning
US17/794,791 US20230080978A1 (en) 2020-02-12 2020-12-02 Machine learning method and information processing apparatus for machine learning
TW110102261A TWI754520B (en) 2020-02-12 2021-01-21 Machine learning method and information processing device for machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020021453A JP7308775B2 (en) 2020-02-12 2020-02-12 Machine learning method and information processing device for machine learning

Publications (3)

Publication Number Publication Date
JP2021128415A JP2021128415A (en) 2021-09-02
JP2021128415A5 JP2021128415A5 (en) 2022-08-03
JP7308775B2 true JP7308775B2 (en) 2023-07-14

Family

ID=77291505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020021453A Active JP7308775B2 (en) 2020-02-12 2020-02-12 Machine learning method and information processing device for machine learning

Country Status (4)

Country Link
US (1) US20230080978A1 (en)
JP (1) JP7308775B2 (en)
TW (1) TWI754520B (en)
WO (1) WO2021161628A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI792511B (en) * 2021-08-20 2023-02-11 長庚大學 Image recognition method and system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015129988A (en) 2014-01-06 2015-07-16 日本電気株式会社 Data processor
JP2017224184A (en) 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device
JP2019021201A (en) 2017-07-20 2019-02-07 株式会社デンソー Learning server, and assist system
JP2019211969A (en) 2018-06-04 2019-12-12 オリンパス株式会社 Learning management device, learning management server, and learning management method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9373087B2 (en) * 2012-10-25 2016-06-21 Microsoft Technology Licensing, Llc Decision tree training in machine learning
US20160292769A1 (en) * 2015-03-31 2016-10-06 Stitch Fix, Inc. Systems and methods that employ adaptive machine learning to provide recommendations
TWI592883B (en) * 2016-04-22 2017-07-21 財團法人車輛研究測試中心 Image recognition system and its adaptive learning method
CN107341428B (en) * 2016-04-28 2020-11-06 财团法人车辆研究测试中心 Image recognition system and adaptive learning method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015129988A (en) 2014-01-06 2015-07-16 日本電気株式会社 Data processor
JP2017224184A (en) 2016-06-16 2017-12-21 株式会社日立製作所 Machine learning device
JP2019021201A (en) 2017-07-20 2019-02-07 株式会社デンソー Learning server, and assist system
JP2019211969A (en) 2018-06-04 2019-12-12 オリンパス株式会社 Learning management device, learning management server, and learning management method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Alex Kendall, Yarin Gal,What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision?,[online],2017年10月05日, [retrieved on 2023.06.15], Retrieved from the Internet : <url: https://arxiv.org/pdf/1703.04977v2.pdf>

Also Published As

Publication number Publication date
TWI754520B (en) 2022-02-01
TW202131225A (en) 2021-08-16
US20230080978A1 (en) 2023-03-16
JP2021128415A (en) 2021-09-02
WO2021161628A1 (en) 2021-08-19

Similar Documents

Publication Publication Date Title
US10930037B2 (en) Image processing device for displaying object detected from input picture image
CN109426835B (en) Information processing apparatus, control method of information processing apparatus, and storage medium
US20180121739A1 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
KR20110124223A (en) Organizing digital images by correlating faces
JP5455787B2 (en) Motion analysis apparatus and motion analysis method
US11915430B2 (en) Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity
US9600893B2 (en) Image processing device, method, and medium for discriminating a type of input image using non-common regions
WO2015074521A1 (en) Devices and methods for positioning based on image detection
WO2020039882A1 (en) Discrimination device and machine learning method
JP2020035094A (en) Machine learning device, teacher data generation device, inference model, and teacher data generation method
US11574189B2 (en) Image processing apparatus and learned model
JP7308775B2 (en) Machine learning method and information processing device for machine learning
JP2020163100A5 (en)
JP2020024665A (en) Information processing method and information processing system
CN114846513A (en) Motion analysis system and motion analysis program
US10922864B2 (en) Image processing device, image processing method and program, for object detection in an image
JP2021117152A (en) Image processing device, image processing method, and image processing program
KR102558969B1 (en) Method for reinforced online learning method using problem solving measuring fuzzy mental state
WO2023188160A1 (en) Input assistance device, input assistance method, and non-transitory computer-readable medium
WO2024009888A1 (en) Information processing device, control method of same, and program
US20230025181A1 (en) Medical diagnosis assistance system and method
WO2024048639A1 (en) Method, learning model evaluation system, and program
US20230370721A1 (en) Information processing apparatus, information processing method, and storage medium
US20230267727A1 (en) Image analysis apparatus, image analysis method, and storage medium
JP2021033378A (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230704

R150 Certificate of patent or registration of utility model

Ref document number: 7308775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150