JP7308775B2 - Machine learning method and information processing device for machine learning - Google Patents
Machine learning method and information processing device for machine learning Download PDFInfo
- Publication number
- JP7308775B2 JP7308775B2 JP2020021453A JP2020021453A JP7308775B2 JP 7308775 B2 JP7308775 B2 JP 7308775B2 JP 2020021453 A JP2020021453 A JP 2020021453A JP 2020021453 A JP2020021453 A JP 2020021453A JP 7308775 B2 JP7308775 B2 JP 7308775B2
- Authority
- JP
- Japan
- Prior art keywords
- reliability
- image
- data
- learning
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
- G06V10/7784—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
- G06V10/7788—Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
Description
本発明は、機械学習にかかわる情報処理技術に関する。 The present invention relates to information processing technology related to machine learning.
機械学習を用いた処理装置においては、学習によって得られる認識等の処理の信頼性や精度の向上が求められる。 Processing devices using machine learning are required to improve the reliability and accuracy of processing such as recognition obtained by learning.
例えば特許文献1では、機械学習を用いた画像認識技術において、学習用データを選択する技術を開示している。特許文献1に開示されている技術によれば、想定外の環境変化に対して、学習による画像認識処理の認識精度の低下を抑制することができる。
For example,
また非特許文献1では、深層学習において、認識における不確かさ(Epistemic Uncertainty)と偶発的な不確かさ(Aleatoric Uncertainty)を評価する技術が報告されている。
In addition, Non-Patent
特許文献1では、画像認識処理を行うときに、判別の信頼度が低くかつ頻度が少ないデータを、学習に用いるデータとして選択している。
In
しかし、電子顕微鏡による材料解析のように、解析すべきデータの量が多くデータもしくはデータから認識すべき対象に異なる重要度があるような場合においては、判別の信頼度が低くかつ頻度が少ないデータを学習に用いても解析精度が低下することがあり得る。例えば、撮影環境が変化したとしても、より重要度の高い物体を検出できることが求められる。 However, in cases where the amount of data to be analyzed is large, such as material analysis using an electron microscope, and the data or objects to be recognized from the data have different levels of importance, the reliability of discrimination is low and the frequency of data is low. is used for learning, the analysis accuracy may decrease. For example, even if the shooting environment changes, it is required to be able to detect objects of higher importance.
本発明は、画像解析の精度を向上し得る学習条件を提示する手法を提供することを目的とする。 An object of the present invention is to provide a method of presenting learning conditions that can improve the accuracy of image analysis.
本発明の好ましい一側面は、画像解析結果の正誤情報を生成する正誤情報生成部と、画像解析処理において解析に関わる信頼性を判定する信頼性判定部と、正誤情報および信頼性に基づき学習条件を提示する学習条件出力部と、を備える、機械学習用情報処理装置である。 A preferred aspect of the present invention includes a correct/incorrect information generating unit that generates correct/incorrect information of an image analysis result, a reliability determination unit that determines reliability related to analysis in image analysis processing, and a learning condition based on the correct/incorrect information and reliability. and a learning condition output unit that presents the information processing apparatus for machine learning.
本発明の好ましい他の一側面は、学習データを用いた機械学習が適用されたモデルが実装され、入力された画像に対して画像解析を行う画像解析装置の機械学習方法である。この方法では、入力された画像に関する画像解析装置の解析結果に対して正誤判定を行う、第1のステップ、モデルの信頼性およびデータの信頼性の少なくとも一つを含む画像解析の信頼性を評価する、第2のステップ、正誤判定と画像解析の信頼性に基づいて、現状維持、入力された画像を学習データに利用することの推奨、入力された画像を学習データに利用しないことの推奨、および学習設定値の変更、の少なくとも一つを提示する第3のステップ、を実行する
さらに具体的な態様を説明すると、モデルの信頼性を所定の閾値と比較して大小を識別する第4のステップを実行し、第3のステップでは、解析結果が正であり、かつモデルの信頼性が大のとき、現状維持を提示し、解析結果が正であり、かつモデルの信頼性が小のとき、前記入力された画像を学習データに利用することの推奨を提示し、解析結果が誤であり、かつモデルの信頼性が大のとき、学習設定値の変更を提示し、解析結果が誤であり、かつモデルの信頼性が小のとき、前記入力された画像を学習データに利用することの推奨を提示する。
Another preferable aspect of the present invention is a machine learning method for an image analysis device in which a model to which machine learning using learning data is applied is implemented, and image analysis is performed on an input image. In this method, the reliability of the image analysis is evaluated including at least one of the reliability of the model and the reliability of the data in the first step of judging whether the analysis result of the image analysis device regarding the input image is correct or incorrect. , the second step, based on the reliability of correctness judgment and image analysis, maintain the status quo, recommend using the input image as learning data, recommend not using the input image as learning data, and a change in the learning set value. a third step, when the analysis result is positive and the model confidence is high, present the status quo; when the analysis result is positive and the model confidence is low , presenting a recommendation to use the input image as learning data, and if the analysis result is incorrect and the reliability of the model is high, presenting a change in the learning set value, and indicating that the analysis result is incorrect. If there is and the reliability of the model is small, a recommendation to use the input image as training data is presented.
別のさらに具体的な態様を説明すると、データの信頼性を所定の閾値と比較して大小を識別する第5のステップを実行し、第3のステップでは、解析結果が正であり、かつデータの信頼性が大のとき、現状維持を提示し、解析結果が正であり、かつデータの信頼性が小のとき、前記入力された画像を学習データに利用しないことの推奨を提示し、解析結果が誤であり、かつデータの信頼性が大のとき、学習設定値の変更を提示し、解析結果が誤であり、かつデータの信頼性が小のとき、前記入力された画像を学習データに利用しないことの推奨を提示する。 Describing another more specific aspect, performing a fifth step of comparing the reliability of the data with a predetermined threshold value to identify large or small; When the reliability of the image is high, presenting the status quo, when the analysis result is positive and the reliability of the data is low, presenting a recommendation not to use the input image as learning data, and analyzing If the result is incorrect and the reliability of the data is high, a change in the learning set value is suggested, and if the analysis result is incorrect and the reliability of the data is low, the input image is used as learning data. present a recommendation not to use
本発明によれば、画像解析の精度を向上し得る学習条件を提示することができる。上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, it is possible to present learning conditions that can improve the accuracy of image analysis. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.
以下、図面に基づき、本発明の実施形態を詳述する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている諸要素およびその組み合わせの全てが発明の解決手段に必須であるとは限らない。また実施形態の中で説明されている諸要素を適宜組み合わせた形態も、本願が開示する実施形態に含まれる。 Hereinafter, embodiments of the present invention will be described in detail based on the drawings. In addition, the embodiments described below do not limit the invention according to the claims, and all of the elements described in the embodiments and their combinations are essential to the solution of the invention. Not necessarily. In addition, the embodiments disclosed in the present application also include forms in which various elements described in the embodiments are appropriately combined.
以下に説明する発明の構成において、同一部分又は同様な機能を有する部分には同一の符号を異なる図面間で共通して用い、重複する説明は省略することがある。 In the configuration of the invention described below, the same reference numerals may be used in common for the same parts or parts having similar functions between different drawings, and redundant description may be omitted.
同一あるいは同様な機能を有する要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、複数の要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of elements having the same or similar functions, they may be described with the same reference numerals and different suffixes. However, if there is no need to distinguish between multiple elements, the subscripts may be omitted.
本明細書等における「第1」、「第2」、「第3」などの表記は、構成要素を識別するために付するものであり、必ずしも、数、順序、もしくはその内容を限定するものではない。また、構成要素の識別のための番号は文脈毎に用いられ、一つの文脈で用いた番号が、他の文脈で必ずしも同一の構成を示すとは限らない。また、ある番号で識別された構成要素が、他の番号で識別された構成要素の機能を兼ねることを妨げるものではない。 Notations such as “first”, “second”, “third” in this specification etc. are attached to identify the constituent elements, and do not necessarily limit the number, order, or content thereof isn't it. Also, numbers for identifying components are used for each context, and numbers used in one context do not necessarily indicate the same configuration in other contexts. Also, it does not preclude a component identified by a certain number from having the function of a component identified by another number.
図面等において示す各構成の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面等に開示された位置、大きさ、形状、範囲などに限定されない。 The position, size, shape, range, etc. of each component shown in the drawings, etc. may not represent the actual position, size, shape, range, etc., in order to facilitate understanding of the invention. Therefore, the present invention is not necessarily limited to the positions, sizes, shapes, ranges, etc. disclosed in the drawings and the like.
本明細書で引用した刊行物、特許および特許出願は、そのまま本明細書の説明の一部を構成する。 All publications, patents and patent applications cited herein are hereby incorporated by reference into this description.
本明細書において単数形で表される構成要素は、特段文脈で明らかに示されない限り、複数形を含むものとする。 Elements presented herein in the singular shall include the plural unless the context clearly dictates otherwise.
実施例で説明される機械学習用情報処理装置の一例は、機械学習が適用される解析装置の学習を支援する用途に用いられるものである。機械学習としては、学習データ(教師データ)を用いてニューラルネットワークを学習するものがあげられる。この装置は、画像解析結果の正誤情報を生成する正誤情報生成部と、画像解析処理において解析に関わる信頼性を判定する信頼性判定部と、正誤情報および信頼性に基づき学習条件を提示する学習条件出力部と、を備える。 An example of the information processing device for machine learning described in the embodiments is used for supporting learning of an analysis device to which machine learning is applied. As machine learning, learning data (teacher data) is used to learn a neural network. This device includes a correct/incorrect information generation unit that generates correct/incorrect information of the image analysis result, a reliability determination unit that determines the reliability related to the analysis in the image analysis process, and a learning condition that presents learning conditions based on the correct/incorrect information and reliability. and a condition output unit.
このような機械学習用情報処理装置は、一般的な情報処理装置、例えばサーバーによって構成可能である。一般的なサーバーと同様に、かかる機械学習用情報処理装置は、制御装置と、記憶装置と、入力装置と、出力装置と、各部を接続するバスを備えている。装置で実行されるプログラムは、記憶装置に予め組み込んでおくものとする。以下の説明では、情報処理装置が当然備える制御装置、記憶装置、入力装置、出力装置を敢えて図示することはなく、装置で実現される機能に着目して説明する。 Such an information processing device for machine learning can be configured by a general information processing device such as a server. Like a general server, the information processing device for machine learning includes a control device, a storage device, an input device, an output device, and a bus connecting each part. It is assumed that the program executed by the device is preinstalled in the storage device. In the following description, the control device, storage device, input device, and output device naturally included in the information processing device will not be illustrated, and the description will focus on the functions realized by the device.
具体的には、各機能は記憶装置に記憶され、処理装置で実行されるプログラムによって実現される。すなわち、本実施例では計算や制御等の機能は、記憶装置に格納されたプログラムが処理装置によって実行されることで、定められた処理を他のハードウェアと協働して実現される。計算機などが実行するプログラム、その機能、あるいはその機能を実現する手段を、「機能」、「手段」、「部」、「ユニット」、「モジュール」等と呼ぶ場合がある。 Specifically, each function is stored in a storage device and realized by a program executed by a processing device. That is, in the present embodiment, functions such as calculation and control are realized by cooperating with other hardware by executing a program stored in the storage device by the processing device. A program executed by a computer or the like, its function, or a means for realizing that function may be referred to as a "function," "means," "unit," "unit," "module," or the like.
機械学習用情報処理装置の構成は、単体の装置で構成してもよいし、あるいは、入力装置、出力装置、処理装置、記憶装置の任意の部分が、ネットワークで接続された他のコンピュータで構成されてもよい。発明の思想としては等価であり、変わるところがない。 The configuration of the information processing device for machine learning may be composed of a single device, or any part of the input device, output device, processing device, and storage device may be composed of other computers connected by a network. may be The idea of the invention is equivalent, and there is no change.
本実施例中、ソフトウェアで構成した機能と同等の機能は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)などのハードウェアでも実現できる。そのような態様も本願発明の範囲に含まれる。 In the present embodiment, functions equivalent to those configured by software can also be realized by hardware such as FPGA (Field Programmable Gate Array) and ASIC (Application Specific Integrated Circuit). Such aspects are also included in the scope of the present invention.
図1は、実施形態に係る機械学習用情報処理装置100の構成例を示すブロック図である。機械学習用情報処理装置100は、正誤情報生成部101、信頼性判定部102、学習条件出力部103および表示内容生成部104を備える。正誤情報生成部101、信頼性判定部102、学習条件出力部103および表示内容生成部104は、バス106を介して接続されている。バス106は、バス106に接続されている各処理部で扱われるデータ、制御情報および解析情報を保持し、もしくは伝送を仲介する。
FIG. 1 is a block diagram showing a configuration example of an
冒頭で述べたように、本実施例では、正誤情報生成部101、信頼性判定部102、学習条件出力部103および表示内容生成部104はソフトウェアで実装するものとする。また、機械学習用情報処理装置100は情報処理装置として通常備える、各種の入出力装置やインターフェースを備えるものとする。
As described at the beginning, in this embodiment, the correctness/incorrectness information generation unit 101, the
機械学習用情報処理装置100は、バス106を介して画像解析装置110および入出力装置111に接続されている。機械学習用情報処理装置100は、画像解析装置110および入出力装置111と有線接続されてもよいし、無線接続されてもよい。なお、図1では、画像解析装置110および入出力装置111は、機械学習用情報処理装置100の外部に設けた例で示したが、機械学習用情報処理装置100に内蔵されていてもよい。
The machine learning
画像解析装置110は、画像から特定の対象を解析する機能を有する。画像を解析する処理は、画像を特定の特徴を有するか否かを分類して、1つ以上の分類結果を算出するものでも良いし、画像において特定の対象が含まれる領域を検出して、画像における対象の位置や大きさを算出するものでもよいし、画像において特定の対象が含まれる領域をセグメントとして分けて、他の対象と色を分けた画像として算出するものでも良い。以降、画像の分類、画像の検出、画像のセグメント分けに代表されるように、画像から特定の対象を解析する処理を、画像解析と呼ぶこととする。画像解析処理については公知の技術を用いる。 The image analysis device 110 has a function of analyzing a specific target from an image. The process of analyzing an image may classify the image as to whether or not it has a specific feature and calculate one or more classification results, or detect an area containing a specific target in the image, The position and size of the target in the image may be calculated, or the area including the specific target in the image may be divided into segments and calculated as an image in which the color is different from that of other targets. Hereinafter, processing for analyzing a specific target from an image, represented by image classification, image detection, and image segmentation, will be referred to as image analysis. A known technique is used for image analysis processing.
画像解析装置110は、典型的な例示としては、教師有り学習によって内部パラメータを設定されるディープニューラルネットワーク(DNN)等で構成することができる。当該構成は、ソフトウェアで実装してもよいし、FPGAのようなハードウェアで構成してもよい。画像解析装置110は、一般的には所定の入力に対して所定の出力を行う関数近似器として定義される。一般的な関数近似器とした場合、入力は上記のように画像データでもよいし、音声その他の種類のデータを入力としてもよい。 As a typical example, the image analysis device 110 can be configured with a deep neural network (DNN) or the like in which internal parameters are set by supervised learning. The configuration may be implemented by software, or may be configured by hardware such as FPGA. The image analysis device 110 is generally defined as a function approximator that produces a given output in response to a given input. In the case of a general function approximator, the input may be image data as described above, or voice or other types of data.
図2に、画像解析装置110による画像解析結果の例を示す。撮影画像210は顕微鏡により撮影される画像の例として三日月状の物体201と楕円状の物体202が混在している状態を示している。画像解析装置110は、例えば撮影画像210を入力とすると、三日月状の物体201と楕円状の物体202を識別して分類する。
FIG. 2 shows an example of an image analysis result by the image analysis device 110. As shown in FIG. A photographed
例えば、この撮影画像210について、三日月状の物体201は白色に色分けしてセグメント化し、楕円状の物体202及び背景は灰色に色分けしてセグメント化するように画像解析した結果の画像例を解析結果画像220に示す。
For example, for this photographed
解析結果画像220においては、三日月状の物体201A,201B,201Dを正しく白色にセグメント化したセグメント211A,211B,211Dおよび、楕円状の物体202Aを正しく灰色にセグメント化したセグメント212Aがある。一方で、三日月状の物体201Cが正しくセグメント化されていないセグメント211Cや、楕円状の物体202Bが正しくセグメント化されていないセグメント212Bを含んでいる。
In the
入出力装置111は、画像解析装置110により処理された解析結果の正誤に関する情報を機械学習用情報処理装置100に出力する機能を有する。正誤に関する情報を出力する例としては、例えば、画像解析装置110による解析結果を解析結果画像220のような形態で入出力装置111に画像として表示し、利用者により解析の正誤を選択させ、選択した結果を機械学習用情報処理装置100に出力する。
The input/output device 111 has a function of outputting, to the
この場合、入出力装置111は、例として画像を表示するディスプレイと利用者が操作できるマウスもしくはキーボードを有するPCにより構成されるが、解析結果画像220を利用者に出力して、解析結果の正誤を利用者により入力するものであればよい。例えばスマートフォンやタブレット端末が有するタッチパネルディスプレイでも良いし、画像結果をプリンタにより印刷するのでも良いし、音声により利用者の選択を入力するものでも良い。 In this case, the input/output device 111 is composed of, for example, a PC having a display for displaying images and a mouse or keyboard that can be operated by the user. is input by the user. For example, a touch panel display of a smartphone or a tablet terminal may be used, an image result may be printed by a printer, or a user's selection may be input by voice.
入出力装置111が処理し機械学習用情報処理装置100に出力する情報は、解析結果の正誤を利用者により選択したものでも良いし、期待される解析結果を利用者により作成したものでも良い。また、正誤に関する情報を出力する別の例としては、画像解析装置110とは異なる解析手段による情報を入出力装置111から機械学習用情報処理装置100に出力する。例えば、単眼カメラで物体を撮影した画像を用いて、画像解析装置110によりカメラから物体までの距離を解析する場合では、予めレーザースキャナやTOFカメラなどの3Dセンサにより計測した距離を正解情報として、入出力装置111はこの正解情報を機械学習用情報処理装置100に出力する。正解情報を得る手段については、公知の技術を用いる。
The information processed by the input/output device 111 and output to the
図3を用いて、利用者により解析の正誤を選択する方法の例を説明する。利用者に提示する画像310は、解析結果画像220に基づき作成したもので、利用者に解析結果の正誤を選択するよう促す。利用者による選択の例として、図3ではカーソル301を操作し各セグメントの正誤を選択させる。利用者が選択した結果を正誤選択結果画像320に示す。
An example of a method for the user to select whether the analysis is correct or incorrect will be described with reference to FIG. The
利用者による選択の結果、解析結果が正しい(三日月状の物体201を白色にセグメント化、もしくは楕円状の物体202を灰色にセグメント化)と判断したものについては、「正」と表示しており、解析結果が誤っている(三日月状の物体201ではないものを白色にセグメント化、もしくは三日月状の物体201を灰色にセグメント化)と判断したものを「誤」、解析結果が重要でない(以降の学習に反映させる必要がない)と判断したものを「未選択」として表示している。
As a result of selection by the user, when the analysis result is judged to be correct (segmentation of the crescent-shaped
正誤情報生成部101は、入出力装置111から入力する情報に基づき、画像解析結果の正誤情報を生成する。正誤情報の粒度は任意であるが、図3の例では、セグメント対応で正誤情報を与えている。すなわち、この例では、正誤情報は画像の部分的な領域に対応している。あるいは、正誤のカウント数や正誤の比率によって、画像毎に正誤判定を行ってもよい。 The correctness/incorrectness information generation unit 101 generates correctness/incorrectness information of the image analysis result based on the information input from the input/output device 111 . Although the granularity of the correct/incorrect information is arbitrary, in the example of FIG. 3, the correct/incorrect information is given for each segment. That is, in this example, the correct/incorrect information corresponds to a partial area of the image. Alternatively, correct/wrong determination may be performed for each image based on the correct/wrong count or the correct/wrong ratio.
信頼性判定部102は、画像解析の信頼性を判定する。ここで信頼性とは、画像解析における不確かさを指す。画像解析処理を機械学習などにより統計学的にモデル化するとき、モデル化が十分に精緻になされていないと、解析の難度が高いデータを与えたときに、モデル化した解析処理が不確かさを持つことにより、解析結果にばらつきが生じて解析精度が低下し得る。このとき、「モデルが不確かである」ということができ、以降では「モデルの信頼性が低い」と呼ぶ。このケースは、前述の非特許文献1で認識における不確かさと呼ばれているものである。
The
また、画像解析処理のモデル化が十分に精緻であっても、解析対象のデータが他と比べて局所的にノイズを含み解析の難度が高くなっているような場合では、当該データが不確かさを持つことにより、解析結果にばらつきが生じて解析精度が低下し得る。このとき、「データが不確かである」ということができ、以降では「データの信頼性が低い」と呼ぶ。このケースは前述の非特許文献1で偶発的な不確かさと呼ばれているものである。
In addition, even if the modeling of the image analysis process is sufficiently sophisticated, if the data to be analyzed contains local noise compared to others, and the difficulty of analysis is high, the data may be subject to uncertainty. , the analysis results may vary and the accuracy of the analysis may decrease. At this time, it can be said that "the data are uncertain", and hereinafter referred to as "the data are unreliable". This case is called accidental uncertainty in
信頼性判定部102では、モデルの信頼性およびデータの信頼性を算出する。信頼性判定部102が判定する信頼性は、モデルの信頼性のみでも良いし、データの信頼性のみでも良いし、モデルの信頼性とデータの信頼性の両方でも良い。モデルの信頼性およびデータの信頼性を算出する手法については、例えば非特許文献1記載の公知の技術を用いる。非特許文献1にも記載されているように、モデルの信頼性およびデータの信頼性は、画像の部分的な領域に対応した連続値として、例えばコントラストや色の差で視覚的に示すことができる。
The
学習条件出力部103は、正誤情報生成部101により生成される画像解析結果の正誤情報と信頼性判定部102により判断される画像解析の信頼性より、学習条件を判定して提示する。
The learning condition output unit 103 determines and presents a learning condition based on the correctness/incorrectness information of the image analysis result generated by the correctness/incorrectness information generation unit 101 and the image analysis reliability determined by the
図4は、画像解析結果の正誤情報と画像解析の信頼性に基づいて、学習条件を判定するルールの例を示す表図である。このようなルールは、予め使用者が定めておき、例えばテーブル形式のデータとして機械学習用情報処理装置100の記憶装置(図示せず)に記憶させておく。学習条件出力部103は当該ルールを参照して判定を行う。
FIG. 4 is a table showing an example of rules for determining learning conditions based on correct/incorrect information of image analysis results and reliability of image analysis. Such rules are determined in advance by the user and stored in a storage device (not shown) of the
図4のうちテーブル410は、解析結果の正誤情報およびモデルの信頼性から学習条件を判定する例であり、モデルの信頼性に対して閾値aもしくはbを用いて信頼性が高いか否かを判定している。閾値はルールの一部として予め使用者が定めておく。 Table 410 in FIG. 4 is an example of judging the learning condition from the correctness information of the analysis result and the reliability of the model. Judging. The threshold is defined in advance by the user as part of the rule.
410(1)では、解析結果が正しくかつモデルの信頼性が高いと判定していることから、画像解析装置110の学習は適切と考えられる。この場合、学習条件を維持(現状維持)するよう判定結果を提示する。 In 410(1), it is determined that the analysis result is correct and the reliability of the model is high, so the learning of the image analysis device 110 is considered appropriate. In this case, the determination result is presented so as to maintain the learning conditions (maintain the status quo).
410(2)(4)では、モデルの信頼性が低いことから、共に該当するデータを学習データに追加して学習することにより解析精度が向上すると判定している。閾値bを閾値aよりも小さく設定することにより、解析結果が誤っている(4)の方を優先的に学習データに追加させることができる。 In 410 (2) and (4), since the reliability of the model is low, it is determined that the analysis accuracy is improved by learning by adding the corresponding data to the learning data. By setting the threshold value b smaller than the threshold value a, it is possible to preferentially add (4) with an erroneous analysis result to the learning data.
図5は、正誤選択結果画像320と信頼性表示画像510の関係を示している。信頼性表示画像510は非特許文献1にも開示されておりモデルの信頼性を示しているが、データの信頼性も同様に表示できる。この例では、信頼性が閾値より低い部分をグレーで、閾値以上の部分を白で示している。ここで、セグメント511の部分は、解析結果が正しいがモデルの信頼性が低い410(2)に該当する。セグメント512の部分は、解析結果が誤りでモデルの信頼性が低い410(4)に該当する。
FIG. 5 shows the relationship between the correct/wrong selection result
学習データへの追加は、正誤選択結果画像320に対応する原画像(画像解析装置110への入力画像)と正解の組を学習データに追加すればよい。あるいは、画像中の該当する部分(例えばセグメント511あるいは512に対応する部分)をカーソル301で指定して切り出し、学習データに追加してもよい。
For addition to the learning data, a set of the original image (input image to the image analysis device 110) corresponding to the correct/wrong selection result
410(3)では、解析結果が誤っているにもかかわらずモデルの信頼性が高い状態であり、図5のセグメント513の部分に対応する。ここでは、学習データの追加よりも学習設定値を変更することによりモデルを大きく変更することが効果的であると判断している。学習設定値とは、例えば学習実行時に学習条件を設定するパラメータや、モデルをチューニングするハイパーパラメータである。 At 410(3), the confidence of the model is high even though the analysis result is incorrect, and corresponds to segment 513 of FIG. Here, it is judged that it is more effective to significantly change the model by changing the learning set value than by adding learning data. The learning setting values are, for example, parameters for setting learning conditions when learning is executed, and hyperparameters for tuning a model.
一方、図4のうちテーブル420は、解析結果の正誤情報およびデータの信頼性から学習条件を判定する例であり、データの信頼性に対して閾値cもしくはdを用いて信頼性が高いか否かを判定している。 On the other hand, a table 420 in FIG. 4 is an example of judging the learning condition from the correct/incorrect information of the analysis result and the reliability of the data. It is determined whether
420(5)では、解析結果が正しくかつデータの信頼性が高いと判定していることから、学習条件を維持するよう判定結果を提示する。 In 420 ( 5 ), since it is determined that the analysis result is correct and the reliability of the data is high, the determination result is presented so as to maintain the learning conditions.
420(6)(8)では、データの信頼性が低く該当するデータに偶発的なノイズが生じていると考えられ、該当するデータを学習データに追加しても解析精度は向上せず、かえって解析精度が低下する恐れがある。すなわち、該当するデータは学習データに使用しない方が良いということである。このことから、当該データの学習データとしての使用は推奨しないことを提示する。さらに学習データを追加して解析精度を向上するためには、データの再取得を提示する。再取得とは、異なる対象についての画像を取得することと、同じ対象についての画像を再取得することの両方があり得る。同じ対象についての画像であっても、条件(例えば撮影条件)によっては学習データに適切なものが取得できる可能性があるからである。具体的には、再度の撮影により、画像中のノイズやハレーションが改善されることが期待される。 In 420 ( 6 ) ( 8 ), it is thought that the reliability of the data is low and accidental noise is generated in the relevant data, and even if the relevant data is added to the learning data, the analysis accuracy does not improve. Analysis accuracy may decrease. That is, it is better not to use the applicable data for learning data. For this reason, we present that the use of this data as learning data is not recommended. In order to add more training data and improve the analysis accuracy, we propose to reacquire the data. Reacquisition can be both acquiring an image of a different object and reacquiring an image of the same object. This is because, even for images of the same object, there is a possibility that images suitable for learning data can be acquired depending on conditions (for example, imaging conditions). Specifically, it is expected that noise and halation in the image will be improved by re-shooting.
420(7)では、解析結果が誤っているにも関わらずデータの信頼性が高い状態であり、データの再取得よりも学習設定値を変更することによりモデルを大きく変更することが効果的であると判断している。
In 420 ( 7 ), the reliability of the data is high despite the fact that the analysis result is incorrect, and it is more effective to change the learning settings to significantly change the model than to reacquire the data. I believe there is.
表示内容生成部104は、図3で説明したように、入出力装置111にて利用者が画像解析の正誤を選択する際に、利用者に提示する表示内容を生成する。解析結果が正しいもしくは誤っていると利用者が判断できるような表示内容であればよく、画像分類であれば分類結果を文字として表示するのでも良いし画像として表示するのでも良い。画像の検出であれば、画像のうち検出した領域を枠や色を付与して表示するのでも良いし検出した領域のみを切り出して表示するのでも良い。画像のセグメント分けであれば、画像のうちセグメント分けした領域に色を付与して表示するのでも良いし、セグメント分けした領域のみを切り出して表示するのでも良い。ほかにも、画像のうち画像解析した結果を示す手法であれば、公知の技術でも構わない。また、2つ以上ある複数の画像解析結果を並べて表示させ、その中から画像解析の正誤を選択するような表示内容でも構わない。
The display
また、表示内容生成部104は、学習条件出力部103の出力結果を表示するための画像データも生成する。また、後に図7で説明するようなインターフェース画像の生成を行う。
The display
図4に示した、モデルの信頼性に基づく判定と、データの信頼性に基づく判定は、片方だけを独立に行ってもよいし、両方を行ってもよい。両方行う場合には、先にデータの信頼性に基づく判定を行い、420(6)(8)で学習データへの採用が推奨されない画像を除外してから、モデルの信頼性に基づく判定を行うことで、非推奨データが学習データに用いられることを防止するのがよい。 One of the determination based on the reliability of the model and the determination based on the reliability of the data shown in FIG. 4 may be performed independently, or both may be performed. When performing both, first make a judgment based on the reliability of the data, exclude images that are not recommended to be adopted as learning data in 420 (6) and (8), and then make a judgment based on the reliability of the model. By doing so, it is preferable to prevent non-recommended data from being used as learning data.
図6は、機械学習用情報処理装置100による機械学習用情報処理を示すフローチャートである。図6では、解析結果の正誤情報およびモデルの信頼性から学習条件を判定する処理をフローチャート図により示している。
FIG. 6 is a flowchart showing information processing for machine learning by the
機械学習用情報処理装置100への入力は、画像解析装置110から入力される画像解析結果と、入出力装置111から入力される例えば使用者による正解である。学習データの追加を想定している場合には、画像解析装置110の解析対象として学習データ以外の新しい画像(追加しようとする学習データ候補)を使用する。
Inputs to the
S601では、画像解析装置110と入出力装置111から入力される情報に基づき、正誤情報生成部101により正誤情報を生成する。正誤情報は、解析結果画像の各々について付与されるものでも良いし、図3の例のように解析結果画像に含まれる1以上の解析結果の各々について付与されるものでも良い。また、入出力装置111において利用者が正誤を判断した画像についてのみ正誤情報を生成するのでも良く、その場合はS603で対象とするデータは、利用者が正誤を判断したデータに限定する。 In S<b>601 , correct/incorrect information is generated by the correct/incorrect information generation unit 101 based on information input from the image analysis device 110 and the input/output device 111 . The correct/incorrect information may be given to each of the analysis result images, or may be given to each of one or more analysis results included in the analysis result image as in the example of FIG. Further, the input/output device 111 may generate correct/wrong information only for images judged correct/wrong by the user. In that case, data targeted in S603 is limited to data judged correct/wrong by the user.
S602では、信頼性判定部102によりモデルの信頼性を判定する。モデルの信頼性は、解析結果画像に対して例えば画像の大きさ(水平方向画素数×垂直方向画素数)の数だけ数値を有するものでも良いし、解析結果画像1つに対して単一の数値を有するものでも良い。信頼性判定の具体例については、例えば非特許文献1に開示がある。
In S602, the
S603では解析結果画像のうち本実施例で参照するデータ(たとえば追加しようとする学習データ候補)を判定しており、対象データ全ての参照が完了するまでS604からS610までの処理を実行する。参照が全て完了すると、処理を終了する。 In S603, the data to be referred to in this embodiment (for example, learning data candidates to be added) are determined from the analysis result image, and the processing from S604 to S610 is executed until all the target data are referred to. When all references are completed, the process ends.
S604では、解析結果の正誤情報を参照し、解析結果が「正」であった場合はS605に、解析結果が「誤」であった場合はS606にすすむ。S605ではモデルの信頼性が閾値a以上か否かを判定し、S607もしくはS608にすすむ。S606ではモデルの信頼性が閾値b以上か否かを判定し、S609もしくはS610にすすむ。S607からS610に示す学習条件については、前述のとおりである。 In S604, the correct/wrong information of the analysis result is referred to, and if the analysis result is "correct", the process proceeds to S605, and if the analysis result is "wrong", the process proceeds to S606. In S605, it is determined whether or not the reliability of the model is equal to or greater than the threshold a, and the process proceeds to S607 or S608. In S606, it is determined whether or not the reliability of the model is equal to or greater than the threshold value b, and the process proceeds to S609 or S610. The learning conditions shown in S607 to S610 are as described above.
図6では、モデルの信頼性を用いた判定について説明しているが、データの信頼性でも同様の処理を行うことができる。その際には、閾値としてc、dを用いることはいうまでもない。 FIG. 6 illustrates determination using model reliability, but similar processing can be performed using data reliability. In that case, it goes without saying that c and d are used as thresholds.
図7に、機械学習用情報処理装置100を実行するときに用いるGUI(Graphical User Interface)の例を示す。
FIG. 7 shows an example of a GUI (Graphical User Interface) used when executing the
GUIの画面700は、実行モード704、初期深層ネットワークモデルを格納したディレクトリを指定する欄705、入力データ及び学習データを格納したディレクトリを指定する欄706、推定結果データ、信頼性データ、及び学習後の深層ネットワークモデルを格納するディレクトリを指定する欄707、解析後の推奨データや深層ネットワークモデルを格納するディレクトリを指定する欄708、実行パラメータもしくは解析用パラメータを入力する欄711、実行ボタン714、レポート出力ボタン715、画像もしくは信頼性データを表示する画面702、画面702に表示する情報を指定するための欄701、703、716~721を備える。
A
画面700の内容は、表示内容生成部104により生成され、入出力装置111の例えば画像モニタに表示される。欄705では、画像解析装置110に実装するモデルを選択する。欄706では、記憶装置に記憶済みの種々のデータを選択して呼び出す。欄707では、生成したデータを記憶装置に保存する。欄708では、図6で示した処理の結果得られる推奨データやモデルを保存する。欄711では、モデルの学習時あるいは実行時に設定するパラメータを入力する。実行ボタン714では、学習や解析の処理を実行する。レポート出力ボタン715では、例えば図6で示した処理の結果得られる推奨データをレポート形式で出力する。画面702では、図2、図3、図5で示したような画像を同時あるいは切り替えて表示する。
The content of the
欄716及び719は、入力データ(例えば図2の210のように表示できる)、正解データ(学習データ)、訓練データ、推論結果データ(例えば図2の220のように表示できる)、信頼性データ(例えば図3の310のように表示できる)などが選択できる。欄717及び720には、欄716及び719で選択したデータのリストが一覧表示される。各データは、機械学習用情報処理装置100の記憶装置あるいは外部の記憶装置に格納しておく。欄718及び721は、欄717及び720に表示されるリストの位置を示すゲージである。
欄701では、合成(濃淡)、合成(カラー)が選択でき、欄717及び720で選択されたデータを、703のゲージの比率で合成したデータが画面702に表示される。すなわち、この例では、異なる画像をオーバラップ表示可能である。そのほか、複数の画像を並べて表示してもよい。
In
実行モード704には、訓練(training)、推論(inference)、解析(analysis)などが選択できる。
まずは、実行モード704で訓練モードもしくは推論モードに設定し、欄705~707に適切なディレクトリを、欄711に実行パラメータを設定し、実行ボタン714を押下すると、設定したディレクトリ及び実行パラメータにしたがって、画像解析装置110のモデルの訓練もしくは推論が実行される。モデルの訓練や推論は、公知の手順で実行可能である。実行後、学習後の深層ネットワークモデル、推論結果データ、信頼性データが出力ディレクトリに格納される。
First, set the
実行後、欄701、703、716~721を設定することにより、画面702に表示したいデータを表示することができる。すなわち、入力データ、学習データ、訓練データ、推論結果データ、信頼性データが参照できる。
After execution, the desired data can be displayed on the
次に、解析モードに設定し、欄708に、解析後の推奨データなどを格納したディレクトリを設定する。解析モードが実行されると、図6に示した処理が実行される。解析後の推奨データとは、学習データとして追加が推奨されるデータであり、図6の処理S608,S610で追加されたデータである。
Next, the analysis mode is set, and a directory in which recommended data after analysis is stored is set in a
欄701、703、716~721を設定して、画面702に表示したいデータを表示し、正誤の選択などを行うことで、解析結果の正誤情報の生成処理S601が実行できる。もっとも、解析結果の正誤情報は前もって生成して記憶しておいてもよい。その後、実行ボタン714を押下することにより、処理S602~S610が実行され欄708のディレクトリに推奨データが格納される。
By setting
また、図6の処理S607で学習条件を維持すべきとの判定結果があった場合も、入出力装置111は、例えば画面702にその旨を表示する。図6の処理S609で学習設定値を変更すべきとの判定結果があった場合は、使用者は欄711で任意のパラメータを調整する。 Also, when there is a determination result that the learning conditions should be maintained in the process S607 of FIG. If there is a determination result that the learning set value should be changed in the processing S609 of FIG.
このようにして追加学習あるいはパラメータ変更を実行した後、訓練モードに設定し、欄706を推奨データが格納されているディレクトリに設定して、実行ボタン714を押下することにより、欄707のディレクトリに、改善された学習後の深層ネットワークモデル、推論結果データ、信頼性データが格納される。
After executing additional learning or parameter change in this way, the training mode is set, the
機械学習用情報処理装置100、正誤情報生成部101、信頼性判定部102、学習条件出力部103、表示内容生成部104、バス106
Information processing apparatus for
Claims (15)
画像解析処理において解析に関わる信頼性を判定する信頼性判定部と、
前記正誤情報および前記信頼性に基づき学習条件を提示する学習条件出力部と、
を備える、機械学習用情報処理装置。 a correct/incorrect information generation unit that generates correct/incorrect information of the image analysis result;
A reliability determination unit that determines reliability related to analysis in image analysis processing;
a learning condition output unit that presents a learning condition based on the correctness information and the reliability;
An information processing device for machine learning.
前記画像解析結果と前記画像解析結果に対して入力される利用者の操作結果から前記正誤情報を生成する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 In the correct/incorrect information generation unit,
generating the correct/incorrect information from the image analysis result and a user's operation result input with respect to the image analysis result;
2. The information processing apparatus for machine learning according to claim 1, wherein:
解析対象となる画像を別の手法により解析した結果を正解情報とし、前記画像解析結果と前記正解情報と照合することにより前記正誤情報を生成する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 In the correct/incorrect information generation unit,
The result of analyzing the image to be analyzed by another method is used as correct information, and the correct/incorrect information is generated by comparing the image analysis result with the correct information.
2. The information processing apparatus for machine learning according to claim 1, wherein:
画像1つに対して1つの正誤情報を生成する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 In the correct/incorrect information generation unit,
Generate one correct/incorrect information for one image,
2. The information processing apparatus for machine learning according to claim 1, wherein:
画像1つに含まれる2つ以上の解析結果に対して2つ以上の正誤情報を生成する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 In the correct/incorrect information generation unit,
generating two or more correct/incorrect information for two or more analysis results contained in one image;
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記正誤情報が生成された画像解析結果に対応する画像を学習データに追加することを含む、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 The learning conditions are
Adding an image corresponding to the image analysis result for which the correctness information is generated to the learning data,
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記正誤情報が生成された画像解析結果に対応する画像を学習データに追加することを非推奨とすることを含む、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 The learning conditions are
Including deprecating the addition of the image corresponding to the image analysis result for which the correctness information was generated to the learning data,
2. The information processing apparatus for machine learning according to claim 1, wherein:
学習に関わる設定値を変更することを含む、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 The learning conditions are
Including changing settings related to learning,
2. The information processing apparatus for machine learning according to claim 1, wherein:
前記正誤情報が生成された画像解析結果に対応する画像を再取得することを含む、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 The learning conditions are
Reacquiring an image corresponding to the image analysis result for which the correctness information was generated;
2. The information processing apparatus for machine learning according to claim 1, wherein:
信頼性を数値として扱い、当該数値が閾値よりも大きいときに、当該数値が閾値よりも小さいときと異なる学習条件を提示する、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 In the learning condition output unit,
Reliability is treated as a numerical value, and when the numerical value is greater than a threshold, different learning conditions are presented than when the numerical value is less than the threshold.
2. The information processing apparatus for machine learning according to claim 1, wherein:
画像解析処理のモデルに起因するモデルの信頼性を用いる、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 Regarding the reliability related to the analysis,
using the reliability of the model resulting from the model of image analysis processing,
2. The information processing apparatus for machine learning according to claim 1, wherein:
解析対象である画像データに起因するデータの信頼性を用いる、
ことを特徴とする請求項1記載の機械学習用情報処理装置。 Regarding the reliability related to the analysis,
using the reliability of the data attributed to the image data to be analyzed;
2. The information processing apparatus for machine learning according to claim 1, wherein:
入力された画像に関する画像解析装置の解析結果に対して正誤判定を行う、第1のステップ、
モデルの信頼性およびデータの信頼性の少なくとも一つを含む画像解析の信頼性を評価する、第2のステップ、
前記正誤判定と前記画像解析の信頼性に基づいて、現状維持、前記入力された画像を学習データに利用することの推奨、前記入力された画像を学習データに利用しないことの推奨、および学習設定値の変更、の少なくとも一つを提示する第3のステップ、
を実行する機械学習方法。 A machine learning method for an image analysis device that implements a model to which machine learning using learning data is applied and performs image analysis on an input image,
A first step of judging whether the analysis result of the image analysis device regarding the input image is correct or incorrect;
a second step of assessing reliability of the image analysis including at least one of model reliability and data reliability;
Maintaining the status quo, recommending the use of the input image as learning data, recommending not using the input image as learning data, and learning settings based on the correctness determination and the reliability of the image analysis a third step of presenting at least one of:
A machine learning method that performs
前記第3のステップでは、
解析結果が正であり、かつモデルの信頼性が大のとき、現状維持を提示し、
解析結果が正であり、かつモデルの信頼性が小のとき、前記入力された画像を学習データに利用することの推奨を提示し、
解析結果が誤であり、かつモデルの信頼性が大のとき、学習設定値の変更を提示し、
解析結果が誤であり、かつモデルの信頼性が小のとき、前記入力された画像を学習データに利用することの推奨を提示する、
請求項13記載の機械学習方法。 performing a fourth step of comparing the reliability of the model to a predetermined threshold to discriminate between large and small;
In the third step,
When the analysis result is positive and the reliability of the model is high, the status quo is presented,
presenting a recommendation to use the input image as learning data when the analysis result is positive and the reliability of the model is small;
When the analysis result is incorrect and the reliability of the model is high, suggesting a change in the learning setting value,
Presenting a recommendation to use the input image as learning data when the analysis result is incorrect and the reliability of the model is low;
14. The machine learning method of claim 13.
前記第3のステップでは、
解析結果が正であり、かつデータの信頼性が大のとき、現状維持を提示し、
解析結果が正であり、かつデータの信頼性が小のとき、前記入力された画像を学習データに利用しないことの推奨を提示し、
解析結果が誤であり、かつデータの信頼性が大のとき、学習設定値の変更を提示し、
解析結果が誤であり、かつデータの信頼性が小のとき、前記入力された画像を学習データに利用しないことの推奨を提示する、
請求項13記載の機械学習方法。 performing a fifth step of comparing the reliability of the data with a predetermined threshold to identify large or small;
In the third step,
When the analysis result is positive and the reliability of the data is high, the status quo is presented,
presenting a recommendation not to use the input image as learning data when the analysis result is positive and the reliability of the data is low;
When the analysis result is incorrect and the reliability of the data is high, suggesting a change in the learning setting value,
presenting a recommendation not to use the input image as learning data when the analysis result is incorrect and the reliability of the data is low;
14. The machine learning method of claim 13.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020021453A JP7308775B2 (en) | 2020-02-12 | 2020-02-12 | Machine learning method and information processing device for machine learning |
PCT/JP2020/044928 WO2021161628A1 (en) | 2020-02-12 | 2020-12-02 | Machine learning method, and information processing device for machine learning |
US17/794,791 US20230080978A1 (en) | 2020-02-12 | 2020-12-02 | Machine learning method and information processing apparatus for machine learning |
TW110102261A TWI754520B (en) | 2020-02-12 | 2021-01-21 | Machine learning method and information processing device for machine learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020021453A JP7308775B2 (en) | 2020-02-12 | 2020-02-12 | Machine learning method and information processing device for machine learning |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021128415A JP2021128415A (en) | 2021-09-02 |
JP2021128415A5 JP2021128415A5 (en) | 2022-08-03 |
JP7308775B2 true JP7308775B2 (en) | 2023-07-14 |
Family
ID=77291505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020021453A Active JP7308775B2 (en) | 2020-02-12 | 2020-02-12 | Machine learning method and information processing device for machine learning |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230080978A1 (en) |
JP (1) | JP7308775B2 (en) |
TW (1) | TWI754520B (en) |
WO (1) | WO2021161628A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI792511B (en) * | 2021-08-20 | 2023-02-11 | 長庚大學 | Image recognition method and system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015129988A (en) | 2014-01-06 | 2015-07-16 | 日本電気株式会社 | Data processor |
JP2017224184A (en) | 2016-06-16 | 2017-12-21 | 株式会社日立製作所 | Machine learning device |
JP2019021201A (en) | 2017-07-20 | 2019-02-07 | 株式会社デンソー | Learning server, and assist system |
JP2019211969A (en) | 2018-06-04 | 2019-12-12 | オリンパス株式会社 | Learning management device, learning management server, and learning management method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9373087B2 (en) * | 2012-10-25 | 2016-06-21 | Microsoft Technology Licensing, Llc | Decision tree training in machine learning |
US20160292769A1 (en) * | 2015-03-31 | 2016-10-06 | Stitch Fix, Inc. | Systems and methods that employ adaptive machine learning to provide recommendations |
TWI592883B (en) * | 2016-04-22 | 2017-07-21 | 財團法人車輛研究測試中心 | Image recognition system and its adaptive learning method |
CN107341428B (en) * | 2016-04-28 | 2020-11-06 | 财团法人车辆研究测试中心 | Image recognition system and adaptive learning method |
-
2020
- 2020-02-12 JP JP2020021453A patent/JP7308775B2/en active Active
- 2020-12-02 US US17/794,791 patent/US20230080978A1/en active Pending
- 2020-12-02 WO PCT/JP2020/044928 patent/WO2021161628A1/en active Application Filing
-
2021
- 2021-01-21 TW TW110102261A patent/TWI754520B/en active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015129988A (en) | 2014-01-06 | 2015-07-16 | 日本電気株式会社 | Data processor |
JP2017224184A (en) | 2016-06-16 | 2017-12-21 | 株式会社日立製作所 | Machine learning device |
JP2019021201A (en) | 2017-07-20 | 2019-02-07 | 株式会社デンソー | Learning server, and assist system |
JP2019211969A (en) | 2018-06-04 | 2019-12-12 | オリンパス株式会社 | Learning management device, learning management server, and learning management method |
Non-Patent Citations (1)
Title |
---|
Alex Kendall, Yarin Gal,What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision?,[online],2017年10月05日, [retrieved on 2023.06.15], Retrieved from the Internet : <url: https://arxiv.org/pdf/1703.04977v2.pdf> |
Also Published As
Publication number | Publication date |
---|---|
TWI754520B (en) | 2022-02-01 |
TW202131225A (en) | 2021-08-16 |
US20230080978A1 (en) | 2023-03-16 |
JP2021128415A (en) | 2021-09-02 |
WO2021161628A1 (en) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10930037B2 (en) | Image processing device for displaying object detected from input picture image | |
CN109426835B (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
US20180121739A1 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
KR20110124223A (en) | Organizing digital images by correlating faces | |
JP5455787B2 (en) | Motion analysis apparatus and motion analysis method | |
US11915430B2 (en) | Image analysis apparatus, image analysis method, and storage medium to display information representing flow quantity | |
US9600893B2 (en) | Image processing device, method, and medium for discriminating a type of input image using non-common regions | |
WO2015074521A1 (en) | Devices and methods for positioning based on image detection | |
WO2020039882A1 (en) | Discrimination device and machine learning method | |
JP2020035094A (en) | Machine learning device, teacher data generation device, inference model, and teacher data generation method | |
US11574189B2 (en) | Image processing apparatus and learned model | |
JP7308775B2 (en) | Machine learning method and information processing device for machine learning | |
JP2020163100A5 (en) | ||
JP2020024665A (en) | Information processing method and information processing system | |
CN114846513A (en) | Motion analysis system and motion analysis program | |
US10922864B2 (en) | Image processing device, image processing method and program, for object detection in an image | |
JP2021117152A (en) | Image processing device, image processing method, and image processing program | |
KR102558969B1 (en) | Method for reinforced online learning method using problem solving measuring fuzzy mental state | |
WO2023188160A1 (en) | Input assistance device, input assistance method, and non-transitory computer-readable medium | |
WO2024009888A1 (en) | Information processing device, control method of same, and program | |
US20230025181A1 (en) | Medical diagnosis assistance system and method | |
WO2024048639A1 (en) | Method, learning model evaluation system, and program | |
US20230370721A1 (en) | Information processing apparatus, information processing method, and storage medium | |
US20230267727A1 (en) | Image analysis apparatus, image analysis method, and storage medium | |
JP2021033378A (en) | Information processing apparatus and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220726 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230704 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7308775 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |