JP2018097807A - Learning device - Google Patents
Learning device Download PDFInfo
- Publication number
- JP2018097807A JP2018097807A JP2016244688A JP2016244688A JP2018097807A JP 2018097807 A JP2018097807 A JP 2018097807A JP 2016244688 A JP2016244688 A JP 2016244688A JP 2016244688 A JP2016244688 A JP 2016244688A JP 2018097807 A JP2018097807 A JP 2018097807A
- Authority
- JP
- Japan
- Prior art keywords
- image
- entropy
- learning
- images
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、未知の画像にラベル付けを行う技術に関し、特に、ラベル付けを行うために未知の画像を分類するためのパラメータを学習する技術に関する。 The present invention relates to a technique for labeling an unknown image, and more particularly, to a technique for learning parameters for classifying an unknown image for labeling.
画像のピクセル毎に、ラベル付けを行うセマンティックセグメンテーション(Semantic Segmentation)は、自動運転などの応用で重要な技術である。一般に高い性能を実現するためには、大量のラベル付けを行うことが必要である。ピクセルごとのラベルが必要となるセマンティックセグメンテーションでは,画像1枚当たりのラベル付けコストが特に高く、省力化が必要である。ラベル付けのコストを省力化するための手法として、Weakly supervise learning(非特許文献1,2)やmicro annotation(非特許文献3)等が提案されている。 Semantic segmentation, which labels each pixel of an image, is an important technique for applications such as automatic driving. In general, a large amount of labeling is required to achieve high performance. In the semantic segmentation that requires a label for each pixel, the labeling cost per image is particularly high, and labor saving is required. Weakly supervise learning (Non-Patent Documents 1 and 2), micro annotation (Non-Patent Document 3), and the like have been proposed as methods for saving the labeling cost.
Weakly supervise learningは、ピクセル毎にラベル付けされた少量のラベル付きデータと、ラベル付けコストが比較的低い画像に写っている物体のラベル(画像全体に対して各物体のあり/無しを記述)のみを用い、ピクセルごとにラベル付けを行う必要がないというメリットがある。micro annotationは、学習済みのモデルが出力するセグメンテーションのプロポーザルに対して、それが正しいか否かのみをラベル付けする。 Weakly supervise learning only includes a small amount of labeled data labeled for each pixel and the label of the object in the image with relatively low labeling costs (describes the presence / absence of each object in the entire image) There is an advantage that it is not necessary to label each pixel. The micro annotation labels only the correctness of the segmentation proposal output by the trained model.
しかしながら、セマンティックセグメンテーションにおいて、上記のようなWeakly supervised dataや、micro annotationの情報を用いることなく、半教師あり学習でラベルなしデータを活用する手法は提案されていない。本発明は、半教師あり学習によって、効率的にラベル付けを行う技術を提案する。 However, no method has been proposed for utilizing unlabeled data in semi-supervised learning without using the above-mentioned weakly supervised data or micro annotation information in semantic segmentation. The present invention proposes a technique for efficiently labeling by semi-supervised learning.
本発明の学習装置は、複数のラベル付き画像と複数のラベルなし画像とを入力する入力部と、画像をCNN処理して複数の特徴マップを生成するCNN処理部と、前記CNN処理部にて生成された複数の特徴マップについて画素毎に求めたエントロピーを合算すると共に、ラベル付き画像から生成された複数の特徴マップについては、さらに、画素毎に付された正解ラベルとのクロスエントロピーを合算し、前記エントロピーから前記クロスエントロピーを引く処理を、複数のラベル付き画像および複数のラベルなし画像について行って、求めた値を合算して評価値を計算する評価値計算部と、前記評価値を最小化するように前記CNN処理で用いるパラメータの学習を行う学習部とを備える。 The learning device according to the present invention includes an input unit that inputs a plurality of labeled images and a plurality of unlabeled images, a CNN processing unit that generates a plurality of feature maps by CNN processing the images, and the CNN processing unit. The entropy obtained for each pixel for the generated feature maps is added together, and for the feature maps generated from the labeled images, the cross entropy with the correct label assigned for each pixel is added together. The cross entropy is subtracted from the entropy for a plurality of labeled images and a plurality of unlabeled images, and an evaluation value calculation unit that calculates an evaluation value by adding the obtained values; and A learning unit that learns parameters used in the CNN process.
このように特徴マップのエントロピーを小さくすると共に、ラベル付き画像の正解ラベルとのクロスエントロピーを大きくするようなパラメータを求めることにより、ラベル付き画像が豊富にはない場合であっても、ラベルなし画像をうまく分類するという観点でパラメータの精度を補って、未知の画像を適切にクラス分けするパラメータを求めることができる。 In this way, by reducing the entropy of the feature map and obtaining parameters that increase the cross-entropy of the labeled image with the correct answer label, even if there are not many labeled images, unlabeled images It is possible to obtain a parameter for appropriately classifying an unknown image by supplementing the accuracy of the parameter in terms of classifying the image.
本発明の学習装置において、前記評価値計算部は、画素毎にエントロピーを求める構成に代えて、所定の領域を単位として、その領域内にある画素の平均値に基づいてエントロピーを計算してもよい。また、前記評価値計算部は、画素毎にエントロピーを求める構成に代えて、所定の領域を単位として、その領域内にある画素の重み付き和に基づいてエントロピーを計算してもよい。 In the learning device of the present invention, the evaluation value calculation unit may calculate entropy based on an average value of pixels in a predetermined area in units of a predetermined area instead of a configuration for obtaining entropy for each pixel. Good. Further, the evaluation value calculation unit may calculate entropy based on a weighted sum of pixels in a predetermined area as a unit instead of a configuration for obtaining entropy for each pixel.
画像においては、いくつかの画素が集まった領域においてラベルが同じであることが一般的なので、所定の領域内の画素の平均値または重み付き和に基づいて処理を行うことにより、パラメータを適切に学習することができる。 In an image, it is common that the label is the same in an area where several pixels are gathered. Therefore, by performing processing based on the average value or weighted sum of pixels in a predetermined area, the parameters are appropriately set. Can learn.
本発明の学習装置において、前記評価値計算部は、画素毎にエントロピーを求める構成に代えて、スーパー画素の代表値に基づいてエントロピーを計算してもよい。 In the learning device of the present invention, the evaluation value calculation unit may calculate entropy based on a representative value of a super pixel instead of a configuration for obtaining entropy for each pixel.
類似した特徴をもつ画素の集まりであるスーパー画素を用いて処理を行うことにより、パラメータを適切に学習することができる。 A parameter can be appropriately learned by performing processing using a super pixel which is a collection of pixels having similar characteristics.
本発明の学習装置は、任意の情報から新しい画像を生成する生成器と、前記新しい画像と所定の画像とが同じ画像であるか否かを識別する識別器とを有し、前記新しい画像が前記所定の画像と同じであると前記識別器によって識別されるように前記生成器の学習を行うGAN(Generative Adversarial Networks)装置を備え、前記学習部にて学習したパラメータを用いて所定の画像の各画素にラベルを付与したセマンティック画像から、前記GAN装置によって前記所定の画像を生成するように学習を行い、その結果求められた前記セマンティック画像の誤差を逆伝播させて前記パラメータを学習してもよい。 The learning device of the present invention includes a generator that generates a new image from arbitrary information, and an identifier that identifies whether the new image and a predetermined image are the same image, A GAN (Generative Adversarial Networks) device that performs learning of the generator so as to be identified by the classifier as being the same as the predetermined image, and using the parameters learned by the learning unit, Learning is performed so that the GAN device generates the predetermined image from a semantic image in which a label is assigned to each pixel, and the parameter is learned by back-propagating an error of the semantic image obtained as a result. Good.
このようにセマンティック画像を条件付きとして復元した画像と元の所定の画像とが類似するようにパラメータを更新することにより、パラメータの精度を一層高めることができる。 Thus, by updating the parameters so that the image restored with the semantic image as a condition is similar to the original predetermined image, the accuracy of the parameters can be further improved.
本発明の学習装置は、前記所定の画像をCNN処理部で処理して求めた複数の特徴マップと、前記セマンティック画像から生成された新しい画像をCNN処理部で処理して求めた複数の特徴マップとのクロスエントロピーを求めるクロスエントロピー計算部を備え、前記生成器は、前記クロスエントロピーの情報も用いて前記新しい画像を生成してもよい。 The learning device of the present invention includes a plurality of feature maps obtained by processing the predetermined image by a CNN processing unit, and a plurality of feature maps obtained by processing a new image generated from the semantic image by a CNN processing unit. And a cross-entropy calculating unit for obtaining a cross-entropy between the generator and the generator may generate the new image using the cross-entropy information.
GANの識別器は、所定の画像が張る多様体と、新しい画像との距離を測ることにより、両者が一致するか否かを判定する構成を有するので、識別器での識別のみでは新しい画像を画素単位で所定の画像に対応させることはできない。本発明の構成により、セマンティック画像から生成された新しい画像と、所定の画像のクロスエントロピーの情報を用いることにより、所定の画像に意味的に近い画像を生成することができる。 The GAN discriminator has a configuration for determining whether or not they match by measuring the distance between the manifold on which the predetermined image is stretched and the new image, so that only the discriminator can identify a new image. It is not possible to correspond to a predetermined image in pixel units. With the configuration of the present invention, it is possible to generate an image that is semantically close to a predetermined image by using a new image generated from the semantic image and cross-entropy information of the predetermined image.
本発明の学習方法は、学習装置によって、複数のラベル付き画像と複数のラベルなし画像とに基づいてラベルなし画像を分類するパラメータを学習するための方法であって、前記学習装置が、複数のラベル付き画像と複数のラベルなし画像とを入力するステップと、前記学習装置が、画像をCNN処理して複数の特徴マップを生成するステップと、前記学習装置が、生成された複数の特徴マップについて画素毎に求めたエントロピーを合算すると共に、ラベル付き画像から生成された複数の特徴マップについては、さらに、画素毎に付された正解ラベルとのクロスエントロピーを合算し、前記エントロピーから前記クロスエントロピーを引く処理を、複数のラベル付き画像および複数のラベルなし画像について行って、求めた値を合算して評価値を計算するステップと、前記学習装置が、前記評価値を最小化するように前記CNN処理で用いるパラメータの学習を行うステップとを備える。 The learning method of the present invention is a method for learning a parameter for classifying an unlabeled image based on a plurality of labeled images and a plurality of unlabeled images by a learning device. A step of inputting a labeled image and a plurality of unlabeled images; a step in which the learning device performs a CNN process on the image to generate a plurality of feature maps; and a step in which the learning device generates a plurality of feature maps. The entropy obtained for each pixel is added together, and for a plurality of feature maps generated from the labeled image, the cross entropy with the correct label attached to each pixel is further added, and the cross entropy is calculated from the entropy. The subtraction process is performed for multiple labeled images and multiple unlabeled images, and the calculated values are added together for evaluation. Comprising calculating a value, the learning apparatus, and performing learning of the parameters used in the CNN process so as to minimize the evaluation value.
本発明のプログラムは、複数のラベル付き画像と複数のラベルなし画像とを用いて、ラベルなし画像を分類するパラメータを学習するためのプログラムであって、コンピュータに、画像をCNN処理して複数の特徴マップを生成するステップと、生成された複数の特徴マップについて画素毎に求めたエントロピーを合算すると共に、ラベル付き画像から生成された複数の画像については、さらに、画素毎に付された正解ラベルとのクロスエントロピーを合算し、前記エントロピーから前記クロスエントロピーを引く処理を、複数のラベル付き画像および複数のラベルなし画像について行って、求めた値を合算して評価値を計算するステップと、前記評価値を最小化するように前記CNN処理で用いるパラメータの学習を行うステップとを実行させる。 The program of the present invention is a program for learning parameters for classifying an unlabeled image using a plurality of labeled images and a plurality of unlabeled images. The step of generating a feature map and the entropy obtained for each pixel of the plurality of generated feature maps are added together, and for a plurality of images generated from the labeled image, a correct label attached to each pixel Summing the cross entropy and subtracting the cross entropy from the entropy is performed for a plurality of labeled images and a plurality of unlabeled images, and adding the obtained values to calculate an evaluation value; and Performing learning of parameters used in the CNN process so as to minimize the evaluation value To.
本発明によれば、入力された画像の特徴マップのエントロピーを小さくすると共に、ラベル付き画像の正解ラベルとのクロスエントロピーを大きくするようなパラメータを求めることにより、ラベル付き画像が豊富にはない場合であっても、ラベルなし画像をうまく分類するという観点でパラメータの精度を補って、未知の画像を適切にクラス分けするパラメータを求めることができる。 According to the present invention, when the entropy of the feature map of the input image is reduced and the parameters that increase the cross entropy of the labeled image with the correct answer label are obtained, the number of labeled images is not abundant. Even so, it is possible to obtain parameters for appropriately classifying unknown images by supplementing the accuracy of the parameters in terms of classifying unlabeled images well.
以下、本発明の実施の形態の学習装置について説明する。本実施の形態の学習装置は、画像に対してセマンティックセグメンテーションを行うための畳み込みニューラルネットワークのパラメータ(畳み込み層の各カーネルの要素の値、全結合層の各ユニットの結合重み、バイアス等)を学習する装置である。 Hereinafter, the learning apparatus according to the embodiment of the present invention will be described. The learning device according to the present embodiment learns parameters of convolutional neural networks (element values of each kernel in the convolution layer, coupling weights of each unit of all connection layers, bias, etc.) for performing semantic segmentation on the image. It is a device to do.
図1は、学習装置1の構成を示す図である。学習装置1は、多数の画像を記憶したデータベース14と接続されている。データベース14には、教師データである多数の画像データが記憶されている。画像には、何の画像であるかを表すラベルが付与されたラベル付き画像Lと、ラベルが付与されていないラベルなし画像Uがある。
FIG. 1 is a diagram illustrating a configuration of the learning device 1. The learning device 1 is connected to a
画像にラベルを付すのは、手間がかかるので、すべての画像に対してラベルは付されていない。ラベル付き画像Lはラベルなし画像Uに比べて格段に少なく、例えば、ラベルなし画像Uが1万枚あるのに対し、ラベル付き画像Lは1000枚である。本実施の形態の学習装置1は、ラベル付き画像L及びラベルなし画像Uを用いて半教師あり学習を行い、未知のラベルなし画像に対して、自動でラベルを付すことができるようにするためのパラメータを学習する。 Since it takes a lot of time to label the images, all the images are not labeled. The number of labeled images L is significantly smaller than that of unlabeled images U. For example, there are 10,000 unlabeled images U and 1000 labeled images L. The learning device 1 according to the present embodiment performs semi-supervised learning using the labeled image L and the unlabeled image U so that an unknown unlabeled image can be automatically labeled. Learn the parameters.
学習装置1は、データベース14から画像を読み出して入力する入力部10と、入力された画像に対して畳み込みニューラルネットワーク(Convolutional Neural Network)の処理を行うCNN処理部11とを有している。CNN処理部11は、画像に対してCNN処理を行って、複数の特徴マップ(feature map)を生成する。ここで生成する特徴マップの数は、画像を分類したいクラスの数と同じである。CNN処理部11は、入力部10にて入力されたラベル付き画像およびラベルなし画像のいずれについても特徴マップを生成する。
The learning apparatus 1 includes an
学習装置1は、生成された特徴マップに基づいて、パラメータ更新を行うための評価値を計算する評価値計算部12と、評価値を最小にするようにパラメータを更新する学習部13とを有している。評価値計算部12は、入力されたすべての画像の特徴マップのエントロピーを計算すると共に、ラベル付き画像については、特徴マップと正解ラベルとのクロスエントロピーを計算する。評価値計算部12は、すべての画像のエントロピーからクロスエントロピーを引いた値を評価値として計算する。なお、評価値計算部12でのエントロピーの計算は画素毎に行う。
The learning device 1 has an evaluation
学習部13は、評価値を最小にするように、CNN処理部11で用いるパラメータを更新する。以下の数式は、学習部13で行うパラメータ更新の処理を表したものである。
The
上記式において、Qは、CNN処理部11で用いるパラメータを示し、Cはラベル付き画像に与えられた正解ラベルを示している。Lはラベル付き画像を示し、Uはラベルなし画像を示している。かっこ内の第1項は、ラベル付き画像と正解ラベルとのクロスエントロピーを表し、第2項は、ラベル付き画像およびラベルなし画像の全画像のエントロピーを表している。 In the above equation, Q indicates a parameter used in the CNN processing unit 11, and C indicates a correct label given to the labeled image. L indicates a labeled image and U indicates an unlabeled image. The first term in parentheses represents the cross entropy between the labeled image and the correct label, and the second term represents the entropy of all the images of the labeled image and the unlabeled image.
この式を定性的に説明すると、第1項は、ラベル付き画像Lの特徴マップと正解ラベルとのクロスエントロピーであるので、クロスエントロピーが大きいほど、CNN処理部11で生成された特徴マップが正解のラベルに近いことを意味している。第2項は、全画像の特徴マップのエントロピーであり、このエントロピーが小さいほど、ラベルが何かは不明であるものの、何らかの特徴が顕著であることを意味している。換言すれば、第2項のエントロピーが小さいほど、特徴マップは、うまくクラス分けがなされたことになる。 Qualitatively explaining this expression, the first term is the cross-entropy between the feature map of the labeled image L and the correct label. Therefore, the larger the cross-entropy, the more correct the feature map generated by the CNN processing unit 11 is. Means close to the label. The second term is the entropy of the feature map of the entire image. The smaller this entropy is, the more unknown the label is, but it means that some feature is remarkable. In other words, the smaller the entropy of the second term, the better the feature map is classified.
学習部13が、上記の数式に示す評価値を最小化するようなパラメータを求めることで、未知の画像をクラス分けすると共に、分類されたクラスにラベルを付与できるパラメータが得られる。
The
図2は、学習装置1にて学習を行う動作を示すフローチャートである。まず、データベース14から、多数のラベル付き画像およびラベルなし画像を読み出して、学習装置1に入力する(S10)。次に、学習装置1は、入力された画像をCNN処理して各画像の特徴マップを求め(S12)、特徴マップのエントロピーと、ラベル付き画像から生成した特徴マップについては、正解ラベルとのクロスエントロピーを、画素毎に求める。評価値計算部12は、求めたエントロピーからクロスエントロピーを減算して評価値を求める(S14)。
FIG. 2 is a flowchart showing an operation of performing learning in the learning device 1. First, a large number of labeled images and unlabeled images are read from the
次に、学習装置1は、終了条件を満たしたか否かを判定する(S16)。終了条件は、例えば、評価値が所定の値以下になったことでもよいし、パラメータの更新を行った回数が所定値に達したことでもよい。終了条件を満たしたと判定された場合には(S16でYES)、学習装置1は、その時点で求められているパラメータの値をCNN処理部11のパラメータとして決定する(S18)。終了条件を満たしていないと判定された場合には(S16でNO)、学習部13は、評価値が小さくなる方向にパラメータを更新し(S20)、再度、CNN処理を行うステップに戻る(S12)。以上、第1実施の形態の学習装置1の構成および動作について説明した。
Next, the learning device 1 determines whether or not the end condition is satisfied (S16). The end condition may be, for example, that the evaluation value is equal to or less than a predetermined value, or that the number of parameter updates has reached a predetermined value. When it is determined that the end condition is satisfied (YES in S16), the learning device 1 determines the value of the parameter obtained at that time as the parameter of the CNN processing unit 11 (S18). If it is determined that the termination condition is not satisfied (NO in S16), the
本実施の形態の学習装置1は、ラベル付き画像の特徴マップと正解ラベルとのクロスエントロピーを最大化する方向にパラメータを更新することにより、画像をクラス分けするパラメータを求めることができる。この際に、ラベルなし画像の特徴マップのエントロピーを最小化する方向にパラメータを更新することで、ある特徴が顕著になるようなパラメータを求めることにより、ラベル付き画像の数が少ない場合にも、ラベルなし画像の情報を活用して、画像を適切にクラス分けするパラメータを求めることができる。 The learning device 1 according to the present embodiment can obtain a parameter for classifying an image by updating the parameter in a direction that maximizes the cross entropy between the feature map of the labeled image and the correct label. At this time, by updating the parameter in the direction that minimizes the entropy of the feature map of the unlabeled image, by obtaining a parameter that makes a certain feature remarkable, even when the number of labeled images is small, By using the information of the unlabeled image, a parameter for appropriately classifying the image can be obtained.
(第2の実施の形態)
図3は、第2の実施の形態の学習装置2の構成を示す図である。第2の実施の形態の学習装置2は、第1の実施の形態の学習装置1の構成に加え、GAN装置20を備えている。第2の実施の形態の学習装置2は、GAN装置20が備える識別器23による識別結果を学習部13へフィードバックしてパラメータの学習を行う点が異なる。
(Second Embodiment)
FIG. 3 is a diagram illustrating a configuration of the learning device 2 according to the second embodiment. The learning device 2 of the second embodiment includes a
図4は、GAN装置20の詳しい構成を示す図である。セマンティックセグメンテーション部21は、入力された画像に対してCNN処理を行って、入力画像を画素単位でクラス分けし、セマンティック画像を生成する機能を有する。ここでのCNN処理には、学習部13にて学習を行ったパラメータを用いる。以下、説明の便宜上、セマンティックセグメンテーション部21に入力する画像を「画像A」という。
FIG. 4 is a diagram showing a detailed configuration of the
ここで、GAN装置20の概要について述べる。GAN装置20は入力画像Aから生成したセマンティック画像が正解に近いかどうかを検証する。セマンティック画像が正解に近ければ近いほど、入力画像Aに近い画像A´を復元することができると考えられるので、GAN装置20は、入力画像Aと復元画像A´との誤差を算出し、学習部13へ逆伝播することで学習部13での学習を助けるものである。
Here, an outline of the
GAN装置20は、生成器22と識別器23とを有している。生成器22は、任意の情報から新しい画像を生成する機能を有し、識別器23は、生成された新しい画像と所定の画像とが同じ画像であるか否かを識別する機能を有する。識別器23によって同じ画像であると判定されるような画像、すなわち、識別器23をだます画像を生成器22が生成する。識別器23は、生成された画像と所定の画像とを識別した識別結果を生成器22に入力し、生成器22はその情報を用いて、所定の画像にさらに近い画像を生成し、識別器23に入力する。このように画像の生成と識別を繰り返し行うことにより、生成器22は、所定の画像と同じ画像を生成するように学習する。以上がGAN(Generative Adversarial Networks)の原理である。
The
本実施の形態においては、GAN装置20の生成器22は、セマンティックセグメンテーション部21にて生成した画像Aのセマンティック画像から新しい画像A´を生成する。そして、識別器23は、新しい画像A´が、セマンティック画像の元となった画像Aと同じであるか否かを識別する。つまり、セマンティック画像から元の画像Aにどれだけ近い画像A´を生成できたかを判定し、その結果を学習部13へフィードバックする。画像Aに近い画像A´を生成できたとすれば、セマンティック画像が正解であった可能性が高く、画像Aからは距離のある画像A´しか生成できなかったとすれば、セマンティック画像が正解からは遠かったということが分かる。
In the present embodiment, the
GAN装置20は、画像A及び画像A´のCNN処理を行うCNN処理部24と、CNN処理部24で求めた画像Aの特徴マップおよび画像A´の特徴マップのクロスエントロピーを計算するクロスエントロピー計算部25とを備えている。クロスエントロピー計算部25は、求めたクロスエントロピーの情報を生成器22に入力する。これにより、生成器22は画像Aと画像A´とのクロスエントロピーの情報に基づいて、新しい画像A´を生成できるので、画像Aに意味的に近い画像A´を生成することができる。
The
図5は、第2の実施の形態の学習装置2にて学習を行う動作を示すフローチャートである。エントロピーとクロスエントロピーの評価値に基づいて、CNN処理部11のパラメータを決定するまでの動作は、第1の実施の形態の学習装置1の動作と同じである。ただし、評価値に基づいて求めたパラメータを、第2の実施の形態では、仮のパラメータとして決定する(S18)。 FIG. 5 is a flowchart illustrating an operation of performing learning in the learning device 2 according to the second embodiment. The operations until the parameters of the CNN processing unit 11 are determined based on the evaluation values of entropy and cross entropy are the same as the operations of the learning device 1 according to the first embodiment. However, in the second embodiment, the parameter obtained based on the evaluation value is determined as a temporary parameter (S18).
第2の実施の形態の学習装置1は、仮に決定されたパラメータを用いて生成したセマンティック画像をGAN装置20にて検証することにより、さらにパラメータの更新を行う(S24)。すなわち、学習装置1は、仮決定されたパラメータを用いてCNN処理を行って特徴マップを生成し、画像の各画素についてクラス分けをする。そして、各画素のクラス分けに基づいてセマンティック画像を生成する。生成器22が、セマンティック画像から画像A´を生成し、画像A´が元の画像Aと同じであると識別器23によって識別されるように、画像A´を生成する。生成器22は識別器23からの識別結果の情報に基づき、画像A´を繰り返し生成し、画像Aに近づけていく。この際に、図4を参照して説明したとおり、生成器22は、元の画像Aと復元画像A´のクロスエントロピーの情報も用いて、画像生成を行う。GAN装置20は、このようにして生成された画像A´と元の画像Aとの識別結果が終了条件を満たすか否かを判定する(S26)。
The learning device 1 according to the second embodiment further updates the parameters by verifying the semantic image generated using the temporarily determined parameters in the GAN device 20 (S24). That is, the learning device 1 performs a CNN process using the temporarily determined parameters to generate a feature map, and classifies each pixel of the image. Then, a semantic image is generated based on the classification of each pixel. The
終了条件を満たすと判定された場合には(S26でYES)、仮決定されたパラメータを最終的なパラメータとして決定する(S28)。終了条件を満たさないと判定された場合には(S26でNO)、識別誤差を学習部13に逆伝播してパラメータを更新し、再度、評価値に基づいてパラメータ更新を行う(S20)。以上、第2実施の形態の学習装置2の構成および動作について説明した。
If it is determined that the end condition is satisfied (YES in S26), the temporarily determined parameter is determined as the final parameter (S28). If it is determined that the termination condition is not satisfied (NO in S26), the identification error is propagated back to the
第2の実施の形態の学習装置2は、第1の実施の形態と同様に、ラベル付き画像の数が少ない場合にも、ラベルなし画像の情報を活用して、画像を適切にクラス分けするパラメータを求めることができる。また、第2の実施の形態の学習装置2は、GAN装置20を利用して仮に生成されたパラメータの検証を行うので、パラメータを精度良く求めることができる。
As in the first embodiment, the learning device 2 according to the second embodiment appropriately classifies images using information on unlabeled images even when the number of labeled images is small. Parameters can be determined. In addition, the learning device 2 according to the second embodiment verifies the parameters temporarily generated using the
(変形例)
上記した実施の形態においては、画素毎にエントロピーを求める例を挙げて説明したが、エントロピーを求める対象は、所定の領域を単位として、その領域内にある画素の平均値を用いて、エントロピーを計算してもよい。また、所定の領域を単位として、その領域内にある画素の重み付き和に基づいてエントロピーを計算してもよい。画像においては、いくつかの画素が集まった領域においてラベルが同じであることが一般的なので、周辺画素の平均値または重み付き和に基づいて処理を行うことにより、パラメータを適切に学習することができる。
(Modification)
In the above-described embodiment, an example in which entropy is obtained for each pixel has been described. However, entropy is obtained by using an average value of pixels in a predetermined area as a unit. You may calculate. Further, entropy may be calculated based on a weighted sum of pixels in a predetermined area as a unit. In an image, the label is generally the same in a region where several pixels are gathered, so that it is possible to learn parameters appropriately by performing processing based on the average value or weighted sum of neighboring pixels. it can.
また、画素毎にエントロピーを求める構成に代えて、スーパー画素の代表値に基づいてエントロピーを計算してもよい。これにより、類似した特徴をもつ画素の集まりであるスーパー画素を用いて処理を行うことにより、パラメータを適切に学習することができると共に、エントロピーの計算処理を軽減することができる。ここで、代表値とは、スーパー画素内の全画素の平均値でもよいし、最大値でもよいし、またその他の値であってもよい。 Further, instead of the configuration for obtaining entropy for each pixel, the entropy may be calculated based on the representative value of the super pixel. Thus, by performing processing using superpixels that are a collection of pixels having similar features, it is possible to appropriately learn parameters and reduce entropy calculation processing. Here, the representative value may be an average value of all the pixels in the super pixel, a maximum value, or another value.
スーパー画素を用いてエントロピーを計算してパラメータを更新する際には、異なる解像度で生成したスーパー画素を用いてパラメータの計算を行ってもよい。すなわち、CNN処理部は、ラベル付き画像およびラベルなし画像をスーパー画素に分割する処理を異なる解像度で行って、評価値計算部および学習部は解像度の異なる複数パターンのスーパー画素を用いて学習を行う。 When entropy is calculated using super pixels and the parameters are updated, the parameters may be calculated using super pixels generated at different resolutions. That is, the CNN processing unit performs a process of dividing the labeled image and the unlabeled image into super pixels at different resolutions, and the evaluation value calculation unit and the learning unit perform learning using a plurality of patterns of super pixels having different resolutions. .
具体的には、CNN処理部は、入力部より入力された画像を、例えば、10000分割、1000分割、100分割の3つの解像度でスーパー画素に分割し、それぞれの解像度の画像について、CNN処理を行って特徴マップを生成する。続いて、評価値計算部は、それぞれの解像度の画像について、上記の実施の形態にて説明した学習を行って、スーパー画素をクラス分けするパラメータを求める。ラベル付き画像の情報を用いることにより、各クラスのラベルを求めることができるので、ラベルの内容に応じてラベルパラメータへの重み付けをして、異なる解像度で求めた結果をブレンドする。 Specifically, the CNN processing unit divides the image input from the input unit into superpixels with three resolutions, for example, 10,000 divisions, 1000 divisions, and 100 divisions, and performs CNN processing on the images with the respective resolutions. Go to generate a feature map. Subsequently, the evaluation value calculation unit obtains parameters for classifying the super pixels by performing the learning described in the above embodiment for each resolution image. By using the information of the labeled image, the labels of each class can be obtained, so that the label parameters are weighted according to the contents of the labels, and the results obtained at different resolutions are blended.
例えば、ポールや信号など面積が小さくかつ細い物体は、低解像度のスーパー画素では背景に埋もれやすい。したがって、出力ラベルがこれらの物体に高い値を示す場合には、埋もれづらい高解像度のスーパー画素により得られるラベルヒストグラムを高い重みで利用する。逆に、道路などのように埋もれづらいものは、より周囲のラベルと一貫性をもたせるために、低解像度のスーパー画素により得られるラベルヒストグラムを高い重みで利用する。なお、ラベルごとのブレンディングファクターは、ラベル付きデータを様々な解像度でセグメンテーションした際にラベルが変化する割合などから、学習によりあらかじめ求めておく。 For example, a thin and thin object such as a pole or a signal is likely to be buried in the background with a low resolution super pixel. Therefore, when the output label shows a high value for these objects, a label histogram obtained by high-resolution super pixels that are difficult to be buried is used with high weight. Conversely, a label such as a road that is difficult to be buried uses a label histogram obtained with low resolution superpixels with high weight in order to make it more consistent with surrounding labels. Note that the blending factor for each label is obtained in advance by learning from the rate at which the label changes when the labeled data is segmented at various resolutions.
このように複数の解像度で分割したスーパー画素を用いて学習を行い、ラベルごとに学習結果をブレンドすることにより、道路などのように埋もれづらいものは周囲のラベルと一貫性をもたせることができると共に、ポールや信号などのように小さい物体が周囲に埋もれることない適切なパラメータを求めることができる。 By learning using superpixels divided at multiple resolutions in this way and blending the learning results for each label, things that are difficult to bury, such as roads, can be made consistent with surrounding labels. It is possible to obtain an appropriate parameter such that a small object such as a pole or a signal is not buried in the surroundings.
本発明は、画像をクラス分けする技術に適用でき、特に、未知の画像にラベル付けを行う技術等として有用である。 The present invention can be applied to a technique for classifying an image, and is particularly useful as a technique for labeling an unknown image.
1,2 学習装置
10 入力部
11 CNN処理部
12 評価値計算部
13 学習部
20 GAN装置
21 セマンティックセグメンテーション部
22 生成器
23 識別器
24 CNN処理部
25 クロスエントロピー計算部
1, 2
Claims (8)
画像をCNN処理して複数の特徴マップを生成するCNN処理部と、
前記CNN処理部にて生成された複数の特徴マップについて画素毎に求めたエントロピーを合算すると共に、ラベル付き画像から生成された複数の特徴マップについては、さらに、画素毎に付された正解ラベルとのクロスエントロピーを合算し、前記エントロピーから前記クロスエントロピーを引く処理を、複数のラベル付き画像および複数のラベルなし画像について行って、求めた値を合算して評価値を計算する評価値計算部と、
前記評価値を最小化するように前記CNN処理で用いるパラメータの学習を行う学習部と、
を備える学習装置。 An input unit for inputting a plurality of labeled images and a plurality of unlabeled images;
A CNN processing unit that CNN-processes an image to generate a plurality of feature maps;
The entropy obtained for each pixel for the plurality of feature maps generated by the CNN processing unit is summed, and for the plurality of feature maps generated from the labeled image, a correct label assigned to each pixel and An evaluation value calculation unit that performs a process of subtracting the cross entropy from the entropy and subtracting the cross entropy for a plurality of labeled images and a plurality of unlabeled images, and adding the obtained values to calculate an evaluation value; ,
A learning unit that learns parameters used in the CNN process so as to minimize the evaluation value;
A learning apparatus comprising:
前記学習部にて学習したパラメータを用いて所定の画像の各画素にラベルを付与したセマンティック画像から、前記GAN装置によって前記所定の画像を生成するように学習を行い、その結果求められた前記セマンティック画像の誤差を逆伝播させて前記パラメータを学習する請求項1乃至4のいずれかに記載の学習装置。 A generator for generating a new image from arbitrary information, and an identifier for identifying whether the new image and the predetermined image are the same image, wherein the new image is the same as the predetermined image A GAN (Generative Adversarial Networks) device that trains the generator to be identified by the classifier,
Using the parameters learned by the learning unit, learning is performed so that the GAN device generates the predetermined image from a semantic image in which each pixel of the predetermined image is labeled, and the semantic obtained as a result is obtained. The learning apparatus according to claim 1, wherein the parameter is learned by back-propagating an image error.
前記生成器は、前記クロスエントロピーの情報も用いて前記新しい画像を生成する請求項5に記載の学習装置。 Cross entropy between a plurality of feature maps obtained by processing the predetermined image by the CNN processing unit and a plurality of feature maps obtained by processing the new image generated from the semantic image by the CNN processing unit. A cross entropy calculation unit
The learning device according to claim 5, wherein the generator generates the new image using the cross-entropy information.
前記学習装置が、複数のラベル付き画像と複数のラベルなし画像とを入力するステップと、
前記学習装置が、画像をCNN処理して複数の特徴マップを生成するステップと、
前記学習装置が、生成された複数の特徴マップについて画素毎に求めたエントロピーを合算すると共に、ラベル付き画像から生成された複数の特徴マップについては、さらに、画素毎に付された正解ラベルとのクロスエントロピーを合算し、前記エントロピーから前記クロスエントロピーを引く処理を、複数のラベル付き画像および複数のラベルなし画像について行って、求めた値を合算して評価値を計算するステップと、
前記学習装置が、前記評価値を最小化するように前記CNN処理で用いるパラメータの学習を行うステップと、
を備える学習方法。 A method for learning parameters for classifying an unlabeled image based on a plurality of labeled images and a plurality of unlabeled images by a learning device,
The learning device inputs a plurality of labeled images and a plurality of unlabeled images;
The learning device CNN-processing the image to generate a plurality of feature maps;
The learning device adds the entropy obtained for each pixel with respect to the plurality of generated feature maps, and for the plurality of feature maps generated from the labeled image, further includes a correct label attached to each pixel. Adding cross entropy, subtracting the cross entropy from the entropy, performing a plurality of labeled images and a plurality of unlabeled images, and adding the obtained values to calculate an evaluation value;
The learning device learning a parameter used in the CNN process so as to minimize the evaluation value;
A learning method comprising:
画像をCNN処理して複数の特徴マップを生成するステップと、
生成された複数の特徴マップについて画素毎に求めたエントロピーを合算すると共に、ラベル付き画像から生成された複数の画像については、さらに、画素毎に付された正解ラベルとのクロスエントロピーを合算し、前記エントロピーから前記クロスエントロピーを引く処理を、複数のラベル付き画像および複数のラベルなし画像について行って、求めた値を合算して評価値を計算するステップと、
前記評価値を最小化するように前記CNN処理で用いるパラメータの学習を行うステップと、
を実行させるプログラム。 A program for learning a parameter for classifying an unlabeled image using a plurality of labeled images and a plurality of unlabeled images,
Generating a plurality of feature maps by CNN processing the image;
The total entropy obtained for each pixel for the plurality of generated feature maps is summed, and for a plurality of images generated from the labeled images, the cross entropy with the correct label attached to each pixel is further summed. Subtracting the cross entropy from the entropy is performed for a plurality of labeled images and a plurality of unlabeled images, and adding the obtained values to calculate an evaluation value;
Learning parameters used in the CNN process so as to minimize the evaluation value;
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244688A JP2018097807A (en) | 2016-12-16 | 2016-12-16 | Learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016244688A JP2018097807A (en) | 2016-12-16 | 2016-12-16 | Learning device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018097807A true JP2018097807A (en) | 2018-06-21 |
Family
ID=62632205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016244688A Pending JP2018097807A (en) | 2016-12-16 | 2016-12-16 | Learning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018097807A (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109636759A (en) * | 2018-12-18 | 2019-04-16 | 深圳市华星光电半导体显示技术有限公司 | Image processing method |
WO2020004867A1 (en) * | 2018-06-29 | 2020-01-02 | 주식회사 디플리 | Machine learning method and device enabling automatic labeling |
KR102067340B1 (en) * | 2018-07-16 | 2020-01-16 | 한국과학기술원 | Method for generating breast masses according to the lesion characteristics and the system thereof |
JP2020013543A (en) * | 2018-07-20 | 2020-01-23 | 哈爾濱工業大学(深セン) | Model clothing recommendation method based upon generative adversarial network |
CN110827190A (en) * | 2018-08-07 | 2020-02-21 | 埃森哲环球解决方案有限公司 | Image processing for automatic object identification |
KR102093080B1 (en) * | 2019-12-06 | 2020-04-27 | 주식회사 애자일소다 | System and method for classifying base on generative adversarial network using labeled data and unlabled data |
CN111105010A (en) * | 2018-10-26 | 2020-05-05 | 斯特拉德视觉公司 | Method and apparatus for using multiple tagged databases with different tag sets |
JP2020102186A (en) * | 2018-12-19 | 2020-07-02 | 財團法人工業技術研究院Industrial Technology Research Institute | Method for learning of image generator |
KR20200080408A (en) * | 2018-12-19 | 2020-07-07 | 포인드 주식회사 | Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network |
KR20200094938A (en) * | 2019-01-31 | 2020-08-10 | 동서대학교 산학협력단 | Data imbalance solution method using Generative adversarial network |
JP2020524861A (en) * | 2017-08-01 | 2020-08-20 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Method and apparatus for training semantic segmentation model, electronic device, and storage medium |
WO2020180134A1 (en) * | 2019-03-06 | 2020-09-10 | 한국전자통신연구원 | Image correction system and image correction method thereof |
EP3745306A1 (en) | 2019-05-31 | 2020-12-02 | Fujitsu Limited | Analysis program, analysis apparatus, and analysis method |
WO2021014809A1 (en) * | 2019-07-19 | 2021-01-28 | 京セラ株式会社 | Image recognition evaluation program, image recognition evaluation method, evaluation device, and evaluation system |
DE112019006526T5 (en) | 2019-03-08 | 2021-09-23 | Hitachi Astemo, Ltd. | Computing device |
JP2022037804A (en) * | 2020-08-25 | 2022-03-09 | トヨタ自動車株式会社 | Image processing device, image processing program and image processing method |
US11341361B2 (en) | 2019-11-05 | 2022-05-24 | Fujitsu Limited | Analysis apparatus, storage medium storing analysis program, and analysis method |
US11361226B2 (en) | 2019-11-05 | 2022-06-14 | Fujitsu Limited | Analysis apparatus, non-transitory computer-readable storage medium for storing analysis program, and analysis method |
US11436431B2 (en) | 2019-11-05 | 2022-09-06 | Fujitsu Limited | Analysis apparatus, non-transitory computer-readable storage medium for analysis program, and analysis method |
WO2022202177A1 (en) * | 2021-03-23 | 2022-09-29 | 株式会社日立国際電気 | Information processing device and information processing method |
US11663487B2 (en) | 2019-11-05 | 2023-05-30 | Fujitsu Limited | Analysis apparatus, non-transitory computer-readable storage medium for analysis program, and analysis method |
-
2016
- 2016-12-16 JP JP2016244688A patent/JP2018097807A/en active Pending
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020524861A (en) * | 2017-08-01 | 2020-08-20 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | Method and apparatus for training semantic segmentation model, electronic device, and storage medium |
US11301719B2 (en) | 2017-08-01 | 2022-04-12 | Beijing Sensetime Technology Development Co., Ltd. | Semantic segmentation model training methods and apparatuses, electronic devices, and storage media |
WO2020004867A1 (en) * | 2018-06-29 | 2020-01-02 | 주식회사 디플리 | Machine learning method and device enabling automatic labeling |
KR20200002149A (en) * | 2018-06-29 | 2020-01-08 | 주식회사 디플리 | Method and Device for Machine Learning able to automatically-label |
KR102189362B1 (en) * | 2018-06-29 | 2020-12-11 | 주식회사 디플리 | Method and Device for Machine Learning able to automatically-label |
KR102067340B1 (en) * | 2018-07-16 | 2020-01-16 | 한국과학기술원 | Method for generating breast masses according to the lesion characteristics and the system thereof |
JP2020013543A (en) * | 2018-07-20 | 2020-01-23 | 哈爾濱工業大学(深セン) | Model clothing recommendation method based upon generative adversarial network |
CN110827190A (en) * | 2018-08-07 | 2020-02-21 | 埃森哲环球解决方案有限公司 | Image processing for automatic object identification |
CN110827190B (en) * | 2018-08-07 | 2023-09-08 | 埃森哲环球解决方案有限公司 | Image processing for automatic object identification |
JP7128157B2 (en) | 2018-08-07 | 2022-08-30 | アクセンチュア グローバル ソリューションズ リミテッド | Image processing for automated object identification |
JP2020047262A (en) * | 2018-08-07 | 2020-03-26 | アクセンチュア グローバル ソリューションズ リミテッド | Image processing for automated object identification |
CN111105010A (en) * | 2018-10-26 | 2020-05-05 | 斯特拉德视觉公司 | Method and apparatus for using multiple tagged databases with different tag sets |
CN111105010B (en) * | 2018-10-26 | 2023-09-29 | 斯特拉德视觉公司 | Method and apparatus for using multiple tagged databases with different tag sets |
CN109636759A (en) * | 2018-12-18 | 2019-04-16 | 深圳市华星光电半导体显示技术有限公司 | Image processing method |
JP2020102186A (en) * | 2018-12-19 | 2020-07-02 | 財團法人工業技術研究院Industrial Technology Research Institute | Method for learning of image generator |
KR20200080408A (en) * | 2018-12-19 | 2020-07-07 | 포인드 주식회사 | Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network |
KR102261869B1 (en) | 2018-12-19 | 2021-06-07 | 포인드 주식회사 | Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network |
KR20200094938A (en) * | 2019-01-31 | 2020-08-10 | 동서대학교 산학협력단 | Data imbalance solution method using Generative adversarial network |
KR102284356B1 (en) | 2019-01-31 | 2021-08-02 | 동서대학교 산학협력단 | Data imbalance solution method using Generative adversarial network |
WO2020180134A1 (en) * | 2019-03-06 | 2020-09-10 | 한국전자통신연구원 | Image correction system and image correction method thereof |
DE112019006526T5 (en) | 2019-03-08 | 2021-09-23 | Hitachi Astemo, Ltd. | Computing device |
EP3745306A1 (en) | 2019-05-31 | 2020-12-02 | Fujitsu Limited | Analysis program, analysis apparatus, and analysis method |
US11507788B2 (en) | 2019-05-31 | 2022-11-22 | Fujitsu Limited | Non-transitory computer-readable storage medium for storing analysis program, analysis apparatus, and analysis method |
WO2021014809A1 (en) * | 2019-07-19 | 2021-01-28 | 京セラ株式会社 | Image recognition evaluation program, image recognition evaluation method, evaluation device, and evaluation system |
JP2021018576A (en) * | 2019-07-19 | 2021-02-15 | 京セラ株式会社 | Image recognition evaluation program, image recognition evaluation method, evaluation device, and evaluation system |
US11361226B2 (en) | 2019-11-05 | 2022-06-14 | Fujitsu Limited | Analysis apparatus, non-transitory computer-readable storage medium for storing analysis program, and analysis method |
US11341361B2 (en) | 2019-11-05 | 2022-05-24 | Fujitsu Limited | Analysis apparatus, storage medium storing analysis program, and analysis method |
US11436431B2 (en) | 2019-11-05 | 2022-09-06 | Fujitsu Limited | Analysis apparatus, non-transitory computer-readable storage medium for analysis program, and analysis method |
US11663487B2 (en) | 2019-11-05 | 2023-05-30 | Fujitsu Limited | Analysis apparatus, non-transitory computer-readable storage medium for analysis program, and analysis method |
JP7363382B2 (en) | 2019-11-05 | 2023-10-18 | 富士通株式会社 | Analysis equipment, analysis program and analysis method |
KR102093080B1 (en) * | 2019-12-06 | 2020-04-27 | 주식회사 애자일소다 | System and method for classifying base on generative adversarial network using labeled data and unlabled data |
JP2022037804A (en) * | 2020-08-25 | 2022-03-09 | トヨタ自動車株式会社 | Image processing device, image processing program and image processing method |
JP7294275B2 (en) | 2020-08-25 | 2023-06-20 | トヨタ自動車株式会社 | Image processing device, image processing program and image processing method |
WO2022202177A1 (en) * | 2021-03-23 | 2022-09-29 | 株式会社日立国際電気 | Information processing device and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018097807A (en) | Learning device | |
Maeda et al. | Generative adversarial network for road damage detection | |
CN110443818B (en) | Graffiti-based weak supervision semantic segmentation method and system | |
CN107368787B (en) | Traffic sign identification method for deep intelligent driving application | |
CN110879959B (en) | Method and device for generating data set, and testing method and testing device using same | |
KR102532749B1 (en) | Method and apparatus for hierarchical learning of neural networks based on weak supervised learning | |
CN108734711A (en) | The method that semantic segmentation is carried out to image | |
CN111709966B (en) | Fundus image segmentation model training method and device | |
CN112052818A (en) | Unsupervised domain adaptive pedestrian detection method, unsupervised domain adaptive pedestrian detection system and storage medium | |
CN114399644A (en) | Target detection method and device based on small sample | |
WO2022218396A1 (en) | Image processing method and apparatus, and computer readable storage medium | |
CN114175068A (en) | Method for performing on-device learning on machine learning network of automatic driving automobile through multi-stage learning by using adaptive hyper-parameter set and on-device learning device using same | |
CN112927266A (en) | Weak supervision time domain action positioning method and system based on uncertainty guide training | |
US20230095533A1 (en) | Enriched and discriminative convolutional neural network features for pedestrian re-identification and trajectory modeling | |
KR20210127069A (en) | Method of controlling performance of fusion model neural network | |
JP2021051589A5 (en) | ||
KR102026280B1 (en) | Method and system for scene text detection using deep learning | |
US20220207866A1 (en) | Method, device, and computer readable storage medium for image processing | |
CN114511077A (en) | Training point cloud processing neural networks using pseudo-element based data augmentation | |
Ciamarra et al. | Forecasting future instance segmentation with learned optical flow and warping | |
CN111914949B (en) | Zero sample learning model training method and device based on reinforcement learning | |
CN114550307A (en) | Motion positioning model training method and device and motion positioning method | |
CN116670687A (en) | Method and system for adapting trained object detection models to domain offsets | |
KR20220143119A (en) | Automatic identification of training data candidates for cognitive systems | |
CN111160282A (en) | Traffic light detection method based on binary Yolov3 network |