JP7128022B2 - 完全教師あり学習用のデータセットの形成 - Google Patents
完全教師あり学習用のデータセットの形成 Download PDFInfo
- Publication number
- JP7128022B2 JP7128022B2 JP2018088031A JP2018088031A JP7128022B2 JP 7128022 B2 JP7128022 B2 JP 7128022B2 JP 2018088031 A JP2018088031 A JP 2018088031A JP 2018088031 A JP2018088031 A JP 2018088031A JP 7128022 B2 JP7128022 B2 JP 7128022B2
- Authority
- JP
- Japan
- Prior art keywords
- localization
- image
- annotation
- object category
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Description
以下の論文がこの分野に関連しており、以降で言及している。
・各アノテーションの局所化は、前記弱教師ありで学習された関数によって出力された1つまたは複数の局所化に対応する。
・各アノテーションについての前記物体カテゴリは、各アノテーションの局所化に対応する、前記弱教師ありで学習された関数によって出力された前記1つまたは複数の局所化における、厳密にゼロより大きい信頼スコアによって表されるインスタンス化の確率を有する物体カテゴリである。
・各アノテーションについての前記物体カテゴリは、各アノテーションの局所化に対応する、前記弱教師ありで学習された関数によって出力された前記1つまたは複数の局所化における、最も高い信頼スコアによって表されるインスタンス化の確率を有する物体カテゴリである。
・各アノテーションについての前記物体カテゴリは、各アノテーションの局所化に対応する、前記弱教師ありで学習された関数によって出力された前記1つまたは複数の局所化における、厳密に正の閾値より高い信頼スコアによって表されるインスタンス化の確率を有する物体カテゴリである。
・前記閾値は、前記複数の画像内の物体の平均数に依存する値を有する。
・前記部分集合の少なくとも一部の画像のそれぞれについて、当該画像に初期ラベルが与えられており、各初期ラベルは、それぞれの画像内の各物体カテゴリのインスタンス化を表し、当該画像のアノテーションのラベルは、その画像の初期ラベルに対応する各物体カテゴリのインスタンス化を表す。かつ/あるいは、
・各アノテーションの局所化に対応する、前記弱教師ありで学習された関数によって出力された前記1つまたは複数の局所化は、クラスタ化アルゴリズムにより識別される。
画像は、例えばシーン上の、物理的信号の空間分布を表すデータ構造である。空間分布は、任意の次元のものであってよく、例えば2Dあるいは3Dである。空間分布は、例えばグリッドを形成し、それによってピクセルを定義するなど、任意の形状であってもよく、グリッドは場合により非規則的または規則的である。物理的信号は、画像がRGB画像またはグレースケール画像または深度画像となるような、例えば色やグレーレベルや深度など、任意の信号であってもよい。画像は合成画像であってもよいし、あるいは写真のような自然画像であってもよい。提供され、かつ/あるいは、完全教師ありで学習された関数が適用される画像は、例えばすべてが矩形の2DのRGB画像、あるいはグレースケール画像、あるいは深度画像であるなど、すべて同じタイプであってもよい。あるいは、異なる画像タイプの集合を考えてもよい。
図2の本方法は、画像を提供すること(S10)を含む。S10で提供された各画像には、それぞれ初期ラベルが与えられている。したがって、S10で提供されたデータは、弱教師ありで学習された任意の関数の学習のために構成されたデータセット、例えば、S20に含まれるものを形成する。したがって、図2の方法は、S10の後かつS20の前に、そのような弱教師あり学習を含んでいてもよい。
・現在の最先端の弱教師あり物体検出器よりも高い精度。精度は、「mAP」([21]に記載)と呼ばれる指標によるテストで評価した。この指標が大きいほど、モデルの精度が高い。精度はパーセンテージで表される。本方法のテストでは、mAPが約35%から約40%へと改善を示した。
・本方法で提案される物体検出器は、時間がかかり正確ではない外部領域提案アルゴリズムに依存しない統合モデルを形成する。
・また、本方法のアプローチは、最先端の弱教師ありアプローチよりも高速であってもよい。
・モデル1:訓練されていない弱教師あり物体検出器。このような検出器は、画像レベルのラベルのみで訓練され、画像/シーンを入力とし、完全教師あり物体検出器と同じ出力、すなわち、ラベルおよび信頼スコアにそれぞれ関連付けられた境界ボックスの集合を返す。
・モデル2:訓練されていない完全教師あり物体検出器。このタイプの物体検出器は、強アノテーションを必要とし、弱教師あり物体検出器よりもはるかに効果的である。
・弱アノテーション付きの画像のデータセット。したがって、データセットの各画像は、当該画像内に現れる物体カテゴリのリストに関連付けられる。
1.オフライン段階:この段階は、4つのステップでモデル2を訓練することを目的とする。この段階は、ユーザに対し透過的である。
i.第1に、本方法は、閾値を超える信頼スコアの境界ボックスを維持するために、信頼スコア閾値を固定してもよい。
ii.第2に、本方法は、各画像について、ラベルが初期弱アノテーションに現れた境界ボックスのみを維持してもよい。
このとき、データセットの画像は、擬似強アノテーションに関連付けられている。
この弱教師ありフレームワークにより、モデル1とモデル2の間のパフォーマンスが向上する。
ここで、モデル1の検出結果に適用されるフィルタリングの実施の詳細の例を説明する。
モデル1が訓練されると、本方法は、データセット2の各画像について、テストモードのモデル1によって提供される検出結果を得る。このように、本方法は、各カテゴリについて境界ボックス内の画像が当該カテゴリに属する確率を示す確率ベクトルと関連付けられた、境界ボックスのリストを、各画像について得る。
本方法は、まず、各境界ボックスを単一のラベルおよび確率ベクトルにおける対応する値に関連付けてもよい。選択されたラベルは、確率ベクトルの中で最も大きい値を有するものに対応していてもよい。この値は、境界ボックスの信頼スコアと呼ばれる。次いで、信頼閾値により第1のフィルタリングを実行してもよい:信頼閾値より低い信頼スコアを有するすべての境界ボックスが除去される。この信頼閾値の値は、0と1の間の数値であり、データセット2の特性に依存してもよい。例えば、本方法は、データセット2の画像ごとの物体の平均数に基づいていてもよい。この平均数が予め知られていない場合、平均の近似値を決定してもよい。この情報が与えられると、信頼閾値の値を、クラスタ化ステップの入力における境界ボックスの画像ごとの平均数が画像ごとの物体の平均数よりも大きくなるように設定してもよい。したがって、信頼閾値は区間[0,b[に属し、ここでbは2つの平均値が等しくなるような限界値である。
第1のステップの後に、データセット2に弱アノテーションが付与されている場合、すなわち、各画像が、当該画像内に現れる(および現れない)物体カテゴリのリストを示すアノテーションに関連付けられている場合、第2のフィルタリングを実行してもよい。このフィルタリングは、単に、ラベルがアノテーションに現れる境界ボックスを保持することだけからなっていてもよい。
直前のフィルタリングステップによって返された境界ボックスは、クラスタ化アルゴリズムによってフィルタリングされてもよい。このアルゴリズムの目的は、境界ボックスの局所化ノイズを低減することである。このアルゴリズムは、各画像について、検出された各カテゴリの境界ボックスの集合に、独立して適用される。1つの画像および少なくとも1つの検出された境界ボックスを有するカテゴリが与えられると、本方法は、4Dベクトルである境界ボックス座標の集合にクラスタ化アルゴリズムを適用してもよい。クラスタの数は未知であってもよい。Xmeansや階層的クラスタ化(Xu R、Wunsch Dによる論文「Survey of Clustering Algorithms」の特に650~651頁に記載)のような、個数が未知であるクラスタについてのクラスタ化問題を解決する任意のアルゴリズムが実施されてもよい。テストで成功し検出精度が改善した実施例において、本方法は、階層的クラスタ化アルゴリズムを実施してもよい。本方法は、適切な指標とリンク基準に基づいてクラスタの階層を構築することからなっていてもよい。このアルゴリズムは、ユークリッド距離と「単一リンククラスタ化」を用いてテストしてもよい。他の指標およびリンク基準を用いてもよい。このアルゴリズムは樹状図を構築する。ある高さが与えられると、本方法は樹状図を切断し、この高さに定義されたクラスタを得ることができる。この高さは入念に選択することができる。フィルタリングの例では、この高さは、クラスタ化の出力におけるフィルタリングされた境界ボックスの平均数がデータセット2内の画像ごとの平均物体数に等しくなるように設定してもよい。
本方法の主な目的は、局所化情報なしの画像レベルのカテゴリラベルのみで物体検出器を訓練することであってもよい。本方法は、完全教師あり物体検出器の高性能と弱教師あり物体検出器の安いアノテーションコストとを活用することができる、新規な弱教師あり物体検出フレームワークからなっていてもよい。
I.モデル1:弱教師ありニューラルネットワーク検出器に対応する。本方法は、例えば、最先端の領域ベースの弱教師ありニューラルネットワークであるWSDDN([8]に記載)を用いてもよい。
II.モデル2:完全教師あり物体検出器に対応する。本方法は、例えば、最先端の領域ベースの完全教師ありニューラルネットワークであるFaster R-CNN([2]に記載)を用いてもよい。
R-CNNは[18]に記載されている。
Fast R-CNNは[17]に記載されている。
PVANETは[4]に記載されている。
ContextLocNetは[7、8]に記載されている。
結果として、モデル1からモデル2へ、相対的に48%の性能向上が観察された。物体検出器の性能は、「mean average precision」と呼ばれる指標([21])により評価した。この指標はパーセンテージに対応し、この値が大きいほど検出器の精度が高い。モデル1の実施例のスコアは27%mAP、モデル2の実施例のスコアは40%mAPであった。
Claims (13)
- 複数の画像を提供するステップ(S10)と、
前記複数の画像のうちの少なくとも1つの部分集合のうちのそれぞれ1つについて、
弱教師ありで学習された関数を適用するステップであって、前記弱教師ありで学習された関数は、各々が局所化および1つまたは複数の信頼スコアを含む、複数の組を出力し、各信頼スコアは当該局所化における物体カテゴリのインスタンス化の確率を表す、ステップ(S20)と、
前記弱教師ありで学習された関数の前記出力に基づき1つまたは複数のアノテーションを決定するステップであって、各アノテーションは、局所化、および当該局所化における物体カテゴリのインスタンス化を表すラベルを含む、ステップ(S30~S80)と、
複数のデータを含み、関数の完全教師ありの学習用に構成された訓練用データセットを完全に自動的に形成するステップであって、各データは、前記部分集合におけるそれぞれの画像と、各画像について決定された前記1つまたは複数のアノテーションのうちの少なくとも一部とを含み、前記完全教師ありで学習された関数は、複数の画像に適用され、各々が局所化および1つまたは複数の信頼スコアを含む複数の組を出力し、各信頼スコアは当該局所化における物体カテゴリのインスタンス化の確率を表す、ステップ(S90)と
を有することを特徴とする、コンピュータにより実施される信号処理方法。 - 各アノテーションの局所化は、前記弱教師ありで学習された関数によって出力された1つまたは複数の局所化に対応する
ことを特徴とする、請求項1に記載の方法。 - 各アノテーションについての前記物体カテゴリは、各アノテーションの局所化に対応する、前記弱教師ありで学習された関数によって出力された前記1つまたは複数の局所化における、厳密にゼロより大きい信頼スコアによって表されるインスタンス化の確率を有する物体カテゴリである
ことを特徴とする請求項2に記載の方法。 - 各アノテーションについての前記物体カテゴリは、各アノテーションの局所化に対応する、前記弱教師ありで学習された関数によって出力された前記1つまたは複数の局所化における、最も高い信頼スコアによって表されるインスタンス化の確率を有する物体カテゴリである
ことを特徴とする請求項3に記載の方法。 - 各アノテーションについての物体カテゴリは、各アノテーションの局所化に対応する、前記弱教師ありで学習された関数によって出力された前記1つまたは複数の局所化における、厳密に正の閾値より高い信頼スコアによって表されるインスタンス化の確率を有する物体カテゴリである
ことを特徴とする請求項3または4に記載の方法。 - 前記閾値は、前記複数の画像内の物体の平均数に依存する値を有する
ことを特徴とする請求項5に記載の方法。 - 前記部分集合の少なくとも一部の画像のそれぞれについて、
当該画像に初期ラベルが与えられており、各初期ラベルは、それぞれの画像内の各物体カテゴリのインスタンス化を表し、
当該画像のアノテーションのラベルは、その画像の初期ラベルに対応する各物体カテゴリのインスタンス化を表す、
ことを特徴とする請求項3~6のいずれか1つに記載の方法。 - 各アノテーションの局所化に対応する、前記弱教師ありで学習された関数によって出力された前記1つまたは複数の局所化は、クラスタ化アルゴリズムにより識別される
ことを特徴とする請求項2~7のいずれか1つに記載の方法。 - 前記弱教師ありで学習された関数は初期データセットに基づき学習され、前記初期データセットは複数の初期データを含み、各初期データは、それぞれの画像と、それぞれのアノテーションとを含み、前記アノテーションはラベルの集合からなり、各ラベルは、その画像内における物体カテゴリのインスタンス化を表す
ことを特徴とする請求項1~8のいずれか1つに記載の方法。 - 前記局所化はバウンディングボックスであり、
前記方法は、同一のオブジェクトカテゴリを表す1つまたは複数の近接するバウンディングボックスをグループ化するステップを更に含む
請求項1~9のいずれか1つに記載の方法。 - コンピュータに、
複数の画像を提供するステップ(S10)と、
前記複数の画像のうちの少なくとも1つの部分集合のうちのそれぞれ1つについて、
弱教師ありで学習された関数を適用するステップであって、前記弱教師ありで学習された関数は、各々が局所化および1つまたは複数の信頼スコアを含む、複数の組を出力し、各信頼スコアは当該局所化における物体カテゴリのインスタンス化の確率を表す、ステップ(S20)と、
前記弱教師ありで学習された関数の前記出力に基づき1つまたは複数のアノテーションを決定するステップであって、各アノテーションは、局所化、および当該局所化における物体カテゴリのインスタンス化を表すラベルを含む、ステップ(S30~S80)と、
複数のデータを含み、関数の完全教師ありの学習用に構成された訓練用データセットを完全に自動的に形成するステップであって、各データは、前記部分集合におけるそれぞれの画像と、各画像について決定された前記1つまたは複数のアノテーションのうちの少なくとも一部とを含み、前記完全教師ありで学習された関数は、複数の画像に適用され、各々が局所化および1つまたは複数の信頼スコアを含む複数の組を出力し、各信頼スコアは当該局所化における物体カテゴリのインスタンス化の確率を表す、ステップ(S90)と
を実行させるためのプログラム。 - 請求項11に記載のプログラムをコンピュータ読み取り可能に記憶した記憶媒体。
- 前記記憶媒体に接続されたプロセッサをさらに備える
ことを特徴とする請求項12に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17305519.5 | 2017-05-05 | ||
EP17305519.5A EP3399465A1 (en) | 2017-05-05 | 2017-05-05 | Forming a dataset for fully-supervised learning |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018200685A JP2018200685A (ja) | 2018-12-20 |
JP7128022B2 true JP7128022B2 (ja) | 2022-08-30 |
Family
ID=59506211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018088031A Active JP7128022B2 (ja) | 2017-05-05 | 2018-05-01 | 完全教師あり学習用のデータセットの形成 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10929721B2 (ja) |
EP (1) | EP3399465A1 (ja) |
JP (1) | JP7128022B2 (ja) |
CN (1) | CN108805170B (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102541560B1 (ko) * | 2017-09-14 | 2023-06-08 | 삼성전자주식회사 | 객체 인식 방법 및 장치 |
CN108230296B (zh) * | 2017-11-30 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 图像特征的识别方法和装置、存储介质、电子装置 |
US11430312B2 (en) * | 2018-07-05 | 2022-08-30 | Movidius Limited | Video surveillance with neural networks |
WO2020068868A1 (en) * | 2018-09-24 | 2020-04-02 | Chad Steelberg | Object detection machine learning |
JP7127785B2 (ja) | 2018-11-30 | 2022-08-30 | オリンパス株式会社 | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 |
US20200194108A1 (en) * | 2018-12-13 | 2020-06-18 | Rutgers, The State University Of New Jersey | Object detection in medical image |
EP3675061A1 (en) * | 2018-12-29 | 2020-07-01 | Dassault Systèmes | Forming a dataset for inference of editable feature trees |
US11100371B2 (en) * | 2019-01-02 | 2021-08-24 | Cognata Ltd. | System and method for generating large simulation data sets for testing an autonomous driver |
US11521010B2 (en) | 2019-01-23 | 2022-12-06 | Motional Ad Llc | Automatically choosing data samples for annotation |
CN109993065B (zh) * | 2019-03-06 | 2022-08-23 | 开易(北京)科技有限公司 | 基于深度学习的驾驶员行为检测方法和系统 |
CN109961051B (zh) * | 2019-03-28 | 2022-11-15 | 湖北工业大学 | 一种基于聚类和分块特征提取的行人重识别方法 |
CN110443366B (zh) * | 2019-07-30 | 2022-08-30 | 上海商汤智能科技有限公司 | 神经网络的优化方法及装置、目标检测方法及装置 |
JP6916849B2 (ja) * | 2019-09-13 | 2021-08-11 | 株式会社クレスコ | 情報処理装置、情報処理方法および情報処理プログラム |
CN112529024A (zh) * | 2019-09-17 | 2021-03-19 | 株式会社理光 | 一种样本数据的生成方法、装置及计算机可读存储介质 |
US11636385B2 (en) | 2019-11-04 | 2023-04-25 | International Business Machines Corporation | Training an object detector using raw and unlabeled videos and extracted speech |
US11416757B2 (en) | 2019-11-04 | 2022-08-16 | International Business Machines Corporation | Classifier training using noisy samples |
US11288515B2 (en) * | 2019-11-11 | 2022-03-29 | Samsung Electronics Co., Ltd. | Methods and systems for real-time data reduction |
US11462023B2 (en) | 2019-11-14 | 2022-10-04 | Toyota Research Institute, Inc. | Systems and methods for 3D object detection |
US11461989B2 (en) * | 2020-12-04 | 2022-10-04 | Himax Technologies Limited | Monitor method and monitor system thereof wherein mask is used to cover image for detecting object |
WO2022195763A1 (ja) * | 2021-03-17 | 2022-09-22 | 日本電気株式会社 | 学習装置、学習方法、及び、記録媒体 |
CN113033679B (zh) * | 2021-03-31 | 2022-05-31 | 清华大学深圳国际研究生院 | 一种用于监控视频车辆检测的半监督带噪声学习方法 |
US20230186637A1 (en) * | 2021-12-10 | 2023-06-15 | Ford Global Technologies, Llc | Systems and methods for detecting deep neural network inference quality using image/data manipulation without ground truth information |
US20230252311A1 (en) * | 2022-02-10 | 2023-08-10 | Clarifai, Inc. | Systems and methods for transductive out-of-domain learning |
CN114638322B (zh) * | 2022-05-20 | 2022-09-13 | 南京大学 | 开放场景下基于给定描述的全自动目标检测系统和方法 |
CN116310293B (zh) * | 2023-02-13 | 2023-09-12 | 中国矿业大学(北京) | 一种基于弱监督学习的生成高质量候选框目标检测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008234627A (ja) | 2007-02-19 | 2008-10-02 | Seiko Epson Corp | カテゴリー識別装置、及び、カテゴリー識別方法 |
JP2017510792A (ja) | 2014-01-28 | 2017-04-13 | ベンタナ メディカル システムズ, インコーポレイテッド | 全スライド組織セグメント化のための適応分類 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7263208B1 (en) * | 2003-08-04 | 2007-08-28 | United States Of America As Represented By The Secretary Of The Navy | Automated threshold selection for a tractable alarm rate |
US8761510B2 (en) * | 2011-11-19 | 2014-06-24 | Nec Laboratories America, Inc. | Object-centric spatial pooling for image classification |
FI20125276L (fi) * | 2012-03-14 | 2013-09-15 | Mirasys Business Analytics Oy | Menetelmä, laite ja tietokoneohjelma objektin paikan ennustamiseksi kuvassa |
CN103268607B (zh) * | 2013-05-15 | 2016-10-12 | 电子科技大学 | 一种弱监督条件下的共同对象检测方法 |
CN103810500B (zh) * | 2014-02-25 | 2017-04-05 | 北京工业大学 | 一种基于有监督学习概率主题模型的地点图像识别方法 |
CN104463249B (zh) * | 2014-12-09 | 2018-02-02 | 西北工业大学 | 一种基于弱监督学习框架的遥感图像机场检测方法 |
KR102130162B1 (ko) * | 2015-03-20 | 2020-07-06 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 인공 신경망들에 대한 관련성 스코어 할당 |
US20220263860A1 (en) * | 2015-10-28 | 2022-08-18 | Qomplx, Inc. | Advanced cybersecurity threat hunting using behavioral and deep analytics |
WO2017079341A2 (en) * | 2015-11-04 | 2017-05-11 | Zoox, Inc. | Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles |
GB2550858A (en) * | 2016-05-26 | 2017-12-06 | Nokia Technologies Oy | A method, an apparatus and a computer program product for video object segmentation |
WO2018005489A1 (en) * | 2016-06-27 | 2018-01-04 | Purepredictive, Inc. | Data quality detection and compensation for machine learning |
CN106326938B (zh) * | 2016-09-12 | 2019-03-08 | 西安电子科技大学 | 基于弱监督学习的sar图像目标鉴别方法 |
GB2554641A (en) * | 2016-09-29 | 2018-04-11 | King S College London | Image processing |
US11308350B2 (en) * | 2016-11-07 | 2022-04-19 | Qualcomm Incorporated | Deep cross-correlation learning for object tracking |
CN106555788B (zh) * | 2016-11-11 | 2018-02-06 | 河北工业大学 | 基于模糊处理的深度学习在液压装备故障诊断中的应用 |
US10127659B2 (en) * | 2016-11-23 | 2018-11-13 | General Electric Company | Deep learning medical systems and methods for image acquisition |
CN107690659B (zh) * | 2016-12-27 | 2021-08-10 | 达闼机器人有限公司 | 一种图像识别系统及图像识别方法 |
-
2017
- 2017-05-05 EP EP17305519.5A patent/EP3399465A1/en active Pending
-
2018
- 2018-05-01 JP JP2018088031A patent/JP7128022B2/ja active Active
- 2018-05-04 CN CN201810422155.2A patent/CN108805170B/zh active Active
- 2018-05-07 US US15/973,165 patent/US10929721B2/en active Active
-
2020
- 2020-10-30 US US17/086,078 patent/US11763550B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008234627A (ja) | 2007-02-19 | 2008-10-02 | Seiko Epson Corp | カテゴリー識別装置、及び、カテゴリー識別方法 |
JP2017510792A (ja) | 2014-01-28 | 2017-04-13 | ベンタナ メディカル システムズ, インコーポレイテッド | 全スライド組織セグメント化のための適応分類 |
Non-Patent Citations (3)
Title |
---|
Bolei Zhou et. al.,Learning Deep Features for Discriminative Localization,2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2016年06月30日,P.2921 - 2929,https://ieeexplore.ieee.org/document/7780688 |
Yunchao Wei et. al.,STC: A Simple to Complex Framework for Weakly-Supervised Semantic Segmentation,arXiv,米国,IEEE,2016年12月07日,P.1-8,https://arxiv.org/abs/1509.03150 |
下田 和,完全教師あり学習手法を用いた弱教師あり領域分割におけるシード領域生成方法の改良,電子情報通信学会技術研究報告 Vol.117 No.211 IEICE Technical Report,Vol.2017-CVIM-208 No.23,日本,一般社団法人電子情報通信学会 The Institute of Electronics,Information and Communication Engineers,2017年09月08日,P.143~149 |
Also Published As
Publication number | Publication date |
---|---|
US20210049420A1 (en) | 2021-02-18 |
CN108805170A (zh) | 2018-11-13 |
US10929721B2 (en) | 2021-02-23 |
CN108805170B (zh) | 2024-04-09 |
EP3399465A1 (en) | 2018-11-07 |
US20180322371A1 (en) | 2018-11-08 |
JP2018200685A (ja) | 2018-12-20 |
US11763550B2 (en) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7128022B2 (ja) | 完全教師あり学習用のデータセットの形成 | |
Rafique et al. | Statistical multi-objects segmentation for indoor/outdoor scene detection and classification via depth images | |
US11853903B2 (en) | SGCNN: structural graph convolutional neural network | |
US10318848B2 (en) | Methods for object localization and image classification | |
US10824862B2 (en) | Three-dimensional object detection for autonomous robotic systems using image proposals | |
Li et al. | Deep supervision with intermediate concepts | |
US10860837B2 (en) | Deep multi-task learning framework for face detection, landmark localization, pose estimation, and gender recognition | |
US20190243928A1 (en) | Semantic segmentation of 2d floor plans with a pixel-wise classifier | |
Zhang et al. | Deep hierarchical guidance and regularization learning for end-to-end depth estimation | |
CN108734210B (zh) | 一种基于跨模态多尺度特征融合的对象检测方法 | |
US10262214B1 (en) | Learning method, learning device for detecting lane by using CNN and testing method, testing device using the same | |
KR102252439B1 (ko) | 이미지에서 오브젝트 검출 및 표현 | |
US10275667B1 (en) | Learning method, learning device for detecting lane through lane model and testing method, testing device using the same | |
JP2015533434A (ja) | 教師あり形状ランク付けに基づく生物学的単位の識別 | |
Liu et al. | 3D Point cloud analysis | |
Sun et al. | Weakly-supervised DCNN for RGB-D object recognition in real-world applications which lack large-scale annotated training data | |
CN108875456A (zh) | 目标检测方法、目标检测装置和计算机可读存储介质 | |
Ma et al. | Location-aware box reasoning for anchor-based single-shot object detection | |
Le et al. | Co-localization with category-consistent features and geodesic distance propagation | |
Kaskman et al. | 6 dof pose estimation of textureless objects from multiple rgb frames | |
US20230244998A1 (en) | Machine learning based function testing | |
Tang et al. | Two-stage filtering method to improve the performance of object detection trained by synthetic dataset in heavily cluttered industry scenes | |
Chen et al. | Overall Understanding of Indoor Scenes by Fusing Multiframe Local RGB-D Data Based on Conditional Random Fields | |
Gouizi et al. | Nested-Net: a deep nested network for background subtraction | |
Kvak | Leveraging Computer Vision Application in Visual Arts: A Case Study on the Use of Residual Neural Network to Classify and Analyze Baroque Paintings |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220713 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220818 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7128022 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |