JP2020528623A - 能動学習のシステム及び方法 - Google Patents
能動学習のシステム及び方法 Download PDFInfo
- Publication number
- JP2020528623A JP2020528623A JP2020503837A JP2020503837A JP2020528623A JP 2020528623 A JP2020528623 A JP 2020528623A JP 2020503837 A JP2020503837 A JP 2020503837A JP 2020503837 A JP2020503837 A JP 2020503837A JP 2020528623 A JP2020528623 A JP 2020528623A
- Authority
- JP
- Japan
- Prior art keywords
- image
- active learning
- boundary box
- object detector
- box
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000001514 detection method Methods 0.000 claims abstract description 59
- 238000002372 labelling Methods 0.000 claims abstract description 34
- 238000013528 artificial neural network Methods 0.000 claims description 32
- 230000006870 function Effects 0.000 claims description 31
- 238000003384 imaging method Methods 0.000 claims description 27
- 238000005259 measurement Methods 0.000 claims description 26
- 238000001914 filtration Methods 0.000 claims 1
- 238000011524 similarity measure Methods 0.000 claims 1
- 238000012549 training Methods 0.000 description 34
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000004807 localization Effects 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010561 standard procedure Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000859 sublimation Methods 0.000 description 1
- 230000008022 sublimation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1916—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本開示の実施形態は、画像内の物体の位置特定及び分類の両方を考慮する物体検出器を用いて、物体検出のために能動学習を適用するシステム及び方法に関する。
物体検出器は、少なくとも、1組の画像に関して各画像上に異なる縮尺及びアスペクト比の複数のボックスを生成することによって、画像内の少なくとも1つの物体の場所を検出することができる。ボックスごとに、ボックス内の各画像内のピクセルをメモリ内の能動学習データの対象物の記憶されたパターンと比較して、複数のボックスのボックスごとの類似度の測定値を確定する。1つ以上のボックスが同じ記憶された物体パターンと重なる場合には、少なくとも1つの記憶された物体パターンを適合させるように、各ボックスの場所を調整する。重なっている確定された測定類似度量を有する他のボックスから、所定の重なり閾値を超える、確定された類似度測定量を有するボックスのいくつかをフィルタリングする。
Claims (20)
- センサからシーンの1組の画像を受信する入力インターフェースと、
画像内の物体を検出するためにトレーニングされる物体検出器を含む能動学習データを記憶するメモリと、
前記入力インターフェース及び前記メモリと通信するプロセッサであって、
前記物体検出器を用いて前記1組の画像から選択された画像内の少なくとも1つの物体の意味クラス及び場所を検出し、前記画像内の前記物体の前記意味クラスについての前記物体検出器の不確実度と、前記画像内の前記物体の前記場所についての前記物体検出器の不確実度との組み合わせとして検出指標を生成するように構成される、プロセッサと、
前記プロセッサと通信し、前記検出指標が閾値を超えると、人間がラベル付けするために前記画像を表示する出力インターフェースとを備える、能動学習システム。 - 前記1組の画像に関して各画像上に異なる縮尺及びアスペクト比の複数のボックスを生成することと、
ボックスごとに、前記ボックス内の各画像内のピクセルを、メモリ内の前記能動学習データの対象物の記憶されたパターンと比較し、前記複数のボックスのボックスごとの類似度の測定値を確定することと、
1つ以上のボックスが同じ記憶された物体パターンに重なる場合には、少なくとも1つの記憶された物体パターンを適合させるように、各ボックスの場所を調整することと、
重なっている前記確定された測定類似度量を有する他のボックスから、所定の重なり閾値を超える前記確定された類似度測定量を有する前記ボックスのうちのいくつかをフィルタリングすることと、
によって、前記物体検出器は、前記画像内の前記少なくとも1つの物体の前記場所を検出する、請求項1に記載の能動学習システム。 - ボックスごとに、前記ボックス内の各画像内の確定されたパターンを、前記能動学習データの異なる意味クラスの記憶された画像パターンと比較し、前記複数のボックスのボックスごとの類似度の測定値を確定することであって、前記ボックス内の前記画像内の前記確定されたパターンは、前記1組の画像から選択された前記画像内の異なる縮尺/色/テクスチャの規定された画像特徴である、より小さい画像パターンから構成される、確定することと、
正規化された類似度の和が1に等しく、各クラスに対する前記正規化された類似度がクラス確率になるように、全てのクラスに対する前記確定された被測定類似度に基づいて、全てのクラスを正規化することと、
によって、前記物体検出器は、前記画像内の前記少なくとも1つの物体の前記意味クラスを検出する、請求項2に記載の能動学習システム。 - 前記画像内の前記物体の前記場所についての前記物体検出器の不確実度は、前記物体の周りの境界ボックスの合致度の関数である、請求項1に記載の能動学習システム。
- 前記検出指標は、前記物体の前記意味クラスについての前記物体検出器の確実度と、前記物体の前記場所の合致度の前記物体検出器の確実度との間の不一致度に比例する、請求項4に記載の能動学習システム。
- 前記物体の周りの前記境界ボックスの前記合致度の前記関数は、初期境界ボックス及び最終境界ボックスの共通部分と、前記初期境界ボックス及び前記最終境界ボックスの和集合との比を用いて確定される、請求項4に記載の能動学習システム。
- 前記物体検出器は、前記物体を包囲する初期境界ボックスを推定し、前記初期境界ボックスを調整して、前記最終境界ボックスを生成する、請求項6に記載の能動学習システム。
- 前記初期境界ボックスはユーザによって指定されるか、又は領域提案ネットワークを介して精緻化される、請求項7に記載の能動学習システム。
- 前記物体検出器は、前記画像内の異なる場所に複数の初期境界ボックスを配置し、確定の意味クラスの物体を最大限に包含する前記初期境界ボックスを選択する、請求項8に記載の能動学習システム。
- 前記物体の前記場所についての前記物体検出器の前記不確実度は、前記物体の周りの境界ボックスの安定度の関数である、請求項1に記載の能動学習システム。
- 前記プロセッサは、雑音で変更された前記画像内の前記物体を検出し、前記画像に関して確定された前記境界ボックスと、雑音で変更された前記画像に関して確定された前記境界ボックスとの間の差に基づいて、前記境界ボックスの安定度を確定する、請求項10に記載の能動学習システム。
- 前記検出指標は前記境界ボックス内の前記物体の前記クラスについての前記ニューラルネットワークの前記不確実度の加重和であり、前記境界ボックスの前記安定度は、雑音下で前記境界ボックスがいかに影響を受けやすいかに基づき、異なる程度の雑音下で物体の境界ボックスの前記場所及び大きさが近似し得る場合には、この境界ボックスは安定している、請求項11に記載の能動学習システム。
- 前記出力インターフェースは表示デバイスである、請求項1に記載の能動学習システム。
- 入力インターフェースを介してセンサからシーンの画像の複数の組を含む撮像データを受信するメモリであって、画像内の物体を検出するためにトレーニングされる物体検出器を含む能動学習データを記憶している記憶デバイスを含む、メモリと、
出力インターフェースと、
前記メモリ、前記入力インターフェース及び前記出力インターフェースに接続するように構成されたプロセッサであって、前記物体検出器を用いて検出指標を生成するための命令を実行する、プロセッサと、を備え、
前記物体検出器は、
前記物体検出器を用いて前記画像の複数の組のうちの少なくとも1組の画像から選択された画像内の少なくとも1つの物体の意味クラス及び場所を検出し、前記画像内の前記物体の前記意味クラスについての前記物体検出器の不確実度と、前記画像内の前記物体の前記場所についての前記物体検出器の不確実度との組み合わせとして検出指標を生成するステップと、
前記検出指標が閾値を超えるときに、人間がラベル付けするための前記画像を撮像デバイス上に表示するために、前記出力インターフェースを用いて、前記撮像デバイスに接続される撮像インターフェースに前記画像を出力するステップと、
を実行する、能動学習法。 - 前記画像内の前記物体の前記場所についての前記物体検出器の前記不確実度は、前記物体の周りの境界ボックスの合致度の関数である、請求項14に記載の能動学習法。
- 前記検出指標は、前記物体の前記意味クラスについての前記物体検出器の確実度と、前記物体の前記場所の前記合致度についての前記物体検出器の確実度との間の不一致度に比例する、請求項15に記載の能動学習法。
- 前記物体の周りの前記境界ボックスの前記合致度の前記関数は、初期境界ボックス及び最終境界ボックスの共通部分と、前記初期境界ボックス及び前記最終境界ボックスの和集合との比を用いて確定される、請求項16に記載の能動学習法。
- 前記物体検出器は、前記物体を包囲する初期境界ボックスを推定し、前記初期境界ボックスを調整して、前記最終境界ボックスを生成する、請求項17に記載の能動学習法。
- 画像内の物体の位置特定及び分類の両方を考慮する物体検出器を使用する、物体検出のための能動学習法であって、
入力インターフェースを介してセンサからシーンの画像の複数の組を含む撮像データを受信し、前記撮像データをメモリに記憶することであって、前記メモリは、画像内の物体を検出するためにトレーニングされる物体検出器を含む能動学習データを記憶している記憶デバイスを含むことと、
前記入力インターフェース及び前記メモリと通信するプロセッサを使用することと、
を含み、前記プロセッサは、前記物体検出器を用いて検出指標を生成するための命令を実行するように構成され、前記物体検出器は、
前記物体検出器を用いて前記画像の複数の組のうちの少なくとも1組の画像から選択された画像内の少なくとも1つの物体の意味クラス及び場所を検出し、前記画像内の前記物体の前記意味クラスについての前記物体検出器の不確実度と、前記画像内の前記物体の前記場所についての前記物体検出器の不確実度との組み合わせとして検出指標を生成するステップと、
前記検出指標が閾値を超えるときに、人間がラベル付けするための前記画像を表示するために、出力インターフェースを介して撮像デバイスに前記画像を出力するステップと、を実行し、前記プロセッサは、前記出力インターフェース及び撮像デバイスと通信する、能動学習法。 - 前記画像内の前記物体の前記場所についての前記物体検出器の前記不確実度は、前記物体の周りの境界ボックスの合致度の関数であり、
前記検出指標は、前記物体の前記意味クラスについての前記物体検出器の確実度と、前記物体の前記場所の前記合致度についての前記物体検出器の確実度との間の不一致度に比例するか、又は、
前記物体の周りの前記境界ボックスの前記合致度の前記関数は、初期境界ボックス及び最終境界ボックスの共通部分と、前記初期境界ボックス及び前記最終境界ボックスの和集合との比を用いて確定され、
前記物体検出器は、前記物体を包囲する初期境界ボックスを推定し、前記初期境界ボックスがユーザによって指定されるか、又は領域提案ネットワークを介して精緻化されるように、前記初期境界ボックスを調整して、前記最終境界ボックスを生成する、請求項19に記載の能動学習法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/691,911 | 2017-08-31 | ||
US15/691,911 US10769500B2 (en) | 2017-08-31 | 2017-08-31 | Localization-aware active learning for object detection |
PCT/JP2018/004760 WO2019043988A1 (en) | 2017-08-31 | 2018-02-06 | ACTIVE LEARNING SYSTEM AND METHOD |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020528623A true JP2020528623A (ja) | 2020-09-24 |
JP2020528623A5 JP2020528623A5 (ja) | 2020-11-12 |
JP6837597B2 JP6837597B2 (ja) | 2021-03-03 |
Family
ID=61563448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020503837A Active JP6837597B2 (ja) | 2017-08-31 | 2018-02-06 | 能動学習のシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10769500B2 (ja) |
EP (1) | EP3475881B1 (ja) |
JP (1) | JP6837597B2 (ja) |
CN (1) | CN111052146B (ja) |
WO (1) | WO2019043988A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022168274A1 (ja) * | 2021-02-05 | 2022-08-11 | 三菱電機株式会社 | 情報処理装置、選択出力方法、及び選択出力プログラム |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10885531B2 (en) * | 2018-01-29 | 2021-01-05 | Accenture Global Solutions Limited | Artificial intelligence counterfeit detection |
US10794609B2 (en) * | 2018-02-05 | 2020-10-06 | Mitsubishi Electric Research Laboratories, Inc. | Methods and systems for personalized heating, ventilation, and air conditioning |
US10825132B2 (en) * | 2018-02-20 | 2020-11-03 | Element Ai Inc. | Training method for convolutional neural networks for use in artistic style transfers for video |
TW201937452A (zh) * | 2018-03-01 | 2019-09-16 | 緯創資通股份有限公司 | 定位系統及方法及電腦可讀取儲存媒體 |
US10956785B2 (en) * | 2018-04-27 | 2021-03-23 | Arizona Board Of Regents On Behalf Of Arizona State University | Methods, systems, and media for selecting candidates for annotation for use in training classifiers |
CN110930350A (zh) * | 2018-09-19 | 2020-03-27 | 鸿富锦精密电子(天津)有限公司 | 机器学习方法及应用机器学习方法的自动光学检测设备 |
US11960984B2 (en) | 2018-09-24 | 2024-04-16 | Schlumberger Technology Corporation | Active learning framework for machine-assisted tasks |
US10943099B2 (en) * | 2019-03-19 | 2021-03-09 | Booz Allen Hamilton Inc. | Method and system for classifying an input data set using multiple data representation source modes |
US10867215B2 (en) * | 2019-04-11 | 2020-12-15 | Black Sesame International Holding Limited | Mixed intelligence data labeling system for machine learning |
CN110135263A (zh) * | 2019-04-16 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 人像属性模型构建方法、装置、计算机设备和存储介质 |
CN110443141A (zh) * | 2019-07-08 | 2019-11-12 | 深圳中兴网信科技有限公司 | 数据集处理方法、数据集处理装置及存储介质 |
WO2021007514A1 (en) * | 2019-07-10 | 2021-01-14 | Schlumberger Technology Corporation | Active learning for inspection tool |
CN112307826A (zh) * | 2019-07-30 | 2021-02-02 | 华为技术有限公司 | 行人检测方法、装置、计算机可读存储介质和芯片 |
WO2021060899A1 (ko) * | 2019-09-26 | 2021-04-01 | 주식회사 루닛 | 인공지능 모델을 사용 기관에 특화시키는 학습 방법, 이를 수행하는 장치 |
RU2742602C1 (ru) * | 2020-04-06 | 2021-02-09 | Самсунг Электроникс Ко., Лтд. | Распознавание событий на фотографиях с автоматическим выделением альбомов |
CN111209946B (zh) * | 2019-12-31 | 2024-04-30 | 上海联影智能医疗科技有限公司 | 三维图像处理方法、图像处理模型训练方法及介质 |
CN111259784B (zh) * | 2020-01-14 | 2023-02-07 | 西安理工大学 | 基于迁移学习和主动学习的sar图像变化检测方法 |
CN111259961A (zh) * | 2020-01-17 | 2020-06-09 | 南京大学 | 一种基于主动学习的面向对象分类方法 |
JP7395396B2 (ja) * | 2020-03-23 | 2023-12-11 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
WO2021211134A1 (en) * | 2020-04-17 | 2021-10-21 | Siemens Aktiengesellschaft | A neural network system for distributed boosting for a programmable logic controller with a plurality of processing units |
CN111724441A (zh) * | 2020-05-28 | 2020-09-29 | 上海商汤智能科技有限公司 | 图像标注方法及装置、电子设备及存储介质 |
US20230289592A1 (en) * | 2020-07-28 | 2023-09-14 | Mobius Labs Gmbh | Method and system for generating a training dataset |
EP4252203A4 (en) * | 2021-01-12 | 2024-06-19 | Samsung Electronics Co., Ltd. | ACTION LOCATION METHOD, DEVICE, ELECTRONIC EQUIPMENT AND COMPUTER-READABLE STORAGE MEDIUM |
WO2022261766A1 (en) * | 2021-06-16 | 2022-12-22 | Vlasea Mihaela | Method and system for active learning using adaptive weighted uncertainty sampling (awus) |
US20230138798A1 (en) * | 2021-11-01 | 2023-05-04 | Western Digital Technologies, Inc. | Data Collection and Retraining in Edge Video Devices |
CN114092743B (zh) * | 2021-11-24 | 2022-07-26 | 开普云信息科技股份有限公司 | 敏感图片的合规性检测方法、装置、存储介质及设备 |
US11967137B2 (en) * | 2021-12-02 | 2024-04-23 | International Business Machines Corporation | Object detection considering tendency of object location |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016071800A (ja) * | 2014-10-01 | 2016-05-09 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20170124415A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Subcategory-aware convolutional neural networks for object detection |
JP2017515189A (ja) * | 2014-03-07 | 2017-06-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 写真管理 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6324532B1 (en) | 1997-02-07 | 2001-11-27 | Sarnoff Corporation | Method and apparatus for training a neural network to detect objects in an image |
GB0607143D0 (en) * | 2006-04-08 | 2006-05-17 | Univ Manchester | Method of locating features of an object |
WO2009111499A2 (en) * | 2008-03-03 | 2009-09-11 | Videoiq, Inc. | Dynamic object classification |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
EP2657857A1 (en) * | 2012-04-27 | 2013-10-30 | ATG Advanced Swiss Technology Group AG | Method for binary classification of a query image |
EP2672396A1 (en) | 2012-06-08 | 2013-12-11 | ETH Zürich | Method for annotating images |
US9256807B1 (en) * | 2012-09-27 | 2016-02-09 | Google Inc. | Generating labeled images |
US9275308B2 (en) * | 2013-05-31 | 2016-03-01 | Google Inc. | Object detection using deep neural networks |
WO2014205231A1 (en) | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
US9129191B2 (en) * | 2013-12-16 | 2015-09-08 | Adobe Systems Incorporated | Semantic object selection |
CN106688011B (zh) * | 2014-09-10 | 2018-12-28 | 北京市商汤科技开发有限公司 | 用于多类别物体检测的方法和系统 |
WO2016207875A1 (en) * | 2015-06-22 | 2016-12-29 | Photomyne Ltd. | System and method for detecting objects in an image |
US9589210B1 (en) | 2015-08-26 | 2017-03-07 | Digitalglobe, Inc. | Broad area geospatial object detection using autogenerated deep learning models |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
WO2017088050A1 (en) * | 2015-11-26 | 2017-06-01 | Sportlogiq Inc. | Systems and methods for object tracking and localization in videos with adaptive image representation |
KR102592076B1 (ko) * | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
US10318848B2 (en) * | 2015-12-15 | 2019-06-11 | Qualcomm Incorporated | Methods for object localization and image classification |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US11176423B2 (en) * | 2016-10-24 | 2021-11-16 | International Business Machines Corporation | Edge-based adaptive machine learning for object recognition |
CN106951830B (zh) * | 2017-02-23 | 2020-12-18 | 北京联合大学 | 一种基于先验条件约束的图像场景多对象标记方法 |
WO2018165279A1 (en) * | 2017-03-07 | 2018-09-13 | Mighty AI, Inc. | Segmentation of images |
-
2017
- 2017-08-31 US US15/691,911 patent/US10769500B2/en active Active
-
2018
- 2018-02-06 CN CN201880054941.XA patent/CN111052146B/zh active Active
- 2018-02-06 WO PCT/JP2018/004760 patent/WO2019043988A1/en active Application Filing
- 2018-02-06 JP JP2020503837A patent/JP6837597B2/ja active Active
- 2018-02-06 EP EP18708763.0A patent/EP3475881B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017515189A (ja) * | 2014-03-07 | 2017-06-08 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 写真管理 |
JP2016071800A (ja) * | 2014-10-01 | 2016-05-09 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US20170124415A1 (en) * | 2015-11-04 | 2017-05-04 | Nec Laboratories America, Inc. | Subcategory-aware convolutional neural networks for object detection |
Non-Patent Citations (1)
Title |
---|
今川 和幸: "カメラを用いた手話認識における見えの違いを考慮した手話の局所特徴認識", 映像情報メディア学会誌 第54巻 第6号, vol. 54, no. 6, JPN6020051393, 20 June 2000 (2000-06-20), JP, pages 848 - 857, ISSN: 0004421909 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022168274A1 (ja) * | 2021-02-05 | 2022-08-11 | 三菱電機株式会社 | 情報処理装置、選択出力方法、及び選択出力プログラム |
JP7511690B2 (ja) | 2021-02-05 | 2024-07-05 | 三菱電機株式会社 | 情報処理装置、選択出力方法、及び選択出力プログラム |
Also Published As
Publication number | Publication date |
---|---|
US10769500B2 (en) | 2020-09-08 |
EP3475881B1 (en) | 2020-04-22 |
CN111052146A (zh) | 2020-04-21 |
EP3475881A1 (en) | 2019-05-01 |
US20190065908A1 (en) | 2019-02-28 |
JP6837597B2 (ja) | 2021-03-03 |
CN111052146B (zh) | 2023-05-12 |
WO2019043988A1 (en) | 2019-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6837597B2 (ja) | 能動学習のシステム及び方法 | |
US10748035B2 (en) | Visually aided active learning for training object detector | |
CN110136103B (zh) | 医学影像解释方法、装置、计算机设备及存储介质 | |
US20230316702A1 (en) | Explainable artificial intelligence (ai) based image analytic, automatic damage detection and estimation system | |
JP7341310B2 (ja) | 皮膚分析のための画像処理、皮膚分析を視覚化するためのシステム及び方法 | |
US11417007B2 (en) | Electronic apparatus and method for controlling thereof | |
CN112634255B (zh) | 脑部病灶检测模型的建立方法、装置以及计算机设备 | |
KR102356465B1 (ko) | 사용자 얼굴 피부 분석 방법 및 서버 | |
CN113052295B (zh) | 一种神经网络的训练方法、物体检测方法、装置及设备 | |
US20220366244A1 (en) | Modeling Human Behavior in Work Environment Using Neural Networks | |
US20230401706A1 (en) | Method for detecting a rib with a medical image, device, and medium | |
CN112446275A (zh) | 物体数量推定装置、物体数量推定方法以及存储介质 | |
CN112613425B (zh) | 一种面向小样本水下图像的目标识别系统 | |
US11978199B2 (en) | Optical imaging system and related apparatus, method and computer program | |
JP2020190913A (ja) | 読影支援装置および読影支援方法 | |
CN117574098B (zh) | 一种学习专注度分析方法以及相关装置 | |
Dhimal | Automated height measurements of trucks using computer vision and AI: Design and implementation with Human AI interface | |
EP4016388A1 (en) | Automatic inspection using artificial intelligence models | |
US20240019931A1 (en) | Methods and systems for eye-gaze location detection and accurate collection of eye-gaze data | |
KR20220106582A (ko) | 병리 조직 영상의 처리 방법 및 그 장치 | |
WO2021003574A1 (en) | Systems and methods to process images for skin analysis and to visualize skin analysis | |
CN116226712A (zh) | 一种线上学习者专注度监视方法、系统及可读存储介质 | |
CN117242528A (zh) | 处理图像以进行皮肤分析和可视化皮肤分析的系统和方法 | |
CN117173676A (zh) | 一种驾驶员的变道意图识别方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200123 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6837597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |