JP6837597B2 - 能動学習のシステム及び方法 - Google Patents
能動学習のシステム及び方法 Download PDFInfo
- Publication number
- JP6837597B2 JP6837597B2 JP2020503837A JP2020503837A JP6837597B2 JP 6837597 B2 JP6837597 B2 JP 6837597B2 JP 2020503837 A JP2020503837 A JP 2020503837A JP 2020503837 A JP2020503837 A JP 2020503837A JP 6837597 B2 JP6837597 B2 JP 6837597B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- active learning
- box
- location
- uncertainty
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 80
- 238000001514 detection method Methods 0.000 claims description 51
- 238000013528 artificial neural network Methods 0.000 claims description 33
- 238000002372 labelling Methods 0.000 claims description 31
- 230000006870 function Effects 0.000 claims description 30
- 238000003384 imaging method Methods 0.000 claims description 24
- 238000004891 communication Methods 0.000 claims description 2
- 238000012549 training Methods 0.000 description 35
- 238000005259 measurement Methods 0.000 description 22
- 230000008569 process Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 20
- 238000004422 calculation algorithm Methods 0.000 description 8
- 230000004807 localization Effects 0.000 description 8
- 238000002474 experimental method Methods 0.000 description 5
- 241000282326 Felis catus Species 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 210000002569 neuron Anatomy 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 241000282412 Homo Species 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000010561 standard procedure Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000859 sublimation Methods 0.000 description 1
- 230000008022 sublimation Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1916—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
- G06F18/2178—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
- G06F18/2185—Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor the supervisor being an automated module, e.g. intelligent oracle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本開示の実施形態は、画像内の物体の位置特定及び分類の両方を考慮する物体検出器を用いて、物体検出のために能動学習を適用するシステム及び方法に関する。
物体検出器は、少なくとも、1組の画像に関して各画像上に異なる縮尺及びアスペクト比の複数のボックスを生成することによって、画像内の少なくとも1つの物体の場所を検出することができる。ボックスごとに、ボックス内の各画像内のピクセルをメモリ内の能動学習データの対象物の記憶されたパターンと比較して、複数のボックスのボックスごとの類似度の測定値を確定する。1つ以上のボックスが同じ記憶された物体パターンと重なる場合には、少なくとも1つの記憶された物体パターンを適合させるように、各ボックスの場所を調整する。重なっている確定された測定類似度量を有する他のボックスから、所定の重なり閾値を超える、確定された類似度測定量を有するボックスのいくつかをフィルタリングする。
Claims (8)
- センサからシーンの1組の画像を受信する入力インターフェースと、
画像内の物体を検出するためにトレーニングされる物体検出器を含む能動学習データを記憶するメモリと、
前記入力インターフェース及び前記メモリと通信するプロセッサであって、
前記物体検出器を用いて前記1組の画像から選択される画像内の少なくとも1つの物体の意味クラス及び場所を検出し、前記画像内の前記物体の前記意味クラスについての前記物体検出器の不確実度と、前記画像内の前記物体の前記場所についての前記物体検出器の不確実度との組み合わせとして検出指標を生成するように構成される、プロセッサと、
前記プロセッサと通信し、前記検出指標が閾値を超えると、人間がラベル付けするための前記画像を表示する出力インターフェースと、
を備え、
前記物体の前記場所についての前記物体検出器の前記不確実度は、前記物体の周りの境界ボックスの安定度の関数であり、
前記プロセッサは、雑音で変更された前記画像内の前記物体を検出し、前記画像に関して確定された前記境界ボックスと、雑音で変更された前記画像に関して確定された前記境界ボックスとの間の差に基づいて、前記境界ボックスの前記安定度を決定し、
前記検出指標は、前記境界ボックス内の前記物体の前記意味クラスについてのニューラルネットワークの前記不確実度の加重和であり、前記境界ボックスの前記安定度は、前記境界ボックスが雑音下でいかに影響を受けやすいかに基づき、異なる程度の雑音下で物体の境界ボックスの前記場所及び大きさが近似し得る場合には、この境界ボックスは安定している、能動学習システム。 - 前記画像内の前記物体の前記場所についての前記物体検出器の前記不確実度は更に、前記物体の周りの境界ボックスの合致度の関数であり、
前記物体の周りの前記境界ボックスの前記合致度の前記関数は、初期境界ボックス及び最終境界ボックスの共通部分と、前記初期境界ボックス及び前記最終境界ボックスの和集合との比を用いて確定され、
前記初期境界ボックスはユーザによって指定される、請求項1に記載の能動学習システム。 - 前記検出指標は、前記物体の前記意味クラスについての前記物体検出器の確実度と、前記物体の前記場所の合致度の前記物体検出器の確実度との間の不一致度に比例する、請求項2に記載の能動学習システム。
- 前記出力インターフェースは表示デバイスである、請求項1に記載の能動学習システム。
- メモリ、出力インターフェース及びプロセッサを備える能動学習システムにおける能動学習法であって、前記メモリは、画像内の物体を検出するためにトレーニングされる物体検出器を含む能動学習データを記憶している記憶デバイスを含み、前記能動学習法は、
前記メモリによって、入力インターフェースを介してセンサからシーンの画像の複数の組を含む撮像データを受信することと、
前記プロセッサを前記メモリ、前記入力インターフェース及び前記出力インターフェースに接続することと、
前記プロセッサによって、前記物体検出器を用いて検出指標を生成するための命令を実行することと、
を含み、前記物体検出器は、
前記物体検出器を用いて前記画像の複数の組のうちの少なくとも1組の画像から選択される画像内の少なくとも1つの物体の意味クラス及び場所を検出し、前記画像内の前記物体の前記意味クラスについての前記物体検出器の不確実度と、前記画像内の前記物体の前記場所についての前記物体検出器の不確実度との組み合わせとして検出指標を生成するステップと、
前記検出指標が閾値を超えると、人間がラベル付けするための前記画像を撮像デバイス上に表示するために、前記出力インターフェースを用いて、前記撮像デバイスに接続される撮像インターフェースに前記画像を出力するステップと、
を実行し、
前記物体の前記場所についての前記物体検出器の前記不確実度は前記物体の周りの境界ボックスの安定度の関数であり、
前記プロセッサは、雑音で変更された前記画像内の前記物体を検出し、前記画像に関して確定された前記境界ボックスと、雑音で変更された前記画像に関して確定された前記境界ボックスとの間の差に基づいて、前記境界ボックスの前記安定度を確定し、
前記検出指標は、前記境界ボックス内の前記物体の前記意味クラスについてのニューラルネットワークの前記不確実度の加重和であり、前記境界ボックスの前記安定度は、前記境界ボックスが雑音下でいかに影響を受けやすいかに基づき、異なる程度の雑音下で物体の境界ボックスの前記場所及び大きさが近似し得る場合には、この境界ボックスは安定している、能動学習法。 - 前記画像内の前記物体の前記場所についての前記物体検出器の前記不確実度は更に、前記物体の周りの境界ボックスの合致度の関数であり、
前記物体の周りの前記境界ボックスの前記合致度の前記関数は、初期境界ボックス及び最終境界ボックスの共通部分と、前記初期境界ボックス及び前記最終境界ボックスの和集合との比を用いて確定され、
前記初期境界ボックスはユーザによって指定される、請求項5に記載の能動学習法。 - 前記検出指標は、前記物体の前記意味クラスについての前記物体検出器の確実度と、前記物体の前記場所の前記合致度についての前記物体検出器の確実度との間の不一致度に比例する、請求項6に記載の能動学習法。
- 前記メモリ内に前記撮像データを記憶することを更に含み、
前記少なくとも1つの物体は雑音で変更された画像内で検出され、
前記プロセッサは、前記出力インターフェース及び前記撮像デバイスと通信する、請求項5〜7のいずれか一項に記載の能動学習法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/691,911 US10769500B2 (en) | 2017-08-31 | 2017-08-31 | Localization-aware active learning for object detection |
US15/691,911 | 2017-08-31 | ||
PCT/JP2018/004760 WO2019043988A1 (en) | 2017-08-31 | 2018-02-06 | ACTIVE LEARNING SYSTEM AND METHOD |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020528623A JP2020528623A (ja) | 2020-09-24 |
JP2020528623A5 JP2020528623A5 (ja) | 2020-11-12 |
JP6837597B2 true JP6837597B2 (ja) | 2021-03-03 |
Family
ID=61563448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020503837A Active JP6837597B2 (ja) | 2017-08-31 | 2018-02-06 | 能動学習のシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10769500B2 (ja) |
EP (1) | EP3475881B1 (ja) |
JP (1) | JP6837597B2 (ja) |
CN (1) | CN111052146B (ja) |
WO (1) | WO2019043988A1 (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12118455B2 (en) | 2017-04-27 | 2024-10-15 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and/or media, for selecting candidates for annotation for use in training a classifier |
US10885531B2 (en) * | 2018-01-29 | 2021-01-05 | Accenture Global Solutions Limited | Artificial intelligence counterfeit detection |
US10794609B2 (en) * | 2018-02-05 | 2020-10-06 | Mitsubishi Electric Research Laboratories, Inc. | Methods and systems for personalized heating, ventilation, and air conditioning |
US10825132B2 (en) * | 2018-02-20 | 2020-11-03 | Element Ai Inc. | Training method for convolutional neural networks for use in artistic style transfers for video |
TW201937452A (zh) * | 2018-03-01 | 2019-09-16 | 緯創資通股份有限公司 | 定位系統及方法及電腦可讀取儲存媒體 |
US10956785B2 (en) * | 2018-04-27 | 2021-03-23 | Arizona Board Of Regents On Behalf Of Arizona State University | Methods, systems, and media for selecting candidates for annotation for use in training classifiers |
CN110930350A (zh) * | 2018-09-19 | 2020-03-27 | 鸿富锦精密电子(天津)有限公司 | 机器学习方法及应用机器学习方法的自动光学检测设备 |
US11960984B2 (en) | 2018-09-24 | 2024-04-16 | Schlumberger Technology Corporation | Active learning framework for machine-assisted tasks |
US10943099B2 (en) * | 2019-03-19 | 2021-03-09 | Booz Allen Hamilton Inc. | Method and system for classifying an input data set using multiple data representation source modes |
US10867215B2 (en) * | 2019-04-11 | 2020-12-15 | Black Sesame International Holding Limited | Mixed intelligence data labeling system for machine learning |
CN110135263A (zh) * | 2019-04-16 | 2019-08-16 | 深圳壹账通智能科技有限公司 | 人像属性模型构建方法、装置、计算机设备和存储介质 |
CN110443141A (zh) * | 2019-07-08 | 2019-11-12 | 深圳中兴网信科技有限公司 | 数据集处理方法、数据集处理装置及存储介质 |
WO2021007514A1 (en) * | 2019-07-10 | 2021-01-14 | Schlumberger Technology Corporation | Active learning for inspection tool |
CN112307826A (zh) * | 2019-07-30 | 2021-02-02 | 华为技术有限公司 | 行人检测方法、装置、计算机可读存储介质和芯片 |
EP4036931A4 (en) * | 2019-09-26 | 2023-09-20 | Lunit Inc. | TRAINING METHOD FOR SPECIALIZING AN ARTIFICIAL INTELLIGENCE MODEL IN AN INSTITUTION FOR USE AND DEVICE FOR TRAINING ARTIFICIAL INTELLIGENCE MODELS |
RU2742602C1 (ru) * | 2020-04-06 | 2021-02-09 | Самсунг Электроникс Ко., Лтд. | Распознавание событий на фотографиях с автоматическим выделением альбомов |
CN111209946B (zh) * | 2019-12-31 | 2024-04-30 | 上海联影智能医疗科技有限公司 | 三维图像处理方法、图像处理模型训练方法及介质 |
CN111259784B (zh) * | 2020-01-14 | 2023-02-07 | 西安理工大学 | 基于迁移学习和主动学习的sar图像变化检测方法 |
CN111259961A (zh) * | 2020-01-17 | 2020-06-09 | 南京大学 | 一种基于主动学习的面向对象分类方法 |
JP7395396B2 (ja) * | 2020-03-23 | 2023-12-11 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
CN115398455A (zh) * | 2020-04-17 | 2022-11-25 | 西门子股份公司 | 利用多个处理单元来对可编程逻辑控制器进行分布式提升的神经网络系统 |
CN111724441A (zh) * | 2020-05-28 | 2020-09-29 | 上海商汤智能科技有限公司 | 图像标注方法及装置、电子设备及存储介质 |
WO2022022930A1 (en) * | 2020-07-28 | 2022-02-03 | Mobius Labs Gmbh | Method and system for generating a training dataset |
WO2022154457A1 (en) * | 2021-01-12 | 2022-07-21 | Samsung Electronics Co., Ltd. | Action localization method, device, electronic equipment, and computer-readable storage medium |
US20240119723A1 (en) * | 2021-02-05 | 2024-04-11 | Mitsubishi Electric Corporation | Information processing device, and selection output method |
US20240221369A1 (en) * | 2021-06-16 | 2024-07-04 | Mihaela Vlasea | Method and system for active learning using adaptive weighted uncertainty sampling(awus) |
US12111886B2 (en) * | 2021-11-01 | 2024-10-08 | Western Digital Technologies, Inc. | Data collection and retraining in edge video devices |
CN114092743B (zh) * | 2021-11-24 | 2022-07-26 | 开普云信息科技股份有限公司 | 敏感图片的合规性检测方法、装置、存储介质及设备 |
US11967137B2 (en) * | 2021-12-02 | 2024-04-23 | International Business Machines Corporation | Object detection considering tendency of object location |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6324532B1 (en) | 1997-02-07 | 2001-11-27 | Sarnoff Corporation | Method and apparatus for training a neural network to detect objects in an image |
GB0607143D0 (en) * | 2006-04-08 | 2006-05-17 | Univ Manchester | Method of locating features of an object |
GB2471036B (en) * | 2008-03-03 | 2012-08-22 | Videoiq Inc | Object matching for tracking, indexing, and search |
US9916538B2 (en) * | 2012-09-15 | 2018-03-13 | Z Advanced Computing, Inc. | Method and system for feature detection |
EP2657857A1 (en) * | 2012-04-27 | 2013-10-30 | ATG Advanced Swiss Technology Group AG | Method for binary classification of a query image |
EP2672396A1 (en) | 2012-06-08 | 2013-12-11 | ETH Zürich | Method for annotating images |
US9256807B1 (en) * | 2012-09-27 | 2016-02-09 | Google Inc. | Generating labeled images |
US9275308B2 (en) * | 2013-05-31 | 2016-03-01 | Google Inc. | Object detection using deep neural networks |
WO2014205231A1 (en) | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
US9129191B2 (en) * | 2013-12-16 | 2015-09-08 | Adobe Systems Incorporated | Semantic object selection |
US10043112B2 (en) * | 2014-03-07 | 2018-08-07 | Qualcomm Incorporated | Photo management |
WO2016037300A1 (en) * | 2014-09-10 | 2016-03-17 | Xiaoou Tang | Method and system for multi-class object detection |
JP2016071800A (ja) * | 2014-10-01 | 2016-05-09 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
WO2016207875A1 (en) * | 2015-06-22 | 2016-12-29 | Photomyne Ltd. | System and method for detecting objects in an image |
US9589210B1 (en) | 2015-08-26 | 2017-03-07 | Digitalglobe, Inc. | Broad area geospatial object detection using autogenerated deep learning models |
US9767381B2 (en) * | 2015-09-22 | 2017-09-19 | Xerox Corporation | Similarity-based detection of prominent objects using deep CNN pooling layers as features |
US9965719B2 (en) * | 2015-11-04 | 2018-05-08 | Nec Corporation | Subcategory-aware convolutional neural networks for object detection |
WO2017088050A1 (en) * | 2015-11-26 | 2017-06-01 | Sportlogiq Inc. | Systems and methods for object tracking and localization in videos with adaptive image representation |
KR102592076B1 (ko) * | 2015-12-14 | 2023-10-19 | 삼성전자주식회사 | 딥러닝 기반 영상 처리 장치 및 방법, 학습 장치 |
US10318848B2 (en) * | 2015-12-15 | 2019-06-11 | Qualcomm Incorporated | Methods for object localization and image classification |
US9858496B2 (en) * | 2016-01-20 | 2018-01-02 | Microsoft Technology Licensing, Llc | Object detection and classification in images |
US11379695B2 (en) * | 2016-10-24 | 2022-07-05 | International Business Machines Corporation | Edge-based adaptive machine learning for object recognition |
CN106951830B (zh) * | 2017-02-23 | 2020-12-18 | 北京联合大学 | 一种基于先验条件约束的图像场景多对象标记方法 |
WO2018165279A1 (en) * | 2017-03-07 | 2018-09-13 | Mighty AI, Inc. | Segmentation of images |
-
2017
- 2017-08-31 US US15/691,911 patent/US10769500B2/en active Active
-
2018
- 2018-02-06 EP EP18708763.0A patent/EP3475881B1/en active Active
- 2018-02-06 CN CN201880054941.XA patent/CN111052146B/zh active Active
- 2018-02-06 JP JP2020503837A patent/JP6837597B2/ja active Active
- 2018-02-06 WO PCT/JP2018/004760 patent/WO2019043988A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2019043988A1 (en) | 2019-03-07 |
CN111052146B (zh) | 2023-05-12 |
EP3475881B1 (en) | 2020-04-22 |
EP3475881A1 (en) | 2019-05-01 |
JP2020528623A (ja) | 2020-09-24 |
US10769500B2 (en) | 2020-09-08 |
US20190065908A1 (en) | 2019-02-28 |
CN111052146A (zh) | 2020-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6837597B2 (ja) | 能動学習のシステム及び方法 | |
US10748035B2 (en) | Visually aided active learning for training object detector | |
CN110136103B (zh) | 医学影像解释方法、装置、计算机设备及存储介质 | |
JP7058373B2 (ja) | 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体 | |
US20230316702A1 (en) | Explainable artificial intelligence (ai) based image analytic, automatic damage detection and estimation system | |
JP6692488B2 (ja) | ニューロンネットワークをトレーニングする方法及び能動学習システム | |
US20190043193A1 (en) | Systems and Methods Using Weighted-Ensemble Supervised-Learning for Automatic Detection of Retinal Disease from Tomograms | |
US11803974B2 (en) | Automated system to measure multi-animal body part dynamics | |
CN110069129B (zh) | 确定系统和确定方法 | |
CN111860565A (zh) | 用于训练用于测量技术中的质量检查的分类器的工作流程 | |
CN111274425A (zh) | 医疗影像分类方法、装置、介质及电子设备 | |
CN112634255B (zh) | 脑部病灶检测模型的建立方法、装置以及计算机设备 | |
KR102639558B1 (ko) | 관심영역별 골 성숙 분포를 이용한 성장 분석 예측 장치 및 방법 | |
US20220366244A1 (en) | Modeling Human Behavior in Work Environment Using Neural Networks | |
CN112446275A (zh) | 物体数量推定装置、物体数量推定方法以及存储介质 | |
KR20210061839A (ko) | 전자 장치 및 그 제어 방법 | |
CN113052295A (zh) | 一种神经网络的训练方法、物体检测方法、装置及设备 | |
WO2022204605A1 (en) | Interpretation of intraoperative sensor data using concept graph neural networks | |
CN112613425B (zh) | 一种面向小样本水下图像的目标识别系统 | |
EP3805835A1 (en) | Optical imaging system and related apparatus, method and computer program | |
CN111445447A (zh) | 一种ct图像异常检测方法及装置 | |
JP2020190913A (ja) | 読影支援装置および読影支援方法 | |
CN117574098B (zh) | 一种学习专注度分析方法以及相关装置 | |
EP4016388A1 (en) | Automatic inspection using artificial intelligence models | |
US20240019931A1 (en) | Methods and systems for eye-gaze location detection and accurate collection of eye-gaze data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200123 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200123 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6837597 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |