JP2022547184A - 画像認識モデルのトレーニング方法、画像認識方法及び装置 - Google Patents
画像認識モデルのトレーニング方法、画像認識方法及び装置 Download PDFInfo
- Publication number
- JP2022547184A JP2022547184A JP2022515569A JP2022515569A JP2022547184A JP 2022547184 A JP2022547184 A JP 2022547184A JP 2022515569 A JP2022515569 A JP 2022515569A JP 2022515569 A JP2022515569 A JP 2022515569A JP 2022547184 A JP2022547184 A JP 2022547184A
- Authority
- JP
- Japan
- Prior art keywords
- image
- loss function
- image recognition
- recognition model
- predicted probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 178
- 238000000034 method Methods 0.000 title claims abstract description 136
- 230000006870 function Effects 0.000 claims description 276
- 230000008569 process Effects 0.000 claims description 38
- 239000000523 sample Substances 0.000 claims description 33
- 238000010606 normalization Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 abstract description 16
- 238000010586 diagram Methods 0.000 description 21
- 206010028980 Neoplasm Diseases 0.000 description 17
- 238000003745 diagnosis Methods 0.000 description 17
- 230000003902 lesion Effects 0.000 description 15
- 201000011510 cancer Diseases 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 210000002784 stomach Anatomy 0.000 description 5
- 238000012356 Product development Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 210000001198 duodenum Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 210000003238 esophagus Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 206010061309 Neoplasm progression Diseases 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003211 malignant effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 230000005751 tumor progression Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 210000000013 bile duct Anatomy 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000002526 effect on cardiovascular system Effects 0.000 description 1
- 230000005713 exacerbation Effects 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 210000001035 gastrointestinal tract Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000000936 intestine Anatomy 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000004614 tumor growth Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/088—Non-supervised learning, e.g. competitive learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Pathology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Algebra (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Mathematical Optimization (AREA)
- Probability & Statistics with Applications (AREA)
- Pure & Applied Mathematics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Image Analysis (AREA)
Abstract
Description
トレーニング対象となる画像セットを取得するステップであって、ここで、前記トレーニング対象となる画像セットは、少なくとも、第1画像セット、第2画像セット及び第3画像セットを含み、前記第1画像セットは、少なくとも1つの第1画像を含み、前記第2画像セットは、少なくとも1つの第2画像及び少なくとも1つの干渉画像を含み、前記第3画像セットは、少なくとも1つの第3画像を含み、前記第1画像は、第1タスクに対応するラベル付き画像であり、前記第2画像は、第1タスクに対応するラベルなし画像であり、前記第3画像は、第2タスクに対応するラベル付き画像であり、前記第1タスク及び前記第2タスクは異なるタスクに属する、ステップと、
前記トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得するステップであって、ここで、前記第1予測確率は、前記第1画像セットに基づいて出力される予測結果であり、前記第2予測確率及び前記第3予測確率は、前記第2画像セットに基づいて出力される予測結果であり、前記第4予測確率は、前記第3画像セットに基づいて出力される予測結果である、ステップと、
前記第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定するステップであって、ここで、前記ターゲット損失関数は、少なくとも、第1損失関数、第2損失関数及び第3損失関数を含み、前記第1損失関数は、前記第1予測確率によって決定されるものであり、前記第2損失関数は、前記第2予測確率及び前記第3予測確率によって決定されるものであり、前記第3損失関数は、前記第4予測確率によって決定されるものである、ステップと、
前記ターゲット損失関数に基づいて、前記トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得するステップと、を含む。
認識対象となる画像を取得する、ステップと、
画像認識モデルを介して、前記認識対象となる画像に対応する画像認識結果を取得する、ステップであって、ここで、前記画像認識モデルは、上記の第1態様によって提供される画像認識モデルである、ステップと、
前記画像認識結果を展示する、ステップと、を含む。
前記取得モジュールは、トレーニング対象となる画像セットを取得するように構成され、ここで、前記トレーニング対象となる画像セットは、少なくとも、第1画像セット、第2画像セット及び第3画像セットを含み、前記第1画像セットは、少なくとも1つの第1画像を含み、前記第2画像セットは、少なくとも1つの第2画像及び少なくとも1つの干渉画像を含み、前記第3画像セットは、少なくとも1つの第3画像を含み、前記第1画像は、第1タスクに対応するラベル付き画像であり、前記第2画像は、第1タスクに対応するラベルなし画像であり、前記第3画像は、第2タスクに対応するラベル付き画像であり、前記第1タスク及び前記第2タスクは異なるタスクに属し、
前記取得モジュールはさらに、前記トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得するように構成され、ここで、前記第1予測確率は、前記第1画像セットに基づいて出力される予測結果であり、前記第2予測確率及び前記第3予測確率は、前記第2画像セットに基づいて出力される予測結果であり、前記第4予測確率は、前記第3画像セットに基づいて出力される予測結果であり、
前記決定モジュールは、前記第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定するように構成され、ここで、前記ターゲット損失関数は、少なくとも、第1損失関数、第2損失関数及び第3損失関数を含み、前記第1損失関数は、前記第1予測確率によって決定されるものであり、前記第2損失関数は、前記第2予測確率及び前記第3予測確率によって決定されるものであり、前記第3損失関数は、前記第4予測確率によって決定されるものであり、
前記トレーニングモジュールは、前記決定モジュールによって決定される前記ターゲット損失関数に従って、前記トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得するように構成される。
前記取得モジュールは、認識対象となる画像を取得するように構成され、
前記取得モジュールはさらに、画像認識モデルを介して、前記認識対象となる画像に対応する画像認識結果を取得するように構成され、ここで、前記画像認識モデルは、上記の第1態様によって提供される画像認識モデルであり、
前記展示モジュールは、前記取得モジュールによって取得される前記画像認識結果を展示するように構成される。
ここで、前記メモリは、プログラムを記憶するように構成され、
前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、上記の第1態様又は第2態様のいずれか一項に記載の方法を実行することを含み、
前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサが通信できるように構成される。
前記回路は、前記プローブを励起して、認識対象となる画像を取得させるように構成され、
前記プロセッサは、画像認識モデルを介して、前記認識対象となる画像に対応する画像認識結果を取得するように構成され、ここで、前記画像認識モデルは、上記の第1態様のいずれか一項に記載の画像認識モデルであり、
前記ディスプレイは、前記画像認識結果を表示するように構成される。
第1画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率を取得する、ステップと、
第2画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第2予測確率及び第3予測確率を取得する、ステップと、
第3画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第4予測確率を取得する、ステップと、を含み得る。
少なくとも1つの第1画像に基づいて、トレーニング対象となる画像認識モデルに含まれる全結合層を介して、第1予測値を取得する、ステップと、
第1予測値に対して正規化処理を実行して、第1予測確率を取得する、ステップと、を含み得る。
少なくとも1つの第2画像に従って第1干渉画像セットを生成するステップであって、ここで、第1干渉画像セットは、少なくとも1つの第1干渉画像を含み、第1干渉画像は第2画像と対応関係を有し、第1干渉画像は干渉画像に属する、ステップと、
少なくとも1つの第2画像に従って第2干渉画像セットを生成するステップであって、ここで、第2干渉画像セットは、少なくとも1つの第2干渉画像を含み、第2干渉画像は第2画像と対応関係を有し、第2干渉画像は干渉画像に属する、ステップと、
少なくとも1つの第2画像及び第1干渉画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第2予測確率を取得する、ステップと、
少なくとも1つの第2画像及び第2干渉画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第3予測確率を取得する、ステップと、を含み得る。
少なくとも1つの第3画像に基づいて、トレーニング対象となる画像認識モデルに含まれる全結合層を介して、第4予測値を取得する、ステップと、
第4予測値に対して正規化処理を実行して、第4予測確率を取得する、ステップと、を含み得る。
第1予測確率及び第1画像セットに対応するラベル付き情報に従って、第1損失関数を計算する、ステップと、
第2予測確率及び第3予測確率に従って、第2損失関数を計算する、ステップと、
第4予測確率及び第3画像セットに対応するラベル付き情報に従って、第3損失関数を計算する、ステップと、
エントロピ損失関数及び正則化損失関数を取得する、ステップと、
第1損失関数、第2損失関数、第3損失関数、エントロピ損失関数及び正則化損失関数に従って、ターゲット損失関数を計算する、ステップと、を含み得る。
上記の紹介に基づいて、本願におけるターゲット損失関数は、以下の通りに表すことができる。
又は、
ここで、LConは、第2損失関数を表し、Cは、タイプの総数を表し、kは、第k個のタイプを表し、psは、第2予測確率を表し、prは、第3予測確率を表す。
第3予測確率prの計算方式は以下の通りである。
前記取得モジュール301は、トレーニング対象となる画像セットを取得するように構成され、ここで、前記トレーニング対象となる画像セットは、少なくとも、第1画像セット、第2画像セット及び第3画像セットを含み、前記第1画像セットは、少なくとも1つの第1画像を含み、前記第2画像セットは、少なくとも1つの第2画像及び少なくとも1つの干渉画像を含み、前記第3画像セットは、少なくとも1つの第3画像を含み、前記第1画像は、第1タスクに対応するラベル付き画像であり、前記第2画像は、第1タスクに対応するラベルなし画像であり、前記第3画像は、第2タスクに対応するラベル付き画像であり、前記第1タスク及び前記第2タスクは異なるタスクに属し、
前記取得モジュール301はさらに、前記トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得するように構成され、ここで、前記第1予測確率は、前記第1画像セットに基づいて出力される予測結果であり、前記第2予測確率及び前記第3予測確率は、前記第2画像セットに基づいて出力される予測結果であり、前記第4予測確率は、前記第3画像セットに基づいて出力される予測結果であり、
前記決定モジュール302は、前記取得モジュール301によって取得された前記第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定するように構成され、ここで、前記ターゲット損失関数は、少なくとも、第1損失関数、第2損失関数及び第3損失関数を含み、前記第1損失関数は、前記第1予測確率によって決定されるものであり、前記第2損失関数は、前記第2予測確率及び前記第3予測確率によって決定されるものであり、前記第3損失関数は、前記第4予測確率によって決定されるものであり、
前記トレーニングモジュール303は、前記決定モジュール302によって決定される前記ターゲット損失関数に従って、前記トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得するように構成される、
本願実施例は、画像認識モデルのトレーニング装置を提供し、まず、トレーニング対象となる画像セットを取得し、その後、トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得し、さらに、第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定し、最後に、ターゲット損失関数に基づいて、トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得する。上記の方式を介して、ラベル付けされ且つ異なるタスクの医用画像及びラベルなし医用画像に対して、モデルを共にトレーニングし、ラベル付き画像及びラベルなし画像を効果的に利用して、画像に対するラベル付けの要求を低下するだけでなく、トレーニングのデータ量を増やし、それにより、ラベル付きリソースを節約し、同時にモデルの予測効果を向上させることができる。
前記第1画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第1予測確率を取得し、
前記第2画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第2予測確率及び前記第3予測確率を取得し、
前記第3画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第4予測確率を取得するように構成される。
前記取得モジュール301は、具体的に、前記少なくとも1つの第1画像に基づいて、前記トレーニング対象となる画像認識モデルに含まれる全結合層を介して、第1予測値を取得し、
前記第1予測値に対して正規化処理を実行して、前記第1予測確率を取得するように構成される。
前記少なくとも1つの第2画像に従って第1干渉画像セットを生成し、ここで、前記第1干渉画像セットは、少なくとも1つの第1干渉画像を含み、前記第1干渉画像は前記第2画像と対応関係を有し、前記第1干渉画像は前記干渉画像に属し、
前記少なくとも1つの第2画像に従って第2干渉画像セットを生成し、ここで、前記第2干渉画像セットは、少なくとも1つの第2干渉画像を含み、前記第2干渉画像は前記第2画像と対応関係を有し、前記第2干渉画像は前記干渉画像に属し、
前記少なくとも1つの第2画像及び前記第1干渉画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第2予測確率を取得し、
前記少なくとも1つの第2画像及び前記第2干渉画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第3予測確率を取得するように構成される。
前記少なくとも1つの第3画像に基づいて、前記トレーニング対象となる画像認識モデルに含まれる全結合層を介して、前記第4予測値を取得し、
前記第4予測値に対して正規化処理を実行して、前記第4予測確率を取得するように構成される。
前記第1予測確率及び前記第1画像セットに対応するラベル付き情報に従って、前記第1損失関数を計算し、
前記第2予測確率及び前記第3予測確率に従って、前記第2損失関数を計算し、
前記第4予測確率及び前記第3画像セットに対応するラベル付き情報に従って、前記第3損失関数を計算し、
エントロピ損失関数及び正則化損失関数を取得し、
前記第1損失関数、前記第2損失関数、前記第3損失関数、前記エントロピ損失関数及び前記正則化損失関数に従って、前記ターゲット損失関数を計算するように構成される。
又は、
ここで、前記LConは、前記第2損失関数を表し、前記Cは、タイプの総数を表し、前記kは、第k個のタイプを表し、前記psは、前記第2予測確率を表し、前記prは、前記第3予測確率を表す。
以下の方式を採用して、前記第3損失関数を計算するように構成され、
前記取得モジュール401は、認識対象となる画像を取得するように構成され、
前記取得モジュール401は、さらに、画像認識モデルを介して、前記認識対象となる画像に対応する画像認識結果を取得するように構成され、ここで、前記画像認識モデルは、上記の図3に対応する各実施例による画像認識モデルであり、
前記展示モジュール402は、前記取得モジュール401によって取得される前記画像認識結果を展示するように構成される。
トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得し、ここで、第1予測確率は、第1画像セットに基づいて出力される予測結果であり、第2予測確率及び第3予測確率は、第2画像セットに基づいて出力される予測結果であり、第4予測確率は、第3画像セットに基づいて出力される予測結果であり、
第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定し、ここで、ターゲット損失関数は、少なくとも、第1損失関数、第2損失関数及び第3損失関数を含み、第1損失関数は、第1予測確率によって決定されるものであり、第2損失関数は、第2予測確率及び第3予測確率によって決定されるものであり、第3損失関数は、第4予測確率によって決定されるものであり、
ターゲット損失関数に基づいて、トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得する。
画像認識モデルを介して認識対象となる画像に対応する画像認識結果を取得し、ここで、画像認識モデルは上記の図3に対応する各実施例における画像認識モデルであり、
画像認識結果を展示する。
図11は、本願実施例による端末機器に関連する携帯電話の構造の一部のブロック図を示す。図11を参照すると、携帯電話は、無線周波数(RF:Radio Frequency)回路610、メモリ620、入力ユニット630、ディスプレイユニット640、センサ650、オーディオ回路660、ワイヤレス・フィディリティ(WiFi:wireless fidelity)モジュール670、プロセッサ680、及び電源690などの部品を備え、ここで、入力ユニット630は、タッチパネル631及び他の入力機器632を備えることができ、ディスプレイユニット640は、ディスプレイパネル641を備えることができ、オーディオ回路660には、スピーカ661及びマイクロフォン662が接続されている。当業者なら自明であるが、図11で示された携帯電話の構造は、携帯電話への限定を構成せず、図に示されるよりも多いまたは少ない部品を備えるか、またはいくつかの部品を組み合わせるか、または異なる部品で配置することができる。
トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得し、ここで、第1予測確率は、第1画像セットに基づいて出力される予測結果であり、第2予測確率及び第3予測確率は、第2画像セットに基づいて出力される予測結果であり、第4予測確率は、第3画像セットに基づいて出力される予測結果であり、
第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定し、ここで、ターゲット損失関数は、少なくとも、第1損失関数、第2損失関数及び第3損失関数を含み、第1損失関数は、第1予測確率によって決定されるものであり、第2損失関数は、第2予測確率及び第3予測確率によって決定されるものであり、第3損失関数は、第4予測確率によって決定されるものであり、
ターゲット損失関数に基づいて、トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得する。
画像認識モデルを介して認識対象となる画像に対応する画像認識結果を取得し、ここで、画像認識モデルは上記の図3に対応する各実施例における画像認識モデルであり、
画像認識結果を展示する。
トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得し、ここで、第1予測確率は、第1画像セットに基づいて出力される予測結果であり、第2予測確率及び第3予測確率は、第2画像セットに基づいて出力される予測結果であり、第4予測確率は、第3画像セットに基づいて出力される予測結果であり、
第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定し、ここで、ターゲット損失関数は、少なくとも、第1損失関数、第2損失関数及び第3損失関数を含み、第1損失関数は、第1予測確率によって決定されるものであり、第2損失関数は、第2予測確率及び第3予測確率によって決定されるものであり、第3損失関数は、第4予測確率によって決定されるものであり、
ターゲット損失関数に基づいて、トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得する。
第1画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率を取得し、
第2画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第2予測確率及び第3予測確率を取得し、
第3画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第4予測確率を取得する、ステップを実行するように構成される。
少なくとも1つの第1画像に基づいて、トレーニング対象となる画像認識モデルに含まれる全結合層を介して、第1予測値を取得し、
第1予測値に対して正規化処理を実行して、第1予測確率を取得する、ステップを実行するように構成される。
少なくとも1つの第2画像に従って第1干渉画像セットを生成し、ここで、第1干渉画像セットは、少なくとも1つの第1干渉画像を含み、第1干渉画像は第2画像と対応関係を有し、第1干渉画像は干渉画像に属し、
少なくとも1つの第2画像に従って第2干渉画像セットを生成し、ここで、第2干渉画像セットは、少なくとも1つの第2干渉画像を含み、第2干渉画像は第2画像と対応関係を有し、第2干渉画像は干渉画像に属し、
少なくとも1つの第2画像及び第1干渉画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第2予測確率を取得し、
少なくとも1つの第2画像及び第2干渉画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第3予測確率を取得する、ステップを実行するように構成される。
少なくとも1つの第3画像に基づいて、トレーニング対象となる画像認識モデルに含まれる全結合層を介して、第4予測値を取得し、
第4予測値に対して正規化処理を実行して、第4予測確率を取得する、ステップを実行するように構成される。
第1予測確率及び第1画像セットに対応するラベル付き情報に従って、第1損失関数を計算し、
第2予測確率及び第3予測確率に従って、第2損失関数を計算し、
第4予測確率及び第3画像セットに対応するラベル付き情報に従って、第3損失関数を計算し、
エントロピ損失関数及び正則化損失関数を取得し、
第1損失関数、第2損失関数、第3損失関数、エントロピ損失関数及び正則化損失関数に従って、ターゲット損失関数を計算する、ステップを実行するように構成される。
画像認識モデルを介して認識対象となる画像に対応する画像認識結果を取得し、ここで、画像認識モデルは上記の図3に対応する各実施例における画像認識モデルであり、
画像認識結果を展示する。
40 画像認識装置
70 内視鏡医療診断システム
80 端末機器
301 取得モジュール
302 決定モジュール
303 トレーニングモジュール
401 取得モジュール
402 展示モジュール
500 サーバ
522 中央プロセッサ
526 電源
530 記憶媒体
532 メモリ
541 動作システム
542 アプリケーションプログラム
544 データ
550 有線又は無線ネットワークインターフェース
558 入力出力インターフェース
610 RF回路
620 メモリ
630 入力ユニット
631 タッチパネル
632 他の入力機器
640 ディスプレイユニット
641 ディスプレイパネル
650 センサ
660 オーディオ回路
661 スピーカ
662 マイクロフォン
670 WiFiモジュール
680 プロセッサ
690 電源
702 プロセッサ
703 ディスプレイ
704 回路
705 インターフェース
Claims (15)
- 電子機器が実行する、画像認識モデルのトレーニング方法であって、
トレーニング対象となる画像セットを取得するステップであって、前記トレーニング対象となる画像セットは、少なくとも、第1画像セット、第2画像セット及び第3画像セットを含み、前記第1画像セットは、少なくとも1つの第1画像を含み、前記第2画像セットは、少なくとも1つの第2画像及び少なくとも1つの干渉画像を含み、前記第3画像セットは、少なくとも1つの第3画像を含み、前記第1画像は、第1タスクに対応するラベル付き画像であり、前記第2画像は、前記第1タスクに対応するラベルなし画像であり、前記第3画像は、第2タスクに対応するラベル付き画像であり、前記第1タスク及び前記第2タスクは異なるタスクに属する、ステップと、
前記トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得するステップであって、前記第1予測確率は、前記第1画像セットに基づいて出力される予測結果であり、前記第2予測確率及び前記第3予測確率は、前記第2画像セットに基づいて出力される予測結果であり、前記第4予測確率は、前記第3画像セットに基づいて出力される予測結果である、ステップと、
前記第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定するステップであって、前記ターゲット損失関数は、少なくとも、第1損失関数、第2損失関数及び第3損失関数を含み、前記第1損失関数は、前記第1予測確率によって決定されるものであり、前記第2損失関数は、前記第2予測確率及び前記第3予測確率によって決定されるものであり、前記第3損失関数は、前記第4予測確率によって決定されるものである、ステップと、
前記ターゲット損失関数に基づいて、前記トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得するステップと、
を含む、画像認識モデルのトレーニング方法。 - 前記トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得する、前記ステップは、
前記第1画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第1予測確率を取得する、ステップと、
前記第2画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第2予測確率及び前記第3予測確率を取得する、ステップと、
前記第3画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第4予測確率を取得する、ステップと、
を含む、請求項1に記載の画像認識モデルのトレーニング方法。 - 前記第1画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第1予測確率を取得する、前記ステップは、
前記少なくとも1つの第1画像に基づいて、前記トレーニング対象となる画像認識モデルに含まれる全結合層を介して、第1予測値を取得する、ステップと、
前記第1予測値に対して正規化処理を実行して、前記第1予測確率を取得する、ステップと、
を含む、請求項2に記載の画像認識モデルのトレーニング方法。 - 前記少なくとも1つの第2画像に従って第1干渉画像セットを生成する方式であって、前記第1干渉画像セットは、少なくとも1つの第1干渉画像を含み、前記第1干渉画像は前記第2画像と対応関係を有し、前記第1干渉画像は前記干渉画像に属する方式と、
前記少なくとも1つの第2画像に従って第2干渉画像セットを生成する方式であって、前記第2干渉画像セットは、少なくとも1つの第2干渉画像を含み、前記第2干渉画像は前記第2画像と対応関係を有し、前記第2干渉画像は前記干渉画像に属する方式と、を介して前記第2画像セットを生成し、
前記第2画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第2予測確率及び前記第3予測確率を取得する、前記ステップは、
前記少なくとも1つの第2画像及び前記第1干渉画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第2予測確率を取得する、ステップと、
前記少なくとも1つの第2画像及び前記第2干渉画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第3予測確率を取得する、ステップと、
を含む、請求項2に記載の画像認識モデルのトレーニング方法。 - 前記第3画像セットに基づいて、前記トレーニング対象となる画像認識モデルを介して、前記第4予測確率を取得する、前記ステップは、
前記少なくとも1つの第3画像に基づいて、前記トレーニング対象となる画像認識モデルに含まれる全結合層を介して、第4予測値を取得する、ステップと、
前記第4予測値に対して正規化処理を実行して、前記第4予測確率を取得する、ステップと、
を含む、請求項2に記載の画像認識モデルのトレーニング方法。 - 前記第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定する、前記ステップは、
前記第1予測確率及び前記第1画像セットに対応するラベル付き情報に従って、前記第1損失関数を計算する、ステップと、
前記第2予測確率及び前記第3予測確率に従って、前記第2損失関数を計算する、ステップと、
前記第4予測確率及び前記第3画像セットに対応するラベル付き情報に従って、前記第3損失関数を計算する、ステップと、
エントロピ損失関数及び正則化損失関数を取得する、ステップと、
前記第1損失関数、前記第2損失関数、前記第3損失関数、前記エントロピ損失関数及び前記正則化損失関数に従って、前記ターゲット損失関数を計算する、ステップと、
を含む、請求項1に記載の画像認識モデルのトレーニング方法。 - 電子機器が実行する、画像認識方法であって、
認識対象となる画像を取得する、ステップと、
画像認識モデルを介して、前記認識対象となる画像に対応する画像認識結果を取得する、ステップであって、前記画像認識モデルは、上記の請求項1ないし9のいずれか一項に記載の画像認識モデルである、ステップと、
前記画像認識結果を展示する、ステップと、
を含む、画像認識方法。 - 画像認識モデルのトレーニング装置であって、取得モジュールと、決定モジュールと、トレーニングモジュールと、を備え、
前記取得モジュールは、トレーニング対象となる画像セットを取得するように構成され、前記トレーニング対象となる画像セットは、少なくとも、第1画像セット、第2画像セット及び第3画像セットを含み、前記第1画像セットは、少なくとも1つの第1画像を含み、前記第2画像セットは、少なくとも1つの第2画像及び少なくとも1つの干渉画像を含み、前記第3画像セットは、少なくとも1つの第3画像を含み、前記第1画像は、第1タスクに対応するラベル付き画像であり、前記第2画像は、前記第1タスクに対応するラベルなし画像であり、前記第3画像は、第2タスクに対応するラベル付き画像であり、前記第1タスク及び前記第2タスクは異なるタスクに属し、
前記取得モジュールはさらに、前記トレーニング対象となる画像セットに基づいて、トレーニング対象となる画像認識モデルを介して、第1予測確率、第2予測確率、第3予測確率及び第4予測確率を取得するように構成され、前記第1予測確率は、前記第1画像セットに基づいて出力される予測結果であり、前記第2予測確率及び前記第3予測確率は、前記第2画像セットに基づいて出力される予測結果であり、前記第4予測確率は、前記第3画像セットに基づいて出力される予測結果であり、
前記決定モジュールは、前記第1予測確率、第2予測確率、第3予測確率及び第4予測確率に従って、ターゲット損失関数を決定するように構成され、前記ターゲット損失関数は、少なくとも、第1損失関数、第2損失関数及び第3損失関数を含み、前記第1損失関数は、前記第1予測確率によって決定されるものであり、前記第2損失関数は、前記第2予測確率及び前記第3予測確率によって決定されるものであり、前記第3損失関数は、前記第4予測確率によって決定されるものであり、
前記トレーニングモジュールは、前記決定モジュールによって決定される前記ターゲット損失関数に従って、前記トレーニング対象となる画像認識モデルをトレーニングして、画像認識モデルを取得するように構成される、画像認識モデルのトレーニング装置。 - 画像認識装置であって、取得モジュールと、展示モジュールと、を備え、
前記取得モジュールは、認識対象となる画像を取得するように構成され、
前記取得モジュールはさらに、画像認識モデルを介して、前記認識対象となる画像に対応する画像認識結果を取得するように構成され、前記画像認識モデルは、上記の請求項1ないし9のいずれか一項に記載の画像認識モデルであり、
前記展示モジュールは、前記取得モジュールによって取得される前記画像認識結果を展示するように構成される、画像認識装置。 - メモリ、トランシーバ、プロセッサ及びバスシステムを備える、電子機器であって、
前記メモリは、プログラムを記憶するように構成され、
前記プロセッサは、前記メモリ内のプログラムを実行するように構成され、上記の請求項1ないし9のいずれか一項に記載の方法を実行し、又は、上記の請求項10に記載の方法を実行することを含み、
前記バスシステムは、前記メモリと前記プロセッサを接続して、前記メモリと前記プロセッサが通信できるように構成される、
電子機器。 - プローブ、回路、プロセッサ及びディスプレイを備える、内視鏡医療診断システムであって、
前記回路は、前記プローブを励起して、認識対象となる画像を取得させるように構成され、
前記プロセッサは、画像認識モデルを介して、前記認識対象となる画像に対応する画像認識結果を取得するように構成され、前記画像認識モデルは、上記の請求項1ないし9のいずれか一項に記載の画像認識モデルであり、
前記ディスプレイは、前記画像認識結果を表示するように構成される、
内視鏡医療診断システム。 - 命令を含み、コンピュータで実行されるとき、コンピュータに請求項1ないし9のいずれか一項に記載の方法、又は、請求項10に記載の方法を実行させる、コンピュータプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910989262.8 | 2019-10-17 | ||
CN201910989262.8A CN110738263B (zh) | 2019-10-17 | 2019-10-17 | 一种图像识别模型训练的方法、图像识别的方法及装置 |
PCT/CN2020/116998 WO2021073380A1 (zh) | 2019-10-17 | 2020-09-23 | 一种图像识别模型训练的方法、图像识别的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022547184A true JP2022547184A (ja) | 2022-11-10 |
JP7355924B2 JP7355924B2 (ja) | 2023-10-03 |
Family
ID=69270074
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022515569A Active JP7355924B2 (ja) | 2019-10-17 | 2020-09-23 | 画像認識モデルのトレーニング方法、画像認識方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US11960571B2 (ja) |
EP (1) | EP3982292B1 (ja) |
JP (1) | JP7355924B2 (ja) |
CN (1) | CN110738263B (ja) |
WO (1) | WO2021073380A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110738263B (zh) * | 2019-10-17 | 2020-12-29 | 腾讯科技(深圳)有限公司 | 一种图像识别模型训练的方法、图像识别的方法及装置 |
WO2021178108A1 (en) * | 2020-03-04 | 2021-09-10 | Google Llc | Consistency prediction on streaming sequence models |
CN111401445B (zh) * | 2020-03-16 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 一种图像识别模型的训练方法、图像识别的方法及装置 |
CN113469205B (zh) * | 2020-03-31 | 2023-01-17 | 阿里巴巴集团控股有限公司 | 数据处理方法及系统、网络模型及其训练方法、电子设备 |
CN111523597B (zh) * | 2020-04-23 | 2023-08-25 | 北京百度网讯科技有限公司 | 目标识别模型训练方法、装置、设备以及存储介质 |
CN111582342B (zh) * | 2020-04-29 | 2022-08-26 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置、设备以及可读存储介质 |
CN111598169B (zh) * | 2020-05-18 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、游戏测试方法、模拟操作方法及装置 |
CN111738365B (zh) * | 2020-08-06 | 2020-12-18 | 腾讯科技(深圳)有限公司 | 图像分类模型训练方法、装置、计算机设备及存储介质 |
CN111898696B (zh) * | 2020-08-10 | 2023-10-27 | 腾讯云计算(长沙)有限责任公司 | 伪标签及标签预测模型的生成方法、装置、介质及设备 |
CN112199479B (zh) * | 2020-09-15 | 2024-08-02 | 北京捷通华声科技股份有限公司 | 优化语言语义理解模型方法、装置、设备及存储介质 |
CN112001366B (zh) * | 2020-09-25 | 2024-07-12 | 珠海微渐安防科技有限公司 | 模型训练方法、人脸识别方法、装置、设备和介质 |
CN112562069B (zh) * | 2020-12-24 | 2023-10-27 | 北京百度网讯科技有限公司 | 三维模型的构造方法、装置、设备和存储介质 |
CN112579808B (zh) * | 2020-12-29 | 2023-07-18 | 上海赛图默飞医疗科技有限公司 | 数据标注处理方法及装置、系统 |
CN113255427B (zh) * | 2021-02-09 | 2022-05-27 | 阿里巴巴集团控股有限公司 | 数据处理方法、装置、电子设备和存储介质 |
CN113011490B (zh) * | 2021-03-16 | 2024-03-08 | 北京百度网讯科技有限公司 | 模型训练方法、装置及电子设备 |
CN113255445A (zh) * | 2021-04-20 | 2021-08-13 | 杭州飞步科技有限公司 | 多任务模型训练及图像处理方法、装置、设备及存储介质 |
CN113762585B (zh) * | 2021-05-17 | 2023-08-01 | 腾讯科技(深圳)有限公司 | 数据的处理方法、账号类型的识别方法及装置 |
CN113642671B (zh) * | 2021-08-27 | 2024-03-05 | 京东科技信息技术有限公司 | 基于任务分布变化的半监督元学习方法及装置 |
CN114332558A (zh) * | 2021-12-15 | 2022-04-12 | 厦门市美亚柏科信息股份有限公司 | 多任务神经网络的训练方法、装置、计算设备及存储介质 |
CN114359904B (zh) * | 2022-01-06 | 2023-04-07 | 北京百度网讯科技有限公司 | 图像识别方法、装置、电子设备以及存储介质 |
CN114548366A (zh) * | 2022-01-12 | 2022-05-27 | 湖南大学 | 基于难样本挖掘的深度网络模型构建方法及系统 |
CN115471717B (zh) * | 2022-09-20 | 2023-06-20 | 北京百度网讯科技有限公司 | 模型的半监督训练、分类方法装置、设备、介质及产品 |
CN116051486B (zh) * | 2022-12-29 | 2024-07-02 | 抖音视界有限公司 | 内窥镜图像识别模型的训练方法、图像识别方法及装置 |
CN116403074B (zh) * | 2023-04-03 | 2024-05-14 | 上海锡鼎智能科技有限公司 | 基于主动标注的半自动图像标注方法及标注装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015066297A1 (en) * | 2013-10-30 | 2015-05-07 | Worcester Polytechnic Institute | System and method for assessing wound |
CN107122375B (zh) * | 2016-12-12 | 2020-11-06 | 南京理工大学 | 基于图像特征的图像主体的识别方法 |
US10592779B2 (en) * | 2017-12-21 | 2020-03-17 | International Business Machines Corporation | Generative adversarial network medical image generation for training of a classifier |
CN108986067B (zh) * | 2018-05-25 | 2020-08-14 | 上海交通大学 | 基于跨模态的肺结节检测方法 |
CN108830300A (zh) * | 2018-05-28 | 2018-11-16 | 深圳市唯特视科技有限公司 | 一种基于混合监督检测的目标传输方法 |
US11487997B2 (en) * | 2018-10-04 | 2022-11-01 | Visa International Service Association | Method, system, and computer program product for local approximation of a predictive model |
CN110163234B (zh) * | 2018-10-10 | 2023-04-18 | 腾讯科技(深圳)有限公司 | 一种模型训练方法、装置和存储介质 |
CN109447065B (zh) * | 2018-10-16 | 2020-10-16 | 杭州依图医疗技术有限公司 | 一种乳腺影像识别的方法及装置 |
CN110276741B (zh) * | 2019-03-08 | 2022-12-16 | 腾讯科技(深圳)有限公司 | 结节检测及其模型训练的方法和装置以及电子设备 |
CN109949309B (zh) * | 2019-03-18 | 2022-02-11 | 安徽紫薇帝星数字科技有限公司 | 一种基于深度学习的肝脏ct图像分割方法 |
CN110009623B (zh) | 2019-04-10 | 2021-05-11 | 腾讯医疗健康(深圳)有限公司 | 一种图像识别模型训练及图像识别方法、装置及系统 |
CN110738263B (zh) * | 2019-10-17 | 2020-12-29 | 腾讯科技(深圳)有限公司 | 一种图像识别模型训练的方法、图像识别的方法及装置 |
CN110909780B (zh) | 2019-11-14 | 2020-11-03 | 腾讯科技(深圳)有限公司 | 一种图像识别模型训练和图像识别方法、装置及系统 |
-
2019
- 2019-10-17 CN CN201910989262.8A patent/CN110738263B/zh active Active
-
2020
- 2020-09-23 WO PCT/CN2020/116998 patent/WO2021073380A1/zh unknown
- 2020-09-23 EP EP20877797.9A patent/EP3982292B1/en active Active
- 2020-09-23 JP JP2022515569A patent/JP7355924B2/ja active Active
-
2021
- 2021-10-29 US US17/515,312 patent/US11960571B2/en active Active
-
2024
- 2024-02-12 US US18/438,595 patent/US20240184854A1/en active Pending
Non-Patent Citations (2)
Title |
---|
SAMULI LAINE, TIMO AILA: ""TEMPORAL ENSEMBLING FOR SEMI-SUPERVISED LEARNING"", ARXIV, JPN6023011850, 15 March 2017 (2017-03-15), US, ISSN: 0005020786 * |
SHIN, SEUNG YEON、LEE, SOOCHAHN、YUN, IL DONG、KIM, SUN MI、LEE, KYOUNG MU: ""Joint Weakly and Semi-Supervised Deep Learning for Localization and Classification of Masses in Br", IEEE TRANSACTIONS ON MEDICAL IMAGING, vol. 38, no. 3, JPN6023011851, March 2019 (2019-03-01), pages 762 - 774, XP011712621, ISSN: 0005020785, DOI: 10.1109/TMI.2018.2872031 * |
Also Published As
Publication number | Publication date |
---|---|
WO2021073380A1 (zh) | 2021-04-22 |
EP3982292A1 (en) | 2022-04-13 |
CN110738263A (zh) | 2020-01-31 |
US20220051059A1 (en) | 2022-02-17 |
EP3982292B1 (en) | 2023-08-09 |
US20240184854A1 (en) | 2024-06-06 |
US11960571B2 (en) | 2024-04-16 |
EP3982292A4 (en) | 2022-08-17 |
CN110738263B (zh) | 2020-12-29 |
JP7355924B2 (ja) | 2023-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7355924B2 (ja) | 画像認識モデルのトレーニング方法、画像認識方法及び装置 | |
US11850021B2 (en) | Dynamic self-learning medical image method and system | |
US11813113B2 (en) | Automated extraction of echocardiograph measurements from medical images | |
CN113012803B (zh) | 计算机设备、系统、可读存储介质及医学数据分析方法 | |
TW202347180A (zh) | 影像處理模型的訓練方法 | |
Kiran et al. | Digital pathology: transforming diagnosis in the digital age | |
CN110517771B (zh) | 一种医学图像处理方法、医学图像识别方法及装置 | |
Khanna et al. | Current Challenges and Opportunities in Implementing AI/ML in Cancer Imaging: Integration, Development, and Adoption Perspectives | |
Alshraideh et al. | Enhancing heart attack prediction with machine learning: A study at jordan university hospital | |
Wang | The Power of AI-Assisted Diagnosis | |
Shrivastava et al. | A Novel Hybrid Model for Predictive Analysis of Myocardial Infarction using Advanced Machine Learning Techniques | |
Abid et al. | Artificial Intelligence in Urology: current status and future perspectives | |
Kadry et al. | Res-Unet based blood vessel segmentation and cardio vascular disease prediction using chronological chef-based optimization algorithm based deep residual network from retinal fundus images | |
Grüning et al. | Me, You and AI–Managing Human AI Collaboration in Computer Aided Intelligent Diagnosis | |
Singh et al. | Deep learning based Wireless Capsule Endoscopy for Small Intestinal Lesions Detection and personalized treatment pathways | |
WO2023060735A1 (zh) | 图像生成模型训练及图像生成方法、装置、设备和介质 | |
Zhu et al. | Exploring Cutting-Edge Developments in Deep Learning for Biomedical Signal Processing. | |
Stephens | New AI Method Captures Uncertainty in Medical Images | |
Shankari et al. | Digital mammogram based robust feature extraction and selection for effective breast cancer classification in earlier stage | |
Kumar et al. | Graph Convolutional Networks For Disease Mapping and Classification in Healthcare | |
Pulipeti et al. | Explainable AI: Methods, Frameworks, and Tools for Healthcare 5.0 | |
Palanisamy et al. | Cardiovascular Disease Detection through Innovative Imbalanced Learning and AUC Optimization | |
Pandian et al. | Revolutionising Tumour Diagnosis: How Clinical Application of Artificial | |
Khanwalkar et al. | AI-driven Detection of PCOS for Personalized Health Improvement | |
Priyadarshi et al. | Exploring the Frontiers of Unsupervised Learning Techniques for Diagnosis of Cardiovascular Disorder: A Systematic Review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220308 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7355924 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |