JP7083037B2 - 学習装置及び学習方法 - Google Patents
学習装置及び学習方法 Download PDFInfo
- Publication number
- JP7083037B2 JP7083037B2 JP2020548221A JP2020548221A JP7083037B2 JP 7083037 B2 JP7083037 B2 JP 7083037B2 JP 2020548221 A JP2020548221 A JP 2020548221A JP 2020548221 A JP2020548221 A JP 2020548221A JP 7083037 B2 JP7083037 B2 JP 7083037B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- mask data
- loss value
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 33
- 238000004364 calculation method Methods 0.000 claims description 65
- 238000013528 artificial neural network Methods 0.000 claims description 40
- 238000011176 pooling Methods 0.000 claims description 18
- 238000012545 processing Methods 0.000 claims description 18
- 230000003902 lesion Effects 0.000 claims description 6
- 230000000873 masking effect Effects 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 description 39
- 238000012549 training Methods 0.000 description 37
- 238000010586 diagram Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 230000011218 segmentation Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 102100033592 Calponin-3 Human genes 0.000 description 2
- 101000945410 Homo sapiens Calponin-3 Proteins 0.000 description 2
- 238000001994 activation Methods 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011049 filling Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Public Health (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Surgery (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Data Mining & Analysis (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Optics & Photonics (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- High Energy & Nuclear Physics (AREA)
- Quality & Reliability (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Description
図1は、本発明に係る学習装置のハードウエア構成の一例を示すブロック図である。
図6は、本発明に係る学習装置10の実施形態を示すブロック図であり、図1に示した学習装置10の主要な機能を示す機能ブロック図である。
図2に示した第1画像セットの学習データは、第1画像に関連付けて、第1画像に含まれる注目領域Aよりも広い四角領域を特定する座標情報を有するが、これに限らず、例えば注目領域よりも広い楕円領域を特定する座標情報でもよい。
図4に示した第1マスクデータは、図2に示した座標情報により特定される四角領域をマスクしたマスクデータであるが、四角領域内に四角領域よりも小さい領域を設定し、四角領域内かつ四角領域よりも小さい領域外の領域は、第1損失値算出部として機能する損失値算出部34での損失値の計算に含めないマスクデータとすることができる。
本実施形態の学習装置10は、CNN32の出力が、入力画像のサイズになるようにデコンボリューション処理や拡大処理を行うが、学習装置の変形例では、拡大処理等を行わず、1回以上のプーリング処理により入力画像のサイズよりも小さくなった特徴マップをそのまま出力する。
図11は、本発明に係る画像学習方法の実施形態を示すフローチャートであり、図6に示した学習装置10の各部の処理手順に関して示している。
本実施形態の学習装置10の各種制御を実行するハードウエア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
12 通信部
14 第1データベース
16 第2データベース
18 操作部
20 CPU
22 RAM
24 ROM
26 表示部
31 入力画像
32A 入力層
32B 中間層
32C 出力層
34 損失値算出部
35 マスクデータ
36 パラメータ制御部
37 座標情報
38 マスクデータ作成部
S10~S28 ステップ
Claims (19)
- 学習用の第1画像と前記第1画像に含まれる注目領域よりも広い領域を特定する座標情報とが関連付けられた第1画像セットと、学習用の第2画像と前記第2画像に含まれる注目領域を特定する第2マスクデータとが関連付けられた第2画像セットとを記憶する記憶部と、
入力画像から特徴マップを出力するニューラルネットワークと、
前記入力画像として、前記第1画像を入力し、前記ニューラルネットワークから出力される第1特徴マップと前記第1画像に関連付けられた前記座標情報を元に作成した第1マスクデータとを比較し、第1損失値を計算する第1損失値算出部と、
前記入力画像として、前記第2画像を入力し、前記ニューラルネットワークから出力される第2特徴マップと前記第2画像に関連付けられた前記第2マスクデータとを比較し、第2損失値を計算する第2損失値算出部と、
前記第1損失値及び前記第2損失値に基づいて前記ニューラルネットワークのパラメータを更新させるパラメータ制御部と、
を備えた学習装置。 - 前記第1画像に関連付けられた前記座標情報を元に前記第1マスクデータを作成するマスクデータ作成部を有し、
前記マスクデータ作成部は、前記第1画像を前記ニューラルネットワークに入力する前に、当該第1画像に対応する前記第1マスクデータを作成する請求項1に記載の学習装置。 - 前記座標情報は、前記注目領域を含む四角領域を特定する情報であり、前記第1マスクデータは、前記四角領域をマスクしたマスクデータである請求項1又は2に記載の学習装置。
- 前記四角領域内に前記四角領域よりも小さい領域を設定し、
前記第1損失値算出部は、前記四角領域内かつ前記四角領域よりも小さい領域外は損失値の計算に含めない請求項3に記載の学習装置。 - 前記四角領域内に前記四角領域よりも小さい領域を設定し、
前記第1損失値算出部は、前記四角領域よりも小さい領域は損失値の計算に含めない請求項3に記載の学習装置。 - 前記座標情報は、前記注目領域を含む楕円領域を特定する情報であり、前記第1マスクデータは、前記楕円領域をマスクしたマスクデータである請求項1又は2に記載の学習装置。
- 前記楕円領域内に前記楕円領域よりも小さい領域を設定し、
前記第1損失値算出部は、前記楕円領域内かつ前記楕円領域よりも小さい領域外は損失値の計算に含めない請求項6に記載の学習装置。 - 前記楕円領域内に前記楕円領域よりも小さい領域を設定し、
前記第1損失値算出部は、前記楕円領域よりも小さい領域内は損失値の計算に含めない請求項6に記載の学習装置。 - 前記第1損失値算出部は、前記第1画像よりもサイズが小さい前記第1特徴マップと前記第1画像よりもサイズが小さい前記第1マスクデータとを比較し、前記第1損失値を計算し、
前記第2損失値算出部は、前記第2画像よりもサイズが小さい前記第2特徴マップと前記第2画像よりもサイズが小さい前記第2マスクデータとを比較し、前記第2損失値を計算する請求項1から8のいずれか1項に記載の学習装置。 - 学習用の第1画像と前記第1画像に含まれる注目領域よりも広い領域を特定する第1マスクデータとが関連付けられた第1画像セットと、学習用の第2画像と前記第2画像に含まれる注目領域を特定する第2マスクデータとが関連付けられた第2画像セットとを記憶する記憶部と、
入力画像から特徴マップを出力するニューラルネットワークと、
前記入力画像として、前記第1画像を入力し、前記ニューラルネットワークから出力される第1特徴マップと前記第1画像に関連付けられた前記第1マスクデータとを比較し、第1損失値を計算する第1損失値算出部と、
前記入力画像として、前記第2画像を入力し、前記ニューラルネットワークから出力される第2特徴マップと前記第2画像に関連付けられた前記第2マスクデータとを比較し、第2損失値を計算する第2損失値算出部と、
前記第1損失値及び前記第2損失値に基づいて前記ニューラルネットワークのパラメータを更新させるパラメータ制御部と、
を備えた学習装置。 - 前記第1マスクデータ及び前記第2マスクデータは、少なくとも1回はプーリング処理されたマスクデータである請求項1から10のいずれか1項に記載の学習装置。
- 前記ニューラルネットワークは、少なくとも1つのプーリング層を有し、
前記第1マスクデータ及び前記第2マスクデータは、前記プーリング層に対応するプーリング処理がされたマスクデータである請求項11に記載の学習装置。 - 前記第1画像セットには、ボケ又はブレを含む前記第1画像が存在する請求項1から11のいずれか1項に記載の学習装置。
- 前記第1画像セットを構成する前記第1画像及び前記第2画像セットを構成する前記第2画像は、それぞれ医用画像である請求項1から12のいずれか1項に記載の学習装置。
- 前記第1画像セットを構成する前記第1画像は、動画から抽出した画像である請求項1から13のいずれか1項に記載の学習装置。
- 前記第1画像セットを構成する前記第1画像及び前記第2画像セットを構成する前記第2画像は、それぞれ内視鏡装置で撮像された画像である請求項1から15のいずれか1項に記載の学習装置。
- 前記第2マスクデータは、前記第2画像に含まれる病変領域をマスクしたマスクデータである請求項1から16のいずれか1項に記載の学習装置。
- 学習用の第1画像と前記第1画像に含まれる注目領域よりも広い領域を特定する座標情報とが関連付けられた第1画像セットと、学習用の第2画像と前記第2画像に含まれる注目領域を特定する第2マスクデータとが関連付けられた第2画像セットとを準備するステップと、
ニューラルネットワークの入力画像として、前記第1画像を入力し、前記ニューラルネットワークから出力される第1特徴マップと前記第1画像に関連付けられた前記座標情報を元に作成した第1マスクデータとを比較し、第1損失値を計算するステップと、
前記ニューラルネットワークの入力画像として、前記第2画像を入力し、前記ニューラルネットワークから出力される第2特徴マップと前記第2画像に関連付けられた前記第2マスクデータとを比較し、第2損失値を計算するステップと、
前記第1損失値及び前記第2損失値に基づいて前記ニューラルネットワークのパラメータを更新させるステップと、
を含む学習方法。 - 学習用の第1画像と前記第1画像に含まれる注目領域よりも広い領域を特定する第1マスクデータとが関連付けられた第1画像セットと、学習用の第2画像と前記第2画像に含まれる注目領域を特定する第2マスクデータとが関連付けられた第2画像セットとを準備するステップと、
ニューラルネットワークの入力画像として、前記第1画像を入力し、前記ニューラルネットワークから出力される第1特徴マップと前記第1画像に関連付けられた前記第1マスクデータとを比較し、第1損失値を計算するステップと、
前記ニューラルネットワークの入力画像として、前記第2画像を入力し、前記ニューラルネットワークから出力される第2特徴マップと前記第2画像に関連付けられた前記第2マスクデータとを比較し、第2損失値を計算するステップと、
前記第1損失値及び前記第2損失値に基づいて前記ニューラルネットワークのパラメータを更新させるステップと、
を含む学習方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018176317 | 2018-09-20 | ||
JP2018176317 | 2018-09-20 | ||
PCT/JP2019/033599 WO2020059446A1 (ja) | 2018-09-20 | 2019-08-28 | 学習装置及び学習方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020059446A1 JPWO2020059446A1 (ja) | 2021-09-09 |
JP7083037B2 true JP7083037B2 (ja) | 2022-06-09 |
Family
ID=69888750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020548221A Active JP7083037B2 (ja) | 2018-09-20 | 2019-08-28 | 学習装置及び学習方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7083037B2 (ja) |
WO (1) | WO2020059446A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111709456A (zh) * | 2020-05-22 | 2020-09-25 | 五邑大学 | 酒瓶表面缺陷检测方法、电子装置及存储介质 |
CN112288097B (zh) * | 2020-10-29 | 2024-04-02 | 平安科技(深圳)有限公司 | 联邦学习数据处理方法、装置、计算机设备及存储介质 |
EP4293615A1 (en) * | 2021-02-10 | 2023-12-20 | FUJIFILM Corporation | Learning device, learning method, trained model, and program |
CN113255700B (zh) * | 2021-06-10 | 2021-11-02 | 展讯通信(上海)有限公司 | 图像的特征图的处理方法及装置、存储介质、终端 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170109881A1 (en) | 2015-10-14 | 2017-04-20 | The Regents Of The University Of California | Automated segmentation of organ chambers using deep learning methods from medical imaging |
WO2017106645A1 (en) | 2015-12-18 | 2017-06-22 | The Regents Of The University Of California | Interpretation and quantification of emergency features on head computed tomography |
-
2019
- 2019-08-28 JP JP2020548221A patent/JP7083037B2/ja active Active
- 2019-08-28 WO PCT/JP2019/033599 patent/WO2020059446A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170109881A1 (en) | 2015-10-14 | 2017-04-20 | The Regents Of The University Of California | Automated segmentation of organ chambers using deep learning methods from medical imaging |
WO2017106645A1 (en) | 2015-12-18 | 2017-06-22 | The Regents Of The University Of California | Interpretation and quantification of emergency features on head computed tomography |
Also Published As
Publication number | Publication date |
---|---|
WO2020059446A1 (ja) | 2020-03-26 |
JPWO2020059446A1 (ja) | 2021-09-09 |
US20210216823A1 (en) | 2021-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7083037B2 (ja) | 学習装置及び学習方法 | |
US11200638B2 (en) | Image style transform methods and apparatuses, devices and storage media | |
JP6843086B2 (ja) | 画像処理システム、画像においてマルチラベル意味エッジ検出を行う方法、および、非一時的コンピューター可読記憶媒体 | |
JP6505124B2 (ja) | 適応性放射線治療における自動輪郭抽出システム及び方法 | |
CN113728335A (zh) | 用于3d图像的分类和可视化的方法和系统 | |
JP7019815B2 (ja) | 学習装置 | |
CN112602099A (zh) | 基于深度学习的配准 | |
US20210201017A1 (en) | Learning apparatus, operation program of learning apparatus, and operation method of learning apparatus | |
US9984311B2 (en) | Method and system for image segmentation using a directed graph | |
CN111316290B (zh) | 用于通过对特征本体的深度学习来进行交互式表示学习迁移的系统和方法 | |
Zhao et al. | Versatile framework for medical image processing and analysis with application to automatic bone age assessment | |
Cuadros Linares et al. | Mandible and skull segmentation in cone beam computed tomography using super-voxels and graph clustering | |
CN110570394B (zh) | 医学图像分割方法、装置、设备及存储介质 | |
Wiestler et al. | Deep learning for medical image analysis: a brief introduction | |
CN111105421A (zh) | 一种脑白质高信号分割方法、装置、设备及存储介质 | |
JP6622150B2 (ja) | 情報処理装置および情報処理方法 | |
CN110335254B (zh) | 眼底图像区域化深度学习方法、装置和设备及存储介质 | |
CN117058554A (zh) | 电力设备目标检测方法、模型训练方法和装置 | |
US12009105B2 (en) | Learning apparatus and learning method for training neural network | |
Khan et al. | A Computer-Aided Diagnostic System to Identify Diabetic Retinopathy, Utilizing a Modified Compact Convolutional Transformer and Low-Resolution Images to Reduce Computation Time. Biomedicines. 2023. No. 11. Art. 1566 | |
Bennai et al. | Towards a generic Multi-agent approach for medical image segmentation | |
JP2004062505A (ja) | 画像処理装置 | |
US11721022B2 (en) | Apparatus and method for automated analyses of ultrasound images | |
Felsberg et al. | Computer Analysis of Images and Patterns: 17th International Conference, CAIP 2017, Ystad, Sweden, August 22-24, 2017, Proceedings, Part II | |
US20230306608A1 (en) | Image processing apparatus, method and program, and learning apparatus, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210507 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220524 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220530 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7083037 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |