JP7342120B2 - 学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル - Google Patents
学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル Download PDFInfo
- Publication number
- JP7342120B2 JP7342120B2 JP2021528289A JP2021528289A JP7342120B2 JP 7342120 B2 JP7342120 B2 JP 7342120B2 JP 2021528289 A JP2021528289 A JP 2021528289A JP 2021528289 A JP2021528289 A JP 2021528289A JP 7342120 B2 JP7342120 B2 JP 7342120B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- neural network
- image
- target image
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 40
- 239000013598 vector Substances 0.000 claims description 107
- 238000013528 artificial neural network Methods 0.000 claims description 104
- 210000000115 thoracic cavity Anatomy 0.000 claims description 23
- 238000002372 labelling Methods 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 8
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000003860 storage Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 13
- 230000011218 segmentation Effects 0.000 description 10
- 210000003205 muscle Anatomy 0.000 description 8
- 239000000284 extract Substances 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 210000002027 skeletal muscle Anatomy 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 244000309466 calf Species 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/037—Emission tomography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01T—MEASUREMENT OF NUCLEAR OR X-RADIATION
- G01T1/00—Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
- G01T1/29—Measurement performed on radiation beams, e.g. position or section of the beam; Measurement of spatial distribution of radiation
- G01T1/2914—Measurement of spatial distribution of radiation
- G01T1/2985—In depth localisation, e.g. using positron emitters; Tomographic imaging (longitudinal and transverse section imaging; apparatus for radiation diagnosis sequentially in different planes, steroscopic radiation diagnosis)
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/033—Recognition of patterns in medical or anatomical images of skeletal patterns
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Radiology & Medical Imaging (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Veterinary Medicine (AREA)
- Animal Behavior & Ethology (AREA)
- Computational Linguistics (AREA)
- Surgery (AREA)
- Mathematical Physics (AREA)
- Heart & Thoracic Surgery (AREA)
- High Energy & Nuclear Physics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Optics & Photonics (AREA)
- Physiology (AREA)
- Image Analysis (AREA)
Description
非特許文献2:Semantic Instance Segmentation via Deep Metric Learning、Alireza Fathi, Zbigniew Wojna, Vivek Rathod, Peng Wang, Hyun Oh Song, Sergio Guadarrama, Kevin P. Murphy、Computer Vision and Pattern Recognition、Submitted on 30 Mar 2017
非特許文献3:Recurrent Pixel Embedding for Instance Grouping、Shu Kong, Charless Fowlkes、Computer Vision and Pattern Recognition (cs.CV); Machine Learning (cs.LG); Multimedia (cs.MM)、Submitted on 22 Dec 2017
対象画像の特徴ベクトルの入力により、対象画像に含まれる同一カテゴリに属する複数の物体のクラス分類結果を出力する第2ニューラルネットワークに、学習用画像に含まれる同一カテゴリに属する物体についての特徴ベクトルの代表値を入力することにより、同一カテゴリに属する複数の物体についての学習用クラス分類結果を出力し、学習用クラス分類結果および正解データに基づいて、クラス分類結果についての第2損失を導出し、第2損失に基づいて第2ニューラルネットワークを学習する第2学習部とを備える。
ラベリングされた対象画像を表示部に表示する表示制御部とをさらに備えるものであってもよい。
対象画像の特徴ベクトルの入力により、対象画像に含まれる同一カテゴリに属する複数の物体のクラス分類結果を出力する第2ニューラルネットワークに、学習用画像に含まれる同一カテゴリに属する物体についての特徴ベクトルの代表値を入力することにより、同一カテゴリに属する複数の物体についての学習用クラス分類結果を出力し、学習用クラス分類結果および正解データに基づいて、クラス分類結果についての第2損失を導出し、第2損失に基づいて第2ニューラルネットワークを学習する。
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
複数の物体が含まれる対象画像の各画素における特徴ベクトルを抽出し、特徴ベクトルの空間である特徴空間において、対象画像に含まれる個々の物体に属する画素の特徴ベクトルがクラスタリングされて、複数の特徴ベクトル群として分布する特徴マップを出力する第1ニューラルネットワークに、学習用画像および学習用画像に含まれる同一カテゴリに属する複数の物体に関するクラス分類結果についての正解データを入力することにより、学習用画像についての学習用特徴マップを出力し、学習用特徴マップにおける複数の特徴ベクトル群の分布および正解データに基づいて、学習用画像における画素間の第1損失を、学習用画像における同一の物体に属する画素間の特徴ベクトルの距離が小さくなり、異なる物体に属する画素間の特徴ベクトルの距離が大きくなる関数として導出し、第1損失に基づいて第1ニューラルネットワークを学習し、
対象画像の特徴ベクトルの入力により、対象画像に含まれる同一カテゴリに属する複数の物体のクラス分類結果を出力する第2ニューラルネットワークに、学習用画像に含まれる同一カテゴリに属する物体についての特徴ベクトルの代表値を入力することにより、同一カテゴリに属する複数の物体についての学習用クラス分類結果を出力し、学習用クラス分類結果および正解データに基づいて、クラス分類結果についての第2損失を導出し、第2損失に基づいて第2ニューラルネットワークを学習する処理を実行する。
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
本開示による学習装置により学習された、第1ニューラルネットワークおよび第2ニューラルネットワークを学習済みモデルを用いて、対象画像の入力により、対象画像に含まれる同一カテゴリに属する複数の物体のクラス分類結果を出力する処理を実行する。
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 ディスプレイ
15 入力部
21 画像取得部
22 第1学習部
23 第2学習部
24 クラス分類部
25 ラベリング部
26 表示制御部
31 学習用画像
32 正解データ
33 学習用特徴マップ
40 学習済みモデル
51 対象画像
52 対象画像
C1~C5 クラスタ
N1 第1ニューラルネットワーク
N2 第2ニューラルネットワーク
Claims (14)
- 複数の物体が含まれる対象画像の各画素における特徴ベクトルを抽出し、該特徴ベクトルの空間である特徴空間において、前記対象画像に含まれる個々の物体に属する画素の特徴ベクトルがクラスタリングされて、複数の特徴ベクトル群として分布する特徴マップを出力する第1ニューラルネットワークに、学習用画像および該学習用画像に含まれる同一カテゴリに属する複数の物体に関するクラス分類結果についての正解データを入力することにより、該学習用画像についての学習用特徴マップを出力し、該学習用特徴マップにおける複数の特徴ベクトル群の分布および前記正解データに基づいて、前記学習用画像における画素間の第1損失を、前記学習用画像における同一の物体に属する画素間の特徴ベクトルの距離が小さくなり、異なる物体に属する画素間の特徴ベクトルの距離が大きくなる関数として導出し、前記第1損失に基づいて前記第1ニューラルネットワークを学習する第1学習部と、
前記対象画像の特徴ベクトルの入力により、前記対象画像に含まれる前記同一カテゴリに属する複数の物体のクラス分類結果を出力する第2ニューラルネットワークに、前記学習用画像に含まれる同一カテゴリに属する物体についての特徴ベクトルの代表値を入力することにより、該同一カテゴリに属する複数の物体についての学習用クラス分類結果を出力し、該学習用クラス分類結果および前記正解データに基づいて、前記クラス分類結果についての第2損失を導出し、該第2損失に基づいて前記第2ニューラルネットワークを学習する第2学習部とを備えた学習装置。 - 前記特徴ベクトルの代表値は、前記学習用画像に含まれる同一カテゴリに属する個々の物体のそれぞれに対応する特徴ベクトル群に含まれる特徴ベクトルの代表値である請求項1に記載の学習装置。
- 前記特徴ベクトルの代表値は、前記学習用画像に含まれる同一カテゴリに属するすべての物体の特徴ベクトルの代表値である請求項1に記載の学習装置。
- 前記代表値は、前記特徴ベクトルの平均値、重み付け平均値、中央値、最小値および最大値の少なくとも1つである請求項2または3に記載の学習装置。
- 前記第1ニューラルネットワークは、全層畳み込みニューラルネットワークである請求項1から4のいずれか1項に記載の学習装置。
- 前記第2ニューラルネットワークは、全結合ニューラルネットワークである請求項1から5のいずれか1項に記載の学習装置。
- 前記対象画像および前記学習用画像は、医用3次元画像である請求項1から6のいずれか1項に記載の学習装置。
- 前記物体は椎骨であり、前記クラス分類結果は、前記椎骨の頸椎、胸椎および腰椎の少なくとも1つへの分類結果である請求項1から7のいずれか1項に記載の学習装置。
- 請求項1から8のいずれか1項に記載の学習装置により学習された、前記第1ニューラルネットワークおよび前記第2ニューラルネットワークを含む学習済みモデルが適用されてなり、前記対象画像の入力により、該対象画像に含まれる同一カテゴリに属する複数の物体のクラス分類結果を出力するクラス分類部を備えたクラス分類装置。
- 前記クラス分類結果に応じて、前記対象画像に含まれる前記物体にラベリングを行うラベリング部と、
前記ラベリングされた対象画像を表示部に表示する表示制御部とをさらに備えた請求項9に記載のクラス分類装置。 - 複数の物体が含まれる対象画像の各画素における特徴ベクトルを抽出し、該特徴ベクトルの空間である特徴空間において、前記対象画像に含まれる個々の物体に属する画素の特徴ベクトルがクラスタリングされて、複数の特徴ベクトル群として分布する特徴マップを出力する第1ニューラルネットワークに、学習用画像および該学習用画像に含まれる同一カテゴリに属する複数の物体に関するクラス分類結果についての正解データを入力することにより、該学習用画像についての学習用特徴マップを出力し、該学習用特徴マップにおける複数の特徴ベクトル群の分布および前記正解データに基づいて、前記学習用画像における画素間の第1損失を、前記学習用画像における同一の物体に属する画素間の特徴ベクトルの距離が小さくなり、異なる物体に属する画素間の特徴ベクトルの距離が大きくなる関数として導出し、前記第1損失に基づいて前記第1ニューラルネットワークを学習し、
前記対象画像の特徴ベクトルの入力により、前記対象画像に含まれる前記同一カテゴリに属する複数の物体のクラス分類結果を出力する第2ニューラルネットワークに、前記学習用画像に含まれる同一カテゴリに属する物体についての特徴ベクトルの代表値を入力することにより、該同一カテゴリに属する複数の物体についての学習用クラス分類結果を出力し、該学習用クラス分類結果および前記正解データに基づいて、前記クラス分類結果についての第2損失を導出し、該第2損失に基づいて前記第2ニューラルネットワークを学習する学習方法。 - 請求項11に記載の学習方法により学習された、前記第1ニューラルネットワークおよび前記第2ニューラルネットワークを含む学習済みモデルを用いて、前記対象画像の入力により、該対象画像に含まれる同一カテゴリに属する複数の物体のクラス分類結果を出力するクラス分類方法。
- 複数の物体が含まれる対象画像の各画素における特徴ベクトルを抽出し、該特徴ベクトルの空間である特徴空間において、前記対象画像に含まれる個々の物体に属する画素の特徴ベクトルがクラスタリングされて、複数の特徴ベクトル群として分布する特徴マップを出力する第1ニューラルネットワークに、学習用画像および該学習用画像に含まれる同一カテゴリに属する複数の物体に関するクラス分類結果についての正解データを入力することにより、該学習用画像についての学習用特徴マップを出力し、該学習用特徴マップにおける複数の特徴ベクトル群の分布および前記正解データに基づいて、前記学習用画像における画素間の第1損失を、前記学習用画像における同一の物体に属する画素間の特徴ベクトルの距離が小さくなり、異なる物体に属する画素間の特徴ベクトルの距離が大きくなる関数として導出し、前記第1損失に基づいて前記第1ニューラルネットワークを学習する手順と、
前記対象画像の特徴ベクトルの入力により、前記対象画像に含まれる前記同一カテゴリに属する複数の物体のクラス分類結果を出力する第2ニューラルネットワークに、前記学習用画像に含まれる同一カテゴリに属する物体についての特徴ベクトルの代表値を入力することにより、該同一カテゴリに属する複数の物体についての学習用クラス分類結果を出力し、該学習用クラス分類結果および前記正解データに基づいて、前記クラス分類結果についての第2損失を導出し、該第2損失に基づいて前記第2ニューラルネットワークを学習する手順とをコンピュータに実行させる学習プログラム。 - 請求項11に記載の学習方法により学習された、前記第1ニューラルネットワークおよび前記第2ニューラルネットワークを含む学習済みモデルを用いて、前記対象画像の入力により、該対象画像に含まれる同一カテゴリに属する複数の物体のクラス分類結果を出力する手順をコンピュータに実行させるクラス分類プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019119982 | 2019-06-27 | ||
JP2019119982 | 2019-06-27 | ||
PCT/JP2020/025400 WO2020262682A1 (ja) | 2019-06-27 | 2020-06-26 | 学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2020262682A1 JPWO2020262682A1 (ja) | 2020-12-30 |
JPWO2020262682A5 JPWO2020262682A5 (ja) | 2022-03-23 |
JP7342120B2 true JP7342120B2 (ja) | 2023-09-11 |
Family
ID=74060404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021528289A Active JP7342120B2 (ja) | 2019-06-27 | 2020-06-26 | 学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220114393A1 (ja) |
JP (1) | JP7342120B2 (ja) |
WO (1) | WO2020262682A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016067610A (ja) | 2014-09-30 | 2016-05-09 | 富士フイルム株式会社 | 椎骨セグメンテーション装置、方法およびプログラム |
JP2019028616A (ja) | 2017-07-27 | 2019-02-21 | トヨタ自動車株式会社 | 識別装置 |
-
2020
- 2020-06-26 JP JP2021528289A patent/JP7342120B2/ja active Active
- 2020-06-26 WO PCT/JP2020/025400 patent/WO2020262682A1/ja active Application Filing
-
2021
- 2021-12-20 US US17/556,983 patent/US20220114393A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016067610A (ja) | 2014-09-30 | 2016-05-09 | 富士フイルム株式会社 | 椎骨セグメンテーション装置、方法およびプログラム |
JP2019028616A (ja) | 2017-07-27 | 2019-02-21 | トヨタ自動車株式会社 | 識別装置 |
Also Published As
Publication number | Publication date |
---|---|
US20220114393A1 (en) | 2022-04-14 |
JPWO2020262682A1 (ja) | 2020-12-30 |
WO2020262682A1 (ja) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Houssein et al. | Deep and machine learning techniques for medical imaging-based breast cancer: A comprehensive review | |
Roth et al. | Anatomy-specific classification of medical images using deep convolutional nets | |
US20210174543A1 (en) | Automated determination of a canonical pose of a 3d objects and superimposition of 3d objects using deep learning | |
CN111369576B (zh) | 图像分割模型的训练方法、图像分割方法、装置及设备 | |
Qadri et al. | CT-based automatic spine segmentation using patch-based deep learning | |
US11189367B2 (en) | Similarity determining apparatus and method | |
US20210383534A1 (en) | System and methods for image segmentation and classification using reduced depth convolutional neural networks | |
CN105760874A (zh) | 面向尘肺的ct图像处理系统及其ct图像处理方法 | |
Yoon et al. | Medical image analysis using artificial intelligence | |
Das et al. | A machine learning based approach for detection of pneumonia by analyzing chest X-ray images | |
Vasukidevi et al. | Efficient image classification for alzheimer’s disease prediction using capsule network | |
WO2021116011A1 (en) | Medical image segmentation and atlas image selection | |
JP7342120B2 (ja) | 学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル | |
JP7321271B2 (ja) | 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム | |
JP7261884B2 (ja) | 学習装置、方法およびプログラム、グラフ構造抽出装置、方法およびプログラム、並びに学習済み抽出モデル | |
Chedid et al. | Synthesis of fracture radiographs with deep neural networks | |
JP7170868B2 (ja) | 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器 | |
Paul et al. | Computer-Aided Diagnosis Using Hybrid Technique for Fastened and Accurate Analysis of Tuberculosis Detection with Adaboost and Learning Vector Quantization | |
JP7121191B2 (ja) | 構造物分離装置、方法およびプログラム、学習装置、方法およびプログラム、並びに学習済みモデル | |
WO2022137855A1 (ja) | 情報処理装置、方法およびプログラム | |
Neeraja et al. | CephXNet: A Deep Convolutional Squeeze-and-Excitation model for Landmark Prediction on Lateral Cephalograms | |
WO2022220221A1 (ja) | 学習装置、方法およびプログラム | |
Jabbar et al. | Bone age assessment using deep learning architecture: A Survey | |
WO2021060461A1 (ja) | 画像処理装置、方法およびプログラム | |
WO2022091868A1 (ja) | 情報処理装置、情報表示装置、情報処理方法、情報処理システム及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211223 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230830 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7342120 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |