JP7231709B2 - 情報処理システム、内視鏡システム、情報処理方法及び学習済みモデルの製造方法 - Google Patents
情報処理システム、内視鏡システム、情報処理方法及び学習済みモデルの製造方法 Download PDFInfo
- Publication number
- JP7231709B2 JP7231709B2 JP2021508598A JP2021508598A JP7231709B2 JP 7231709 B2 JP7231709 B2 JP 7231709B2 JP 2021508598 A JP2021508598 A JP 2021508598A JP 2021508598 A JP2021508598 A JP 2021508598A JP 7231709 B2 JP7231709 B2 JP 7231709B2
- Authority
- JP
- Japan
- Prior art keywords
- position information
- information
- image
- learning
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 32
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000004519 manufacturing process Methods 0.000 title claims description 3
- 238000012545 processing Methods 0.000 claims description 130
- 238000001514 detection method Methods 0.000 claims description 122
- 238000000034 method Methods 0.000 claims description 36
- 238000013528 artificial neural network Methods 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 8
- 230000002194 synthesizing effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 17
- 238000003384 imaging method Methods 0.000 description 13
- 210000001953 common bile duct Anatomy 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 210000001096 cystic duct Anatomy 0.000 description 5
- 210000004185 liver Anatomy 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000002192 cholecystectomy Methods 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 238000012935 Averaging Methods 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000000683 abdominal cavity Anatomy 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 210000000232 gallbladder Anatomy 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000096—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope using artificial intelligence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
- A61B1/3132—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30028—Colon; Small intestine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Public Health (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Multimedia (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Computational Linguistics (AREA)
- Heart & Thoracic Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Endoscopes (AREA)
Description
図1は、本実施形態の情報処理システム10、及び情報処理システム10を含む内視鏡システム100の構成例である。内視鏡システム100は、プロセッサユニット1と、内視鏡スコープ2と、表示部3と、を含む。また内視鏡システム100は操作部9を更に含んでもよい。
図2は、第1実施形態における学習処理を説明する図である。以下、学習処理に用いられる画像を学習用画像と呼ぶ。学習用画像は、例えば内視鏡システムにより撮影された動画のフレーム画像である。
第2実施形態では、境界の曖昧さを考慮された位置情報を検出することは第1実施形態と同様であるが、その境界の曖昧さを考慮した処理を出力側で行う。
第3実施形態では、アノテーションTG1~TG3に対して重み付けを行い、その重み付けされたアノテーションTG1~TG3を用いて学習を行う。
第4実施形態では、第3実施形態と同様に重み付けを行うが、学習済みモデル30が検出した複数の位置情報に対して重み付けを行う。
第5実施形態では、アノテーションTG1~TG3の重複関係に基づくボケ処理を行い、ボケ処理後のアノテーションを用いて学習を行う。
第6実施形態では、第5実施形態と同様にボケ処理を行うが、学習済みモデル30が検出した複数の位置情報に対してボケ処理を行う。
第7実施形態では、複数のアノテーションから求めた論理積と論理和の各々に対して学習を行うことで、論理積に対応する位置情報と、論理和に対応する位置情報とを検出及び表示できるようにする。
学習用画像に対するアノテーションの例と、アノテーション対象である対象物の例と、を説明する。なお以下では腹腔鏡下胆のう摘出手術を例に説明するが、上述した実施形態の適用対象は腹腔鏡下胆のう摘出手術に限定されない。即ち、同一画像の同一対象物に複数のアノテーションが付された教師データに基づいて機械学習が行われ、その学習済みモデルにより画像から対象物が検出される場合に、上述した実施形態を適用可能である。
図16は、学習装置50の構成例である。学習装置50は、処理部51と記憶部52と操作部53と表示部54とを含む。例えば、学習装置50はPC等の情報処理装置である。処理部51はCPU等のプロセッサである。処理部51は、学習モデルに対する機械学習を行って学習済みモデルを生成する。記憶部52は半導体メモリ又はハードディスクドライブ等の記憶装置である。操作部53はマウス又はタッチパネル、キーボード等の種々の操作入力装置である。表示部54は液晶ディスプレイ等の表示装置である。なお学習装置50は、ネットワークで接続された複数の情報処理装置が並列処理を行うクラウドシステムであってもよい。
Claims (11)
- 学習済みモデルの情報を記憶する記憶部と、
検出用画像から対象物の位置情報を検出する検出処理を、前記学習済みモデルの情報に基づいて行い、前記検出処理により検出した前記位置情報を出力する処理部と、
を含み、
前記学習済みモデルは、
学習用画像における対象物に対して複数のアノテーションが付された教師データに基づいて学習され、前記複数のアノテーションの重複関係に基づいて前記学習用画像における前記対象物の位置情報を出力するように学習されたことを特徴とする情報処理システム。 - 請求項1において、
前記学習済みモデルは、
前記複数のアノテーションの重複関係に基づいて前記学習用画像における前記対象物の確からしさを連続的又は段階的に示す前記位置情報を出力するように学習され、
前記処理部は、
前記検出処理において、前記対象物の位置の確からしさを連続的又は段階的に示す前記位置情報を前記検出用画像から検出し、
前記位置情報に基づいて、前記対象物の位置の確からしさを連続的又は段階的に示す表示情報を前記検出用画像に合成することで、表示画像を生成することを特徴とする情報処理システム。 - 請求項1において、
前記学習済みモデルは、
前記複数のアノテーションが重複する領域に基づいて学習された第1学習済みモデルと、
前記複数のアノテーションが重複しない領域に基づいて学習された第2学習済みモデルと、
を含み、
前記処理部は、
前記検出処理において、前記第1学習済みモデルに基づいて前記検出用画像から前記対象物の第1位置情報を検出し、前記第2学習済みモデルに基づいて前記検出用画像から前記対象物の第2位置情報を検出し、
前記第1位置情報に基づく第1表示情報と、前記第2位置情報に基づく第2表示情報とを区別して、前記検出用画像に合成することで、表示画像を生成することを特徴とする情報処理システム。 - 請求項1において、
前記学習済みモデルは、
前記複数のアノテーションの前記重複関係が重み付けされた前記教師データに基づいて学習されることで、前記重み付けされた前記重複関係に基づいて前記学習用画像における前記対象物の位置情報を出力するように学習され、
前記処理部は、
前記重み付けされた前記重複関係に基づいて学習された前記学習済みモデルを用いて、前記対象物の位置の確からしさを連続的又は段階的に示す前記位置情報を前記検出用画像から検出し、
前記位置情報に基づいて、前記対象物の位置の確からしさを連続的又は段階的に示す表示情報を前記検出用画像に合成することで、表示画像を生成することを特徴とする情報処理システム。 - 複数の学習済みモデルである第1~第n(nは2以上の整数)学習済みモデルの情報を記憶する記憶部と、
検出用画像から対象物の第1~第n位置情報をそれぞれ検出する検出処理を、前記第1~第n学習済みモデルの情報に基づいてそれぞれ行い、前記検出処理により検出した前記第1~第n位置情報を出力する処理部と、
を含み、
前記第1~第n学習済みモデルはそれぞれ、学習用画像における対象物に対して付された第1~第nアノテーションに基づいて、前記学習用画像における前記対象物の第1~第n位置情報をそれぞれ出力するようにそれぞれ学習され、
前記処理部は、
前記検出処理において、前記第1~第n学習済みモデルのそれぞれに基づいて前記検出用画像から前記対象物の第1~第n位置情報をそれぞれ検出し、
前記第1~第n位置情報の重複関係を重み付けすることで、前記対象物の位置の確からしさを連続的又は段階的に示す表示情報を生成し、前記表示情報を前記検出用画像に合成することで表示画像を生成することを特徴とする情報処理システム。 - 請求項1において、
前記学習済みモデルは、
前記複数のアノテーションが重複しない領域に対してボケ処理された前記教師データに基づいて学習され、
前記処理部は、
前記ボケ処理された前記教師データに基づいて学習された前記学習済みモデルを用いて、前記対象物の位置の確からしさを連続的又は段階的に示す前記位置情報を前記検出用画像から検出し、
前記位置情報に基づいて、前記対象物の位置の確からしさを連続的又は段階的に示す表示情報を前記検出用画像に合成することで、表示画像を生成することを特徴とする情報処理システム。 - 複数の学習済みモデルである第1~第n(nは2以上の整数)学習済みモデルの情報を記憶する記憶部と、
検出用画像から対象物の第1~第n位置情報をそれぞれ検出する検出処理を、前記第1~第n学習済みモデルの情報に基づいてそれぞれ行い、前記検出処理により検出した前記第1~第n位置情報を出力する処理部と、
を含み、
前記第1~第n学習済みモデルはそれぞれ、学習用画像における対象物に対して付された第1~第nアノテーションに基づいて、前記学習用画像における前記対象物の第1~第n位置情報をそれぞれ出力するようにそれぞれ学習され、
前記処理部は、
前記検出処理において、前記第1~第n学習済みモデルのそれぞれに基づいて前記検出用画像から前記対象物の第1~第n位置情報をそれぞれ検出し、
前記第1~第n位置情報の重複しない領域に対してボケ処理を行い、前記ボケ処理後の位置情報に基づいて、前記対象物の位置の確からしさを連続的又は段階的に示す表示情報を生成し、前記表示情報を前記検出用画像に合成することで表示画像を生成することを特徴とする情報処理システム。 - 複数の学習済みモデルである第1~第n(nは2以上の整数)学習済みモデルの情報を記憶する記憶部と、
検出用画像から対象物の第1~第n位置情報をそれぞれ検出する検出処理を、前記第1~第n学習済みモデルの情報に基づいてそれぞれ行い、前記検出処理により検出した前記第1~第n位置情報を出力する処理部と、
を含み、
前記第1~第n学習済みモデルはそれぞれ、学習用画像における対象物に対して付された第1~第nアノテーションに基づいて、前記学習用画像における前記対象物の第1~第n位置情報をそれぞれ出力するようにそれぞれ学習され、
前記処理部は、
前記検出処理において、前記第1~第n学習済みモデルのそれぞれに基づいて前記検出用画像から前記対象物の第1~第n位置情報をそれぞれ検出し、前記第1~第n位置情報の重複関係に基づいて前記対象物の位置情報を出力することを特徴とする情報処理システム。 - 請求項1乃至8のいずれか一項に記載の情報処理システムを有するプロセッサユニットと、
前記プロセッサユニットに接続され、前記検出用画像を撮像して前記プロセッサユニットに送信する内視鏡スコープと、
前記プロセッサユニットに接続され、前記情報処理システムにより前記検出用画像から検出された前記対象物の位置情報に基づいて、前記対象物の位置を示す表示情報が重畳された前記検出用画像を表示する表示部と、
を含むことを特徴とする内視鏡システム。 - 学習済みモデルに基づく検出処理を行う情報処理方法であって、
前記学習済みモデルは、
学習用画像における対象物に対して複数のアノテーションが付された教師データに基づいて学習され、前記複数のアノテーションの重複関係に基づいて前記学習用画像における前記対象物の位置情報を出力するように学習された学習済みモデルであり、
検出用画像から対象物の位置情報を検出する前記検出処理を行い、
前記検出処理により検出した前記位置情報を出力することを特徴とする情報処理方法。 - 学習用画像における対象物に対して複数のアノテーションが付された教師データを受け付ける工程と、
ニューラルネットワークの入力層において、前記学習用画像を受け付ける工程と、
前記ニューラルネットワークの中間層において、前記入力層を通じて入力された前記学習用画像に対して演算処理を行う工程と、
前記ニューラルネットワークの出力層において、前記学習用画像における前記対象物の位置情報を出力する工程と、
前記出力層において出力される前記位置情報と前記教師データとに基づいて前記ニューラルネットワークに対して学習処理を行うことで、前記複数のアノテーションの重複関係に基づく前記位置情報が前記出力層において出力されるように前記ニューラルネットワークを学習させる工程と、
を含むことを特徴とする学習済みモデルの製造方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/013605 WO2020194662A1 (ja) | 2019-03-28 | 2019-03-28 | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体、情報処理方法及び学習済みモデルの製造方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020194662A1 JPWO2020194662A1 (ja) | 2021-12-02 |
JP7231709B2 true JP7231709B2 (ja) | 2023-03-01 |
Family
ID=72611173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021508598A Active JP7231709B2 (ja) | 2019-03-28 | 2019-03-28 | 情報処理システム、内視鏡システム、情報処理方法及び学習済みモデルの製造方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11869655B2 (ja) |
JP (1) | JP7231709B2 (ja) |
WO (1) | WO2020194662A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7127785B2 (ja) * | 2018-11-30 | 2022-08-30 | オリンパス株式会社 | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 |
JP7170868B2 (ja) * | 2019-06-28 | 2022-11-14 | 富士フイルム株式会社 | 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器 |
WO2022050078A1 (ja) * | 2020-09-07 | 2022-03-10 | 富士フイルム株式会社 | 学習データ作成装置、方法及びプログラム、機械学習装置及び方法、学習モデル及び画像処理装置 |
CN116723787A (zh) * | 2021-01-19 | 2023-09-08 | 阿瑙特株式会社 | 计算机程序、学习模型的生成方法、以及辅助装置 |
JPWO2022209500A1 (ja) * | 2021-03-30 | 2022-10-06 | ||
US20240257509A1 (en) * | 2021-05-24 | 2024-08-01 | Anaut Inc. | Information Processing Device, Information Processing Method, and Recording Medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005157679A (ja) | 2003-11-25 | 2005-06-16 | Sony Corp | 対象物検出装置及び方法、並びに集団学習装置及び方法 |
JP2011192178A (ja) | 2010-03-16 | 2011-09-29 | Denso It Laboratory Inc | 画像認識装置及び画像認識方法 |
US20140341449A1 (en) | 2011-09-23 | 2014-11-20 | Hamid Reza TIZHOOSH | Computer system and method for atlas-based consensual and consistent contouring of medical images |
JP2016513328A (ja) | 2013-03-01 | 2016-05-12 | インパック メディカル システムズ、 インク.Impac Medical Systems Inc. | 学習が強化されたアトラスベース自動輪郭抽出方法及び装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9668699B2 (en) * | 2013-10-17 | 2017-06-06 | Siemens Healthcare Gmbh | Method and system for anatomical object detection using marginal space deep neural networks |
US9818200B2 (en) * | 2013-11-14 | 2017-11-14 | Toshiba Medical Systems Corporation | Apparatus and method for multi-atlas based segmentation of medical image data |
JP6182242B1 (ja) | 2016-06-13 | 2017-08-16 | 三菱電機インフォメーションシステムズ株式会社 | データのラベリングモデルに係る機械学習方法、コンピュータおよびプログラム |
US10037601B1 (en) * | 2017-02-02 | 2018-07-31 | International Business Machines Corporation | Systems and methods for automatic detection of architectural distortion in two dimensional mammographic images |
US10489126B2 (en) * | 2018-02-12 | 2019-11-26 | Oracle International Corporation | Automated code generation |
US10383694B1 (en) * | 2018-09-12 | 2019-08-20 | Johnson & Johnson Innovation—Jjdc, Inc. | Machine-learning-based visual-haptic feedback system for robotic surgical platforms |
JP7127785B2 (ja) * | 2018-11-30 | 2022-08-30 | オリンパス株式会社 | 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体及び情報処理方法 |
JP2022522960A (ja) * | 2019-01-13 | 2022-04-21 | ライトラボ・イメージング・インコーポレーテッド | 動脈画像領域及びそれらの特徴を分類するシステム及び方法 |
-
2019
- 2019-03-28 WO PCT/JP2019/013605 patent/WO2020194662A1/ja active Application Filing
- 2019-03-28 JP JP2021508598A patent/JP7231709B2/ja active Active
-
2021
- 2021-05-17 US US17/321,893 patent/US11869655B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005157679A (ja) | 2003-11-25 | 2005-06-16 | Sony Corp | 対象物検出装置及び方法、並びに集団学習装置及び方法 |
JP2011192178A (ja) | 2010-03-16 | 2011-09-29 | Denso It Laboratory Inc | 画像認識装置及び画像認識方法 |
US20140341449A1 (en) | 2011-09-23 | 2014-11-20 | Hamid Reza TIZHOOSH | Computer system and method for atlas-based consensual and consistent contouring of medical images |
JP2016513328A (ja) | 2013-03-01 | 2016-05-12 | インパック メディカル システムズ、 インク.Impac Medical Systems Inc. | 学習が強化されたアトラスベース自動輪郭抽出方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
US20210272284A1 (en) | 2021-09-02 |
US11869655B2 (en) | 2024-01-09 |
JPWO2020194662A1 (ja) | 2021-12-02 |
WO2020194662A1 (ja) | 2020-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7231709B2 (ja) | 情報処理システム、内視鏡システム、情報処理方法及び学習済みモデルの製造方法 | |
US11907849B2 (en) | Information processing system, endoscope system, information storage medium, and information processing method | |
Allan et al. | 2017 robotic instrument segmentation challenge | |
García-Peraza-Herrera et al. | Real-time segmentation of non-rigid surgical tools based on deep learning and tracking | |
Du et al. | Articulated multi-instrument 2-D pose estimation using fully convolutional networks | |
Vázquez et al. | A benchmark for endoluminal scene segmentation of colonoscopy images | |
Funke et al. | Generative adversarial networks for specular highlight removal in endoscopic images | |
Rieke et al. | Real-time localization of articulated surgical instruments in retinal microsurgery | |
Qiu et al. | Real‐time surgical instrument tracking in robot‐assisted surgery using multi‐domain convolutional neural network | |
Islam et al. | St-mtl: Spatio-temporal multitask learning model to predict scanpath while tracking instruments in robotic surgery | |
Bawa et al. | The saras endoscopic surgeon action detection (esad) dataset: Challenges and methods | |
Hicks et al. | Dissecting deep neural networks for better medical image classification and classification understanding | |
Padoy et al. | 3D thread tracking for robotic assistance in tele-surgery | |
JPWO2017221412A1 (ja) | 画像処理装置、学習装置、画像処理方法、識別基準の作成方法、学習方法およびプログラム | |
US11790537B2 (en) | Tracking device, endoscope system, and tracking method | |
US11900615B2 (en) | Tracking device, endoscope system, and tracking method | |
Nema et al. | Unpaired deep adversarial learning for multi‐class segmentation of instruments in robot‐assisted surgical videos | |
Vishal et al. | Unsupervised desmoking of laparoscopy images using multi-scale DesmokeNet | |
JP2022074861A (ja) | 画像処理装置、画像処理方法、学習モデル生成装置、学習モデル製造方法、学習済みモデル、プログラム | |
Wu et al. | AI-Enhanced Virtual Reality in Medicine: A Comprehensive Survey | |
Makihara et al. | Grasp pose detection for deformable daily items by pix2stiffness estimation | |
Annabestani et al. | High-fidelity pose estimation for real-time extended reality (XR) visualization for cardiac catheterization | |
KR102723904B1 (ko) | 의료영상의 깊이영상 예측 시스템 및 방법 | |
Khajarian et al. | Image-based Live Tracking and Registration for AR-Guided Liver Surgery Using Hololens2: A Phantom Study | |
WO2022162766A1 (ja) | 情報処理システム、内視鏡システム、情報処理方法及びアノテーションデータ生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210513 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230216 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7231709 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |