JP2022505428A - アルゴリズムによるセグメンテーションの正確性の予測 - Google Patents
アルゴリズムによるセグメンテーションの正確性の予測 Download PDFInfo
- Publication number
- JP2022505428A JP2022505428A JP2021521462A JP2021521462A JP2022505428A JP 2022505428 A JP2022505428 A JP 2022505428A JP 2021521462 A JP2021521462 A JP 2021521462A JP 2021521462 A JP2021521462 A JP 2021521462A JP 2022505428 A JP2022505428 A JP 2022505428A
- Authority
- JP
- Japan
- Prior art keywords
- segmentation
- data
- accuracy
- image
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 347
- 238000012549 training Methods 0.000 claims abstract description 64
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000012800 visualization Methods 0.000 claims abstract description 18
- 238000010801 machine learning Methods 0.000 claims abstract description 10
- 230000001052 transient effect Effects 0.000 claims description 3
- 238000003384 imaging method Methods 0.000 claims description 2
- 230000015572 biosynthetic process Effects 0.000 claims 1
- 238000012986 modification Methods 0.000 description 21
- 230000004048 modification Effects 0.000 description 21
- 210000003484 anatomy Anatomy 0.000 description 19
- 238000012937 correction Methods 0.000 description 19
- 238000013500 data storage Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000003709 image segmentation Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 238000002591 computed tomography Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012552 review Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002861 ventricular Effects 0.000 description 2
- 241000473391 Archosargus rhomboidalis Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 210000001765 aortic valve Anatomy 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Public Health (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Primary Health Care (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Epidemiology (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
Description
データインタフェースであって、
訓練用画像データと、
訓練用画像データのそれぞれの画像部分のためのラベルであって、ラベルは、セグメンテーションアルゴリズムを訓練用画像データに適用することによって取得され、ラベルは、セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を示すラベルと
にアクセスするためのデータインタフェースと、
プロセッササブシステムであって、
機械学習技術を使用し、ラベル付き画像部分を入力として使用して、予測モデルを訓練することと、
訓練された予測モデルを表すモデルデータを出力することと
を行うように構成されたプロセッササブシステムと
を備える。
訓練用画像データと、
訓練用画像データのそれぞれの画像部分のためのラベルであって、ラベルは、セグメンテーションアルゴリズムを訓練用画像データに適用することによって取得され、ラベルは、セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を示すラベルと
にアクセスするステップと、
機械学習技術を使用し、ラベル付き画像部分を入力として使用して、予測モデルを訓練するステップと、
訓練された予測モデルを表すモデルデータを出力するステップと
を有する。
データインタフェースであって、
訓練用画像データのラベル付き画像部分上で訓練された予測モデルを表すモデルデータであって、ラベル付き画像部分のラベルは、セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を示す、モデルデータと、
セグメンテーションアルゴリズムによってセグメント化されるべき境界線を含む入力画像データと
にアクセスするためのデータインタフェースと、
プロセッササブシステムであって、
入力画像データのそれぞれの画像部分に予測モデルを適用して、セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を予測することと、
セグメンテーションの正確性を示す出力データを生成して、出力データに基づいて、セグメンテーションアルゴリズムによる境界線の不正確なセグメンテーションを特定することを可能とすることと
を行うように構成されたプロセッササブシステムと
を備える。
訓練用画像データのラベル付き画像部分上で訓練された予測モデルを表すモデルデータであって、ラベル付き画像部分のラベルは、セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を示す、モデルデータと、
セグメンテーションアルゴリズムによってセグメント化されるべき境界線を含む入力画像データと
にアクセスするステップと、
入力画像データのそれぞれの画像部分に予測モデルを適用して、セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を予測するステップと、
セグメンテーションの正確性を示す出力データを生成して、出力データに基づいて、セグメンテーションアルゴリズムによる境界線の不正確なセグメンテーションを特定することを可能とするステップと
を有する。
それぞれの画像部分のためのラベルを、
データインタフェースを介して、
セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションを表す第1のセグメンテーションデータと、
それぞれの画像部分における境界線のユーザによって修正されたセグメンテーションを表す第2のセグメンテーションデータと
にアクセスすることと、
第1のセグメンテーションデータを第2のセグメンテーションデータと比較することによってセグメンテーションの正確性を判定することと、
それぞれの画像部分に対してセグメンテーションの正確性を示すラベルを割り当てることと
によって生成するように構成される。
セグメンテーションアルゴリズムを入力画像データに適用し、それによって、入力画像データにおける境界線のセグメンテーションを取得することと、
境界線の部分を含む画像部分に基づいて、予測モデルが適用されるべき画像部分を特定することと
を行うように構成される。
セグメンテーションアルゴリズムによる境界線のセグメンテーションを使用する臨床的適用を実行することと、
セグメンテーションの正確性に基づいて、臨床的適用のワークフローを調節することと
を行うように構成される。
参照番号の以下のリストは、図面の解釈を容易にするために提供されるものであり、特許請求の範囲を限定するものと解釈されるべきではない。
020、022 データ記憶装置
030 訓練用画像データ
040 ラベルデータ
050 モデルデータ
060 入力画像データ
070 出力データ
080 ユーザ入力デバイス
082 ユーザ入力データ
100 予測モデルを生成するためのシステム
120 データインタフェース
122、124 データ通信
140 プロセッササブシステム
200 セグメンテーションの正確性を予測するためのシステム
220 データインタフェース
222、224 データ通信
240 プロセッササブシステム
242 出力データ
260 ユーザインタフェースサブシステム
262 表示データ
280 ディスプレイ
300 医療用画像
310 解剖学的構造
320 解剖学的構造の境界線
330 アルゴリズムによるセグメンテーション
340 手動修正されたセグメンテーション
342 修正アクション
350 画像部分
360 セグメンテーションの間の距離
380 正確性の視覚化、重畳
382 警告ダイアログ
400 予測モデルを生成する方法
410 訓練用画像データへのアクセス、ラベル
420 予測モデルの訓練
430 予測モデルを表すモデルデータの出力
500 セグメンテーションの正確性を予測する方法
510 モデルデータへのアクセス、入力画像データ
520 入力画像データへの予測モデルの適用
530 セグメンテーションの正確性の出力
600 コンピュータ可読媒体
610 非一時的データ
Claims (15)
- セグメンテーションアルゴリズムによるセグメンテーションの正確性を予測するための予測モデルを生成するためのシステムであって、前記システムは、
訓練用画像データと、前記訓練用画像データのそれぞれの画像部分のためのラベルであって、前記ラベルは、前記セグメンテーションアルゴリズムを前記訓練用画像データに適用することによって取得され、前記ラベルは、前記セグメンテーションアルゴリズムによる前記それぞれの画像部分における境界線の前記セグメンテーションの正確性を示すラベルとにアクセスするためのデータインタフェースと、
プロセッササブシステムとを備え、
前記プロセッササブシステムは、
機械学習技術を使用し、ラベル付き画像部分を入力として使用して、前記予測モデルを訓練することと、
訓練された前記予測モデルを表すモデルデータを出力することと
を行う、システム。 - 前記プロセッササブシステムは更に、前記それぞれの画像部分のための前記ラベルを、
前記データインタフェースを介して、
前記セグメンテーションアルゴリズムによる前記それぞれの画像部分における前記境界線の前記セグメンテーションを表す第1のセグメンテーションデータと、
前記それぞれの画像部分における前記境界線のユーザによって修正されたセグメンテーションを表す第2のセグメンテーションデータと
にアクセスすることと、
前記第1のセグメンテーションデータを前記第2のセグメンテーションデータと比較することによって前記セグメンテーションの前記正確性を判定することと、
前記それぞれの画像部分に対して前記セグメンテーションの前記正確性を示す前記ラベルを割り当てることと
によって生成する、請求項1に記載のシステム。 - 前記プロセッササブシステムは、前記画像部分に対する前記セグメンテーションアルゴリズムによる前記セグメンテーションの前記正確性を、前記境界線のそれぞれの前記セグメンテーションの対応する部分の間の距離に基づいて判定する、請求項2に記載のシステム。
- セグメンテーションアルゴリズムによるセグメンテーションの正確性を予測するためのシステムであって、前記システムは、
訓練用画像データのラベル付き画像部分上で訓練された予測モデルを表すモデルデータであって、前記ラベル付き画像部分のラベルは、前記セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を示す、モデルデータと、前記セグメンテーションアルゴリズムによってセグメント化されるべき境界線を含む入力画像データとにアクセスするためのデータインタフェースと、
プロセッササブシステムとを備え、
前記プロセッササブシステムは、
前記入力画像データのそれぞれの画像部分に前記予測モデルを適用して、前記セグメンテーションアルゴリズムによる前記それぞれの画像部分における前記境界線の前記セグメンテーションの前記正確性を予測することと、
前記セグメンテーションの前記正確性を示す出力データを生成して、前記出力データに基づいて、前記セグメンテーションアルゴリズムによる前記境界線の不正確なセグメンテーションを特定することを可能とすることと
を行う、システム。 - 前記プロセッササブシステムは更に、
前記セグメンテーションアルゴリズムを前記入力画像データに適用し、それによって、前記入力画像データにおける前記境界線の前記セグメンテーションを取得することと、
前記境界線の部分を含む前記画像部分に基づいて、前記予測モデルが適用されるべき前記画像部分を特定することと
を行う、請求項4に記載のシステム。 - 前記入力画像データは3D画像データであり、
前記セグメンテーションアルゴリズムは、前記入力画像データにおける前記境界線の3Dセグメンテーションを提供し、
前記プロセッササブシステムは、前記3Dセグメンテーションのそれぞれの部分を中心とする前記3D画像データのサブボリュームとして前記予測モデルが適用されるべき前記画像部分を特定する、請求項5に記載のシステム。 - 前記プロセッササブシステムは、前記セグメンテーションの前記正確性の視覚化を含む出力画像データとして前記出力データを生成する、請求項4から6のいずれか一項に記載のシステム。
- 前記出力画像データは、前記セグメンテーションの前記正確性の視覚化を、前記境界線の前記セグメンテーションの視覚化の上の重畳として含む、請求項7に記載のシステム。
- 前記プロセッササブシステムは、セグメンテーション品質基準に従って、前記境界線が不正確にセグメント化されていると思われる1つ又は複数の画像部分を視覚的に強調するように、前記境界線の前記セグメンテーションの視覚化を調節する、請求項8に記載のシステム。
- 前記プロセッササブシステムは、
前記セグメンテーションアルゴリズムによる前記境界線の前記セグメンテーションを使用する臨床的適用を実行することと、
前記セグメンテーションの前記正確性に基づいて、前記臨床的適用のワークフローを調節することと
を行う、請求項4から9のいずれか一項に記載のシステム。 - 請求項1から10のいずれか一項に記載のシステムを備える、ワークステーション又は撮像装置。
- セグメンテーションアルゴリズムによるセグメンテーションの正確性を予測するように訓練された予測モデルを表す一時的又は非一時的データを含むコンピュータ可読媒体であって、前記予測モデルは訓練用画像データのラベル付き画像部分上で訓練され、前記ラベル付き画像部分のラベルは、前記セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を示す、コンピュータ可読媒体。
- セグメンテーションアルゴリズムによるセグメンテーションの正確性を予測するための予測モデルを生成する、コンピュータによって実施される方法であって、前記コンピュータによって実施される方法は、
訓練用画像データと、前記訓練用画像データのそれぞれの画像部分のためのラベルであって、前記ラベルは、前記セグメンテーションアルゴリズムを前記訓練用画像データに適用することによって取得され、前記ラベルは、前記セグメンテーションアルゴリズムによる前記それぞれの画像部分における境界線の前記セグメンテーションの正確性を示すラベルとにアクセスするステップと、
機械学習技術を使用し、ラベル付き画像部分を入力として使用して、前記予測モデルを訓練するステップと、
訓練された前記予測モデルを表すモデルデータを出力するステップと
を有する、コンピュータによって実施される方法。 - セグメンテーションアルゴリズムによるセグメンテーションの正確性を予測する、コンピュータによって実施される方法であって、前記コンピュータによって実施される方法は、
訓練用画像データのラベル付き画像部分上で訓練された予測モデルを表すモデルデータであって、前記ラベル付き画像部分のラベルは、前記セグメンテーションアルゴリズムによるそれぞれの画像部分における境界線のセグメンテーションの正確性を示す、モデルデータと、前記セグメンテーションアルゴリズムによってセグメント化されるべき境界線を含む入力画像データとにアクセスするステップと、
前記入力画像データのそれぞれの画像部分に前記予測モデルを適用して、前記セグメンテーションアルゴリズムによる前記それぞれの画像部分における前記境界線の前記セグメンテーションの前記正確性を予測するステップと、
前記セグメンテーションの前記正確性を示す出力データを生成して、前記出力データに基づいて、前記セグメンテーションアルゴリズムによる前記境界線の不正確なセグメンテーションを特定することを可能とするステップと
を有する、コンピュータによって実施される方法。 - 請求項13又は14に記載のコンピュータによって実施される方法を、プロセッサシステムに実行させる命令を表す一時的又は非一時的データを含む、コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP18201798.8 | 2018-10-22 | ||
EP18201798.8A EP3644275A1 (en) | 2018-10-22 | 2018-10-22 | Predicting correctness of algorithmic segmentation |
PCT/EP2019/077684 WO2020083676A1 (en) | 2018-10-22 | 2019-10-14 | Predicting correctness of algorithmic segmentation |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022505428A true JP2022505428A (ja) | 2022-01-14 |
JP7401537B2 JP7401537B2 (ja) | 2023-12-19 |
Family
ID=63965264
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021521462A Active JP7401537B2 (ja) | 2018-10-22 | 2019-10-14 | システム、該システムを備えるワークステーション及び撮像装置、並びにコンピュータによって実施される方法、該方法をプロセッサシステムに実行させる命令を表す一時的又は非一時的データを含むコンピュータ可読媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210390707A1 (ja) |
EP (2) | EP3644275A1 (ja) |
JP (1) | JP7401537B2 (ja) |
CN (1) | CN112912924B (ja) |
WO (1) | WO2020083676A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116681717B (zh) * | 2023-08-04 | 2023-11-28 | 经智信息科技(山东)有限公司 | 一种ct图像的分割处理方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6999620B1 (en) * | 2001-12-10 | 2006-02-14 | Hewlett-Packard Development Company, L.P. | Segmenting video input using high-level feedback |
JP2007530088A (ja) * | 2003-07-16 | 2007-11-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オブジェクト特有のセグメンテーション |
US20150294476A1 (en) * | 2012-10-30 | 2015-10-15 | Hewlett-Packard Development Company, L.P. | Object Segmentation |
US20170301085A1 (en) * | 2014-09-11 | 2017-10-19 | B.G. Negev Technologies And Applications Ltd. (Ben Gurion University | Interactive segmentation |
WO2018119358A1 (en) * | 2016-12-23 | 2018-06-28 | Heartflow, Inc. | Systems and methods for probabilistic segmentation in anatomical image processing |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012073151A2 (en) * | 2010-12-01 | 2012-06-07 | Koninklijke Philips Electronics N.V. | Diagnostic image features close to artifact sources |
US9122950B2 (en) * | 2013-03-01 | 2015-09-01 | Impac Medical Systems, Inc. | Method and apparatus for learning-enhanced atlas-based auto-segmentation |
JP6188400B2 (ja) * | 2013-04-26 | 2017-08-30 | オリンパス株式会社 | 画像処理装置、プログラム及び画像処理方法 |
WO2016008665A1 (en) * | 2014-07-15 | 2016-01-21 | Koninklijke Philips N.V. | Device, system and method for segmenting an image of a subject. |
US9740710B2 (en) * | 2014-09-02 | 2017-08-22 | Elekta Inc. | Systems and methods for segmenting medical images based on anatomical landmark-based features |
US20170337689A1 (en) * | 2016-05-20 | 2017-11-23 | Yung-Hui Li | Method for validating segmentation of objects with arbitrary shapes |
EP3488381B1 (en) * | 2016-07-21 | 2024-02-28 | Siemens Healthineers AG | Method and system for artificial intelligence based medical image segmentation |
US9965863B2 (en) * | 2016-08-26 | 2018-05-08 | Elekta, Inc. | System and methods for image segmentation using convolutional neural network |
RU2016138608A (ru) * | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
EP3379281A1 (en) * | 2017-03-20 | 2018-09-26 | Koninklijke Philips N.V. | Image segmentation using reference gray scale values |
WO2019041262A1 (en) * | 2017-08-31 | 2019-03-07 | Shenzhen United Imaging Healthcare Co., Ltd. | SYSTEM AND METHOD FOR IMAGE SEGMENTATION |
CN107749061A (zh) * | 2017-09-11 | 2018-03-02 | 天津大学 | 基于改进的全卷积神经网络脑肿瘤图像分割方法及装置 |
CN112424822B (zh) * | 2018-08-06 | 2024-07-23 | 株式会社岛津制作所 | 生成学习用数据集的方法、学习完毕模型的生成方法及图像解析装置 |
-
2018
- 2018-10-22 EP EP18201798.8A patent/EP3644275A1/en not_active Withdrawn
-
2019
- 2019-10-14 WO PCT/EP2019/077684 patent/WO2020083676A1/en unknown
- 2019-10-14 EP EP19783349.4A patent/EP3871189A1/en active Pending
- 2019-10-14 CN CN201980069767.0A patent/CN112912924B/zh active Active
- 2019-10-14 US US17/287,142 patent/US20210390707A1/en active Pending
- 2019-10-14 JP JP2021521462A patent/JP7401537B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6999620B1 (en) * | 2001-12-10 | 2006-02-14 | Hewlett-Packard Development Company, L.P. | Segmenting video input using high-level feedback |
JP2007530088A (ja) * | 2003-07-16 | 2007-11-01 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オブジェクト特有のセグメンテーション |
US20150294476A1 (en) * | 2012-10-30 | 2015-10-15 | Hewlett-Packard Development Company, L.P. | Object Segmentation |
US20170301085A1 (en) * | 2014-09-11 | 2017-10-19 | B.G. Negev Technologies And Applications Ltd. (Ben Gurion University | Interactive segmentation |
WO2018119358A1 (en) * | 2016-12-23 | 2018-06-28 | Heartflow, Inc. | Systems and methods for probabilistic segmentation in anatomical image processing |
Non-Patent Citations (1)
Title |
---|
KAMBIZ FROUNCHI; ET AL: "AUTOMATING IMAGE SEGMENTATION VERIFICATION AND VALIDATION BY LEARNING TEST ORACLES", INFORMATION AND SOFTWARE TECHNOLOGY, vol. VOL:53, NR:12, JPN5022000800, 24 June 2011 (2011-06-24), NL, pages 1337 - 1348, ISSN: 0005102933 * |
Also Published As
Publication number | Publication date |
---|---|
EP3871189A1 (en) | 2021-09-01 |
US20210390707A1 (en) | 2021-12-16 |
EP3644275A1 (en) | 2020-04-29 |
CN112912924B (zh) | 2024-05-14 |
WO2020083676A1 (en) | 2020-04-30 |
CN112912924A (zh) | 2021-06-04 |
JP7401537B2 (ja) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11568533B2 (en) | Automated classification and taxonomy of 3D teeth data using deep learning methods | |
EP3657437B1 (en) | Automatic detection and quantification of the aorta from medical images | |
JP6636678B2 (ja) | 画像内物体の注釈付けの学習 | |
JP2021529051A (ja) | 3dオブジェクトの正準ポーズの自動化判定、および深層学習を使った3dオブジェクトの重ね合わせ | |
JP5113077B2 (ja) | 変形可能なメッシュを用いて画像の後処理を容易にする方法 | |
JP7204007B2 (ja) | 画像データ中の病変部の境界の識別 | |
JP7346553B2 (ja) | 深層学習を使用する3dデータセット内のオブジェクトの成長率の決定 | |
CN111047609A (zh) | 肺炎病灶分割方法和装置 | |
JP2023515367A (ja) | モデルへの入力インスタンスの分布外検出 | |
Kohlakala et al. | Deep learning-based dental implant recognition using synthetic X-ray images | |
EP3989172A1 (en) | Method for use in generating a computer-based visualization of 3d medical image data | |
WO2020104301A1 (en) | Interactive iterative image annotation | |
CN117274216B (zh) | 基于水平集分割的超声下颈动脉斑块检测方法及系统 | |
JP7401537B2 (ja) | システム、該システムを備えるワークステーション及び撮像装置、並びにコンピュータによって実施される方法、該方法をプロセッサシステムに実行させる命令を表す一時的又は非一時的データを含むコンピュータ可読媒体 | |
US20220415021A1 (en) | Data augmentation for a machine learning method | |
JP5954846B2 (ja) | 形状データ生成プログラム、形状データ生成方法及び形状データ生成装置 | |
Kazi et al. | Automatic segmentation of the left atrium from computed tomography angiography images | |
US12086981B2 (en) | Methods and systems for computer-assisted medical image analysis using sequential model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221013 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230710 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7401537 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |