JP2020185374A - 医療画像で病変の視覚化を補助する方法およびこれを利用した装置 - Google Patents

医療画像で病変の視覚化を補助する方法およびこれを利用した装置 Download PDF

Info

Publication number
JP2020185374A
JP2020185374A JP2020041258A JP2020041258A JP2020185374A JP 2020185374 A JP2020185374 A JP 2020185374A JP 2020041258 A JP2020041258 A JP 2020041258A JP 2020041258 A JP2020041258 A JP 2020041258A JP 2020185374 A JP2020185374 A JP 2020185374A
Authority
JP
Japan
Prior art keywords
lesion
mask
user input
medical image
lesion mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020041258A
Other languages
English (en)
Inventor
グァンビン バク
Gwangbeen Park
グァンビン バク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vuno Inc
Original Assignee
Vuno Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vuno Inc filed Critical Vuno Inc
Publication of JP2020185374A publication Critical patent/JP2020185374A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

【課題】本発明は、医療画像で病変の視覚化を補助する方法およびこれを利用した装置に関する。【解決手段】具体的に、本発明に係る方法によると、病変視覚化補助方法は、前記医療画像で病変領域を示す病変マスクを修正するために、前記医療画像の一地点を選択するユーザ入力を受信し、受信した前記ユーザ入力に応じて修正された病変マスクを生成し、前記医療画像と前記修正された病変マスクをともに提供する。【選択図】図4

Description

本発明は、医療画像で病変の視覚化を補助する方法およびこれを利用した装置に関する。
病変マスクとは、医療画像内で病変の領域を示すものであって、医療画像に重ねて表示されることがある。医師の所見によっては、同じ医療画像であっても病変領域が異なって判断されることがあり、医師の判断に基づいて病変マスクを修正することのできる手段が求められている。病変マスクを修正するための従来の方式として、医療画像から病変を読影する読影者が、追加の病変領域として判断される領域に「ペイントツール」として提供されるマウスポインタを利用して色をつけることにより、病変マスクを修正することができた。また、読影者が、提供された病変マスクから病変領域でないと判断される領域を「削除ツール」として提供されるマウスポインタを利用して消すことによって病変マスクを修正することができた。
さらに、医療画像がCT(computed tomography)画像のような3次元画像である場合、病変マスクを修正するためには関連する断層画像をすべて修正する必要があり、マウスポインタを利用して修正すべき領域に色をつけたり消したりするような従来の方式では、その効率性が低下するという問題を抱えていた。
したがって、本明細書では、医療画像で病変マスクを容易に修正することができる方法およびこれを利用した装置を提案しようとする。
本明細書において説明する発明、すなわち、本発明は、クリックのような単一のユーザ入力に基づき、医療画像で病変領域を示す病変マスクを簡単に修正することができるインタフェースを提供することを目的とする。
より具体的に、医師の所見に応じて繰り返し修正が加えられる病変マスクにおいて、本発明は、病変マスクの領域に色をつけたり消したりすることで病変マスクを修正していた従来の方式よりも、効率的な修正手段を提供することを目的とする。
上述したような本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成について、以下のように説明する。
本発明は、医療画像で病変の視覚化を補助する方法を提供するものであって、この方法によると、医療画像で病変領域を示す病変マスクを修正するために、前記医療画像から一地点を選択するユーザ入力を受信する段階、受信した前記ユーザ入力に応じて修正された病変マスクを生成する段階、および前記医療画像と前記修正された病変マスクをともに提供する段階を含む。
本発明の一実施形態によると、本発明の病変視覚化補助方法を実行するように実現される命令語(instructions)を含む、機械読み取り可能な非一時的な記録媒体に記録される、コンピュータプログラムが提供される。
また、本発明は、医療画像で病変の視覚化を補助するコンピュータ装置を提供するものであって、このコンピュータ装置は、病変領域を示す病変マスクが結合された医療画像において、前記病変マスクを修正するための前記医療画像から一地点を選択するユーザ入力を感知する通信部、および受信した前記ユーザ入力に対応して修正された病変マスクを生成するプロセッサを含み、前記プロセッサは、前記通信部と連動する出力装置によって前記修正された病変マスクが結合された医療画像を提供するように支援してよい。
本発明によると、単一クリックのような簡単なユーザ入力によって病変マスクを修正することができ、これにより、読影者は、マウスポイントを利用して該当領域に色をつけたり消したりすることによって病変マスクを修正していた従来の方式に比べ、より効率的に病変マスクを修正することができる。
したがって、本発明によると、読影者によって病変の判断に多数の相異が生じる読影分野において読影の速度と質を向上させることができ、医療現場におけるワークフロー(work flow)の発展に繋がる究極的な効果が期待される。
また、本発明は、患者の医療画像の病変を読影する医療現場はもちろん、画像読影能力を育てるための教育過程でも有効活用され、教育課程の効率性を高めることができる。
本発明の実施形態をより詳しく説明するために添付された図面は、本発明の実施形態の一部に過ぎず、本発明が属する技術分野において通常の知識を有する者であれば、本図面から容易に他の図面を得ることができるであろう。
本発明による病変視覚化補助方法を概略的に説明するための図である。 本発明による病変視覚化補助方法を実行するコンピュータ装置の例示的な構成を示した概略図である。 本発明による病変視覚化補助方法を実行するコンピュータ装置のハードウェアまたはソフトウェア構成要素を例示的に示したブロック図である。 本明細書による病変視覚化補助方法を例示的に示したフローチャートである。 本明細書による病変視覚化補助方法に使用されるニューラルネットワークの一例を示した図である。 本明細書による病変視覚化方法が適用された一例を示した図である。
後述する本発明の詳細な説明は、本発明の目的、技術的解法、ならびに長所を明確にするために、発明を実施することのできる特定の実施形態を例示した添付の図面を参照しながら説明する。これらの実施形態は、当業者が本発明を実施することができるように詳しく説明する。
本発明の詳細な説明および特許請求の範囲の全般にわたって用いられる用語である「画像」または「画像データ」は、離散的な画像要素(例えば、2次元画像ではピクセル、3次元画像ではボクセル)で構成された多次元データを意味する。
例えば、「画像」は、コーンビーム(cone−beam)コンピュータ断層撮影(computed tomography)、MRI(magnetic resonance imaging)、超音波、または本発明の技術分野において公知の任意の他の医療画像システムによって収集された非検体(subject)の医療画像であってよい。また、画像は、非医療的な脈絡で提供されるものであってもよく、例えば、リモートセンシングシステム(remote sensing system)や電子顕微鏡(electron microscopy)などが挙げられてよい。
本発明の詳細な説明および特許請求の範囲の全般にわたって用いられる用語である「画像」とは、(例えば、ビデオ画面に表示された)肉眼で確認することのできる画像、または(例えば、CT、MRI検出器などのピクセル出力に対応するファイルのような)画像のデジタル表現物を意味する用語である。
説明の便宜のために、添付の図面では、コーンビーム断層撮影(cone−beam computed tomography:CBCT)の画像データを例示的な画像形式(modality)として示した。しかし、当業者であれば、本発明の多様な実施形態で利用される画像形式が、X線画像、MRI、CT、PET(positron emission tomography)、PET−CT、SPECT、SPECT−CT、MR−PET、3D超音波画像などを含み、例示された形式に限定されないという点を理解することができるであろう。
本発明の詳細な説明および特許請求の範囲の全般にわたって用いられる用語である「DICOM(Digital Imaging and Communications in Medicine:医療用デジタル画像および通信)」標準は、医療用機器においてデジタル画像表現と通信に利用される多様な標準を総称した用語であり、これは米国放射線医会(ACR)と米国電機工業会(NEMA)で構成された連合委員会で発表された。
本発明の詳細な説明および特許請求の範囲の全般にわたって用いられる用語である「医療用画像保存通信システム(Picture Archiving and Communication System:PACS)」は、DICOM標準に合うように保存、加工、通信を行うシステムを意味するものであり、X線、CT、MRIのようなデジタル医療画像装備から得られた医療画像はDICOM形式で保存され、ネットワークを介して病院内外の端末に送信可能であり、これに読影結果や診療記録が追加されることもある。
本発明の詳細な説明および特許請求の範囲の全般にわたって用いられる用語である「学習」あるいは「ラーニング」は、順序を踏んだコンピューティング(computing)によって機械学習(machine learning)を実行することを意味するものであり、人間の教育活動のような精神的作用を意味するものでないということは、当業者であれば容易に理解することができるであろう。
本明細書の詳細な説明および特許請求の範囲の全般にわたって用いられる用語である「含む」という単語とこの変形は、他の技術的特徴、付加物、構成要素、または段階を除外することを意図するものではない。さらに、「1つ」または「1」は1つ以上という意味として使用されるものであり、「また他の」は少なくとも2番目以上に限定される。
当業者であれば、本発明の他の目的、長所、および特性が、一部は本説明書から、さらに一部は本発明の実施形態から、明らかにできるであろう。以下で説明する例示および図面は実施形態として提供されるが、これによって本発明が限定されることはない。したがって、特定の構造や機能に関し、本発明で開示する詳細事項が限定的な意味として解釈されてはならず、当業者が実質的に適切な任意の詳細構造として本発明を多様に実施できるように指針を提供するための代表的な基礎資料として解釈されなければならない。
また、本発明は、本明細書に示される実施形態のすべての可能な組み合わせを含む。本発明の多様な実施形態は、互いに異なるが、互いに排他的である必要はないことが理解されなければならない。例えば、ここに記載されている特定の形状、構造、および特性は、一実施形態に関連するものであり、本発明の思想および範囲を逸脱しない限り、他の実施形態によって実現されてよい。また、開示されるそれぞれの実施形態内の個別の構成要素の位置または配置は、本発明の思想および範囲を逸脱しない限り、変更可能であることが理解されなければならない。したがって、後述する詳細な説明は、限定的な意味として解釈されてはならず、本発明の範囲は、適切に説明されるのであれば、特許請求の範囲が主張するものと均等なすべての範囲とともに、添付の特許請求の範囲によってのみ限定される。図面における類似の参照符号は、多側面にわたって同一あるいは類似の機能を示す。
本明細書において異なって表示されるか文脈において明らかに矛盾しない限り、単数で示される項目は、その文脈で特別な要求がない限り、複数の意味合いも含む。さらに、本発明の説明において、関連する公知の構成または機能についての具体的な説明が本発明の要旨を不明瞭にし得ると判断される場合には、これに関する詳細な説明は省略する。
以下、通常の技術者が本発明を容易に実施できるようにするために、本発明の好ましい実施形態について、添付の図面を参照しながら詳細に説明する。
図1は、本発明による病変視覚化補助方法を概略的に説明するための図である。
図1(a)は、病変領域を示す病変マスクが重ねられた肺画像を提供するインタフェース110の一例であって、インタフェース110は、サブ画面120、130、140、150によって多様な時点の医療画像を提供する。各サブ画面120、130、140、150で提供される医療画像では、病変マスク121、131、141、151によって病変領域が視覚化されてよい。医療画像を読影する読影者は、サブ画面120、130、140、150の画像によって多様な角度から病変領域を観察することができ、これによって病変の大きさや体積などを正確に読影することができる。
本発明による病変視覚化補助方法は、クリックやタッチのような単一のユーザ入力によって病変マスクを容易に修正することができるインタフェースを提供する。
具体的に、図1(b)に示すように、病変マスク161が適用された医療画像160において、病変マスク161に一領域を追加するためのユーザ入力162が受信された場合、画像病変視覚化補助装置は、ユーザ入力162が選択した領域を病変マスク161に追加して病変マスク171を生成し、生成された病変マスク171を重ねた医療画像170を提供してよい。
また、病変マスク181が適用された医療画像180において、病変マスク181から一領域を取り除くためのユーザ入力182が受信された場合、画像病変視覚化補助装置は、ユーザ入力182が選択した領域を取り除いた病変マスク191を重ねた医療画像190を提供してよい。
病変マスクを修正する過程において、修正するすべての領域に色をつけたり消したりするユーザ入力が必要であった従来の方式に比べ、本発明の病変視覚化補助方法は、クリックやタッチのような単一のユーザ入力によって病変マスクを簡単かつ効率的に修正する手段を提供することができる。
図2は、本発明による病変視覚化補助方法を実行するコンピュータ装置の例示的な構成を示した概略図である。
本発明の一実施形態に係るコンピュータ装置200は、通信部210およびプロセッサ220を含み、前記通信部210を通じて外部コンピュータ装置(図示せず)と直接的あるいは間接的に通信してよい。
具体的に、前記コンピュータ装置200は、典型的なコンピュータハードウェア(例えば、コンピュータプロセッサ、メモリ、ストレージ、入力/出力装置、その他の従来のコンピュータ装置の構成要素を含むことのできる装置、ルータ、スイッチなどのような電子通信装置、ネットワークアタッチトストレージ(network−attached storage:NAS)およびストレージエリアネットワーク(storage area network:SAN)のような電子情報ストレージシステム)とコンピュータソフトウェア(すなわち、コンピュータ装置が特定の方式によって機能するようにする命令語)との組み合わせを利用することによって所望するシステム性能を達成するものであってよい。
このようなコンピュータ装置の通信部210は、連動する他のコンピュータ装置と要求および応答を送受信してよく、一例として、このような要求と応答は、同一のTCP(transmission control protocol)セッション(session)によって実行されてよいが、これに限定されることはなく、例えば、UDP(user datagram protocol)データグラム(datagram)として送受信されてもよい。さらに広い意味での前記通信部210としては、命令語または指示などを伝達するためのキーボードやマウスのようなポインティングデバイス(pointing device)、その他の外部入力装置、プリンタ、ディスプレイ、その他の外部出力装置が含まれてもよい。
また、コンピュータ装置のプロセッサ220は、MPU(micro processing unit)、CPU(central processing unit)、GPU(graphics processing unit)またはTPU(tensor processing unit)、キャッシュメモリ(cache memory)、データバス(data bus)などのハードウェア構成を含んでよい。さらに、オペレーティングシステムや、特定の目的を実行するアプリケーションのソフトウェア構成をさらに含んでもよい。
図3は、本発明による病変視覚化補助方法を実行するコンピュータ装置のハードウェアまたはソフトウェア構成要素を例示的に示したブロック図である。
図3を参照しながら、本発明に係る方法および装置の構成について簡単に説明すると、コンピュータ装置200は、構成要素として、画像取得モジュール310を含んでよい。画像取得モジュール310は、本発明に係る方法が適用された医療画像を取得するように構成されており、図3に示した個別のモジュールは、例えば、コンピュータ装置200に含まれる通信部210やプロセッサ220、または前記通信部210およびプロセッサ220との連動によって実現可能であることは、当業者であれば容易に理解することができるであろう。医療画像は、例えば、通信部210と連動する撮影機器または医療画像保存通信システム(PACS)のような外部画像保存システムから取得されてよいが、これに限定されることはない。例えば、医療画像は、(医療)画像撮影機器によって撮影されてDICOM標準に基づいてPACSに送られた後、コンピュータ装置200の画像取得モジュール310によって取得されてよい。
次に、取得した医療画像は、病変判定モジュール320に伝達される。病変判定モジュール320は、医療画像から病変の疑いのある領域を判定するように構成される。この病変判定モジュール320は、医療画像の各ピクセルが病変領域に該当するかを判定するための病変判定モデル(lesion determination model)や、少なくともこれと関連するモジュールであってよい。
病変判定モジュールあるいは病変判定モデル320の一例としてディープラーニングモデル(deep learning model)が挙げられてよく、これに関しては、ニューラルネットワークを多層に積み上げた形態であると簡単に説明する。すなわち、深い構造をもつネットワークという意味をもつことからディープニューラルネットワーク(deep neural network)と表現され、多層のネットワークからなる構造によって大量のデータを学習させることで各画像の特徴を自動で学習し、これによって目的関数の誤差(error)を最小化させる方法によってネットワークを学習させていく形態である。これは、人間の脳の神経細胞の仕組みを模倣したと言われており、このようなディープニューラルネットワークは、AIの次世代モデルとして定着しつつある。このようなディープラーニングモデルの中でも特に畳み込みニューラルネットワーク(convolutional neural network:CNN)は、イメージの分類に適したモデルであり、イメージの各領域から複数のフィルタを利用して特徴地図(feature map)を作り出す合成層(convolution layer)と、特徴地図の大きさを減らして位置や回転の変化にも不変な特徴を抽出できるようにするサブサンプリングレイヤ(sub−sampling layer)とを繰り返すことにより、点、線、面などの低水準の特徴から複雑かつ有意な高水準の特徴まで多様な特徴を抽出することができ、これによって医療画像から特徴のある部分、すなわち病変の疑いを抽出することができる。
しかし、当業者であれば、病変判定モジュールあるいは病変判定モデルが、このようなCNNだけに限定されないという点を理解できるはずであり、多様な種類の機械学習モデルまたは統計モデルが利用されてもよい。具体的に、病変判定モジュール320は、規則基盤ニューラルネットワーク(rule−based neural network)、学習基盤ニューラルネットワーク(learning−based neural network)、またはユーザが病変領域を直接ラベリング(labeling)する方式のうちのいずれか1つによって病変を判定してよい。
病変判定モジュール320による病変判定結果に基づき、病変マスク生成モジュール330は、病変領域に対応する病変マスクを生成してよい。病変マスクは、医療画像に含まれた病変領域と医療画像とを区別する要素で表示することにより、読影者が病変領域を容易に識別できるようにする要素であってよい。例えば、病変マスクは、図1に示すように、所定の病変領域を予め定められた色で表示したものであってよいが、病変マスクの形態がこのように提示された例に限定されてはならず、医療画像と病変領域とを区別することのできる任意の方式によって生成されてよい。
出力モジュール340は、通信部210を通じて連結する所定の出力装置によって医療画像に病変マスクを重ねて提供、例えば、表示してよい。
出力モジュール340によって提供された病変マスクは、読影者の所見に基づいて修正可能であり、読影者は、単一的なクリックまたはタッチによって病変マスクの一部領域を病変マスクから取り除いたり、隣接領域を病変マスクに追加したりすることができる。
ユーザ入力取得モジュール350は、通信部210を通じて病変マスク修正のためのユーザ入力を受信してよく、受信されたユーザ入力に基づき、病変マスク修正モジュール360は、病変マスク生成モジュール330によって生成された病変マスクを修正してよい。
出力モジュール340は、通信部210を通じて連結する出力装置により、外部エンティティ(entity)に医療画像、および病変マスク修正モジュール360によって修正された病変マスクを重ねて出力してよい。
ここで、外部エンティティとは、前記コンピュータ装置200の使用者、管理者、前記非検体を担当する担当医療専門家などを含んでよく、この他にも、前記医療画像の閲覧あるいは読影を必要とする主体であれば、すべて含まれるものと解釈されなければならない。
図3に示した各構成要素の具体的な機能および効果について、以下で詳しく説明する。図3に示した構成要素は、説明の便宜上、1つのコンピュータ装置で実現されるように示されているが、本発明の方法を実行するコンピュータ装置200は、複数の装置が互いに連動するように構成されてもよいという点が理解されなければならない。
以下、本発明による病変視覚化補助方法について、図4〜6を参照しながら具体的に説明する。
図4は、本発明による病変視覚化補助方法を例示的に示したフローチャートであり、図4は、本発明の一実施形態による病変視覚化補助方法の一例を概略的に示した概念図である。
図4を参照すると、本発明による病変視覚化補助方法は、全体的に、病変マスク生成モジュール330によって提供された病変マスクを修正するためのユーザ入力が感知されると(段階S100)、コンピュータ装置は、病変マスク修正モジュール360により、感知されたユーザ入力がなされた地点が従来の病変マスク領域に該当するかを判断してよい。
段階S200で、ユーザ入力がなされた地点が病変マスクの内部領域に該当する場合、病変マスク修正モジュール360は、段階S300で、ユーザ入力によって決定された選択領域が取り除かれた病変マスクに基づいて修正された病変マスクを生成してよい。例えば、選択領域は、ユーザ入力がなされた地点を基準として予め設定された半径に該当する領域として決定されてよく、ユーザ入力に基づいて選択領域を決定する方式は、ユーザ入力がなされた地点を基準として選択領域を決定する任意の方式を含んでよい。
一実施形態によると、病変マスク修正モジュール360は、予め学習されたニューラルネットワークに従来の病変マスクおよび選択領域に関する情報を入力して生成された複数の病変マスクのうち、選択領域が取り除かれた病変マスクに基づいて修正された病変マスクを生成してよい。より具体的に、病変マスク修正モジュール360は、予め学習されたニューラルネットワークに従来の病変マスクに関する情報および選択領域に対応する3次元パッチに関する情報を入力して生成された複数の病変マスクのうちで修正前の病変マスクの領域を含み、ユーザ入力によって決定された、選択領域を含まない病変マスクに基づいて修正された病変マスクを生成してよい。段階S500、コンピュータ装置は、修正された病変マスクを重ねた医療画像を、出力モジュール340を通じて外部エンティティに提供、例えば、表示してよい。 3次元パッチは3次元形態の医療映像で一支店を選択するユーザ入力に基づいて決定される任意の形の入力情報を意味することができる。例えば、3次元パッチは、ユーザー入力が実行された地点を基準に3次元医療映像内で決定される任意の形の領域に対する情報に対応できるが、3次元パッチがユーザ入力に基づいて3次元医療映像で任意の方式で決定されることは通常の技術者が理解することだ。
他の実施形態によると、病変マスク修正モジュール360は、予め学習されたニューラルネットワークに従来の病変マスクに関する情報および選択領域に関する情報を入力して生成された複数の病変マスクのうちで選択領域が取り除かれた複数の候補病変マスクをユーザに提供し、ユーザ入力によって選択されたいずれか1つの候補病変マスクを最終的な病変マスクとして決定してよい。例えば、病変マスク修正モジュール360は、ユーザ入力がなされた地点を基準として互いに異なる半径で選択領域を決定し、それぞれの選択領域が取り除かれた病変マスクを候補病変マスクとして決定してよい。候補病変マスクを選択する方式は、提示された例に限定されてはならず、ニューラルネットワークによって生成された病変マスクのうちでユーザ入力による選択領域が取り除かれた複数の候補病変マスクを決定する任意の方式を含んでよい。
段階S200で、ユーザ入力がなされた地点が病変マスクの外部領域に該当する場合、病変マスク修正モジュール360は、段階S300で、ユーザ入力によって決定される選択領域をさらに含む病変マスクに基づいて修正された病変マスクを生成してよい。
一実施形態によると、病変マスク修正モジュール360は、予め学習されたニューラルネットワークに従来の病変マスクに関する情報、選択領域に関する情報を入力して生成された複数の病変マスクのうち、選択領域を含む病変マスクに基づいて修正された病変マスクを生成してよい。より具体的に、病変マスク修正モジュール360は、予め学習されたニューラルネットワークに従来の病変マスクが適用された医療画像に関する情報および選択領域に関する情報を入力して生成された複数の病変マスクのうち、修正前の病変マスクの領域および選択領域を含む病変マスクに基づいて修正された病変マスクを生成してよい。コンピュータ装置は、段階S500で、修正された病変マスクを重ねた医療画像を、出力モジュール340を通じて外部エンティティに提供してよい。
また他の実施形態によると、病変マスク修正モジュール360は、予め学習されたニューラルネットワークに従来の病変マスクが適用された医療画像に関する情報および選択領域に関する情報を入力して生成された複数の病変マスクのうち、修正前の病変マスクの領域および選択領域を含む複数の候補病変マスクをユーザに提供し、ユーザ入力によって選択されたいずれか1つの候補病変マスクを最終的な病変マスクとして決定してよい。
図5は、本発明による病変視覚化補助方法に使用されるニューラルネットワークの一例を示した図である。
図5に示したニューラルネットワーク510は、従来の病変マスク522に関する情報およびユーザ入力によって決定される選択領域に対応する3次元パッチ521に基づいて複数の病変マスク530を出力してよい。
ニューラルネットワーク510は、医療画像セグメンテーションに使用されるU−Net511とCVAE(conditional variational auto encoder)512の結合によって生成されてよい。CVAE512は、セグメンテーションバリアント(segmentation variant)がそれぞれの位置にエンコードされたマップ513と、入力に基づいてそれぞれのセグメンテーションバリアントの確率を推定する事前ネットワーク514を含んでよい。
それぞれの病変マスク530を生成する過程において、ニューラルネットワーク510のCVAE512は、マップ513からエンコードされたいずれか1つのサンプル(Z_、Z_、Z_・・・)を抽出し、ニューラルネットワーク510は、抽出されたサンプルおよびU−Net511からの出力に基づいて病変マスク530を生成してよい。
ニューラルネットワーク510は、トレーニングデータによって予測される病変マスクとground truthデータに基づいてセグメンテーションバリアントに対する最適な組み込み(embedding)を決定することによって学習されてよい。
図6は、本発明による病変視覚化方法が適用された一例を示した図である。
図6(a)を参照すると、読影者は、病変マスク611が重ねられた医療画像610において、所定の領域を病変マスクに含ませるユーザ入力612を実行してよい。ユーザ入力612を感知したコンピュータ装置は、予め学習されたニューラルネットワークを利用し、病変マスク611およびユーザ入力612によって生成される複数の病変マスクのうちで予め決定された条件に基づき、読影者の意図が最も適切に反映されているとして決定された病変マスクが重ねられた医療画像620を表示してよい。読影者の意図が最も適切に反映された病変マスクとは、ユーザ入力612によって決定される選択領域がすべて追加または取り除かれた病変マスクに該当してよい。表示された医療画像620が読影者の意図に合わない場合、読影者は医療画像620に修正のためのユーザ入力を追加してよく、コンピュータ装置は、追加のユーザ入力および病変マスクに基づいて修正された病変マスクを提供してよい。病変マスクの修正は、読影者による追加修正の要求が終わるまで繰り返されてよい。
図6(b)は、他の実施形態よる病変視覚化補助方法が適用された一例を示した図である。読影者が提供された医療画像630の病変マスク631を修正するためにユーザ入力632を行った場合、ユーザ入力632を感知したコンピュータ装置は、予め学習されたニューラルネットワークを利用してユーザ入力632が反映された複数の病変マスクを生成し、生成された病変マスクのうちから読影者の意図が最も適切に反映された所定の候補病変マスク641、642、643を提供してよい。コンピュータ装置は、候補病変マスク641、642、643のうちから読影者が選択した病変マスク641が重ねられた医療画像650を表示してよい。
上述した実施形態の説明に基づき、当業者であれば、本発明の方法および/またはプロセス、またはその段階が、ハードウェア、ソフトウェア、または特定の用例に適合したハードウェアおよびソフトウェアの任意の組み合わせによって実現されるという点を明確に理解することができるであろう。前記ハードウェアは、汎用コンピュータおよび/または専用コンピュータ装置、または特定のコンピュータ装置または特定のコンピュータ装置の特別な形態または構成要素を含んでよい。前記プロセスは、内部および/または外部メモリを有する、1つ以上のマイクロプロセッサ、マイクロコントローラ、組み込みマイクロコントローラ、プログラマブルデジタル信号プロセッサ、またはその他のプログラマブル装置によって実現されてよい。また、あるいは代案として、前記プロセスは、特定用途向け集積回路(application specific integrated circuit:ASIC)、プログラマブルゲートアレイ(programmable gate array)、プログラマブルアレイロジック(Programmable Array Logic:PAL)、または電子信号を処理するために構成されることのできる任意の他の装置または装置の組み合わせによって実施されてよい。さらに、本発明の技術的解法の対象物または先行技術に寄与する部分は、多様なコンピュータ構成要素によって実行されることのできるプログラム命令語の形態で実現されて機械読み取り可能な記録媒体に記録されてよい。前記機械読み取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独または組み合わせて含んでよい。前記機械読み取り可能な記録媒体に記録されるプログラム命令語は、本発明のために特別に設計されて構成されたものであっても、コンピュータソフトウェア分野の当業者に公知の使用可能なものであってもよい。機械読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスク、および磁気テープのような磁気媒体、CD−ROM、DVD、Blu−ray(登録商標)のような光記録媒体、フロプティカルディスク(floptical disk)のような光磁気媒体(magneto−optical media)、およびROM、RAM、フラッシュメモリなどのようなプログラム命令語を記録して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、上述した装置のうちのいずれか1つだけでなく、プロセッサ、プロセッサアーキテクチャ、または相異するハードウェアおよびソフトウェアの組み合わせによる異種結合、または他のいずれかのプログラム命令語を実行することのできる機械上で実行されるために記録およびコンパイルまたはインタプリタされることのできる、Cのような構造的プログラミング言語、C++のようなオブジェクト志向プログラミング言語、または高級または低級プログラミング言語(アセンブリ語、ハードウェア技術言語、およびデータベースプログラミング言語および技術)を使用して生成されてよく、機械語コードやバイトコードはもちろん、インタプリタなどを使用してコンピュータによって実行されることのできる高級言語コードもこれに含まれる。
したがって、本発明に係る一実施形態では、上述した方法およびその組み合わせが1つ以上のコンピュータ装置によって実行されるときに、その方法および方法の組み合わせが各段階を実行させる実行可能なコードとして実施されてよい。他の実施形態では、前記方法は、前記段階を実行するシステムによって実施されてよく、方法は、装置にわたって多様な状態に分散されても、すべての機能が1つの専用、独立型装置、または他のハードウェアに統合されてもよい。さらに他の実施形態では、上述したプロセスと関連する段階を実行する手段は、上述した任意のハードウェアおよび/またはソフトウェアを含んでよい。このようなすべての順次結合および組み合わせは、本発明の範囲内に属するように意図されたものである。
例えば、上述したハードウェア装置は、本発明に係る処理を実行するために1つ以上のソフトウェアモジュールとして作動するように構成されてよく、その逆も同じである。前記ハードウェア装置は、プログラム命令語を記録するためのROM/RAMのようなメモリと結合し、前記メモリに記録された命令語を実行するように構成されるMPU、CPU、GPU、TPUのようなプロセッサを含んでよく、外部装置と信号をやり取りすることのできる通信部を含んでよい。さらに、前記ハードウェア装置は、開発者によって作成された命令語を伝達するためのキーボード、マウス、またはその他の外部入力装置を含んでよい。
以上のように、実施形態について、具体的な構成要素などのような特定の事項と限定された実施形態および図面に基づいて説明したが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明がこのような実施形態に限定されてはならず、当業者であれば、このような記載から多様な修正および変形が可能であろう。
したがって、本発明の思想は、上述した実施形態に極限されて定められてはならず、添付の特許請求の範囲と均等であるか等価的に変更されたすべてのものは、本発明の思想の範囲に属する。
このように均等であるか等価的に変形されたものには、例えば、本発明に係る方法を実施したときと同じ結果を導き出すことのできる、論理的に同値(logically equivalent)の方法が含まれてよく、本発明の真意および範囲が上述した実施形態に制限されてはならず、法律に基づいて許容可能な最も広い意味として解釈されなければならない。
210:通信部
220:プロセッサ

Claims (6)

  1. 医療画像で病変の視覚化を補助する方法であって、
    前記医療画像で病変領域を示す病変マスクを修正するために、前記医療画像から一地点を選択するユーザ入力を受信する段階、
    受信した前記ユーザ入力に応じて修正された病変マスクを生成する段階、および
    前記医療画像と前記修正された病変マスクをともに提供する段階
    を含み、
    前記修正された病変マスクを生成する段階は、
    前記ユーザ入力によって決定される選択領域に対応する3次元パッチに関する情報に基づいて互いに異なる複数の候補病変マスクを生成するように予め学習されたニューラルネットワークにより、互いに異なる複数の候補病変マスクを生成する段階、
    前記複数の候補病変マスクがそれぞれ適用された候補医療画像を提供する段階、および
    前記候補医療画像のうちからユーザ入力によって選択された候補医療画像に対応する病変マスクを、前記修正された病変マスクとして決定する段階
    を含み、
    前記互いに異なる複数の候補病変マスクを生成する段階は、
    前記一地点を基準として互いに異なる形態で決定される、複数の選択領域それぞれを前記病変マスクから取り除くか、前記複数の選択領域それぞれを前記病変マスクに追加することによって生成する、
    病変視覚化補助方法。
  2. 前記生成する段階において、
    前記ユーザ入力が前記病変マスクの内部地点を選択する第1ユーザ入力に対応する場合、前記内部地点に対応する所定の領域を取り除くことによって前記修正された病変マスクが生成され、
    前記ユーザ入力が前記病変マスクの外部地点を選択する第2ユーザ入力に対応する場合、前記外部地点に対応する所定の領域を追加することによって前記修正された病変マスクが生成される、
    請求項1に記載の病変視覚化補助方法。
  3. 前記生成する段階において、
    予め学習されたニューラルネットワークで前記ユーザ入力に応じて前記医療画像に対して出力される複数の病変マスクのうち、予め設定された条件に基づいて選択されたいずれか1つの病変マスクを前記修正された病変マスクとして決定する、
    請求項1に記載の病変視覚化補助方法。
  4. 請求項1項に記載の方法をコンピュータ装置によって実行するように実現される命令語(instructions)を含む、機械読み取り可能な非一時的な記録媒体に記録された、コンピュータプログラム。
  5. 医療画像で病変の視覚化を補助するコンピュータ装置であって、
    病変領域を示す病変マスクが結合された医療画像において、前記病変マスクを修正するための前記医療画像から一地点を選択するユーザ入力を感知する通信部、および
    受信した前記ユーザ入力に対応する修正された病変マスクを生成するプロセッサ
    を含み、
    前記プロセッサは、
    前記通信部と連動する出力装置により、前記修正された病変マスクが結合された医療画像が提供されるように支援し、
    前記プロセッサは、
    前記ユーザ入力によって決定される選択領域に対応する3次元パッチに関する情報に基づき、互いに異なる複数の候補病変マスクを生成するように予め学習されたニューラルネットワークにより、互いに異なる複数の候補病変マスクを生成し、
    前記複数の候補病変マスクがそれぞれ適用された候補医療画像を外部エンティティに提供し、
    前記候補医療画像のうちからユーザ入力によって選択された候補医療画像に対応する病変マスクを前記修正された病変マスクとして決定し、
    前記複数の候補病変マスクは、
    前記一地点を基準として互いに異なる形態によって決定される複数の選択領域それぞれが前記病変マスクから取り除かれるか、前記複数の選択領域それぞれが前記病変マスクに追加されることによって生成される、
    コンピュータ装置。
  6. 前記病変マスクの内部地点を選択する第1ユーザ入力が感知された場合、前記プロセッサは、前記内部地点に対応する所定の領域を取り除くことによって前記修正された病変マスクを生成し、
    前記病変マスクの外部地点を選択する第2ユーザ入力が感知された場合、前記プロセッサは、前記外部地点に対応する所定の領域を追加することによって前記修正された病変マスクを生成する、
    請求項5に記載のコンピュータ装置。
JP2020041258A 2019-05-14 2020-03-10 医療画像で病変の視覚化を補助する方法およびこれを利用した装置 Pending JP2020185374A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0056142 2019-05-14
KR1020190056142A KR102102255B1 (ko) 2019-05-14 2019-05-14 의료 영상에서 병변의 시각화를 보조하는 방법 및 이를 이용한 장치

Publications (1)

Publication Number Publication Date
JP2020185374A true JP2020185374A (ja) 2020-11-19

Family

ID=70467282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020041258A Pending JP2020185374A (ja) 2019-05-14 2020-03-10 医療画像で病変の視覚化を補助する方法およびこれを利用した装置

Country Status (3)

Country Link
US (2) US11741598B2 (ja)
JP (1) JP2020185374A (ja)
KR (1) KR102102255B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498706B1 (ko) * 2022-06-30 2023-02-09 김수동 장기분할 의료영상의 정확도를 향상시키기 위한 영상보정방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3973508A1 (en) * 2019-05-23 2022-03-30 DeepMind Technologies Limited Sampling latent variables to generate multiple segmentations of an image
US11508061B2 (en) * 2020-02-20 2022-11-22 Siemens Healthcare Gmbh Medical image segmentation with uncertainty estimation
US20210398650A1 (en) * 2020-06-23 2021-12-23 Virtual Radiologic Corporation Medical imaging characteristic detection, workflows, and ai model management
KR102615435B1 (ko) * 2021-02-16 2023-12-20 디디에이치 주식회사 라벨링 방법 및 이를 위한 컴퓨팅 장치
CN113838026B (zh) * 2021-09-22 2024-02-02 中南大学 非小细胞肺癌检测方法、装置、计算机设备和存储介质
CN114334130B (zh) * 2021-12-25 2023-08-22 浙江大学 一种基于脑对称性的pet分子影像计算机辅助诊断系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282124B1 (ko) 2012-03-29 2013-07-04 고려대학교 산학협력단 자기공명영상 장치 및 이를 이용하여 영상을 생성하는 방법
JP6238669B2 (ja) 2012-10-01 2017-11-29 東芝メディカルシステムズ株式会社 画像処理装置及びx線ct装置
KR102123061B1 (ko) * 2012-11-27 2020-06-16 삼성전자주식회사 사용자의 인터랙션을 기반으로 영상 내의 윤곽선을 분할하는 장치 및 방법
WO2014168350A1 (ko) 2013-04-10 2014-10-16 재단법인 아산사회복지재단 폐동맥과 폐정맥을 구분하는 방법 및 이를 이용한 혈관의 정량화 방법
KR101611488B1 (ko) 2014-03-28 2016-04-12 재단법인 아산사회복지재단 의료 영상에서 아티팩트와 병변을 구분하는 방법
KR20160118037A (ko) 2015-04-01 2016-10-11 고려대학교 산학협력단 의료 영상으로부터 병변의 위치를 자동으로 감지하는 장치 및 그 방법
JP7054787B2 (ja) * 2016-12-22 2022-04-15 パナソニックIpマネジメント株式会社 制御方法、情報端末、及びプログラム
KR101762678B1 (ko) * 2016-12-28 2017-08-03 주식회사 이티엑스웍스 병변 영역 검출 장치 및 방법
KR20190049524A (ko) * 2017-10-30 2019-05-09 삼성전자주식회사 의료 영상 전송 방법 및 그에 따른 의료 영상 장치
KR101874348B1 (ko) * 2017-11-21 2018-07-09 주식회사 뷰노 피검체의 흉부 pa 영상의 판독을 지원하는 방법 및 이를 이용한 장치
KR101887194B1 (ko) * 2018-06-20 2018-08-10 주식회사 뷰노 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
KR101898575B1 (ko) * 2018-01-18 2018-09-13 주식회사 뷰노 진행성 병변에 대한 미래 상태를 예측하는 방법 및 이를 이용한 장치
KR101953752B1 (ko) * 2018-05-31 2019-06-17 주식회사 뷰노 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498706B1 (ko) * 2022-06-30 2023-02-09 김수동 장기분할 의료영상의 정확도를 향상시키기 위한 영상보정방법

Also Published As

Publication number Publication date
KR102102255B1 (ko) 2020-04-20
US20200364852A1 (en) 2020-11-19
US11741598B2 (en) 2023-08-29
US20230351594A1 (en) 2023-11-02

Similar Documents

Publication Publication Date Title
JP2020185374A (ja) 医療画像で病変の視覚化を補助する方法およびこれを利用した装置
KR101943011B1 (ko) 피검체의 의료 영상 판독을 지원하는 방법 및 이를 이용한 장치
KR101887194B1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
KR101898575B1 (ko) 진행성 병변에 대한 미래 상태를 예측하는 방법 및 이를 이용한 장치
JP6793994B2 (ja) 一連のスライス画像を再構成する方法およびこれを利用した装置
JP6525912B2 (ja) 画像分類装置、方法およびプログラム
US10997475B2 (en) COPD classification with machine-trained abnormality detection
EP3828818A1 (en) Method and system for identifying pathological changes in follow-up medical images
JP5336370B2 (ja) 効率的診断のための解剖構造に関係した画像コンテキスト依存のアプリケーション
JP6820043B2 (ja) 画像の閲覧を支援する方法およびこれを利用した装置
KR20200131737A (ko) 의료 영상에서 병변의 시각화를 보조하는 방법 및 이를 이용한 장치
CN105167793A (zh) 图像显示装置、显示控制装置及显示控制方法
US20100189322A1 (en) Diagnostic supporting apparatus and method for controlling the same
KR102149369B1 (ko) 의료 영상을 시각화하는 방법 및 이를 이용한 장치
JP6980309B2 (ja) 再構成された画像群に基づく画像提供方法およびこれを利用した装置
CN112529834A (zh) 病理图像模式在3d图像数据中的空间分布
DE202022002994U1 (de) Autofokuswerkzeug für Multimodalitätsbildüberprüfung
US20210327105A1 (en) Systems and methods to semi-automatically segment a 3d medical image using a real-time edge-aware brush
US20230334663A1 (en) Development of medical imaging ai analysis algorithms leveraging image segmentation
JP7163168B2 (ja) 医用画像処理装置、システム及びプログラム
KR102222816B1 (ko) 진행성 병변의 미래 영상을 생성하는 방법 및 이를 이용한 장치
KR102099350B1 (ko) 의료 영상에서 병변의 정량화를 보조하는 방법 및 이를 이용한 장치
Khaniki et al. A Novel Approach to Chest X-ray Lung Segmentation Using U-net and Modified Convolutional Block Attention Module
KR102275622B1 (ko) 재구성된 영상군에 기초한 영상 제공 방법 및 이를 이용한 장치
WO2021095867A1 (ja) 自動手術計画システムおよび手術計画方法並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200415

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200616

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210706