JP7194143B2 - 肝臓腫瘍例のレビューを容易にするシステムおよび方法 - Google Patents

肝臓腫瘍例のレビューを容易にするシステムおよび方法 Download PDF

Info

Publication number
JP7194143B2
JP7194143B2 JP2020054167A JP2020054167A JP7194143B2 JP 7194143 B2 JP7194143 B2 JP 7194143B2 JP 2020054167 A JP2020054167 A JP 2020054167A JP 2020054167 A JP2020054167 A JP 2020054167A JP 7194143 B2 JP7194143 B2 JP 7194143B2
Authority
JP
Japan
Prior art keywords
interest
region
image
organ
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020054167A
Other languages
English (en)
Other versions
JP2020179159A (ja
Inventor
ジェローム・ノプリオック
ジャン-マーク・トレテナール
Original Assignee
ジーイー・プレシジョン・ヘルスケア・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジーイー・プレシジョン・ヘルスケア・エルエルシー filed Critical ジーイー・プレシジョン・ヘルスケア・エルエルシー
Publication of JP2020179159A publication Critical patent/JP2020179159A/ja
Application granted granted Critical
Publication of JP7194143B2 publication Critical patent/JP7194143B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本開示は、一般に、改善された医療システムに関し、より詳細には、医療画像処理のための改善された学習システムおよび方法に関する。
経済的、運用的、技術的、および管理上の様々な障害によって、病院、診療所、医院、撮像センタ、遠隔診断所などの医療施設は、患者に質の高いケアを提供することが困難となる場合がある。経済的要因、スタッフの技術不足、スタッフの減少、設備の複雑化、および医療従事者全体にわたる放射線被ばく線量の管理と標準化のための新たな資格により、患者の検査、診断、および治療のための撮像および情報システムを効果的に管理して使用することが困難となっている。
医療分野では、X線、磁気共鳴画像(MRI)、超音波、コンピュータ断層撮影(CT)、ポジトロン放出断層撮影(PET)などを含む多くの異なる種類の医療スキャンが存在する。患者を病院でスキャンした後、結果の画像を様々な方法で表示することができる。例えば、X線をフィルムに印刷して放射線科医に見せることで怪我を診断することができたり、またはフィルムを患者に見せることで患者ケアの透明化を可能にすることができる。物理的に印刷されたフィルムは、ビューアをスキャンの二次元(2D)ビューに制限する。あるいは、多くの検査をテレビ、コンピュータモニタ、タブレットなどを含むモニタに表示することができる。モニタは、特定の検査用に印刷されたフィルムと比較していくつかの利点を提供し、画像間の迅速なナビゲーションを可能にし得る。モニタに表示されるデジタル画像は、検査の種類に応じて、検査の特定の面積にズームする機能や、異なる視野角に合わせて画像を回転させる機能を提供し得る。デジタルモニタに表示される画像は動的な視点を提供し得るが、この表示方法は、さらに改善することができる。
特定の例は、ユーザインターフェースを介して解剖学的構造画像の内部関心領域を処理する装置、システム、および方法を提供する。
特定の例は、少なくとも1つのプロセッサと、命令を含む少なくとも1つのコンピュータ可読記憶媒体とを含む装置を提供する。命令は、実行されると、少なくとも1つのプロセッサに、少なくとも、画像を処理して画像のノイズを低減させ、画像の関心器官または関心領域の少なくとも1つを識別させ、関心器官または関心領域の少なくとも1つの値を分析させ、分析された値に基づいて関心器官または関心領域の少なくとも1つを処理して関心器官または関心領域の少なくとも1つに処理されたオブジェクトを提供させ、インターフェースを介した相互作用のために処理されたオブジェクトを表示させ、表示は、関心器官または関心領域の少なくとも1つを露出させることを含む。
特定の例は、実行されると、少なくとも1つのプロセッサに、少なくとも、画像を処理して画像のノイズを低減させ、画像の関心器官または関心領域の少なくとも1つを識別させ、関心器官または関心領域の少なくとも1つの値を分析させ、分析された値に基づいて関心器官または関心領域の少なくとも1つを処理して関心器官または関心領域の少なくとも1つに処理されたオブジェクトを提供させ、インターフェースを介した相互作用のために処理されたオブジェクトを表示させ、表示は、関心器官または関心領域の少なくとも1つを露出させることを含む命令を含む少なくとも1つのコンピュータ可読記憶媒体を提供する。
特定の例は、少なくとも1つのプロセッサを使用して命令を実行することによって、画像を処理して画像のノイズを低減することを含むコンピュータ実装方法を提供する。例示的な方法は、少なくとも1つのプロセッサを使用して命令を実行することによって、画像の関心器官または関心領域の少なくとも1つを識別することを含む。例示的な方法は、少なくとも1つのプロセッサを使用して命令を実行することによって、関心器官または関心領域の少なくとも1つの値を分析することを含む。例示的な方法は、少なくとも1つのプロセッサを使用して命令を実行することによって、分析された値に基づいて関心器官または関心領域の少なくとも1つを処理して関心器官または関心領域の少なくとも1つに処理されたオブジェクトを提供することを含む。例示的な方法は、少なくとも1つのプロセッサを使用して命令を実行することによって、インターフェースを介した相互作用のために処理されたオブジェクトを表示することであって、表示は、関心器官または関心領域の少なくとも1つを露出させることを含むことを含む。
例示的な画像処理装置を示す図である。 図1の例示的な装置を使用して処理および表示される画像および関心オブジェクトを含む例示的なインターフェースを示す図である。 図1~図2の装置を使用した画像処理および表示の例示的な方法のフロー図である。 図1~図2の装置を使用した画像処理および表示の例示的な方法のフロー図である。 本明細書で開示および説明される構成要素を実装するために例示的な機械可読命令を実行するように構成されたプロセッサプラットフォームのブロック図である。
前述の概要、ならびに本発明の特定の実施形態の以下の詳細な説明は、添付の図面と併せて読むとよりよく理解されるであろう。本発明を例示する目的のために、特定の実施形態が図面に示されている。しかしながら、本発明は、添付の図面に示される構成および手段に限定されないことを理解されたい。図は、一定の縮尺ではない。可能な限り、同じ参照番号が、同一または同様の部分を指すために、図面および付随の書面による説明の全体を通して使用される。
以下の詳細な説明において、本明細書の一部を形成する添付の図面を参照するが、図面には、実施され得る具体的な例が例示として示されている。これらの例は、本主題の実施を当業者にとって可能にするように十分に詳細に説明されているが、他の例も利用可能であり、本開示の主題の範囲から逸脱することなく論理的、機械的、電気的および他の変更が可能であることを理解すべきである。したがって、以下の詳細な説明は、例示的な実施態様を説明するために提示されており、本開示に記載される主題の範囲を限定するものと解釈されるべきではない。以下の説明の異なる態様からの特定の特徴を組み合わせて、以下で説明する主題のさらに新たな態様を形成することができる。
本開示の様々な実施形態の要素を紹介するとき、「1つの(a、an)」、「この(the)」、および「前記(said)」という冠詞は、それらの要素が1つまたは複数存在することを意味するものとする。「備える(comprising)」、「含む(including)」、および「有する(having)」という用語は、包括的であることを意図し、列挙された要素以外にもさらなる要素が存在してもよいことを意味する。
特定の例が医療またはヘルスケアシステムの文脈において以下で説明されるが、他の例は、医療環境以外の環境で実装することが可能である。
ほとんどの臨床決定は、いくつかのデータソースからの対象となる重要なセットの分析から導き出される。放射線分野では、これは、典型的には、医療画像データからの関心領域の分析を伴う。医療画像分析は、検出、評価、解剖学的異常の進行(例えば、病変、動脈瘤、萎縮など)などの特定の目的のために、紹介医の要求に応じて行われる。画像データを分析および/または場合によっては処理するために、表示、処理、保存などされる画像データから画像が再構成される。
画像再構成は、撮像デバイスによる医療スキャンで得られた撮像データ(例えば、光強度値など)からの2Dおよび/または3D画像の生成を指す。例えば、3DCT画像ボリュームは、CT撮像デバイスによって得られた複数の画像から再構成され得る。画像は、再構成により相関されて画像ボリュームを形成する。
画像再構成は、単一の再構成ステップで画像を直接計算するフィルタード逆投影再構成、または画像の仮定から始まり、その画像から投影を算出し、算出された投影と画像デバイスによって取得された元の投影データとの間の比較に基づいて画像を更新するために反復を行う反復再構成を含み得る。しかしながら、このような仮定および反復により、再構成された画像にノイズが混入する可能性がある。
例示的な画像再構成手法は、適応型統計的反復再構成(ASiR)を含む。ASiRを使用すると、画像データを得るための患者線量の削減に加えて、ピクセルノイズの標準偏差を減らすことができる。ASiRは、生の画像データを処理し、光子統計およびオブジェクトモデリングを使用してノイズを抽出する。反復を通じて、ASiRは、各患者および適用種類についての根本原因をモデリングすることによってノイズを抽出する。
ASiRなどの画像再構成技術は、腫瘍レビュー(例えば、肝臓腫瘍など)などの画像レビューで使用することができる。例えば、腫瘍(例えば、肝臓腫瘍など)のレビュープロセスは、画像データを処理して1つまたは複数の画像を生成することと、1つまたは複数の画像を表示することと、腫瘍の種類(例えば、肝臓および関連する肝臓腫瘍など)に基づいて1つまたは複数の画像の構造を強化するために適用される、腫瘍の種類に合わせたルックアップテーブルを生成することとを含み得る。
例えば、処理は、画像からノイズおよび無関係なパターン情報を除去する手法を使用して、1つまたは複数の画像を前処理および/または再構成することを含むことができる。そのような手法の例は、CT画像のASiR再構成である。他の関連手法は、拡散フィルタ、ガイド付きフィルタなどを含む。特定の例では、機械学習(例えば、深層学習、他のモデルベースの方法など)および/または他の人工知能は、学習/観察された履歴データに基づいてパターンを識別して画像データから画像を再構成するためのモデルの開発、関心特徴を識別するための画像の分析などによって、画像再構成および分析に使用され得る。例えば、人工知能(AI)モデルおよびその関連するアルゴリズムを多数の画像で訓練し、良好なノイズ特性(例えば、ノイズ低減など)のCT画像を再構成することができる。
結果の画像は、肝臓実質など、関心解剖学的構造内の構造を強化するディスプレイルックアップテーブルで表示することができる。例えば、ルックアップテーブルは、肝臓内の平均ハンスフィールド値に線形ランプを集中させ、CT画像の標準偏差または固定値に基づいてその傾きを調整することに基づいて生成され得る。他の例示的な手法は、非線形ルックアップテーブルを使用して、実質および/または他の関心領域内の構造の顕著性を強化することを伴う。例がCT画像に関して本明細書では説明されているが、手法は、MRなどを含む他の撮像モダリティから生じるボクセル/ピクセル値を調整するためにも適用可能である。
強化された、または「最適な」ルックアップテーブルは、関心器官または他の関心解剖学的構造のために生成することができる(例えば、肝臓に焦点を合わせて肝臓腫瘍を識別するなど)。ルックアップテーブルのパラメータは、例えば、ユーザ設定の履歴に基づいて学習され得る。ルックアップテーブルのパラメータを使用して、特定の設定または関数を画像データに適用することができる。したがって、ルックアップテーブルを使用して、画像の特定の部分を強化し、かつ/または場合によっては得られた画像データを自動的に処理することができる。
例えば、ルックアップテーブルは、ウィンドウ/レベル制御を画像に自動的に適用するために使用され得る。医療撮像では、輝度/コントラスト制御は、「ウィンドウ/レベル」制御と呼ばれる。グレーレベルマッピング、コントラストストレッチング、ヒストグラム修正、および/またはコントラスト強化としても知られるウィンドウ処理は、CT画像のグレースケール成分を操作して画像の外観を変更し、特定の構造を強調表示するプロセスである。このウィンドウ処理調整は、ルックアップテーブルの値を使用して容易にすることができる。例えば、画像の輝度はウィンドウレベルを介して調整され、画像のコントラストはウィンドウ幅を介して調整される。ウィンドウ幅は、画像に含まれるCT強度値の範囲を指定する。広いウィンドウ幅(例えば、2000ハンスフィールドユニットなど)は、狭いウィンドウ幅(例えば、1000ハンスフィールドユニットなど)が画像に表示されるよりも広い範囲のCT値を画像に表示する。したがって、画像のウィンドウ幅を2000ハンスフィールドユニットに設定すると、例えば、1000ハンスフィールドユニットの狭いウィンドウ幅よりも大きな遷移面積で、画像内における暗い構造から明るい構造への遷移が調整される。ウィンドウ幅が広くなると、例えば、軟部組織の異なる減衰間の遷移が不明瞭になる。そのため、減衰が大きく異なる面積を見る(例えば、空気と組織のある肺画像などで)際は広いウィンドウを定義することができるが、例えば、同様の減衰の軟部組織を有する面積を調べる際は狭いウィンドウを定義することができる。
ウィンドウ中心とも呼ばれるウィンドウレベルは、画像に表示されるCT強度値の範囲の中点を定義する。したがって、例えば、ウィンドウレベルが増加すると、CT画像は暗くなり、ウィンドウレベルが減少すると、CT画像は明るくなる。
ウィンドウ幅(WW)およびウィンドウレベル(WL)を使用して、閾値または遷移を計算してCTピクセル強度値を管理することができる。例えば、上限の閾値を超えるCT値は白で表示され得、下限の閾値を超えるCT値は黒で表示され得る。第1および第2の閾値の間のCT値は、例えば、グレースケールで表示され得る。ルックアップテーブルは、例えば、CT値から表示される強度のグレースケール/色値へのコンバートを指定することができる。したがって、ルックアップテーブルは、例えば、生の画像データ値をマッピングしてピクセル値を表示するように構成され得る。ルックアップテーブルの値を使用して、画像内の特定の面積またはオブジェクトの強度またはフォーカスを弱め(例えば、白くする、ミュートする、黒くするなど)、および/または他の面積/オブジェクトを強調し(例えば、より明るい色、より鮮明なコントラストなどにより)、例えば、関心領域/オブジェクトに注意および評価を集中させることができる。特定の例では、CT値とルックアップテーブルで定義されたピクセル表示値との間の相関によって定義されるように、特性曲線および/または他の関数を画像データに適用することができる。例えば、プロセッサを使用して取得された画像データにルックアップテーブルを適用することによって、画像を処理するための処理を迅速かつ効率的に行うことができる(例えば、画像のコントラスト強化、輝度調整、グレー値調整、グラデーション曲線設定など)。
一例では、最初のアクションは、関心器官内のノイズを低減するために、画像ベースのフィルタリングまたは適応型反復再構成などを使用するような処理を伴う。次に、関心器官内の領域は、自動的に抽出される。肝臓の場合、プロセスは、軟部組織範囲外のボクセルを除去し、数理形態学的閉鎖フィルタを適用して血管構造によって形成された小さな穴を埋めることを含む。最大の連結成分が選択され、連結成分内で、ピクセル数が最大のスライスが選択される。この最大のスライスの周囲の所与の厚さ内のスライスもまた、選択される。次に、撮像されたオブジェクトを侵食し、内部ボクセルを選択する。この領域内では、平均および標準偏差値が算出される。ディスプレイルックアップテーブルは、CT強度とピクセル強度との間の相関または転換値を以下のような線形ランプとして決定することによって生成することができる:
表示値=K(HU値-平均+O)/(K.STD) (式1)、
式中、OおよびKは、以前の表示セッションから学習された(例えば、平均化されたなど)値であり、HU値は、ハンスフィールドユニット値である。特定の例では、学習されたKおよびO値は、画像が暗い部屋で得られたかどうかなど、1つまたは複数の環境および/または照明条件に基づいて調整することができる。したがって、ピクセル表示値(表示値)は、例えば、履歴観察値、関連する平均(例えば、前の観察されたKおよびO値の平均)、および前のK値の標準偏差(STD)によって修正されたCT強度値(HU値)と相関する。代替的または追加的に、例えば、ピクセル表示値を調整するために、ヒストグラムの上下のパーセンテージを識別してもよい(例えば、ヒストグラムの下部1%の値に黒、ヒストグラムの99%を超える値に白など)。
ハンスフィールドユニットは、物質の放射線密度の尺度である。ハンスフィールドユニット(HU)は、標準化された便利な形式でCT番号を表すためにCTスキャンで使用される無次元単位である。ハンスフィールドユニットは、測定された減衰係数の線形変換から得られる。この変換は、例えば、任意に割り当てられた空気と水の密度に基づいている。
特定の例では、1つまたは複数のアルゴリズムを適用し、最適な、または場合によっては改善されたウィンドウレベル設定を決定することができる。式1は1つの例を示すが、ヒストグラムの均等化を伴う他のプロセス、および/または選択された領域からヒストグラムをいくつかのクラスに分離し、クラス番号(最小HUから最高HUまで)を使用して表示値などを形成することを伴う他の方法を適用してもよい。したがって、特定の例は、画像内の関心領域のウィンドウレベルおよび/または他の表示値を自動的に設定し、拡張および/または処理された画像を形成することができる。特定の例では、拡張/処理された画像は、深層学習などを使用するようなコンピュータ支援検出を使用して診断され、処理された画像データから腫瘍を識別し、腫瘍の成長/収縮などを計測することができる。
したがって、画像内の肝臓腫瘍などのオブジェクトを識別することは時間がかかり、退屈でミスを被りやすい(例えば、目立たない腫瘍に対する感度が低いなど)一方で、特定の例は、画像内のオブジェクトの自動および/または場合によっては強化された識別を可能にする改善された画像表示および分析を提供する。さらに、高い取得ノイズは画質を低下させ、画像データ内の腫瘍を見えにくくするが、特定の例は、そのようなノイズを低減し、低線量検査の読み取り信頼性を向上させる。したがって、患者への被ばく線量が低くても、画像の読み取りおよび分析がより高感度かつ高速になり、感度および診断の信頼性が向上し得る。
図1は、画像取得デバイス110、画像再構成エンジン120、ルックアップテーブルジェネレータ130、画像プロセッサ140、およびメモリ150を含む例示的な画像処理装置100を示している。例示的な画像取得デバイス110は、患者から/患者を代表する画像データを取得する。例えば、画像取得デバイス110は、患者の画像(例えば、CT画像、MR画像、X線画像、超音波画像など)を得る。代替的または追加的に、画像取得デバイス110は、別のデバイスによって得られた患者の画像を受信して保存する。画像データは、メモリ150(例えば、ハードディスクドライブ、フラッシュメモリ、ランダムアクセスメモリ、他のディスクストレージ、他のソリッドステートストレージ、ファームウェアなど)に保存することができる。
画像再構成エンジン120は、画像ベースのフィルタリング、適応型反復再構成、AIモデルなどを使用して画像データを処理し、画像データに見られる関心器官/解剖学的構造および/または他の領域内のノイズを低減する。関心器官/解解剖学的構造は、一次検査記録、検査表記の理由、DICOM画像ファイルヘッダ、画像および/または検査コンテキストなどで指定することができる。特定の例では、システム、デバイス、アプリケーション、ユーザなどに、関心器官/解剖学的構造を指定および/または確認するように促すことができる。関心器官/解剖学的構造が識別され、および/または場合によっては指定されると、AIモデル、画像ベースのフィルタリング、適応型反復再構成などを含む1つまたは複数の手法によってノイズが低減され得る。画像再構成エンジン120は、二次元(2D)画像再構成およびノイズ低減、三次元(3D)画像再構成およびノイズ低減などを行うことができる。再構成された画像および関連するデータは、メモリ150に保存され得る。
ルックアップテーブルジェネレータ130は、構成および/または場合によっては処理された画像データに適用されるルックアップテーブルを生成し、画像の特定の面積(例えば、腫瘍、病変、骨折など)を強調または強調表示する画像ピクセル値を調整する。画像再構成中に生成されるピクセル値の範囲は、モニタまたは他のディスプレイによって表示され得る値の範囲よりも大きい。したがって、ルックアップテーブルを使用して、視覚化される値のサブセットまたは範囲を選択することができる。視覚化される値の範囲は、関心組織/面積に対応する。ルックアップテーブルおよび/または他の関数(例えば、伝達関数、異なる画像値間のランプまたは範囲など)を使用して画像ピクセル間のコントラスト/微分を提供することができ、ディスプレイ(例えば、放射線画像リーダ/ビューアおよび/または他のディスプレイなど)上の画像の面積間の視覚的な区別(例えば、均一な転換よりも明確な視覚的な区別など)に変換される。ルックアップテーブルは、例えば、1つまたは複数のプロセス/プロセッサによって適用されるようにメモリ150に保存され得る。
例えば、ルックアップテーブルジェネレータ130は、式1を実行してルックアップテーブルに値を入力し、CT値を画像ピクセル/ボクセル値に転換または変換し、第1の画像ピクセル値を第2の画像ピクセル値に変換する(例えば、特定の画像面積、特定のオブジェクト、特定の種類の組織などを強調または非強調する)ことなどを行う。生成されたルックアップテーブルは、メモリ150に保存され、画像データに適用され(例えば、画像再構成エンジン、画像プロセッサ140などによって)、ユーザ入力、前の/履歴観察/フィードバック/結果、AIモデル出力などに基づいて修正され得る。
例えば、ルックアップテーブルを生成し、画像内の腹部の「デフォルト」ウィンドウレベルおよび幅を提供することができる(幅:440、レベル:40)。次いで例示的なルックアップテーブルは、40-220HU未満の値は黒であり、40+220を超える値は白であり、割り当てられたグレースケール値の間に値があることを指定する。これらの値はインジェクションの選択に基づいて変化し得るため、例えば、コントラストが十分に鮮明でなかったり、または画像が飽和したりして病変が見逃されることはない。
したがって、ルックアップテーブルジェネレータ130は、例えば、関心解剖学的構造(例えば、肝臓実質内など)における特定の構造を強化するために、ルックアップテーブルおよび/または他の処理データ構造を生成することができる。例えば、生成されたルックアップテーブルは、関心器官/解剖学的構造(例えば、肝臓、肺、心臓、脳など)内の平均ハンスフィールド値に線形ランプを集中させ、標準偏差および/または固定値に基づいてランプの傾きを調整することができる。別の例は、非線形ルックアップテーブルを使用して、器官内の構造(例えば、肝臓実質など)の顕著性を強化するという同じ効果を得る。
画像プロセッサ140は、画像(例えば、再構成された画像など)を処理して関心解剖学的構造または領域を検出し、その関心解剖学的構造/領域に焦点を合わせる。例えば、画像プロセッサ140は、再構成された3D画像ボリュームを処理して画像ボリュームの外側ボクセルを除去、侵食、または「剥離」し、関心領域を発見または露出させることができる。特定の例では、関心領域は、識別された器官内に存在し得る。器官を隔離することができ、次に器官の外側ボクセルを除去して器官内の関心領域を露出させることができる。したがって、例えば、肝臓を画像内で隔離し、次に肝臓の外側ボクセルを侵食して(例えば、画像のセグメンテーションを介して、ルックアップテーブルを使用してボクセル値をキャンセルする、フィルタを使用してピクセル/ボクセルを除去するなどして)関心器官内の関心領域を露出させる。
例えば、関心器官内の領域は、器官(例えば、肝臓など)の軟部組織範囲の外側のボクセルを除去することによって、画像プロセッサ140により自動的に抽出することができる。数理形態学的閉鎖フィルタは、プロセッサ140によって適用され、器官内の血管構造によって形成された小さな穴を埋めることができる。画像プロセッサ140は、器官/解剖学的構造における最大の連結成分を選択することができ、連結成分内で、ピクセル数が最大の得られた画像スライスが選択される。画像プロセッサ140が選択されたスライスを有すると、この最大のスライスの周囲の所与の厚さまたは範囲内の追加のスライスもまた、プロセッサ140によって選択される。次に、器官/解剖学的構造を侵食し、スライスの外側の外側ボクセルを除去し、さらなる処理のために内部ボクセルを選択する。この領域内で、画像プロセッサ140は、画像ボクセルデータの平均および標準偏差値を算出する。ディスプレイルックアップテーブル(LUT)は、例えば、式1によるような線形ランプとしてジェネレータ130によって生成される。露出領域の画像値へのLUTの適用は、例えば、肝臓腫瘍、病変などを識別するために使用され得る。代替的または追加的に、他の深層学習、機械学習、および/またはモデルベースのアプローチを用いて、関心領域を識別および抽出してもよい。
ルックアップテーブルの最適なウィンドウレベル設定を決定するためにいくつかのアルゴリズムを適用することができるが、式1は、効果的なコントラストを提供する。特定の例では、ヒストグラムの均等化および/または選択された領域からヒストグラムをいくつかのクラスに分離し、クラス番号(例えば、最小HUから最高HUまで)を使用することを伴う他の方法は、「異常な」組織がディスプレイで目立つように、「正常な」組織内のピクセル/ボクセル値の分布の基準として使用することができる。ノイズ低減後、得られるボクセル値の範囲は狭くなる可能性があり、例えば、単一クラスのボクセルを含む場合がある。
したがって、画像プロセッサ140は、ルックアップテーブルおよび/または関連するランプなどによって適用されるアルゴリズムに基づいて、2Dおよび/または3D画像の1つまたは複数の面積を強調表示するために、画像データの修正された表示を促進することができる。視覚的な区別が画像データに適用されて画像の表示を変更し、例えば、病変、腫瘍、骨折、および/または他の異常などの要素を強調する。特定の例では、ユーザは、関心オブジェクトおよび/またはグラフィカルユーザインターフェースなどを介して画面上の画像表示の他の側面と相互作用することができる。
図2は、システム100によって処理された例示的な脳CT画像210を表示して例示的な画像210内の腫瘍220を識別する、例示的なユーザインターフェース200を示している。図2の例に示すように、画像プロセッサ140は、画像210内の識別されたオブジェクト(例えば、腫瘍、病変など)220を強調表示することができる(例えば、囲む、ボックスに入れる、シェーディングなどによって)。
例示的な実施態様が図1~図2に関連して示されているが、図1~図2に関連して示される要素、プロセスおよび/またはデバイスは、任意の他の方法で組み合わせられ、分割され、配置変更され、省略され、排除され、かつ/または実現され得る。さらに、本明細書で開示および説明される構成要素は、ハードウェア、機械可読命令、ソフトウェア、ファームウェア、ならびに/もしくはハードウェア、機械可読命令、ソフトウェアおよび/またはファームウェアの任意の組み合わせによって実現することができる。したがって、例えば、本明細書で開示および説明される構成要素は、アナログおよび/またはデジタル回路、論理回路、プログラマブルプロセッサ、特定用途向け集積回路(ASIC)、プログラマブル論理デバイス(PLD)、および/またはフィールドプログラマブル論理デバイス(FPLD)によって実現することができる。純粋にソフトウェアおよび/またはファームウェアの実施態様をカバーするために、この特許の装置またはシステムクレームのいずれかを読む場合、構成要素の少なくとも1つは、ソフトウェアおよび/またはファームウェアを保存する、メモリ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、ブルーレイディスクなどの有形のコンピュータ可読記憶デバイスまたは記憶ディスクを含むように本明細書によって明確に定義される。
本明細書で開示および説明される構成要素を実現するための例示的な機械可読命令を表すフローチャートが、少なくとも図3~図4に関連して示される。本例において、機械可読命令は、図5に関連して以下で説明する例示的なプロセッサプラットフォーム500に示すプロセッサ512などのプロセッサによって実行するためのプログラムを含む。本プログラムは、CD-ROM、フロッピーディスク、ハードドライブ、デジタル多用途ディスク(DVD)、ブルーレイディスク、またはプロセッサ512に関連付けられたメモリなどの有形のコンピュータ可読記憶媒体に保存された機械可読命令で具現化することができるが、あるいは、プログラム全体および/またはその一部をプロセッサ512以外のデバイスによって実行すること、および/またはファームウェアもしくは専用ハードウェアで具現化することも可能である。さらに、例示的なプログラムは、少なくとも図3~図4に関連して示されるフローチャートを参照して説明されるが、本明細書で開示および説明される構成要素について、これらを実現する多数の他の方法を代わりに使用してもよい。例えば、ブロックの実行順序を変更してもよく、および/または記載されたブロックのいくつかを変更したり、排除したり、組み合わせたりしてもよい。少なくとも図3~図4のフローチャートは例示的な動作を図示の順序で示しているが、これらの動作は網羅的なものではなく、図示の順序に限定されない。加えて、本開示の精神および範囲内で、当業者によって様々な変更および修正がなされてもよい。例えば、フローチャートに示されたブロックは、別の順序で行われてもよいし、並列に行われてもよい。
上述したように、少なくとも図3~図4の例示的なプロセスは、ハードディスクドライブ、フラッシュメモリ、読み取り専用メモリ(ROM)、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、キャッシュ、ランダムアクセスメモリ(RAM)、および/または任意の他の記憶デバイスもしくは情報が任意の期間(例えば、長期間、恒久的、短時間、一時的にバッファリングする間、および/または情報をキャッシュする間)で保存されている記憶ディスクなどの有形のコンピュータ可読記憶媒体に保存されるコード化された命令(例えば、コンピュータおよび/または機械可読命令)を使用して実施することができる。本明細書で使用される場合、有形のコンピュータ可読記憶媒体という用語は、任意の種類のコンピュータ可読記憶デバイスおよび/または記憶ディスクを含み、伝搬する信号を除外し、伝送媒体を除外するように明示的に定義される。本明細書で使用される場合、「有形のコンピュータ可読記憶媒体」および「有形の機械可読記憶媒体」は、互換的に使用される。さらに、またはあるいは、少なくとも図3~図4の例示的なプロセスは、ハードディスクドライブ、フラッシュメモリ、読み取り専用メモリ、コンパクトディスク、デジタル多用途ディスク、キャッシュ、ランダムアクセスメモリ、および/または任意の他の記憶デバイスもしくは情報が任意の期間(例えば、長期間、恒久的、短時間、一時的にバッファリングする間、および/または情報をキャッシュする間)で保存されている記憶ディスクなどの非一時的コンピュータおよび/または機械可読媒体に保存されるコード化された命令(例えば、コンピュータおよび/または機械可読命令)を使用して実施することができる。本明細書で使用される場合、非一時的コンピュータ可読媒体という用語は、任意の種類のコンピュータ可読記憶デバイスおよび/または記憶ディスクを含み、伝搬する信号を除外し、伝送媒体を除外するように明示的に定義される。本明細書で使用される場合、「少なくとも」という表現は、請求項の前文における遷移の用語として使用されるとき、「備える(comprising)」という用語がオープンエンドであるのと同様の様相でオープンエンドである。加えて、「含む(including)」という用語は、「備える(comprising)」という用語がオープンエンドであるのと同様の様相でオープンエンドである。
図3に示す例示的な方法300に示すように、画像データは、画像内の関心領域の1つまたは複数のオブジェクトを識別および強調表示/強調するために処理される。ブロック310において、画像のノイズを低減するために画像が処理される(例えば、「クリーンアップされる」など)。例えば、再構成(例えば、ASIR再構成など)、フィルタリング(例えば、拡散フィルタリング、ガイド付きフィルタリングなど)などを画像データに適用し、画像(例えば、1つまたは複数の2Dおよび/または3D画像)からノイズおよび無関係なパターンを除去することができる。
ブロック320において、関心器官がクリーニングされた画像で識別および/または場合によっては決定される。例えば、検査の理由、ヘッダ情報、撮像デバイスの構成情報、コンピュータ支援検出(例えば、機械学習、深層学習、他のAIなどを介して)などにより、画像内の関心器官(例えば、脳、心臓、肺、腎臓など)を識別することができる。
ブロック330において、関心器官内の関心領域が抽出される。例えば、ピクセルおよび/またはボクセルを器官の外側から除去し、関心領域を形成する内部ピクセル/ボクセルを露出させることができる。欠陥を平滑化/充填し、さらなる処理のために領域を隔離することができる。
ブロック340において、抽出された関心領域のオブジェクトが識別される。例えば、ルックアップテーブル、ランプ、および/または他の変換関数を関心領域のピクセル/ボクセルデータに適用し、露出された関心領域のオブジェクト(例えば、組織、骨、腫瘍、病変、骨折など)を分析することができる。例えば、ルックアップテーブルの値を関心領域の異なるCT強度に適用することで、オブジェクト(例えば、腫瘍など)が残りの領域画像データから目立つようになる(例えば、周囲の組織よりも明るく、暗く、および/または場合によっては異なるように表示されるため)。
ブロック350において、オブジェクトが処理される。例えば、識別されたオブジェクトをコンピュータ支援診断(CAD)、放射線読影などを使用して処理し、オブジェクトの種類(例えば、腫瘍、病変、骨折など)、オブジェクトの形状、オブジェクトのサイズ、オブジェクトの変化(例えば、腫瘍の成長を確認するために画像を比較する場合など)などのオブジェクトの特性を識別することができる。したがって、ブロック340~350において、値(例えば、画像データ値、ピクセル/ボクセル表示値など)が分析されてオブジェクトを識別し、表示および相互作用のためにオブジェクトを処理する。
ブロック360において、修正された画像が表示される。例えば、修正された画像は、タブレットコンピュータ(図2の例に示すような)、ラップトップコンピュータ、コンピュータモニタ、スマートフォンディスプレイなどに表示することができる。図2の例に示すように、画像210は、画像210内で強調表示されたオブジェクト220などを有するインターフェース200を介して示され得る。
ブロック370において、次のアクションがトリガされる。例えば、画像、オブジェクトに関連付けられた検出結果/注釈などを含んで、および/またはそれらに基づいてレポートを生成することができる。画像および/または関連するレポートは、電子医療記録(EMR)システムなどに保存され得る。画像内のオブジェクトの識別は、例えば、検査のスケジュール、処方、および/または他のフォローアップアクションをトリガし得る。例えば、インターフェース200を介した画像210および/またはオブジェクト220に関するユーザのアクションは、次のアクションをトリガすることができる。
図4は、器官内の関心領域を抽出する例示的な実施態様を示している(図3の例のブロック330)。この例は、説明のみを目的として提供されており、深層学習、機械学習、他のモデルベースの分析などを含む他の方法を用いて、関心領域を抽出することができる。図4の例では、ブロック410において、軟部組織範囲外のボクセルが画像から除去される。例えば、関心器官の周囲に軟部組織範囲が定義され、軟部組織範囲外の画像ボリュームのボクセルは、処理される画像ボリュームのコピーから除去、消去、および/または場合によっては削除される。
ブロック420において、結果のサブ画像を平滑化するためにフィルタが適用される。例えば、数理形態学的閉鎖フィルタをサブ画像に適用し、血管構造(例えば、血管)によって形成される器官内部の小さな穴を埋める。
ブロック430において、サブ画像内の最大の連結成分が選択される。例えば、サブ画像内の要素間の連結は、画像プロセッサ140によって分析され、サブ画像内の最大の連結成分を識別する。いくつかの例では、ユーザは、最大の連結成分を選択することができる。
ブロック440において、最大の連結成分内のスライスが選択される。例えば、選択されたスライスは、成分内で最大数のピクセルを有する。例えば、画像プロセッサ140は、成分を処理し、最大のピクセルを有する成分ボリュームから2Dスライスを識別することができる。ブロック450において、この最大のスライスの周囲の特定の厚さ内のスライスが選択される。例えば、選択されたスライスから1インチ以内のスライス、選択されたスライスから1センチメートル以内のスライス、選択されたスライスから1ミリメートル以内のスライスなどもまた、選択されてもよい。選択されたスライスのセットは、例えば、関心器官などのボリュームを形成する。
ブロック460において、選択されたスライスがさらに処理されて選択されたスライスのセットを侵食し、ボリュームの内部ボクセルを露出させる。例えば、選択されたスライスのセットによって定義されるボリュームの外側部分を形成するボクセルの層は、下にあるボクセルの次の層を露出させるために、消去、削除、および/または場合によっては除去することができる。したがって、関心器官の関心内部領域が露出される。
ブロック470において、関心領域の偏差が算出される。例えば、関心領域内のCT強度値の平均、標準偏差などが算出される。ブロック480において、ディスプレイルックアップテーブルおよび/または他の変換が決定され、関心領域内の表示されたピクセル/ボクセル値を修正する。例えば、式1のランプ関数によって指定されるようなLUTを適用して関心領域のボクセルの表示値を修正し、表示のために腫瘍、病変などの領域の一部を目立たせる/強調する。例えば、LUTの値は、前の表示値(例えば、自動的に処理された値、ユーザによる手動調整からのフィードバックなど)による影響を受ける場合がある。したがって、改善されたウィンドウレベル設定は、AIを使用して設定したり、以前の表示セッションから学習したり、前の構成から平均化したりするなどして、例えば、さらなる処理およびレビューのために関心オブジェクトを強調表示/強調/識別して画像を表示することができる。
図5は、少なくとも図3~図4の命令を実行して本明細書で開示および説明される例示的な構成要素を実現するように構成された例示的なプロセッサプラットフォーム500のブロック図である。プロセッサプラットフォーム500は、例えば、サーバ、パーソナルコンピュータ、モバイルデバイス(例えば、携帯電話、スマートフォン、iPad(登録商標)などのタブレット)、パーソナルデジタルアシスタント(PDA)、インターネットアプライアンス、または任意の他の種類のコンピューティングデバイスとすることができる。
図示の例のプロセッサプラットフォーム500は、プロセッサ512を含む。図示の例のプロセッサ512は、ハードウェアである。例えば、プロセッサ512は、任意の所望のファミリまたは製造業者からの集積回路、論理回路、マイクロプロセッサまたはコントローラによって実現することができる。
図示の例のプロセッサ512は、ローカルメモリ513(例えば、例示的なメモリ150および/または他のメモリを実装するキャッシュおよび/またはメモリ)を含む。図5の例示的なプロセッサ512は、少なくとも図3~図4の命令を実行し、例示的な画像取得デバイス110、例示的な画像再構成エンジン120、例示的なルックアップテーブルジェネレータ130、例示的な画像プロセッサ140などの図1~図4のシステム、インフラストラクチャ、ディスプレイ、および関連する方法を実現する。図示の例のプロセッサ512は、バス518を介して揮発性メモリ514および不揮発性メモリ516を含む主メモリ(例えば、メモリ150などを実装する)と通信する。揮発性メモリ514は、シンクロナスダイナミックランダムアクセスメモリ(SDRAM)、ダイナミックランダムアクセスメモリ(DRAM)、RAMBUSダイナミックランダムアクセスメモリ(RDRAM)および/または任意の他の種類のランダムアクセスメモリデバイスによって実現することができる。不揮発性メモリ516は、フラッシュメモリおよび/または任意の他の所望の種類のメモリデバイスによって実現することができる。主メモリ514、516へのアクセスは、クロックコントローラによって制御される。
さらに、図示の例のプロセッサプラットフォーム500は、インターフェース回路520を含む。インターフェース回路520は、イーサネットインターフェース、ユニバーサルシリアルバス(USB)、および/またはPCIエクスプレスインターフェースなどの任意の種類のインターフェース規格によって実現することができる。
図示の例では、1つまたは複数の入力デバイス522がインターフェース回路520に接続される。入力デバイス522は、ユーザがデータおよびコマンドをプロセッサ512に入力することを可能にする。入力デバイスは、例えば、センサ、マイクロホン、カメラ(静止画または動画、RGBまたは深度など)、キーボード、ボタン、マウス、タッチスクリーン、トラックパッド、トラックボール、アイソポイントおよび/または音声認識システムによって実現することができる。
1つまたは複数の出力デバイス524もまた、図示の例のインターフェース回路520に接続される。出力デバイス524は、例えば、ディスプレイデバイス(例えば、発光ダイオード(LED)、有機発光ダイオード(OLED)、液晶ディスプレイ、陰極線管ディスプレイ(CRT)、タッチスクリーン、触覚出力デバイス、および/またはスピーカ)によって実現することができる。したがって、図示の例のインターフェース回路520は、典型的には、グラフィックスドライバカード、グラフィックスドライバチップまたはグラフィックスドライバプロセッサを含む。
さらに、図示の例のインターフェース回路520は、ネットワーク526(例えば、イーサネット接続、デジタル加入者回線(DSL)、電話回線、同軸ケーブル、携帯電話システムなど)を介した外部機器(例えば、任意の種類のコンピューティングデバイス)とのデータのやり取りを容易にするために、送信器、受信器、トランシーバ、モデムおよび/またはネットワークインターフェースカードなどの通信デバイスを含む。
図示の例のプロセッサプラットフォーム500はまた、ソフトウェアおよび/またはデータを保存するための1つまたは複数の大容量記憶デバイス528を含む。そのような大容量記憶デバイス528の例は、フロッピーディスクドライブ、ハードドライブディスク、コンパクトディスクドライブ、ブルーレイディスクドライブ、RAIDシステム、およびデジタル多用途ディスク(DVD)ドライブを含む。
図5のコード化された命令532は、大容量記憶デバイス528、揮発性メモリ514、不揮発性メモリ516、および/またはCDもしくはDVDなどの取り外し可能な有形のコンピュータ可読記憶媒体に保存することができる。
上記から、画像を自動的に評価して関心器官および器官内の関心領域を決定することによって、画像処理を改善するための上記の開示した方法、装置、および製品が開示されていることが理解されよう。特定の例は、器官の画像の外部を自動的に侵食して関心領域を露出させることによって、画像処理をさらに改善する。特定の例は、露出された関心領域の表示値を修正して露出された関心領域内の1つまたは複数のオブジェクトを強調表示および/または場合によっては識別することによって、画像処理をまたさらに改善する。
特定の例は、画像データをレンダリング、表示、および相互作用するための新しい異なるプロセスを提供することによって、放射線レビューのインターフェース技術および能力を改善する。特定の例は、画像処理およびユーザインターフェースの生成、操作、および追跡において、より適応的かつ正確になるように画像プロセッサを改善する。特定の例は、画像データのコンピュータ支援検出および/または診断、深層学習ネットワークモデルの生成など、他の技術分野の改善を促進する。
特定の例示的な方法、装置および製品が本明細書で説明されたが、本特許の対象範囲は、これらに限定されない。むしろ反対に、本特許は、本特許の特許請求の範囲の技術的範囲に正当に含まれるすべての方法、装置および製品を包含する。
[実施態様1]
少なくとも1つのプロセッサ(140)と、
実行されると、前記少なくとも1つのプロセッサ(140)に、少なくとも、
画像(210)を処理して前記画像(210)のノイズを低減させ、
前記画像(210)の関心器官または関心領域の少なくとも1つを識別させ、
前記関心器官または前記関心領域の少なくとも1つの値を分析させ、
前記分析された値に基づいて前記関心器官または前記関心領域の前記少なくとも1つを処理して前記関心器官または前記関心領域の前記少なくとも1つに処理されたオブジェクト(220)を提供させ、
インターフェース(200)を介した相互作用のために前記処理されたオブジェクト(220)を表示させ、前記表示は、前記関心器官または前記関心領域の少なくとも1つを露出させることを含む
命令を含む少なくとも1つのコンピュータ可読記憶媒体と
を備える、装置(100)。
[実施態様2]
前記露出された関心領域内の前記オブジェクト(220)は、画像データ値に関連付けられた表示値のルックアップテーブルを使用して処理される、実施態様1に記載の装置(100)。
[実施態様3]
前記表示値は、表示値=K(HU値-平均+O)/(K.STD)を使用して決定され、
式中、KおよびOは、以前の表示セッションからの前の値であり、HU値は、ハンスフィールドユニット値であり、平均は、前の値KおよびOの平均であり、K.STDは、前のK値の標準偏差である、
実施態様2に記載の装置(100)。
[実施態様4]
前記露出された関心領域内の前記オブジェクト(220)は、画像データ値を表示値にコンバートする線形ランプ関数を使用して処理される、実施態様1に記載の装置(100)。
[実施態様5]
前記画像(210)は、適応型統計的反復再構成を使用して前記画像(210)のノイズを低減するために処理される、実施態様1に記載の装置(100)。
[実施態様6]
前記少なくとも1つのプロセッサ(140)は、少なくとも、
軟部組織範囲外のボクセルを前記画像(210)から除去して修正された画像を作成し、
形態学的閉鎖フィルタを前記修正された画像に適用し、
前記修正された画像で最大の連結成分を選択し、
前記最大の連結成分内で最大数のピクセルを有する前記最大の連結成分の第1のスライスを選択し、
前記第1のスライスの厚さ内の複数の第2のスライスを選択してオブジェクト(220)を形成し、
前記オブジェクト(220)を侵食して前記オブジェクト(220)内の内部ボクセルを選択し、前記関心領域を露出させ、
前記関心領域の偏差を算出し、
ルックアップテーブルを前記関心領域の表示値に適用する
ことによって前記関心領域を露出させる、実施態様1に記載の装置(100)。
[実施態様7]
前記器官は、肝臓であり、前記オブジェクト(220)は、肝臓腫瘍である、実施態様1に記載の装置(100)。
[実施態様8]
実行されると、少なくとも1つのプロセッサ(140)に、少なくとも、
画像(210)を処理して前記画像(210)のノイズを低減させ、
前記画像(210)の関心器官または関心領域の少なくとも1つを識別させ、
前記関心器官または前記関心領域の少なくとも1つの値を分析させ、
前記分析された値に基づいて前記関心器官または前記関心領域の前記少なくとも1つを処理して前記関心器官または前記関心領域の前記少なくとも1つに処理されたオブジェクト(220)を提供させ、
インターフェース(200)を介した相互作用のために前記処理されたオブジェクト(220)を表示させ、前記表示は、前記関心器官または前記関心領域の少なくとも1つを露出させることを含む
命令を含む、少なくとも1つのコンピュータ可読記憶媒体。
[実施態様9]
前記露出された関心領域内の前記オブジェクト(220)は、画像データ値に関連付けられた表示値のルックアップテーブルを使用して処理される、実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様10]
前記表示値は、表示値=K(HU値-平均+O)/(K.STD)を使用して決定され、
式中、KおよびOは、以前の表示セッションからの前の値であり、HU値は、ハンスフィールドユニット値であり、平均は、前の値KおよびOの平均であり、K.STDは、前のK値の標準偏差である、
実施態様9に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様11]
前記露出された関心領域内の前記オブジェクト(220)は、画像データ値を表示値にコンバートする線形ランプ関数を使用して処理される、実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様12]
前記画像(210)は、適応型統計的反復再構成を使用して前記画像(210)のノイズを低減するために処理される、実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様13]
前記命令は、実行されると、前記少なくとも1つのプロセッサ(140)に、少なくとも、
軟部組織範囲外のボクセルを前記画像(210)から除去して修正された画像を作成させ、
形態学的閉鎖フィルタを前記修正された画像に適用させ、
前記修正された画像で最大の連結成分を選択させ、
前記最大の連結成分内で最大数のピクセルを有する前記最大の連結成分の第1のスライスを選択させ、
前記第1のスライスの厚さ内の複数の第2のスライスを選択してオブジェクト(220)を形成させ、
前記オブジェクト(220)を侵食して前記オブジェクト(220)内の内部ボクセルを選択し、前記関心領域を露出させ、
前記関心領域の偏差を算出させ、
ルックアップテーブルを前記関心領域の表示値に適用させる
ことによって前記関心領域を露出させる、実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様14]
前記器官は、肝臓であり、前記オブジェクト(220)は、肝臓腫瘍である、実施態様8に記載の少なくとも1つのコンピュータ可読記憶媒体。
[実施態様15]
少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、画像(210)を処理して前記画像(210)のノイズを低減すること(310)と、
前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記画像(210)の関心器官または関心領域の少なくとも1つを識別すること(320)と、
前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記関心器官または前記関心領域の少なくとも1つの値を分析すること(340)と、
前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記分析された値に基づいて前記関心器官または前記関心領域の前記少なくとも1つを処理して前記関心器官または前記関心領域の前記少なくとも1つに処理されたオブジェクト(220)を提供すること(350)と、
前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、インターフェース(200)を介した相互作用のために前記処理されたオブジェクト(220)を表示すること(360)であって、前記表示は、前記関心器官または前記関心領域の少なくとも1つを露出させること(330)を含むことと
を含む、コンピュータ実装方法(300)。
[実施態様16]
前記露出された関心領域内の前記オブジェクト(220)は、画像データ値に関連付けられた表示値のルックアップテーブルを使用して処理される、実施態様15に記載の方法(300)。
[実施態様17]
前記表示値は、表示値=K(HU値-平均+O)/(K.STD)を使用して決定され、
式中、KおよびOは、以前の表示セッションからの前の値であり、HU値は、ハンスフィールドユニット値であり、平均は、前の値KおよびOの平均であり、K.STDは、前のK値の標準偏差である、
実施態様16に記載の方法(300)。
[実施態様18]
前記露出された関心領域内の前記オブジェクト(220)は、画像データ値を表示値にコンバートする線形ランプ関数を使用して処理される、実施態様15に記載の方法(300)。
[実施態様19]
前記画像(210)は、適応型統計的反復再構成を使用して前記画像(210)のノイズを低減するために処理される、実施態様15に記載の方法(300)。
[実施態様20]
前記関心領域を露出させること(330)は、
軟部組織範囲外のボクセルを前記画像(210)から除去して修正された画像を作成すること(410)と、
形態学的閉鎖フィルタを前記修正された画像に適用すること(420)と、
前記修正された画像で最大の連結成分を選択すること(430)と、
前記最大の連結成分内で最大数のピクセルを有する前記最大の連結成分の第1のスライスを選択すること(440)と、
前記第1のスライスの厚さ内の複数の第2のスライスを選択してオブジェクト(220)を形成すること(450)と、
前記オブジェクト(220)を侵食して前記オブジェクト(220)内の内部ボクセルを選択し、前記関心領域を露出させること(460)と、
前記関心領域の偏差を算出すること(470)と、
ルックアップテーブルを前記関心領域の表示値に適用すること(480)と
をさらに含む、実施態様15に記載の方法(300)。
100 画像処理装置/システム
110 画像取得デバイス
120 画像再構成エンジン
130 ルックアップテーブルジェネレータ
140 画像プロセッサ
150 メモリ
200 ユーザインターフェース
210 画像
220 腫瘍/オブジェクト
300 方法
310 ブロック
320 ブロック
330 ブロック
340 ブロック
350 ブロック
360 ブロック
370 ブロック
410 ブロック
420 ブロック
430 ブロック
440 ブロック
450 ブロック
460 ブロック
470 ブロック
480 ブロック
500 プロセッサプラットフォーム
512 プロセッサ
513 ローカルメモリ
514 揮発性メモリ/主メモリ
516 不揮発性メモリ/主メモリ
518 バス
520 インターフェース回路
522 入力デバイス
524 出力デバイス
526 ネットワーク
528 大容量記憶デバイス
532 コード化された命令

Claims (10)

  1. 少なくとも1つのプロセッサ(140)と、
    命令を含む少なくとも1つのコンピュータ可読記憶媒体であって、前記命令は、実行されると、前記少なくとも1つのプロセッサ(140)に、少なくとも、
    画像(210)を処理して前記画像(210)のノイズを低減させること、
    前記画像(210)の関心器官または関心領域の少なくとも1つを識別させること、
    前記関心器官または前記関心領域の少なくとも1つの値を分析させること、
    前記分析された値に基づいて前記関心器官または前記関心領域の前記少なくとも1つを処理して前記関心器官または前記関心領域の前記少なくとも1つに処理されたオブジェクト(220)を提供させることであって、前記関心器官または前記関心領域の少なくとも1つを処理することがオブジェクトを処理することを含み、前記オブジェクトを処理することが、前記オブジェクト(220)の特性を識別することを含む、前記関心器官または前記関心領域の前記少なくとも1つを処理して、前記処理されたオブジェクト(220)を提供させること、
    インターフェース(200)を介した相互作用のために前記処理されたオブジェクト(220)を表示させることであって、前記表示させることは、少なくとも、
    軟部組織範囲外のボクセルを前記画像(210)から除去して修正された画像を作成し、
    形態学的閉鎖フィルタを前記修正された画像に適用し、
    前記修正された画像で最大の連結成分を選択し、
    前記最大の連結成分内で最大数のピクセルを有する前記最大の連結成分の第1のスライスを選択し、
    前記第1のスライスの厚さ内の複数の第2のスライスを選択してオブジェクト(220)を形成し、
    前記オブジェクト(220)を侵食して前記オブジェクト(220)内の内部ボクセルを選択し、前記関心領域を露出させ、
    前記関心領域の偏差を算出し、
    ルックアップテーブルを前記関心領域の表示値に適用する
    ことによって、前記関心領域露出させることを含む、オブジェクトを表示させること、
    を実行させる、少なくとも1つのコンピュータ可読記憶媒体と
    を備える、装置(100)。
  2. 少なくとも1つのプロセッサ(140)と、
    命令を含む少なくとも1つのコンピュータ可読記憶媒体であって、前記命令は、実行されると、前記少なくとも1つのプロセッサ(140)に、少なくとも、
    画像(210)を処理して前記画像(210)のノイズを低減させること、
    前記画像(210)の関心器官または関心領域の少なくとも1つを識別させること、
    前記関心器官または前記関心領域の少なくとも1つの値を分析させること、
    前記分析された値に基づいて前記関心器官または前記関心領域の前記少なくとも1つを処理して前記関心器官または前記関心領域の前記少なくとも1つに処理されたオブジェクト(220)を提供させることであって、前記関心器官または前記関心領域の少なくとも1つを処理することがオブジェクトを処理することを含み、前記オブジェクトを処理することが、前記オブジェクト(220)の特性を識別することを含む、前記関心器官または前記関心領域の前記少なくとも1つを処理して、前記処理されたオブジェクト(220)を提供させること、
    インターフェース(200)を介した相互作用のために前記処理されたオブジェクト(220)を表示させることであって、前記表示させることは、前記関心領域を露出させることを含む、オブジェクトを表示させること、
    を実行させる、少なくとも1つのコンピュータ可読記憶媒体と
    を備え、
    前記露出された関心領域内の前記オブジェクト(220)は、画像データ値に関連付けられた表示値のルックアップテーブルを使用して処理され
    前記表示値は、表示値=K(HU値-平均+O)/(K.STD)を使用して決定され、
    式中、KおよびOは、以前の表示セッションからの前の値であり、HU値は、ハンスフィールドユニット値であり、平均は、前の値KおよびOの平均であり、K.STDは、前のK値の標準偏差である、装置(100)。
  3. 前記露出された関心領域内の前記オブジェクト(220)は、画像データ値を表示値にコンバートする線形ランプ関数を使用して処理される、請求項1に記載の装置(100)。
  4. 前記画像(210)は、適応型統計的反復再構成を使用して前記画像(210)のノイズを低減するために処理される、請求項1に記載の装置(100)。
  5. 前記器官は、肝臓であり、前記オブジェクト(220)は、肝臓腫瘍である、請求項1に記載の装置(100)。
  6. 少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、画像(210)を処理して前記画像(210)のノイズを低減すること(310)と、
    前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記画像(210)の関心器官または関心領域の少なくとも1つを識別すること(320)と、
    前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記関心器官または前記関心領域の少なくとも1つの値を分析すること(340)と、
    前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記分析された値に基づいて前記関心器官または前記関心領域の前記少なくとも1つを処理して前記関心器官または前記関心領域の前記少なくとも1つに処理されたオブジェクト(220)を提供すること(350)であって、前記関心器官または前記関心領域の少なくとも1つを処理することがオブジェクトを処理することを含み、前記オブジェクトを処理することが、前記オブジェクト(220)の特性を識別することを含む、前記関心器官または前記関心領域の前記少なくとも1つを処理して、前記処理されたオブジェクト(220)を提供すること、
    前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、インターフェース(200)を介した相互作用のために前記処理されたオブジェクト(220)を表示すること(360)であって、前記表示させることは、少なくとも、
    軟部組織範囲外のボクセルを前記画像(210)から除去して修正された画像を作成すること(410)と、
    形態学的閉鎖フィルタを前記修正された画像に適用すること(420)と、
    前記修正された画像で最大の連結成分を選択すること(430)と、
    前記最大の連結成分内で最大数のピクセルを有する前記最大の連結成分の第1のスライスを選択すること(440)と、
    前記第1のスライスの厚さ内の複数の第2のスライスを選択してオブジェクト(220)を形成すること(450)と、
    前記オブジェクト(220)を侵食して前記オブジェクト(220)内の内部ボクセルを選択し、前記関心領域を露出させること(460)と、
    前記関心領域の偏差を算出すること(470)と、
    ルックアップテーブルを前記関心領域の表示値に適用すること(480)と
    によって、前記関心領域露出させること(330)を含む、オブジェクトを表示すること
    を含む、コンピュータ実装方法(300)。
  7. 少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、画像(210)を処理して前記画像(210)のノイズを低減すること(310)と、
    前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記画像(210)の関心器官または関心領域の少なくとも1つを識別すること(320)と、
    前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記関心器官または前記関心領域の少なくとも1つの値を分析すること(340)と、
    前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、前記分析された値に基づいて前記関心器官または前記関心領域の前記少なくとも1つを処理して前記関心器官または前記関心領域の前記少なくとも1つに処理されたオブジェクト(220)を提供すること(350)であって、前記関心器官または前記関心領域の少なくとも1つを処理することがオブジェクトを処理することを含み、前記オブジェクトを処理することが、前記オブジェクト(220)の特性を識別することを含む、前記関心器官または前記関心領域の前記少なくとも1つを処理して、前記処理されたオブジェクト(220)を提供すること、
    前記少なくとも1つのプロセッサ(140)を使用して命令を実行することによって、インターフェース(200)を介した相互作用のために前記処理されたオブジェクト(220)を表示すること(360)であって、前記表示させることは、前記関心領域を露出させること(330)を含む、オブジェクトを表示すること
    を含み、
    前記露出された関心領域内の前記オブジェクト(220)は、画像データ値に関連付けられた表示値のルックアップテーブルを使用して処理され
    前記表示値は、表示値=K(HU値-平均+O)/(K.STD)を使用して決定され、
    式中、KおよびOは、以前の表示セッションからの前の値であり、HU値は、ハンスフィールドユニット値であり、平均は、前の値KおよびOの平均であり、K.STDは、前のK値の標準偏差である、コンピュータ実装方法(300)。
  8. 前記露出された関心領域内の前記オブジェクト(220)は、画像データ値を表示値にコンバートする線形ランプ関数を使用して処理される、請求項に記載の方法(300)。
  9. 前記画像(210)は、適応型統計的反復再構成を使用して前記画像(210)のノイズを低減するために処理される、請求項に記載の方法(300)。
  10. 命令を含む少なくとも1つのコンピュータ可読記憶媒体であって、前記命令は、実行されると、少なくとも1つのプロセッサ(140)に、少なくとも、
    画像(210)を処理して前記画像(210)のノイズを低減させること、
    前記画像(210)の関心器官または関心領域の少なくとも1つを識別させること、
    前記関心器官または前記関心領域の少なくとも1つの値を分析させること、
    前記分析された値に基づいて前記関心器官または前記関心領域の前記少なくとも1つを処理して前記関心器官または前記関心領域の前記少なくとも1つに処理されたオブジェクト(220)を提供させることであって、前記関心器官または前記関心領域の少なくとも1つを処理することがオブジェクトを処理することを含み、前記オブジェクトを処理することが、前記オブジェクト(220)の特性を識別することを含む、前記関心器官または前記関心領域の前記少なくとも1つを処理して、前記処理されたオブジェクト(220)を提供すること処理されたオブジェクト(220)を提供させること、
    インターフェース(200)を介した相互作用のために前記処理されたオブジェクト(220)を表示させることであって、前記表示させることは、少なくとも、
    軟部組織範囲外のボクセルを前記画像(210)から除去して修正された画像を作成させ、
    形態学的閉鎖フィルタを前記修正された画像に適用させ、
    前記修正された画像で最大の連結成分を選択させ、
    前記最大の連結成分内で最大数のピクセルを有する前記最大の連結成分の第1のスライスを選択させ、
    前記第1のスライスの厚さ内の複数の第2のスライスを選択してオブジェクト(220)を形成させ、
    前記オブジェクト(220)を侵食して前記オブジェクト(220)内の内部ボクセルを選択し、前記関心領域を露出させ、
    前記関心領域の偏差を算出させ、
    ルックアップテーブルを前記関心領域の表示値に適用させる
    ことによって、前記関心領域露出させることを含む、オブジェクトを表示させること、
    を実行させる、少なくとも1つのコンピュータ可読記憶媒体。
JP2020054167A 2019-03-29 2020-03-25 肝臓腫瘍例のレビューを容易にするシステムおよび方法 Active JP7194143B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/369,326 2019-03-29
US16/369,326 US11030742B2 (en) 2019-03-29 2019-03-29 Systems and methods to facilitate review of liver tumor cases

Publications (2)

Publication Number Publication Date
JP2020179159A JP2020179159A (ja) 2020-11-05
JP7194143B2 true JP7194143B2 (ja) 2022-12-21

Family

ID=69960305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020054167A Active JP7194143B2 (ja) 2019-03-29 2020-03-25 肝臓腫瘍例のレビューを容易にするシステムおよび方法

Country Status (4)

Country Link
US (2) US11030742B2 (ja)
EP (1) EP3716202A1 (ja)
JP (1) JP7194143B2 (ja)
CN (1) CN111768343B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
EP3787543A4 (en) 2018-05-02 2022-01-19 Augmedics Ltd. REGISTRATION OF A REFERENCE MARK FOR AN AUGMENTED REALITY SYSTEM
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11030742B2 (en) 2019-03-29 2021-06-08 GE Precision Healthcare LLC Systems and methods to facilitate review of liver tumor cases
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
EP3779887B1 (en) * 2019-08-12 2022-10-19 Siemens Healthcare GmbH Computer-implemented method of deriving 3d image data of a reconstruction volume and computer readable medium
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11657501B2 (en) * 2020-09-24 2023-05-23 GE Precision Healthcare LLC Generating enhanced x-ray images using constituent image
US11881301B2 (en) * 2021-02-26 2024-01-23 GE Precision Healthcare LLC Methods and systems for utilizing histogram views for improved visualization of three-dimensional (3D) medical images
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN114391792B (zh) * 2021-09-13 2023-02-24 南京诺源医疗器械有限公司 基于窄带成像的肿瘤预测方法、装置及成像内镜

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061601A (ja) 2004-08-30 2006-03-09 Konica Minolta Medical & Graphic Inc 医用画像表示装置、医用画像表示システム及び医用画像表示プログラム
JP2015504074A (ja) 2012-01-11 2015-02-05 ジーイー・ヘルスケア・アクスイェ・セルスカプ ヨウ素濃度の低いx線イメージング造影製剤及びx線イメージング法
WO2015137011A1 (ja) 2014-03-14 2015-09-17 株式会社日立メディコ X線ct装置、及び処理装置

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6067366A (en) * 1998-02-11 2000-05-23 Analogic Corporation Apparatus and method for detecting objects in computed tomography data using erosion and dilation of objects
US6584216B1 (en) 1999-11-23 2003-06-24 The Trustees Of The University Of Pennsylvania Method for standardizing the MR image intensity scale
US7085406B2 (en) * 2001-07-27 2006-08-01 General Electric Company Method and system for unsupervised transfer function generation for images of rendered volumes
US6888916B2 (en) * 2003-08-18 2005-05-03 Ge Medical Systems Global Technology Company, Llc Preprocessing methods for robust tracking of coronary arteries in cardiac computed tomography images and systems therefor
WO2005057493A1 (en) * 2003-12-10 2005-06-23 Agency For Science, Technology And Research Methods and apparatus for binarising images
FR2869438B1 (fr) * 2004-04-21 2006-10-13 Ge Med Sys Global Tech Co Llc Procede de segmentation automatique des cavites cardiaques
US7532748B2 (en) * 2004-11-24 2009-05-12 General Electric Company Methods and apparatus for selecting and/or labeling vessel branches
US7787673B2 (en) * 2004-12-21 2010-08-31 Siemens Medical Solutions Usa, Inc. Method and apparatus for airway detection and segmentation using 3D morphological operators
US8229200B2 (en) * 2005-03-14 2012-07-24 General Electric Company Methods and systems for monitoring tumor burden
US7702153B2 (en) * 2005-10-07 2010-04-20 Siemens Medical Solutions Usa, Inc. Systems and methods for segmenting object of interest from medical image
US7532702B2 (en) * 2005-11-23 2009-05-12 General Electric Company Method and system for performing CT image reconstruction with motion artifact correction
US20090096807A1 (en) * 2007-08-27 2009-04-16 Silverstein Jonathan C Systems and methods for image colorization
EP2283373B1 (en) * 2008-04-28 2021-03-10 Cornell University Accurate quantification of magnetic susceptibility in molecular mri
US8594400B2 (en) * 2010-02-26 2013-11-26 General Electric Company System and method for MR image scan and analysis
CN105194692A (zh) * 2010-07-12 2015-12-30 通用电气医疗集团股份有限公司 以低造影剂浓度和/或低剂量辐射的x-射线成像
US8761479B2 (en) * 2010-11-08 2014-06-24 General Electric Company System and method for analyzing and visualizing spectral CT data
JP5972279B2 (ja) * 2010-12-14 2016-08-17 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ピーク強度検出を伴う超音波イメージングシステム及び方法
US8644575B2 (en) * 2011-02-28 2014-02-04 Kabushiki Kaisha Toshiba Processing of abdominal images
US8855394B2 (en) * 2011-07-01 2014-10-07 Carestream Health, Inc. Methods and apparatus for texture based filter fusion for CBCT system and cone-beam image reconstruction
US8751961B2 (en) 2012-01-30 2014-06-10 Kabushiki Kaisha Toshiba Selection of presets for the visualization of image data sets
US10354377B2 (en) * 2012-04-11 2019-07-16 The Trustees Of Columbia University In The City Of New York Techniques for segmentation of lymph nodes, lung lesions and other solid or part-solid objects
KR20150058672A (ko) * 2013-11-19 2015-05-29 삼성전자주식회사 엑스선 영상 장치 및 그 제어 방법
WO2015114654A1 (en) * 2014-01-17 2015-08-06 Kpit Technologies Ltd. Vehicle detection system and method thereof
US20150206300A1 (en) * 2014-01-21 2015-07-23 Agency For Science, Technology And Research Method and apparatus for extraction and quantification of hematoma from a brain scan such as computed tomography data
US9342871B2 (en) * 2014-05-30 2016-05-17 Apple Inc. Scene motion correction in fused image systems
US9629587B2 (en) * 2014-07-10 2017-04-25 General Electric Company Systems and methods for coronary imaging
EP3207522A4 (en) * 2014-10-13 2018-06-13 Agency For Science, Technology And Research Automatic region-of-interest segmentation and registration of dynamic contrast-enhanced images of colorectal tumors
US9697603B2 (en) * 2014-12-19 2017-07-04 Toshiba Medical Systems Corporation Medical image data processing system and method for vessel segmentation using pre- and post-contrast data
US20160292874A1 (en) * 2015-03-30 2016-10-06 General Electric Company Methods and systems for automatic segmentation
EP3324846B1 (en) 2015-07-23 2021-05-12 Koninklijke Philips N.V. Computed tomography visualization adjustment
US9737278B2 (en) * 2015-09-30 2017-08-22 General Electric Company Methods and systems for multi-window imaging
US10242444B1 (en) * 2015-12-29 2019-03-26 Kentucky Imaging Technologies, LLC Segmentation of the colon for accurate virtual navigation
US11010630B2 (en) * 2017-04-27 2021-05-18 Washington University Systems and methods for detecting landmark pairs in images
WO2019023900A1 (zh) * 2017-07-31 2019-02-07 深圳联影医疗科技有限公司 在体数据中提取感兴趣区域的方法及系统
EP3503038A1 (en) * 2017-12-22 2019-06-26 Promaton Holding B.V. Automated 3d root shape prediction using deep learning methods
US10607114B2 (en) * 2018-01-16 2020-03-31 Siemens Healthcare Gmbh Trained generative network for lung segmentation in medical imaging
US11449993B2 (en) * 2018-03-12 2022-09-20 Persimio Ltd. Automated bone segmentation in images
US10796481B2 (en) * 2018-04-20 2020-10-06 Siemens Healthcare Gmbh Visualization of lung fissures in medical imaging
CN108888284A (zh) * 2018-05-18 2018-11-27 沈阳东软医疗系统有限公司 图像调整方法、装置及设备、存储介质
US20200126236A1 (en) * 2018-10-22 2020-04-23 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Image Segmentation using IOU Loss Functions
US10811135B2 (en) * 2018-12-27 2020-10-20 General Electric Company Systems and methods to determine disease progression from artificial intelligence detection output
US11030742B2 (en) 2019-03-29 2021-06-08 GE Precision Healthcare LLC Systems and methods to facilitate review of liver tumor cases

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006061601A (ja) 2004-08-30 2006-03-09 Konica Minolta Medical & Graphic Inc 医用画像表示装置、医用画像表示システム及び医用画像表示プログラム
JP2015504074A (ja) 2012-01-11 2015-02-05 ジーイー・ヘルスケア・アクスイェ・セルスカプ ヨウ素濃度の低いx線イメージング造影製剤及びx線イメージング法
WO2015137011A1 (ja) 2014-03-14 2015-09-17 株式会社日立メディコ X線ct装置、及び処理装置

Also Published As

Publication number Publication date
US11030742B2 (en) 2021-06-08
JP2020179159A (ja) 2020-11-05
US20210295512A1 (en) 2021-09-23
US11669964B2 (en) 2023-06-06
CN111768343B (zh) 2024-04-16
EP3716202A1 (en) 2020-09-30
US20200311912A1 (en) 2020-10-01
CN111768343A (zh) 2020-10-13

Similar Documents

Publication Publication Date Title
JP7194143B2 (ja) 肝臓腫瘍例のレビューを容易にするシステムおよび方法
US20210233645A1 (en) Methods and systems for characterizing anatomical features in medical images
US11494957B2 (en) Automated correction of metal affected voxel representations of x-ray data using deep learning techniques
WO2018120644A1 (zh) 血管提取方法及系统
CN109801254B (zh) 医学成像中的传递函数确定
US10867375B2 (en) Forecasting images for image processing
JP6835813B2 (ja) コンピュータ断層撮影視覚化調整
CN111166362B (zh) 医学图像的显示方法及装置、存储介质及电子设备
US9672641B2 (en) Method, apparatus, and computer readable medium for removing unwanted objects from a tomogram
US10062167B2 (en) Estimated local rigid regions from dense deformation in subtraction
JP6564075B2 (ja) 医用画像を表示するための伝達関数の選択
Frosio et al. Enhancing digital cephalic radiography with mixture models and local gamma correction
Dawood et al. The importance of contrast enhancement in medical images analysis and diagnosis
WO2010020921A2 (en) Blanking of image regions
JP6878679B2 (ja) デジタルx線画像における低情報コンテンツを有する領域の検出
Sayin et al. Optimization of CBCT data with image processing methods and production with fused deposition modeling 3D printing
EP4336452A1 (en) Computer-implemented method for processing spectral computed tomography (spectral ct) data, computer program and spectral ct system
JP2023154407A (ja) 医用画像処理装置、医用画像処理方法、及びx線診断装置
JP2023551421A (ja) 医用画像内の標識要素の抑制
Shevaruangroj et al. Metal Artifact Reduction by Mapping MR into CT Information
Tarambale et al. Spatial Domain Enhancement Techniques for Detection of Lung Tumor from Chest X-Ray Image
Dreyer et al. Digital imaging fundamentals
Fluture Model for quantification and analysis of pulmonary emphysema from low-dose radiation CT scans

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210526

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220307

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221111

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221111

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221130

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221209

R150 Certificate of patent or registration of utility model

Ref document number: 7194143

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150