JP7423338B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP7423338B2
JP7423338B2 JP2020021849A JP2020021849A JP7423338B2 JP 7423338 B2 JP7423338 B2 JP 7423338B2 JP 2020021849 A JP2020021849 A JP 2020021849A JP 2020021849 A JP2020021849 A JP 2020021849A JP 7423338 B2 JP7423338 B2 JP 7423338B2
Authority
JP
Japan
Prior art keywords
image data
distance
processing
transformed
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020021849A
Other languages
English (en)
Other versions
JP2021027982A (ja
Inventor
ワレンバーグ マグナス
アラン スミス スコット
昂彦 西岡
文将 重
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2021027982A publication Critical patent/JP2021027982A/ja
Application granted granted Critical
Publication of JP7423338B2 publication Critical patent/JP7423338B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

ここに説明される実施形態は概して、例えば、フレームの一時的なアップサンプリングのための画像処理装置及び画像処理方法に関する。
例えば診断や手術などの医療行為において4D超音波撮像等の所謂4次元(4D)医用撮像、を実行することが知られている。4D撮像システムにおいて、異なる時間で取得された一連の3次元(3D)画像は、動的にレンダリングされることにより、例えば3Dムービーなどの動的な3D画像が生成される。
ソフトウェアを使用して、ボリューメトリックデータを取得するために異なる位置又は角度で得られたデータを組み合わせること、及び、単純な表面シェーディング又は直接的なボリュームレンダリングのような方法を使用してボリューメトリックデータから画像をレンダリングすることにより、各3D画像が取得される。
ある状況では、4D撮像からキャプチャされたフレーム数は、観察者にとって動画化されたフレームの再生が滑らかに見えるために十分でない場合がある。人間の目が滑らかな動きと知覚するのを下回る速度で、フレームがキャプチャされる場合がある。例えば、フレームは、毎秒10フレーム以下、又は、毎秒10~15フレームで、キャプチャされる。
観察者にとって、動画がスムーズに見えないと、観察しづらさを感じる場合がある。例えば、不連続な動きにより、観察者の気が逸らされることがある。観察者は、スムーズに見えない一連の画像において、解剖学的特徴又は異常を特定しづらかったり、臓器の動きや手術器具による臓器の変形を認識しづらいと感じることもある。
4D収集において複数の3Dデータボリュームがキャプチャされるいくつかの使用事例では、各3Dボリュームは、時点、又は、生体構造の時相を表している。
第一の使用事例は、4D超音波である。4D超音波では、ボリューメトリックデータの連続的なフレームが超音波スキャナにより収集され、観察可能にレンダリングされる。この一例において、僧帽弁の超音波撮像は、毎秒11フレーム(frames per second:fps)で実行される。11fpsは、人間の目が滑らかだと知覚するのに必要とされるフレームレートを僅かに下回ると考えられている。4D撮像が11fpsで表示された場合、観察者は、僧帽弁の動きがぎくしゃくしている、又は、不連続であると知覚することがある。この不連続な動きにより、ユーザが表示された画像を解析する能力を損なう場合がある。また、この不連続な動きにより、画像の解釈が難しくなる場合がある。
第二の使用事例は、心臓のマルチフェーズCT撮像である。マルチフェーズCT撮像において、心臓の動きの一つ又は複数又は一部のサイクル、典型的には心臓の動きの多重サイクルを表す画像データがキャプチャされる。一部のサイクルとは、例えば70%cycleと80%cycleと90%cycleと100%cycleといった、ほぼ等間隔で連続したサイクルを指す.これには70%cycleと80%cycleと90%cycleと99%cycleといった、一部位相がごく僅かにずれたサイクルも含まれる。画像データは、心臓の動きの個別の位相を表すフレームへと分類される。例えば、画像データは、9つの異なる心臓位相を表して、取得される。異なる心臓位相についてのデータは、心臓の動きの1サイクルまたは1サイクルの一部における異なる時間での心臓の動きを表す一連の画像をレンダリングするために、使用される。
9つの心臓位相の画像が次々に再生される例について考える。観察者は、心臓の明白な動きが滑らかでないと知覚することがある。画像を解析するユーザの能力は、動きにおける滑らかさの欠如により、影響を受ける場合がある。
マルチフェーズCT又はマルチフェーズ撮像は、その他の動きのタイプに関しても、実行することができる。
フレーム間又は位相間レジストレーションの使用により、連続的な画像フレーム間の動きを補間(アップサンプリング)することが知られている。レジストレーションを使用して動きを補間するために、第一のフレームに対応する画像データが、例えば近傍のフレームである第二のフレームに対応する画像データに対して、レジストレーションされる。例えば、任意の適切な非剛体レジストレーションの方法等の、任意の適切なレジストレーションの方法を使用することができる。このレジストレーションは、第一のフレーム上の点を第二のフレーム上の対応する点へとマッピング(配置)する。
一旦レジストレーションが取得されると、レジストレーションにより、第一のフレームと第二のフレームとの間の時間の画像データを表す第三のフレームが取得される。第三のフレームは、レジストレーションに基づいた画像値の補間により、取得される。
補間されるデータは、2Dであってもよく、3Dであってもよい。例えば、レジストレーションにより生成される3Dモーションフィールドが、補間される場合がある。
レジストレーションを使用したフレーム間の補間の結果、滑らかな再生が可能であることは知られている。しかし、レジストレーションを使用しての連続的な補間には、精確なレジストレーションを必要とする。レジストレーション取得の際に困難が生じる場合には、補間されたフレームを生成するのが不可能な場合がある。状況次第では、レジストレーション全体が失敗する場合もある。全てのレジストレーションが精確に実行されなければならないという要求は、非常に厳しい要件となる場合がある。
レジストレーションを使用した補間では、大量の処理及びリソースが必要とされる。レジストレーションで使用される処理のレベル及びリソースに応じて、リアルタイムでのレジストレーションベースの補間の実行が難しくなる場合がある。レジストレーションベースの補間は、例えばリアルタイム超音波撮像等のいくつかのリアルタイムアプリケーションに対して、適当でない場合がある。レジストレーションは、局所解剖学(トポロジー)における変化に対して上手く適用できないことがある。
異なる撮像モダリティに応じて、異なるレジストレーション法の使用が必要とされることがある。また、適切なレジストレーション方法が、いくつかのモダリティに対して適用できないこともある。
心臓の動きの観察のため、心筋、冠状血管、弁の中を見る必要が生じることがある。しかし、ある位相において、心臓や弁の動きが原因で、又は心臓や弁の構造的な厚みが原因で、冠状血管及び弁がビューから消えてしまうことがある。また、ある位相において、コントラストの濃度が不十分なことが原因で冠状血管や弁がビューから消えてしまうこともある。更に、開いた際の形状が原因で、弁がビューから消えることもある。
ある状況では、連続する画像間において、特定の画像特徴(例えば、弁)がビューから消えたり再び現れたりする場合に、レジストレーションベースの方法が上手く働かないことがある。
中間のフレームの取得する別の方法として、近傍のフレームをブレンドするボリュームブレンディング技法が考えられる。例えば、第一のフレームと第二のフレームとの間の第三のフレームを取得するために、第一のフレームと第二のフレームとのブレンディングを考えることができる。第三のフレームの各ピクセルには、第一のフレームの中間値と第二のフレームの中間値との間の値が割り当てられる。
しかし、簡単なボリュームブレンディング技法では、一般的に、動いている様子を表示できないことが分かっている。代わりに、フレーム間が色落ちしたような感覚を与えることがある。
特開2004-041722号公報
本発明が解決しようとする課題は、フレーム間の動きを良好に認識可能なアップサンプリングを行うことである。
実施形態に係る画像処理装置は、処理回路を具備する。前記処理回路は、第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集し、複数の第一の変換データセットを取得するために、前記第一の画像データを処理し、複数の第二の変換データセットを取得するために、前記第二の画像データを処理し、第一の距離変換を取得するために、前記複数の第一の変換データセットのそれぞれを変換し、第二の距離変換を取得するために、前記複数の第二の変換データセットのそれぞれを変換し、前記第一の距離変換のうちの少なくとも一つと、前記第二の距離変換のうちの少なくとも一つとの組み合わせを選択し、前記組み合わせに基づいて、少なくとも一つのモーフィングされた距離変換を生成し、前記第一時相と前記第二時相との間の第三時相での前記被検体を表すアップサンプリングされた画像データを取得するために、前記少なくとも一つのモーフィングされた距離変換を処理する。
実施形態は、非限定的な例としてこれから説明され、以下の図に描かれている。
図1は、実施形態に掛かる装置の概略図である。 図2は、実施形態の方法の概要を描くフローチャートである。 図3は、図2の実施形態において生成且つ使用された画像のうちのいくつかを示すフローチャートである。 図4は、符号付距離場の一例を示している。 図5は、複数のisoレベル画像と組み合わされた画像との一例を描いている。 図6は、実施形態に係る動画を提供する方法の概要を示すフローチャートである。 図7は、実施形態に係る動画を提供する他の方法の概要を示すフローチャートである。 図8は、実施形態におけるセグメンテーションの利用の概略図である。 図9は、実施形態におけるセグメンテーションの更なる利用の概略図である。
ある実施形態に係る画像処理装置は、第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集し、複数の第一の変換データセットを取得するために、前記第一の画像データを処理し、複数の第二の変換データセットを取得するために、前記第二の画像データを処理し、第一の距離変換を取得するために、前記複数の第一の変換データセットのそれぞれを変換し、第二の距離変換を取得するために、前記複数の第二の変換データセットのそれぞれを変換し、前記第一の距離変換のうちの少なくとも一つと、前記第二の距離変換のうちの少なくとも一つとの組み合わせを選択し、前記組み合わせに基づいて、少なくとも一つのモーフィングされた距離変換を生成し、前記第一時相と前記第二時相との間の第三時相での前記被検体を表すアップサンプリングされた画像データを取得するために、前記少なくとも一つのモーフィングされた距離変換を処理するように構成された処理回路を具備する。
ある実施形態に係る画像処理方法は、第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集することと、複数の第一の変換データセットを取得するために、前記第一の画像データを処理することと、複数の第二の変換データセットを取得するために、前記第二の画像データを処理することと、第一の距離変換を取得するために、前記複数の第一の変換データセットのそれぞれを変換することと、第二の距離変換を取得するために、前記複数の第二の変換データセットのそれぞれを変換することと、前記第一の距離変換のうちの少なくとも一つと、前記第二の距離変換のうちの少なくとも一つとの組み合わせを選択することと、前記組み合わせに基づいて、少なくとも一つのモーフィングされた距離変換を生成することと、前記第一時相と前記第二時相との間の第三時相での前記被検体を表すアップサンプリングされた画像データを取得するために、前記少なくとも一つのモーフィングされた距離変換を処理することと、を具備する。
ある実施形態に係る画像処理装置は、第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集し、複数の第一の変換データセットを取得するために、前記第一の画像データを処理し、複数の第二の変換データセットを取得するために、前記第二の画像データを処理し、前記第一の画像データ及び/又は前記第二の画像データの欠損を特定し、前記欠損の前記特定は、前記第一の変換データセットと前記第二の変換データセットとに基づいて実行され、前記欠損の前記特定に基づいて、動画データを生成する、よう構成された処理回路を具備する。
ある実施形態に係る画像処理方法は、第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集することと、複数の第一の変換データセットを取得するために、前記第一の画像データを処理することと、複数の第二の変換データセットを取得するために、前記第二の画像データを処理することと、前記第一の画像データ及び/又は前記第二の画像データの欠損を特定することと、を具備する。前記欠損の前記特定は、前記第一の変換データセットと前記第二の変換データセットとに基づいて実行され、前記欠損の前記特定に基づいて動画データを生成する。
実施形態に係る医用画像処理装置10が、図1に概略的に描かれている。
装置10は、本実施形態においてパーソナルコンピュータ(PC)又はワークステーションである計算装置12を備える。計算装置12は、コンピュータ断層(CT)スキャナ14、一つ又は複数の表示スクリーン16、及び、コンピュータキーボード、マウス又はトラックボール等の一つ以上の入力装置18に接続されている。
CTスキャナ14は、患者又はその他の被検体の解剖学的領域を表すボリューメトリックCT撮像データを取得するよう構成されている。CTスキャナ14は、解剖学的領域で動きが生じている時間において、経時的にボリューメトリックCT撮像データを取得するよう構成されている。例えば、解剖学的領域とは、心臓であり、心臓が動いている間に撮像データが取得される。
別の実施形態において、CTスキャナ14は、例えばCTスキャナ、コーンビームCTスキャナ、MRI(magnetic resonance imaging:磁気共鳴撮像)スキャナ又は超音波スキャナ等、任意の適当な撮像モダリティにおいてボリューメトリック撮像又は二次元撮像データを取得するよう構成されたスキャナに置き換える又は補うことができる。
撮像データは、造影剤を使用して取得することができる。例えば、撮像データは、造影CTデータ、又はバブル造影剤(bubble contrast)を使用して取得された超音波データを有することがある。
CTスキャナ14によって取得される撮像データセットは、メモリ20に格納され、その後、計算装置12に提供される、あるいは、計算装置12に直接提供される。別の実施形態において、撮像データセットは、医用画像保管通信システム(Picture Archiving and Communication System:PACS)の一部を形成することができる遠隔データストレージ(図示せず)から供給される。係るメモリ20又は遠隔データストレージは、メモリ格納のための任意の適切な形式を備える。
計算装置12は、撮像データセットを自動的に又は半自動的に処理するための処理リソースを提供する。また、計算装置12は、中央処理ユニット(CPU)22を備える。
計算装置12の中央処理ユニット(CPU)22は、ボリューメトリック撮像データから画像フレームをレンダリングするよう構成されたレンダリング回路24と、画像フレームに対する符号付距離場を取得するよう構成された分解回路26と、符号付距離場を使用して画像フレーム間を補間するよう構成された補間回路28と、を含む。
レンダリング回路24は、第一時相での被検体を表す第一の画像データと、第一時相と異なる第二時相での被検体を表す第二の画像データとを収集する。
分解回路26は、複数の第一の変換データセットを取得するために、第一の画像データを処理し、複数の第二の変換データセットを取得するために、第二の画像データを処理し、第一の距離変換を取得するために、前記複数の第一の変換データセットのそれぞれを変換し、第二の距離変換を取得するために、前記複数の第二の変換データセットのそれぞれを変換する。具体的には、分解回路26は、画像データのパラメータに基づいて第一の画像データを処理することにより、パラメータのそれぞれの値に対応する複数の第一の変換データセットを取得し、パラメータに基づいて第二の画像データを処理することにより、パラメータのそれぞれの値に対応する複数の第二の変換データセットを取得する。
補間回路28は、第一の距離変換のうちの少なくとも一つと、第二の距離変換のうちの少なくとも一つとの組み合わせを選択し、組み合わせに基づいて、少なくとも一つのモーフィングされた距離変換を生成し、第一時相と前記第二時相との間の第三時相での前記被検体を表すアップサンプリングされた画像データを取得するために、少なくとも一つのモーフィングされた距離変換を処理する。具体的には、補間回路28は、パラメータに基づいて、組み合わせを選択する。
レンダリング回路24、分解回路26及び補間回路28を有するCPU22は、処理回路の一例である。
本実施形態において、回路24、26、28は、実施形態の方法を実行することが可能な、コンピュータ読み取りが可能な命令を有するコンピュータプログラムの方法で、計算装置12において、それぞれ実行される。しかし、その他の実施形態において、様々な回路は、一つ又は複数のASIC(application specific integrated circuits:特定用途向け集積回路)又はFPGA(field programmable gate arrays:フィールドプログラマブルゲートアレイ)として実行することもできる。
計算装置12は、ハードドライブと、RAM、ROM、データバス、様々なデバイスドライバを含むオペレーティングシステム、そしてグラフィックスカード等を含むハードウェアデバイス等その他のPCの構成要素も含む。このような構成要素は、図を見やすくする為、図1には示されていない。
図2は、本実施形態に係る方法の概要を描くフローチャートである。図3は、図2の実施形態において生成され使用される画像のうちのいくつかを示す、更なるフローチャートである。
図2のステージ30で、レンダリング回路24は、メモリ20からボリューメトリック撮像データを受け取る。ボリューメトリック撮像データは、経時的な解剖学的領域の動きを表す。別の実施形態において、レンダリング回路24によって受け取られたデータは、二次元データの場合がある。
レンダリング回路24は、第一時相T0での解剖学的領域を表す第一の画像フレーム32と、第二時相T1での解剖学的領域を表す第二の画像フレーム34とをレンダリングする。時相t、時相T0及びT1は、「一時的な位置」と呼ぶことができる。解剖学的領域の動きは、第一時相T0及び第二時相T1との間で起きたものである。第一の画像フレーム32と第二の画像フレーム34は、一連のフレームにおいて近傍のフレームである。第一の画像フレーム32は、第一の画像データの一例である。第二の画像フレーム34は、第二の画像データの一例である。時相T0及びT1は、異なる時相である。時相tは、第一時相T0及び第二時相T1との間の時相である。時相tは、第三時相の一例である。
第一の画像フレーム32と第二の画像フレーム34とは、図3に描かれている。図3の例において、レンダリングされた画像32、34は、例えば体軸スライス(アキシャル断面)等で生体構造を表す画像である。その他の実施形態において、レンダリングされた画像は、任意の適切な画像の種類を用いることができる。例えば、レンダリングされた画像は、生体構造の三次元ビューを提供する画像の場合がある。また任意の適切なレンダリング法を使用することができる。例えば、レンダリング法は、少なくとも、多断面再フォーマット(Multiplanar Reformat:MPR)、フルボリューム強度投影ボリュームレンダリング、影付きボリュームレンダリング、グローバルイルミネーションボリュームレンダリング、湾曲面再フォーマット(Curved Plane Reformats:CPR)等がある。
ここでは、画像の生成に関して、レンダリング回路24により実行される処理について説明をするが、多くの実施形態において画像32、34は、この段階でユーザに表示されることはない。画像32、34は、複数のピクセル位置に対する個別のピクセル値を有する二次元データセットにより表される。下記において画像の処理に対する言及は、実際には画像を表す二次元データセットについて実行される。同様に、下記で説明されるisoレベル及び符号付距離場は、図3において説明を行う為に描かれている。多くの実施形態において、isoレベル及び符号付距離場は、ユーザに表示されない。isoレベル及び符号付距離場を表す二次元セットは、様々な回路によって処理される。
図3において、レンダリングされる画像32、34は、それぞれが異なるグレースケールレベルの範囲を持つピクセルを有する。異なるグレースケールレベルは、例えばハンスフィールドユニットでのCT値等のように、異なるCT値を表す。
ステージ40で、分解回路26は、isoレベル値のN個のセットを受け取る。Nの定め方は、予め定めてもよいし、レンダリングされる画像によって定めてもよい。定め方には、画像内グレースケールレベルの最大値と最小値の差の値に基づき予め用意した辞書により決定してもよいし、モダリティに対応して決定してもよいし、撮像されている臓器に対応して決定してもよいし、注目する臓器に対応して決定してもよい。本実施形態において、N=10である。その他の実施形態において、Nについて任意の適切な値を使用することができる。isoレベル値は、強度を表し、例えばハンスフィールドユニットにおけるCT値等を有することができる。isoレベル値及び強度は、画像のパラメータの一例である。
本実施形態において、使用予定のisoレベルのセットは、ユーザにより手動で選択される。その他の実施形態において、使用予定のisoレベルのセットを、自動的に決定することもできる。isoレベルは、ボリュームの最も視認可能な部分を選択することにより、選択される。ボリュームのどの部分が最も視認可能であるかの決定は、ユーザに対して提示されるビューに基づいた視認性ヒストグラムを使用して取得することができる。この場合、CPU22は、パラメータに基づいた第一の画像データと第二の画像データとの処理において、パラメータについて複数の値を選択する。
いくつかの実施形態において、isoレベルのうちの少なくとも一つは、ヒストグラムにおいて顕著な複数のピークの中間点を決定するヒストグラム解析を使用して取得することができる。
更なる実施形態において、学習済みモデル(例えば、畳み込みニューラルネットワークを有する深層ニューラルネットワーク)を、使用予定のisoレベルを取得するために、使用することができる。例えば、学習済みモデルは、最も小さい差が生じるisoレベルを、最終画像のキーフレームとして分類することができる。学習済みモデルは、少なくとも一つのキーフレームを有する入力ボリュームを持つ。学習済みモデルは、少なくとも一つのキーフレームから、しきい値の固定されたベクトルを回帰する。損失関数は、生成されたボリューム(提案される分解と再構成とに基づく)がレンダリングされたビューと、参照ソースキーフレームがレンダリングされたビューとの間の類似度に基づく。この場合、パラメータについての複数の値の選択は、学習済みモデルにより実行される。
分解回路26は、第一のレンダリングされた画像32を第一の複数のN個のisoレベル画像へと分解する。isoレベル画像は、1からNまでの数字が振られている。N個のisoレベル画像のそれぞれは、第一の画像32における個別のisoレベル面を表す。
本実施形態において、isoレベル画像それぞれは、isoレベル値のN個のセットのうちの一つを使用して、第一のレンダリングされた画像をしきい化することにより取得される。その他の実施形態において、isoレベル画像を取得するために、任意の適切な方法を使用することができる。いくつかの実施形態において、セグメンテーション及び/又はクリッピングは、各isoレベルを制約するのに使用することができる。
第一のレンダリングされた画像32から取得されたisoレベル画像の二つの例42、44が、図3に示されている。isoレベル画像は、「ボリュームマスク」とも呼ばれることがある。isoレベル画像42、44のそれぞれは、第一の変換データセットの一例である。
分解回路26は、第二のレンダリングされた画像34を、第二の複数のisoレベル画像へと分解する。本実施形態において、isoレベル値が同じであるN個のセットは、第一の複数のisoレベル画像に対して使用されたものと同様の、第二の複数のisoレベル画像に対して使用される。第二のレンダリングされた画像34から取得されたisoレベル画像の二つの例46、48が、図3に示されている。isoレベル画像46、48のそれぞれは、第二の変換データセットの一例である。すなわち、複数の第一の変換データセットを取得するための第一の画像データの処理は、異なる値を使用した第一の画像データに対するしきい化を有し、複数の第二の変換データセットを取得するための第二の画像データの処理は、異なる値を使用した第二の画像データに対するしきい化を有する。
ステージ50で、分解回路26は、isoレベル画像のうちのそれぞれを、個別の符号付距離場へと転換する。各isoレベル画像に対して、符号付距離場は、isoレベルの形状を表す。その他の実施形態において、符号付距離場は、isoレベルの形状を表す任意の距離変換を使用することもできる。すなわち、第一の距離変換のそれぞれは、第一の変換データセットの個別のisoレベルの形状を表し、第二の距離変換のそれぞれは、第二の変換データセットの個別のisoレベルの形状を表す。
(三次元における)符号付距離場は、物体の境界に対する距離を表す値を有する、連続関数
である。符号付距離場は、f(x、y、z)と表される。物体における各点でのf(x、y、z)の値は、物体の境界に対する点からの最小距離である。f(x、y、z)<0は、物体の内部を表す。f(x、y、z)>0は、物体の外部を表す。物体に対する外側の各ポイントでのf(x、y、z)の値は、境界に対する点からの最小距離である。
図4は、二次元における符号付距離場の概略図である。図4の左側は、二つの円を示す。図4の右側は、二つの円に対する距離場を視覚化したものである。距離場は、f(x、y、z)=0を白へとマッピングし、且つf(x、y、z)に対するその他の値をグレーの異なる影へとマッピングする変換関数を使用して視覚化される。図4は、連続しない形状(二つの円)が、単一の距離関数として示すことができるということを実証している。
ステージ50の出力は、第一のレンダリングされた画像32から取得された、第一の複数のisoレベルに対応する、第一の複数のN個の符号付距離場を有する。第一の複数の符号付距離場のうちの二つは、図3に符号付距離場52、54として示される。符号付距離場52、54のそれぞれは、第一の距離変換の一例である。
ステージ50の出力は、第二のレンダリングされた画像34から取得された、第二の複数のisoレベルに対応する、第二の複数のN個の符号付距離場を更に有する。第二の複数の符号付距離場のうちの二つは、図3に符号付距離場56、58として示される。符号付距離場56、58のそれぞれは、第二の距離変換の一例である。
第一の複数の符号付距離場と、第二の複数の符号付距離場とは、データストレージ20又は任意の適当なメモリに、一時的に格納される。
図2のステージ60から80までは、T0及びT1の間における時相tに対する補間されたボリュームを取得するために、符号付距離場を使用する。時相tは、「T0及びT1の間の一時的な位置」とも呼ばれる。
ステージ60で、モーフィングされた距離場を取得するために、対応する符号付距離場をモーフィングする。T0及びT1でのフレームに対する対応する各isoレベルに対して、新たな符号付距離場が、T1及びT2に対する符号付距離場を補間することで、時相tに対して取得される。形状ブレンディング操作は、各フレームの重みを計算するために、一時的な位置tを使用して実行される。
符号付距離場のモーフィングは、形状間の点の動きを明白にモデリングすることなく、二つの形状間をボリュームメトリック的に滑らかにモーフィングするために、使用される技法である。本実施形態において、ボリューメトリックモーフィングは、二次元画像に対して実行される。ボリューメトリックとして説明されるのは、位置に関する二次元と、符号付距離の一次元に対して適用されるからである。
符号付距離のモーフィングは、単純な解析的マッピングを有さない形状間で動作するために、使用することができる。例えば、モーフィングは、丸みを帯びた立方体及び球体間に対して単純な解析的マッピングが利用可能できない場合でも、そのような丸みを帯びた立方体及び球体間に対して実行できる場合がある。符号付距離のモーフィングは、バラバラの物体を含む、ジオメトリの大半に対して上手く適用することができることが知られている。
符号付距離場のモーフィングは、例えば、線形、又は二次又は三次補間又は任意の類似する平滑補間法等の、任意の適切な補間法を使用して実行することができる。
本実施形態において、補間回路28は、同じisoレベルに対応する符号付距離場のペアを組み合わせる。例えば、符号付距離場52は、isoレベル画像42から取得されている。isoレベル画像42は、時相T0の第一の画像32の第一のisoレベルである。符号付距離場56は、isoレベル画像46から取得されている。isoレベル画像46は、isoレベル画像42と同じisoレベル値に対する、時相T1の第二の画像34の第一のisoレベルである。
符号付距離場52、56は、時相T0及びT1の間である時相tに基づいた、符号付距離場52、56に対するモーフィングにより組み合わせられる。符号付距離場52、56がモーフィングされることにより、符号付距離場62が生成される。
同様に、符号付距離場54及び58は、isoレベル画像44及び48のそれぞれから、第二のisoレベル値に対して、取得されている。符号付距離場54、58は、時相tに基づいた符号付距離場54、58に対するモーフィングにより組み合わせられる。符号付距離場54、58の組み合わせがモーフィングされることにより、符号付距離場64が生成される。
符号付距離場62、64は、モーフィングされた距離変換の一例である。
二つのモーフィングされた符号付距離場62、64のみが図3で描かれているが、実際には、符号付距離場の各対応するペアが一緒にモーフィングされる。ここで符号付距離場の各対応するペアは、同じisoレベル値を有するisoレベル画像から取得された符号付距離場を有する。すなわち、第一の距離変換のうちの少なくとも一つと第二の距離変換のうちの少なくとも一つとの組み合わせは、第一の距離変換と第二の距離変換とのペアを具備し、各ペアはパラメータに対する共通の値を有しており、組み合わせに基づいた少なくとも一つのモーフィングされた距離変換の生成は、それぞれのペアの間の補間を具備する。
更なる実施形態において、一緒にモーフィングされる符号付距離場のペアのうちの少なくともいくつかは、異なるisoレベル値を有するisoレベル画像から取得される。異なるisoレベル値を有する画像を共にモーフィングすることは、キャプチャされた組織の強度における不一致について明確にするために、使用される。例えば、同じ組織タイプであっても、異なる画像において異なる強度値を有するように見える場合がある。強度値の不一致が生じる理由の一つとしては、コントラストがフェードアウトしているという場合がある。ある状況では、同じ組織タイプを表す画像を一緒にモーフィングすることで、異なる強度値を有する画像の組み合わせとなる場合がある。いくつかの実施形態において、組み合わせられる予定のisoレベルは、モデリングにより推定することができる。またいくつかの実施形態において、組み合わせられる予定のisoレベルは、ユーザが選択することもできる。すなわち、ペアのうちの少なくともいくつかは、第二の距離変換と第一の距離変換とに関して、パラメータに関して異なる値を有し、少なくとも一つのモーフィングされた距離変換の生成は、それぞれのペアの間の補間を具備する。
ステージ70で、補間回路28は、モーフィングされた符号付距離場のそれぞれを、関連したisoレベル値を持つisoレベル画像(「ボリュームマスク」とも呼ばれる)へと、変換し戻す。
ステージ80で、ステージ70のisoレベル画像の全てを、単一のボリューム82へと蓄積する。本実施形態において、isoレベル画像は、現在のモーフィングされたisoレベルと過去のモーフィングされたisoレベルとの間の最大強度値を選択することで、蓄積される。補間回路28は、各ボクセルに対して、各モーフィングされたisoレベルの最大強度を選択する。全てのボクセル値に対して、距離場を値空間(value space)へとマッピングし戻した後、各isoレベル(補間された形状)を表す、値のセットを得る。補間回路28は、最大値を得る処理を、各isoレベルに対して繰り返す。各isoレベルに対して、補間回路28は、現在のボクセル値と過去のボクセル値とを比較する。ここで、現在の値は、現在検討されているisoレベルに対するデータセットに基づくものであり、過去の値は、事前に検討されたisoレベルから決定されたままの最大値である。補間回路28は、現在の値の最大値と過去の値の最大値とを選択する。すなわち、アップサンプリングされた画像データを取得するためのモーフィングされた距離変換の処理は、ボクセルのそれぞれにおけるモーフィングされた距離変換のうちの最大強度の選択を具備する。
その他の実施形態において、isoレベル画像を組み合わせるために、任意の適切な方法を使用することができる。例えば、オーバーオペレータを使用することがある。
図5は、それぞれが一つの画像へと組み合わせられた、複数のisoレベル画像の例を示している。isoレベル画像は、例えば、ステージ70で取得されたような、モーフィングされたisoレベル画像である。isoレベル画像のそれぞれにおいて、-180、-11、77、166、255、344、433、522、611、700の値についてのハンスフィールド値が取得される。isoレベル画像のそれぞれは、図5におけるハンスフィールドレベルを参照している。
図5は、図5の個別のisoレベル画像の全てが単一の画像(図5の例はスライス画像)へと組み合わせられた画像90も示している。
図2の方法により、フレーム間の動きを良好に認識可能な、効果的な一時的なアップサンプリング技法を容易に使用することができる。図2の方法は、10fpsから20fpsの間のフレームレートの範囲でキャプチャされたシーケンスに対して、特に有用である。
図2のモーフィング処理を実行するのに必要とされるリソースは、例えば、レジストレーションベースの補間の方法を提供するのに必要とされるリソースと比べて、ずっと少ない場合がある。また、モーフィングのアルゴリズムは、失敗しにくいことが知られている。図2の処理は、補間により中間フレームを取得するロバスト法を提供することができる。一般的に、モーフィングは、レジストレーションに比べて、シンプルなアルゴリズムである。図2の方法は、例えばGPUにおいてより効率的に計算される。
ある状況では、図2の方法により、リソース要件を減らすことができるため、他の場合に比べて、使用される予定のフレームレートを低くすることができる。
ある状況では、図2の方法は、時間的解像度と空間的解像度との中間的方法として使用することができる。例えば、スキャナは、高い空間的解像度かつ低いフレームレート、又は、低い空間解像度且つ高いフレームレートのどちらかで、フレームをキャプチャするよう構成することができる。図2の方法では、高解像度且つ低フレームレートで収集される画像を使用する一方で、補間によりフレームレートが増加した表示が提供される。
図2の方法は、例えば心臓弁等が動く間、心臓弁がビューに現れたりビューから消えたりする場合に対して、適用することができる。図2の方法は、様々な異なるモダリティに対して適用可能である。
図2を参照し上で説明された実施形態において、時相tでの単一の中間フレームは、時相T0での第一のフレームと時相t1での第二のフレームとの間で補間される。その他の実施形態において、複数の中間フレームは、第一のフレームと第二のフレームとの間の異なる時間で補間することができる。異なる時間に対する中間フレームは、第一のフレームの符号付距離場と第二のフレームの符号付距離場との間の組み合わせの異なる重み付けにより、取得することができる。この場合、第一の距離変換のうちの少なくともいくつかと第二の距離変換のうちの少なくともいくつかとの組み合わせは、第三時相と第一時相との差と、第三時相と第二時相との差とに基づいて重み付けされる。
図2を参照し上で説明された実施形態において、フレームは、isoレベル画像へと分解される。その他の実施形態において、任意の適切な分解を使用することができる。例えば、セグメンテーション及び/又はクリッピングを使用して、画像のセットを取得することができる。isoレベル画像は、セグメンテーション取得のための開始点として使用することができる。セグメンテーションマスクは、isoレベルと一緒に使用することができる。係るセグメンテーションマスクは、ボリュームを分解した形状の部分から、除外することができる。
いくつかの実施形態において、分解回路26は、ボリュームを各isoレベルにおける複数の形状へと分類する。一つの対象isoレベルにおいて、分解回路26は、ボリュームを複数の形状へと分解することができる。各複数の形状は、個別にモーフィングされ、且つ、補間回路28によりアップサンプリングされたボリュームを再構成するように、組み合わせることができる。
例えば、心臓撮像の場合に、血管は、心臓における血液プール(血液貯留部)とiso範囲において重複する。いくつかの実施形態において、血管は、メインの血液プールと同じ又は似たようなisoレベルを共有していても、セグメントされ、メインの心臓から個別の形状へと分けられる。
上で説明された実施形態において、isoレベルは、フレーム毎に単一のボリュームから取得される。その他の実施形態において、isoレベルは、複数のボリュームから取得することもできる。例えば、複数のボリュームは、異なるモダリティを使用して取得することができる。またボリュームは、例えばコントラスト付きとコントラスト無しのように、同じモダリティにおける異なるスキャンから取得することができる。複数のボリュームからのisoレベルは、動作が補間された合成ボリュームへと再構成される。この場合、第一の画像データ及び第二の画像データのそれぞれは、複数の異なる取得方法で取得された複数の画像データを具備する。
いくつかの実施形態において、画像化された生体構造の一部ではない形状を組み込むために、符号付距離場を利用することができる。生体構造の一部ではない形状は、「外部形状」と呼ぶこともできる。外部形状は、例えば、生体構造へと取り込まれる予定の物体又はデバイスを表す。例えば、外部形状は、インプラントモデルである。外部形状は、例えばメッシュ構造の物体や数学的な形状等、任意の適当な形状タイプである。この場合、CPU22は、第一の距離変換及び第二の距離変換のそれぞれに対して、被検体の一部ではない部分の表示を組み込む。外部形状は、被検体の一部ではない部分の一例である。
符号付距離場は、静的であってもよく、動的であってもよい。符号付距離場は、モデリング又はユーザ選択により推定される。
外部形状は、ボリュームデータと合成され、アップサンプリングされたボリュームの一部となる場合がある。アップサンプリングに外部形状を含むことにより、ボリュームレンダリングに外部形状を含むことが容易になる。
次に、フレームのシーケンスから動画化されたビューを取得する問題に移る。フレームの初期シーケンスが、ユーザにとってスムーズに見えるようなアニメーションを提供するのには不十分なフレームレートで取得される場合について考える。図2の方法は、フレームの近傍するペア間を補間するために使用される。
図6は、実施形態に係る、動画を提供する方法の概要を描くフローチャートである。
図6のステージ100で、レンダリング回路24は、フレームのシーケンスを表すデータを受け取る。フレームのシーケンスは、フレーム間の補間が何も行われない場合に、ユーザに対してスムーズに見えるアニメーションを提供するのには不十分なフレームレートでキャプチャされている。
レンダリング回路24は、フレームのシーケンスのそれぞれから個別の画像をレンダリングする。各画像に対して、分解回路26は、複数のisoレベル値のそれぞれに対する、符号付距離場を抽出する。分解回路26は、データストレージ20又は任意の適当なメモリに符号付距離場を格納する。
ステージ102で、補間回路28は、フレームのシーケンスの近傍するフレーム間である、新たなタイムポイント(例えば、第一のタイムポイント)へと移動する。ステージ104で、補間回路28は、モーフィングされた符号付距離場を取得するために、二つの近傍するフレームの各isoレベルに対する、各符号付距離場をモーフィングする。ステージ106で、補間回路28は、図2のステージ70と80とを参照して上で説明されたように、モーフィングされた符号付距離場から、中間フレーム(「ボリューム」とも呼ばれる)を再構成する。
フローチャートは、その後ステージ102へと戻り、新たなタイムポイントが選択される。いくつかの実施形態において、補間回路28は、シーケンスにおける近傍するフレームの各ペア間の単一の中間フレームを取得するために、近傍のフレームの各ペア間で単一のタイムポイントに対するモーフィング処理を実行する。いくつかの実施形態において、補間回路28は、シーケンスにおける近傍するフレームの各ペア間の複数の中間フレームを取得するために、近傍するフレームの各ペア間で複数のタイムポイントに対するモーフィング処理を実行することもできる。
補間回路28は、元の(オリジナルの)フレーム及び補間されたフレームに対して、画像データを有する動画データのセットを出力する。レンダリング回路24は、結果として生成される動画(アニメーション)を表示する。係るアニメーションは、フレームのオリジナルのシーケンスと、図6の処理の間に生成された中間フレームとを有する。係るアニメーションは、フレームのオリジナルのシーケンスから生み出されたアニメーションに比べて、ユーザにとってよりスムーズに見えることがある。
図6の方法において、前もって、オリジナルのボリュームが符号付距離場へと分解され、分解の結果は、一時的に保存される。前もって分解が実行されることにより、アニメーションに必要とされる処理リソースを減らすことができる。すなわち、第一の変換データセット及び第二の変換データセットを取得するための処理は、前もって実行され、取得された第一の変換データセット及び第二の変換データセットは、一時的にメモリ20等に保存される。
図7は、更なる実施形態に従って、アニメーション(動画)を提供する方法の概要を描くフローチャートである。図6の実施形態において、アニメーションされる予定のフレームのシーケンス全体は、アニメーション処理の冒頭において既に利用が可能である。図7の方法において、アニメーションは、リアルタイムに受け取られているフレームに対して実行される。図2のアルゴリズムは、リアルタイムの一つ前のフレームに対してアニメーションを実行することにより、ライブモードで適用される。
ステージ110で、分解回路26は、フレームのペアの取得を待機する。ステージ112で、分解回路26は、フレームの各ペアに対する複数のisoレベル値のそれぞれに対する、符号付距離場を抽出する。分解回路26は、データストレージ20又は任意の適当なメモリに、符号付距離場を格納する。
図7の方法において、画像の各ペアの符号付距離場への分解は、時相tに対して直前又は同時に実行され、時相tでの単一の補間に対して必要とされる結果の集合(サブセット)が一時的に保存される。
ステージ114で、補間回路28は、次に出現しているフレームに対して推定された時間に基づいたリアルタイムパラメータを使用し、ボリュームを再構成する。
例えば、t=10秒で収集された前のフレームと、t=13秒での新たなフレームとの場合を検討する。対象フレームレートが30fpsの場合(例えば、一秒の1/30で画像を再構成することが可能なハードウェアを有している場合)に、補間回路28は、次のフレームが予期されるのがいつであっても、90個のフレームを生成し、30fpsでフレームを表示する。時間の推定は、遅延したリアルタイム再生の提供のようなものである。
図7の方法は、図2の方法を使用してボリュームフレームの最後のセット間で、新たなフレームがいつ現れるのかという予測に基づいたスピードで、補間されたフレームを提供する。
図7の方法は、収集時間ステップにおいて、本当のリアルタイム結果よりも後の時間でオフセットされる、スムーズなリアルタイムモーションの表示を提供することができる。図7の方法は、待機時間が僅かに増加するが、スムーズなリアルタイムでの表示を提供することができる。待機時間の増加は、リアルタイムの代わりに、リアルタイムよりも一つ後のフレームでレンダリングが実行されることにより生じる。
図7の方法は、超音波等のモダリティにおいて特に役に立つ場合がある。ある状況では、図7の方法は、非常に重い処理を含む場合がある。その処理は、例えばGPUを使用して実行される。
図8は、実施形態におけるセグメンテーションの利用方法を描く概略図である。セグメンテーションは、生体構造ごとに補間の動作を分割することに使用することができる。ある状況では、生体構造は、動きの異なる位相において現れたり消えたりすることがある。例えば、心臓の動きにおいて、動きの周期にわたり、弁が現れたり消えたりすることが予想される。
その他の状況では、生体構造の消失が、望まれない場合がある。例えば、血管は、ある心臓の位相において、完全に目に見えない場合がある。血管の見え方が不十分な理由の一つは、コントラストの欠如である。別の理由としては、撮像アーチファクトの存在という場合がある。例えば、冠動脈は、心筋と比較されたモーションアーチファクトにより、典型的に影響を受ける場合がある。これにより、いくつかの位相でボリュームデータにおける冠動脈の欠如に繋がる場合がある。
血管の見え方が不十分な位相を補間で使用しない方が好ましいことがある。生体構造が特定の位相で示されていない場合に、係る位相を使用する補間が生体構造を消す場合もある。
生体構造が精確に表されていないセグメンテーションを、「不十分なセグメンテーション」又は「欠損」と呼ぶ場合がある。欠損が存在することを判断するのに、任意の適切な方法を使用することができる。いくつかの実施形態において、欠損があるかを判断するための制約が使用される。例えば、血管セグメンテーションが不十分であるかを判断するのに、血管が予測されるボリュームを有するかを決定するために、血管ボリュームについての制約を使用することができる。
図8は、三つのフェーズの例を示している。即ち、フェーズ1、フェーズ2、フェーズ3である。
実施形態において、分解回路26は、各位相に対し、高isoレベル画像120、中isoレベル画像122、低isoレベル画像124を取得する。分解回路26は、高、中、低のisoレベルを、第一の心臓セグメンテーション130(高isoレベル)、第二の心臓セグメンテーション132(中isoレベル)、第三の心臓セグメンテーション134(低isoレベル)に対する開始ポイントとして使用する。画像及びセグメンテーションは、フェーズ1に対しては、120A、122A、124A、130A、132A、134A;フェーズ2には、120B、122B、124B、130B、132B、134B;そしてフェーズ3には、120C、122C、124C、130C、132C、134C、により示される。isoレベル画像120、122、124、及び心臓セグメンテーション130、132、134は、第一の変換データセット又は第二の変換データセットの一例である。
分解回路26は、セグメンテーションのうちのどれに欠損があるかを評価する。示された例では、フェーズ1とフェーズ3とにおける全てのisoレベル(130A、132A、134A、130C、132C、134C)での、心臓セグメンテーションは良好ということが判明している。心臓セグメンテーションは、フェーズ2の低isoレベルに対しても良好である。しかし、フェーズ2の高及び中isoレベルの130B、132Bでの心臓セグメンテーションは、不十分である。フェーズ2で特定されている欠損について検討する。すなわち、分解回路26は、第一の変換データセットと前記第二の変換データセットとに基づいて、第一の画像データ及び/又は第二の画像データの欠損を特定する。特定された欠損は、第一の画像データ及び/又は第二の画像データに表された少なくとも一つの物体のセグメンテーションにおける欠損である。
いくつかの実施形態において、補間回路28は、例えば図2を参照に上で説明されたようなモーフィング処理等の補間処理において、フェーズ2の高isoレベル及び中isoレベルを除外する。ある状況では、フェーズ1とフェーズ3との間において、フェーズ2を使用せず直接補間を実行する。すなわち、補間回路28は、欠損の特定に基づいて、動画データを生成する。具体的には、画像データのそれぞれから取得された複数のフレームを具備し、動画データの生成は、動画データから、欠損が特定された画像データに基づいた動画フレームのうち少なくとも一部を除外することを具備する。
見え方が不十分な画像を除外することで、アニメーション全体が改良される。特定の生体構造の見え方が不十分な画像が補間処理において使用されなければ、より良い補間を取得することができる。補間回路28は、セグメントされた生体構造が上手く表されないフレームを省くことができる。例えば、心臓は9つの位相にわたり補間することができるが、血管は6つの位相にわたって補間することができる。全ての位相は、一つのボリュームへと組み合わせることができる。
図9は、実施形態におけるセグメンテーションの更なる利用の概略図である。図9の実施形態において、何ら補間は実行されない。
分解回路26は、図8に示されるような各フレームに対して、高、中、そして低isoレベルに対して取得される心臓セグメンテーションを取得する。任意の適切なセグメンテーション法を使用することができる。図9の実施形態において、心臓セグメンテーションは、全て良好であることが分かっており、欠損は何ら特定されていない。
分解回路26は、任意の適当なセグメンテーション法を使用して、高isoレベル140、中isoレベル142のそれぞれに対しても、血管セグメンテーション150及び152を取得する。
図9に示される例において、フェーズ2に対する血管セグメンテーションは不十分である。分解回路26は、血管セグメンテーションがフェーズ2におけるそれらのセグメンテーションにより上手く表されていないことを検出する。分解回路26は、フェーズ2における欠損を特定する。
欠損に関して、フェーズ2は、動画データにおける複数のフェーズ(位相)の動画においてスキップされる。従って、血管が上手く表されない位相は、血管に対してスキップされる一方、残りの心臓に対するフレームは、アクティブに維持される。血管のアニメーションは、心臓の残りの部分のアニメーションがフェーズ1、フェーズ2、フェーズ3の全てを含む一方で、フェーズ1からフェーズ3へと一足飛びに進む。分解回路26は、フェーズ2における血管の描写が除外され、フェーズ1の血管のより良い描写に置き換えられた、フレームのシーケンスを有する動画データのセットを出力する。レンダリング回路24は、出力された動画データのレンダリング結果であるアニメーションを表示する。
一般的に、出力された動画データは、欠損を含むと判明しているフレーム又はフレームの一部を除外することができる。欠損は、例えば不十分な血管セグメンテーション等、上で説明された不十分なセグメンテーションを有する場合がある。その他の実施形態において、任意の適切な欠損を特定することができ、また欠損を含むフレームを又はフレームの一部を省くことができる。検出された形状が適切な形状を持たない場合には、フレーム全体を省くことができる。
図9の方法を使用することにより、異なるisoレベルへの分解は、補間が使用されない場合でも、アニメーションを改善するのに使用することができる。動きにより影響を受けやすい身体部分(例えば冠動脈)の視覚化の際に、画像データを複数のisoレベルへとディバイド及び/又はセグメンテーションすることにより、信頼できるデータのみを使用し、不十分なデータを除外することができる。
適用可能な生体構造(例えば冠動脈)は、全ての時相において視覚化することができる。ユーザは、特定の生体構造が持続して表示されるアニメーションを観察することに、より快適に動画を観察することができる。ユーザは、不十分な生体構造の描写を持つフレームが少なくとも部分的に省かれたアニメーションを、より容易に観察することができる。
上での実施形態において、レンダリング、isoレベルの抽出、符号付距離場の抽出、符号付距離場のモーフィング、そしてisoレベルへのモーフィングされた符号付距離場の変換、及びisoレベルを組み合わせるステップは、別々のステップとして全て説明されている。その他の実施形態において、これらのステップのうちの二つ又はそれ以上の機能を、単一のステップへと組み合わせることができる。更なる実施形態において、上で説明されたステップのうちの一つ又は複数は、複数のステップへと分けることもできる。
上での実施形態において、様々なデータセット(例えば、画像、isoレベル画像及び/又は符号付距離場を表すデータセット)がデータストレージ20に格納される。その他の実施形態において、データセットのうちのいくつか又は全ては、任意の適切なデータストレージに格納することができる。データセットのうちのいくつか又は全ては、局所的に、一時的に保存することができる。データセットのうちのいくつか又は全ては、格納されることなく、直接使用することもできる。
方法は、上記において、特に心臓の医用撮像における医用撮像に関して説明されている。その他の実施形態において、上で説明された方法は、任意のヒト又は動物検体の任意の解剖学的領域の医用撮像に関して、使用することができる。医用という言葉は、獣医を含む場合がある。更なる実施形態において、上で説明された方法は、医用でない種類の任意の適切な撮像に適用することができる。例えば、上で説明された方法は、自動車部門や航空宇宙部門での流体シミュレーションの結果を視覚化するのに、使用することができる。上で説明された方法は、油やガスに対するボリュームレンダリングにおいて使用することができる。上で説明された方法は、ソナーのボリュームレンダリングに対して使用することもできる。
特定の実施形態は、一時的な位置、予め定めたisoレベルのセット、そしてボリュームフレーム間における一時的な位置tを表すボリュームのセット(最低2つ)を有する、医用撮像方法を提供する。その中で、補間されるボリュームは、次により生成される。(1)ボリュームをisoレベルのセットへと分解、及び、isoレベルの形状を表す符号付距離場の生成;(2)補間近傍におけるフレームに対する各対応するisoレベルに対して、新たな符号付距離場が距離場を補間することにより作り出され、一時的な位置tを使用した形状ブレンディング操作により各フレームの重みが計算される;(3)モーフィングされた距離場の結果として生じるセットは、各ボクセルに対して、各モーフィングされたisoレベルの最大強度を選択することにより、目的のボリュームへと蓄積し戻される。
ステップ1は前もって行うことができ、且つ結果は一時的に保存される。ステップ1は、同時に行われる場合もある。補間tに対して必要とされる結果のサブセットを一時的に保存することができる。符号付距離場ブレンディング操作に対して使用される補間法は、線形、二次、三次又は類似するスムーズな補間法とすることができる。フレーム間のisoレベルは、キャプチャされた組織の強度における不一致を明らかにするために、異なる場合がある。セグメンテーション及び/又はクリッピングは、各isoレベルを制約するのを許可することがある。複数のボリュームからのisoレベルを含むことがあり、また動作補間された合成ボリュームへと再構成することができる。符号付距離場は、静的であっても、又は動画であっても、外部形状を組み込むために、含むことができる。isoレベルは手動で選択することができる。isoレベルは、ユーザに示されたビューに基づいて視認性ヒストグラムを使用して計算されたボリュームの、最も視認可能な部分を選択することで、選択することができる。キーフレームにおいて、最も少ない差の量を最終画像に生じさせるように、isoレベルを分類する深層学習ニューラルネットワークを使用することができる。
システムは、次によりほぼリアルタイムで適用することができる。収集処理においてボリュームを取得するのを待機し、システムが分解を実行し、各isoレベルと関連付けられた符号付距離場のセットを格納するのを待機する;ボリュームフレームの最後のセットの間で補間されたセットを、次のフレームがいつ現れるかの予測に基づいた方法及び速度を使用して、提供する。これにより、真にリアルタイムでの結果よりも一つ前の収集タイムステップにより、スムーズなリアルタイムでの表示を実現することができる。
特定の実施形態は、第一のタイミングに対応する第一の画像データと、前記第一のタイミングとは異なるタイミングである第二のタイミングに対応する第二の画像データと、を収集し、前記第一の画像データを前記第二の画像データとを画像データのパラメータに基づいて、複数の第一の変換されたデータと、複数の第二の変換されたデータとを変換し、前記第一の変換されたデータと前記第二の変換されたデータとを、第一の符号付距離場と第二の符号付距離場とに変換し、前記パラメータに基づいて、前記第一の符号付距離場と前記第二の符号付距離場との組み合わせを選択し、前記第一の符号付距離場と前記第二の符号付距離場との前記組み合わせに基づいてモーフィングされたデータを生成し、前記第一の画像データと前記第二の画像データとの間のアップサンプリングされた画像データを生成する、ように前記パラメータ値に従って生成された、前記モーフィングされた複数のデータを処理することで、構成された処理回路を具備する画像処理装置を提供する。
特定の実施形態は、第一のタイミングに対応する第一の画像データと、前記第一のタイミングとは異なるタイミングである第二のタイミングに対応する第二の画像データと、を収集し、前記第一の画像データと前記第二の画像データとを画像データのパラメータに基づいて、複数の第一の変換されたデータと、複数の第二の変換されたデータとに変換し、前記第一の変換されたデータと前記第二の変換されたデータとに基づいて、画像データの欠損を特定し、前記特定手順に基づいて動画データを生成する、よう構成された処理回路を具備する画像処理装置を提供する。
以上説明した少なくとも1つの実施形態によれば、フレーム間の動きを良好に認識可能なアップサンプリングを行うことができる。
本明細書では、特定の回路について説明してきた。代わりの実施形態では、これらの回路のうち一つ又は複数の機能は単一の処理リソース又はその他の構成要素によって提供可能であり、或いは、単一の回路によって提供される機能は、組み合わされた二つ以上の処理リソース又はその他の構成要素を組み合わせによって提供することができる。単一の回路への言及は、その回路の機能を提供する複数の構成要素が互いに遠隔であるかどうかに関わらず、そのような構成要素を包含し、複数の回路への言及は、それらの回路の機能を提供する単一の構成要素を包含する。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10…医用画像処理装置
12…計算装置
14…CTスキャナ
16…表示スクリーン
18…入力装置
20…メモリ
22…CPU
24…レンダリング回路
26…分解回路
28…補間回路
32、34…画像フレーム
42、44、46、48…isoレベル画像
52、54、56、58、62、64…符号付距離場
82…ボリューム
90…画像
120、140…高isoレベル画像
122、142…中isoレベル画像
124…低isoレベル画像
130、132、134…心臓セグメンテーション
150、152…血管セグメンテーション
T0、T1、t…時相

Claims (22)

  1. 第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集し、
    複数の第一の変換データセットを取得するために、前記第一の画像データを処理し、
    複数の第二の変換データセットを取得するために、前記第二の画像データを処理し、
    第一の距離変換を取得するために、前記複数の第一の変換データセットのそれぞれを変換し、
    第二の距離変換を取得するために、前記複数の第二の変換データセットのそれぞれを変換し、
    前記第一の距離変換のうちの一つと、前記第二の距離変換のうちの一つとを含む組み合わせを複数個選択し、
    複数の前記組み合わせのそれぞれついてーフィングされた距離変換を生成し、
    前記第一時相と前記第二時相との間の第三時相での前記被検体を表すアップサンプリングされた画像データを取得するために、複数のモーフィングされた距離変換を合成する、
    ように構成された処理回路を具備する、画像処理装置。
  2. 前記処理回路は、
    前記画像データのパラメータに基づいて前記第一の画像データを処理することにより、前記パラメータのそれぞれの値に対応する複数の前記第一の変換データセットを取得し、
    前記パラメータに基づいて前記第二の画像データを処理することにより、前記パラメータのそれぞれの値に対応する複数の前記第二の変換データセットを取得し、
    前記パラメータに基づいて、前記組み合わせを選択する、
    請求項1記載の装置。
  3. 各前記第一の距離変換は、個別の第一の符号付距離場を具備し、各前記第二の距離変換は、個別の第二の符号付距離場を具備し、前記少なくとも一つのモーフィングされた距離変換は、少なくとも一つのモーフィングされた距離場を具備する、
    請求項1記載の装置。
  4. 前記画像データの前記パラメータは、強度を具備する、
    請求項2記載の装置。
  5. 前記複数の第一の変換データセットを取得するための前記第一の画像データの処理は、異なる値を使用した前記第一の画像データに対するしきい化を有し、
    前記複数の第二の変換データセットを取得するための前記第二の画像データの処理は、異なる値を使用した前記第二の画像データに対するしきい化を有する、
    請求項4記載の装置。
  6. 前記第一の距離変換のそれぞれは、前記第一の変換データセットの個別のisoレベルの形状を表し、
    前記第二の距離変換のそれぞれは、前記第二の変換データセットの個別のisoレベルの形状を表す、
    請求項1記載の装置。
  7. 前記第一の距離変換のうちの少なくとも一つと前記第二の距離変換のうちの少なくとも一つとの前記組み合わせは、前記第一の距離変換と前記第二の距離変換とのペアを具備し、各ペアは前記パラメータに対する共通の値を有しており、
    前記組み合わせに基づいた前記少なくとも一つのモーフィングされた距離変換の前記生成は、それぞれの前記ペアの間の補間を具備する、
    請求項2記載の装置。
  8. 前記第一の距離変換のうちの少なくとも一つと、前記第二の距離変換のうちの少なくとも一つとの前記組み合わせは、前記第一の距離変換と前記第二の距離変換とのペアを具備し、
    前記ペアのうちの少なくともいくつかは、前記第二の距離変換と前記第一の距離変換とに関して、前記パラメータに対して異なる値を有し、
    前記少なくとも一つのモーフィングされた距離変換の前記生成は、それぞれの前記ペアの間の補間を具備する、
    請求項2記載の装置。
  9. 前記第一の距離変換のうちの少なくともいくつかと前記第二の距離変換のうちの少なくともいくつかとの前記組み合わせは、前記第三時相と前記第一時相との差と、前記第三時相と前記第二時相との差とに基づいて重み付けされる、
    請求項1記載の装置。
  10. アップサンプリングされた画像データを取得するための前記モーフィングされた距離変換の前記処理は、ボクセルのそれぞれにおけるモーフィングされた距離変換のうちの最大強度の選択を具備する、
    請求項1記載の装置。
  11. 前記第一の変換データセット及び前記第二の変換データセットを取得するための前記処理は、前もって実行され、取得された前記第一の変換データセット及び前記第二の変換データセットは、一時的に保存される、
    請求項1記載の装置。
  12. 前記第一の画像データ及び前記第二の画像データのそれぞれは、複数の異なる取得方法で取得された複数の画像データを具備する、
    請求項1記載の装置。
  13. 前記第一の距離変換及び前記第二の距離変換のそれぞれに対して、前記被検体の一部ではない部分の表示を組み込むことを更に具備する、
    請求項1記載の装置。
  14. 前記パラメータに基づいた前記第一の画像データと前記第二の画像データとの前記処理は、前記パラメータについて複数の値を選択することを具備する、
    請求項2記載の装置。
  15. 前記パラメータについての前記複数の値の前記選択は、学習済みモデルにより実行される、
    請求項14記載の装置。
  16. 第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集することと、
    複数の第一の変換データセットを取得するために、前記第一の画像データを処理することと、
    複数の第二の変換データセットを取得するために、前記第二の画像データを処理することと、
    第一の距離変換を取得するために、前記複数の第一の変換データセットのそれぞれを変換することと、
    第二の距離変換を取得するために、前記複数の第二の変換データセットのそれぞれを変換することと、
    前記第一の距離変換のうちの一つと、前記第二の距離変換のうちの一つとを含む組み合わせを複数個選択することと、
    複数の前記組み合わせのそれぞれについて、少なくとも一つのモーフィングされた距離変換を生成することと、
    前記第一時相と前記第二時相との間の第三時相での前記被検体を表すアップサンプリングされた画像データを取得するために、複数のモーフィングされた距離変換を合成することと、
    を具備する画像処理方法。
  17. 前記複数の前記第一の変換データセットを取得することは、前記画像データのパラメータに基づいて前記第一の画像データを処理することにより、前記パラメータのそれぞれの値に対応する複数の前記第一の変換データセットを取得することを含み、
    前記複数の前記第二の変換データセットを取得することは、前記パラメータに基づいて前記第二の画像データを処理することにより、前記パラメータのそれぞれの値に対応する複数の前記第二の変換データセットを取得することを含み、
    前記組み合わせを選択することは、前記パラメータに基づいて、前記組み合わせを選択することを含む、
    請求項16記載の方法。
  18. 第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集し、
    複数の第一の変換データセットを取得するために、前記第一の画像データを処理し、
    複数の第二の変換データセットを取得するために、前記第二の画像データを処理し、
    前記第一の画像データ及び/又は前記第二の画像データの欠損を特定し、前記欠損の前記特定は、前記第一の変換データセットと前記第二の変換データセットとに基づいて実行され、
    前記欠損の前記特定に基づいて、動画データを生成する、
    よう構成された処理回路を具備し、
    前記処理回路は、
    前記画像データのパラメータに基づいて前記第一の画像データを処理することにより、前記パラメータのそれぞれの値に対応する複数の前記第一の変換データセットを取得し、
    前記パラメータに基づいて前記第二の画像データを処理することにより、前記パラメータのそれぞれの値に対応する複数の前記第二の変換データセットを取得する、
    装置。
  19. 前記動画データは、画像データのそれぞれから取得された複数のフレームを具備し、
    前記動画データの前記生成は、前記動画データから、前記欠損が特定された前記画像データに基づいた動画フレームのうち少なくとも一部を除外することを具備する、
    請求項18記載の装置。
  20. 前記特定された欠損は、前記第一の画像データ及び/又は前記第二の画像データに表された少なくとも一つの物体のセグメンテーションにおける欠損である、
    請求項18記載の装置。
  21. 前記動画データの前記生成は、アップサンプリング手順を使用して、アップサンプリングされた動画データフレームを取得することを具備し、
    前記欠損が特定された前記画像データのうちの少なくとも一部は、前記アップサンプリング手順から除外される、
    請求項18記載の装置。
  22. 第一時相での被検体を表す第一の画像データと、前記第一時相と異なる第二時相での前記被検体を表す第二の画像データとを収集することと、
    複数の第一の変換データセットを取得するために、前記第一の画像データを処理することと、
    複数の第二の変換データセットを取得するために、前記第二の画像データを処理することと、
    前記第一の画像データ及び/又は前記第二の画像データの欠損を特定することと、前記欠損の前記特定は、前記第一の変換データセットと前記第二の変換データセットとに基づいて実行され、
    前記欠損の前記特定に基づいて動画データを生成することと、
    を具備し、
    前記複数の前記第一の変換データセットを取得することは、前記画像データのパラメータに基づいて前記第一の画像データを処理することにより、前記パラメータのそれぞれの値に対応する複数の前記第一の変換データセットを取得することを含み、
    前記複数の前記第二の変換データセットを取得することは、前記パラメータに基づいて前記第二の画像データを処理することにより、前記パラメータのそれぞれの値に対応する複数の前記第二の変換データセットを取得することを含む、
    画像処理方法。
JP2020021849A 2019-08-12 2020-02-12 画像処理装置及び画像処理方法 Active JP7423338B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/538,072 2019-08-12
US16/538,072 US20210049809A1 (en) 2019-08-12 2019-08-12 Image processing method and apparatus

Publications (2)

Publication Number Publication Date
JP2021027982A JP2021027982A (ja) 2021-02-25
JP7423338B2 true JP7423338B2 (ja) 2024-01-29

Family

ID=74567372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020021849A Active JP7423338B2 (ja) 2019-08-12 2020-02-12 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US20210049809A1 (ja)
JP (1) JP7423338B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11557066B1 (en) * 2021-12-13 2023-01-17 Mitsubishi Electric Research Laboratories, Inc. Systems and methods for image transformation based on API calls
US11544882B1 (en) * 2021-12-13 2023-01-03 Mitsubishi Electric Research Laboratories, Inc. Systems and methods for image transformation based on transformation instructions
US11908114B2 (en) * 2021-12-13 2024-02-20 Mitsubishi Electric Research Laboratories, Inc. Systems and methods for image transformation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070230653A1 (en) 2004-11-26 2007-10-04 Yosuke Okamoto X-ray ct apparatus and image processing apparatus
JP2012040363A (ja) 2010-07-22 2012-03-01 Toshiba Corp 医用画像表示装置及びx線コンピュータ断層撮影装置
WO2012128121A1 (ja) 2011-03-18 2012-09-27 国立大学法人岐阜大学 パノラマエックス線写真を利用した診断支援システム、及びパノラマエックス線写真を利用した診断支援プログラム
JP2014226320A (ja) 2013-05-22 2014-12-08 株式会社東芝 X線ct装置、画像表示装置
WO2015015851A1 (ja) 2013-07-30 2015-02-05 コニカミノルタ株式会社 医用画像システム及び関節軟骨状態のスコア判定方法
JP2019508086A (ja) 2015-12-30 2019-03-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療報告装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57172270A (en) * 1981-04-16 1982-10-23 Agency Of Ind Science & Technol Processor of radioisotope image
JPH04241844A (ja) * 1991-01-09 1992-08-28 Mitsubishi Electric Corp 画像補間法
JPH07234927A (ja) * 1994-02-22 1995-09-05 Toshiba Medical Eng Co Ltd 三次元画像表示装置
JP3642591B2 (ja) * 1994-11-29 2005-04-27 株式会社日立メディコ 画像処理装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070230653A1 (en) 2004-11-26 2007-10-04 Yosuke Okamoto X-ray ct apparatus and image processing apparatus
JP2012005891A (ja) 2004-11-26 2012-01-12 Toshiba Corp X線ct装置及び画像処理装置
JP2012040363A (ja) 2010-07-22 2012-03-01 Toshiba Corp 医用画像表示装置及びx線コンピュータ断層撮影装置
WO2012128121A1 (ja) 2011-03-18 2012-09-27 国立大学法人岐阜大学 パノラマエックス線写真を利用した診断支援システム、及びパノラマエックス線写真を利用した診断支援プログラム
JP2014226320A (ja) 2013-05-22 2014-12-08 株式会社東芝 X線ct装置、画像表示装置
WO2015015851A1 (ja) 2013-07-30 2015-02-05 コニカミノルタ株式会社 医用画像システム及び関節軟骨状態のスコア判定方法
JP2019508086A (ja) 2015-12-30 2019-03-28 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療報告装置

Also Published As

Publication number Publication date
JP2021027982A (ja) 2021-02-25
US20210049809A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
Beers et al. High-resolution medical image synthesis using progressively grown generative adversarial networks
CN107808156B (zh) 感兴趣区域提取方法
JP7527554B2 (ja) 厚い画像スライスから薄い画像スライスを生成するためのシステム及び方法
JP6877868B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP7423338B2 (ja) 画像処理装置及び画像処理方法
JP6598452B2 (ja) 医用画像処理装置及び医用画像処理方法
US8483462B2 (en) Object centric data reformation with application to rib visualization
US7529396B2 (en) Method, computer program product, and apparatus for designating region of interest
US9472017B2 (en) Fast rendering of curved reformation of a 3D tubular structure
US7899231B2 (en) System and method for splicing medical image datasets
JP5288795B2 (ja) ボリュームデータの画像処理
JP2002529825A (ja) 4D再構築(reconstruction)及び可視化(visualization)のためのシステム及び方法
US10854329B2 (en) Motion estimation method and apparatus
JP2008509773A (ja) フレキシブル3次元回転血管造影−コンピュータ断層撮影融合方法
US20230368442A1 (en) Method of generating trained model, machine learning system, program, and medical image processing apparatus
JP2022077991A (ja) 医用画像処理装置、医用画像処理方法、医用画像処理プログラム、モデルトレーニング装置、およびトレーニング方法
US20230214664A1 (en) Learning apparatus, method, and program, image generation apparatus, method, and program, trained model, virtual image, and recording medium
JP4668289B2 (ja) 画像処理装置および方法並びにプログラム
EP4285828A1 (en) Learned model generation method, machine learning system, program, and medical image processing device
US20210049734A1 (en) Image processing method and apparatus
EP4401040A1 (en) Medical image rendering technique
JP2023160714A (ja) 医用画像表示装置、及び医用画像表示方法
Rahman et al. 3D segmentation and visualization of left coronary arteries of heart using ct images
Galeano et al. 3D reconstruction of organ from CT images and visualization in a virtual reality environment
Luo et al. Is Autoencoder Truly Applicable for 3d CT Super-Resolution?

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221202

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20230106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240117

R150 Certificate of patent or registration of utility model

Ref document number: 7423338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150