JP2016195759A - ボリューム画像を表示するためのシステムおよび方法 - Google Patents

ボリューム画像を表示するためのシステムおよび方法 Download PDF

Info

Publication number
JP2016195759A
JP2016195759A JP2016062981A JP2016062981A JP2016195759A JP 2016195759 A JP2016195759 A JP 2016195759A JP 2016062981 A JP2016062981 A JP 2016062981A JP 2016062981 A JP2016062981 A JP 2016062981A JP 2016195759 A JP2016195759 A JP 2016195759A
Authority
JP
Japan
Prior art keywords
user input
transfer function
range
volume rendering
input actuator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016062981A
Other languages
English (en)
Other versions
JP6745623B2 (ja
Inventor
デヴィッド・アルバート・セボク
Albert Sebok David
マイケル・ジョセフ・パルマ
Joseph Parma Michael
ジョージ・ジョン・コッコ
John Cocco George
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dental Imaging Technologies Corp
Original Assignee
Dental Imaging Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dental Imaging Technologies Corp filed Critical Dental Imaging Technologies Corp
Publication of JP2016195759A publication Critical patent/JP2016195759A/ja
Application granted granted Critical
Publication of JP6745623B2 publication Critical patent/JP6745623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/503Blending, e.g. for anti-aliasing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

【課題】ボリューム画像を表示するためのシステムおよび方法を提供すること。
【解決手段】ボリュームレンダリングを表示するための視覚化システムは、ディスプレイと、第1の範囲、第2の範囲、および第3の範囲にわたって移動可能であるユーザ入力アクチュエータと、プロセッサとを含む。第2の範囲は、第1の範囲と第3の範囲の間に位置する。プロセッサは、ユーザ入力アクチュエータが第1の範囲に位置するとき、第1の伝達関数に従って第1のボリュームレンダリングを生成し、かつユーザ入力アクチュエータが第3の範囲に位置するとき、第2の伝達関数に従って第1のボリュームレンダリングを生成するように構成される。第2の伝達関数は、第1の伝達関数とは異なる。プロセッサは、ユーザ入力アクチュエータが第2の範囲に位置するとき、第1の伝達関数と第2の伝達関数をブレンドすることにより第1のボリュームレンダリングを生成し、かつ第1のボリュームレンダリングをディスプレイに表示するようにさらに構成される。
【選択図】図13

Description

[0001]本発明は、ユーザ入力に基づき様々な伝達関数に従ってボリュームレンダリングを生成することに関する。
本願発明の一実施例は、例えば、ボリューム画像を表示するためのシステムおよび方法に関する。
本願発明の一実施例は、例えば、ボリューム画像を表示するためのシステムおよび方法に関する。
[0002]一実施形態では、本発明は、ディスプレイ、ユーザ入力アクチュエータ、およびプロセッサを含む視覚化システムを提供する。ユーザ入力アクチュエータは、第1の範囲、第2の範囲、および第3の範囲にわたって移動可能である。第2の範囲は、第1の範囲と第3の範囲の間に位置する。プロセッサは、ユーザ入力アクチュエータとディスプレイに結合される。プロセッサは、ユーザ入力アクチュエータが第1の範囲に位置するとき、第1の伝達関数に従って第1のボリュームレンダリングを生成し、かつユーザ入力アクチュエータが第3の範囲に位置するとき、第2の伝達関数に従って第1のボリュームレンダリングを生成するように構成される。プロセッサはまた、ユーザ入力アクチュエータが第2の範囲に位置するとき、第1の伝達関数と第2の伝達関数をブレンドすることにより第1のボリュームレンダリングを生成し、かつ第1のボリュームレンダリングをディスプレイに表示するように構成される。
[0003]他の実施形態では、本発明は、ユーザ入力アクチュエータを介してユーザ入力を受け取るステップを含むボリュームレンダリングを表示する方法を提供する。ユーザ入力アクチュエータは、第1の範囲、第2の範囲、および第3の範囲にわたって移動可能である。第2の範囲は、第1の範囲と第3の範囲の間に位置する。方法はまた、ユーザ入力アクチュエータの位置を決定するステップと、ユーザ入力アクチュエータが第1の範囲に位置するとき、第1の伝達関数に従って第1のボリュームレンダリングを生成するステップと、ユーザ入力アクチュエータが第3の範囲に位置するとき、第2の伝達関数に従って第1のボリュームレンダリングを生成するステップとを含む。方法は、ユーザ入力アクチュエータが第2の範囲に位置するとき、第1の伝達関数と第2の伝達関数のブレンドに従って第1のボリュームレンダリングを生成するステップと、第1のボリュームレンダリングをディスプレイに表示するステップとをさらに含む。
[0004]本発明の他の態様は、詳細な説明および添付図面を検討することにより明らかになろう。
[0005]本発明の一構成による視覚化システムの立面図である。 [0006]視覚化システムのユーザ入力アクチュエータの一例を含む図1のシステムの画面に表示されるユーザインターフェースの図である。 [0007]視覚化システムのユーザ入力アクチュエータの第2の例を含む図1のシステムの画面に表示されるユーザインターフェースの図である。 [0008]図1の視覚化システムに対するユーザ入力アクチュエータの第3の例の横断面図である。 [0009]ユーザ入力アクチュエータの第4の例を含む視覚化システムの他の例の斜視図である。 [0010]図1の視覚化システムのブロック図である。 [0011]図1の視覚化システムの記憶ユニットに記憶されたプログラム記憶データの構造のブロック図である。 [0012]図1の視覚化システムを用いてボリュームレンダリングを生成し、かつ表示する方法の流れ図である。 [0013]図1の視覚化システムで画像を生成し、かつ表示するために、2つの伝達関数をブレンドする第1の方法の流れ図である。 [0014]図1の視覚化システムで画像を生成し、かつ表示するために、2つの伝達関数をブレンドする第2の方法の流れ図である。 [0015]ユーザ入力アクチュエータが第1の範囲に位置するとき、図1の視覚化システムの画面に表示されるユーザインターフェースの図である。 [0016]ユーザ入力アクチュエータが第2の範囲内の第1の位置へと移動したときの図11のユーザインターフェースの図である。 [0017]ユーザ入力アクチュエータが第2の範囲内の第2の位置へと移動したときの図11のユーザインターフェースの図である。 [0018]ユーザ入力アクチュエータが第3の範囲内の位置へと移動したときの図11のユーザインターフェースの図である。 [0019]ユーザ入力アクチュエータが第4の範囲内の第1の位置へと移動したときの図11のユーザインターフェースの図である。 [0020]ユーザ入力アクチュエータが第4の範囲内の第2の位置へと移動したときの図11のユーザインターフェースの図である。 [0021]ユーザ入力アクチュエータが第4の範囲内の第3の位置へと移動したときの図11のユーザインターフェースの図である。 [0022]ユーザ入力アクチュエータが第5の範囲内の位置へと移動したときの図11のユーザインターフェースの図である。 [0023]ユーザ入力アクチュエータを構成するために図1の視覚化システムで表示されるグラフィカルユーザインターフェースの図である。
[0024]本発明のいずれかの実施形態が詳細に説明される前に、本発明は、その用途において、以下の説明で述べられた、または以下の図面で示された構成要素の構成および配置の細部に限定されないことを理解されたい。本発明は、他の実施形態も可能であり、かつ様々な方法で実施される、または実行され得る。
[0025]さらに本発明の実施形態は、考察のために、構成要素の大部分がもっぱらハードウェアで実施されるかのように示され、かつ述べることのできるハードウェア、ソフトウェア、および電子的な構成要素もしくはモジュールを含み得ることを理解されたい。しかし、当業者であれば、この詳細な記述を読むことに基づいて、少なくとも1つの実施形態において、本発明の電子ベースの態様は、マイクロプロセッサおよび/または特定用途向け集積回路(「ASIC」)など、1つまたは複数の処理ユニットにより実行可能なソフトウェア(例えば、非一時的なコンピュータ可読媒体に記憶された命令など)で実施され得ることが理解されよう。したがって、複数のハードウェアおよびソフトウェアベースのデバイス、ならびに複数の様々な構造的構成要素が、本発明を実施するために使用され得ることに留意されたい。例えば、本明細書で記載される「サーバ」および「コンピューティングデバイス」は、1つまたは複数の処理ユニット、1つまたは複数のコンピュータ可読媒体モジュール、1つまたは複数の入力/出力インターフェース、および構成要素を接続する様々な接続(例えば、システムバスなど)を含むことができる。
[0026]ボリュームレンダリングは、例えば、コンピュータ断層撮影法(CT)、および磁気共鳴撮像法(MRI)など、様々な医用撮像法により生成される複雑な3次元データを提示するための有効な方法である。データが撮像システムにより取得され、視覚化システムに移送された後、伝達関数は、各ボクセル値(すなわち、3次元ボリュームレンダリングにおける各データ点値)に不透明度および/またはカラー値を割り当てる。視覚化システムは、次いで、伝達関数により割り当てられた値に従って3次元(3D)データを表示する。各伝達関数は、不透明度およびカラー値のそれぞれがどのように各ボクセルに割り当てられるかを決定するパラメータと関連付けられた1つまたは複数の制御点により定義される。例えば、いくつかの伝達関数は、50以上のパラメータを含むことができるが、他のものは数個のパラメータを含むことができるだけである。いくつかの実施形態では、伝達関数に含まれるパラメータの数は、伝達関数を定義する制御点の数に比例する。これらのパラメータを調整することにより、3Dデータのいくつかの様々なビューが利用可能になる。各ビューは、その基礎となる解剖学的構造の様々な側面を強調表示する。様々なビューは、画像化スペシャリストが、様々な異常を識別し、かつ診断するのを支援することができる。
[0027]画像化スペシャリストは、特定の患者を診断しながら、(例えば、様々なボリュームレンダリングを利用するために)3Dデータをいくつかの異なるビューで見ることを望む可能性がある。各ビューでは、画像化スペシャリストは、自分の診断を検証するために、何か異なるものを探すことができる。しかし、スペシャリストにより望まれる様々な画像ビューを表示するために、伝達関数のパラメータを調整することは、複雑な作業になるおそれがある。画像のスペシャリストは、所望する画像ビュー(例えば、ボリュームレンダリング)を生ずるために、どのパラメータを変更し、かつどのようにそれらを変えるべきかを知る必要があるはずである。
[0028]ボリュームレンダリングを制御するための1つの単純化された機構は、例えば、1組の事前設定ボタンをユーザインターフェース上に設けることを含むことができる。各事前設定ボタンは、様々な伝達関数に対応しており、選択されたとき、特定の伝達関数に従ってボリュームデータをシステムに表示させ、それによりボリューム画像データの様々な側面を強調表示することになる。例えば、1つの事前設定ボタンは、画像データに患者の皮膚の表面を強調表示させることができ、他のものは、患者の骨構造を強調表示するために使用され得るなどである。これらの事前設定ボタンは、使用するのが比較的簡単であるが、伝達関数の完全なカスタム化を提供するものではない。事前設定は、視覚化アプリケーションの制作者により予め定められているはずであり、したがって、画像化スペシャリストは、すべての可能な画像ビューにアクセスできるのではなく、特定の1組の所定のビューに制限される。
[0029]代替的には、視覚化アプリケーションは、伝達関数のパラメータを変更するための完全な制御および柔軟性を提供するように設計された伝達関数エディタを画像化スペシャリストに提供するように構成され得る。このような伝達関数エディタは、伝達関数を適合させるように個々に調整される複数のボタンまたは点を含むことができる。その結果、カスタム化のより広い範囲を提供するにもかかわらず、このような詳細な伝達関数エディタの操作は、画像化スペシャリストには複雑かつ分かりにくいものになるはずである。これもまた、伝達関数エディタの完全な利用を、伝達関数の操作の細部を十分知っている少数の画像化スペシャリストに限定することになる。
[0030]さらに、単純化された事前設定ボタン、またはより包括的な伝達関数エディタを使用することは、画像化スペシャリストが、ボリューム画像データそれ自体に焦点を当てるのではなく、少なくとも一時的に制御インターフェースに焦点を当てる必要があることになる。実際、包括的な伝達関数エディタは、伝達関数ごとに調整可能なパラメータのサイズおよび複雑さに起因して表示全体を使用することが必要になる可能性がある。その結果、画像化スペシャリストは、伝達関数に対する調整が所望するビューを生ずるかどうかを判定するために、表示された画像と制御機構の間の焦点を絶えず変化させる必要があり得る。このようなワークフローは煩雑であり、かつ画像化スペシャリストの患者診断を妨げる。
[0031]図1は、3D画像データを表示するために使用される伝達関数をカスタマイズするための使いやすいインターフェース、および詳細な制御レベルをユーザに提供する視覚化システム10の例を示す。視覚化システム10は、MRIまたはCTシステム(図示せず)などの撮像システムに結合される。撮像システムは、医用画像化データを取得し、かつその画像データを、表示、解析、およびいくつかの構成では、記憶するために、視覚化システム10に移送する。様々な実施形態では、視覚化システム10は、撮像システムに直接結合することができ、撮像システムの一部として一体化することもできる。他の実施形態では、視覚化システム10は、別の部屋に配置され、撮像システムから取り外される。さらに他の実施形態では、視覚化システム10は、ローカルエリアネットワーク、広域ネットワーク、またはインターネット接続を介して、医用PACS(「画像保存通信システム」)に保存された医用画像データにアクセスするデスクトップコンピュータ上で実施される。
[0032]図1の視覚化システム10は、3次元レンダリングの画像ビューを表示するためのディスプレイ14、1つまたは複数のユーザ入力デバイス16a、16b、および処理ユニット20を含む。ユーザ入力デバイス16a、16bは、視覚化システム10と対話し、かつボリュームレンダリングパラメータ(例えば、伝達関数)、画像のサイズ(例えば、画像のズームインおよびズームアウト)、画像の方向付け(例えば、画像を回転させる)などを変更するために使用される。示された構成では、ユーザ入力デバイスは、キーボード16aおよびマウス16bを含む。他の実施形態では、視覚化システム10は、さらに、または代替的に、ユーザ対話を容易にする他の別のデバイスおよび/またはアクチュエータを含むことができる。例えば、いくつかの実施形態では、ディスプレイ14は、ユーザ入力デバイスとして使用され得るタッチセンサ式画面(例えば、タブレットコンピューティングデバイス)を含む。
[0033]視覚化システム10は、ボリューム画像の様々なレンダリングを表示するためにユーザが伝達関数を調整できるようにするユーザ入力アクチュエータ22を含む。図1の例では、ユーザ入力アクチュエータ22は、処理ユニット20により生成され、かつディスプレイ14に表示されたグラフィカルユーザインターフェースの一部である仮想的な直線アクチュエータとすることができる。仮想的な直線アクチュエータ22は、経路26および位置インジケータ30を含む。位置インジケータ30は、ユーザが経路26に沿って、ディスプレイ14のタッチセンサ式画面を使用して、またはマウス16bを使用することにより移動される。いくつかの実施形態では、経路26は、複数の非制限的な位置を含む連続する経路であり、また位置インジケータ30は、経路26に沿って連続的に移動することができる。他の構成では、経路26は、個別の所定の位置を含み、位置インジケータ30は、これらの個別の所定の位置の間を移動できるだけである。
[0034]図2で示すように、経路26は、第1の範囲34、第2の範囲38、第3の範囲42、第4の範囲46、および第5の範囲50を含む。これらの範囲に含まれるユーザ入力アクチュエータ22の位置は、表示されるボリューム画像を生成するためにどの伝達関数(複数可)が使用されるかを決定し、かつ伝達関数のいくつかのパラメータが調整される程度を決めるのを助ける。図2の例では、第1の範囲34、第3の範囲42、および第5の範囲50は、それぞれ、単一の位置54、62、および70だけを含む。第2の範囲38は、第1の範囲34と第3の範囲42の間に位置し、また図2の二点鎖線で示すように、複数の位置58a〜58gを含む。第4の範囲46は、第3の範囲42と第5の範囲50の間に位置し、さらに複数の位置66a〜66gを含む。この例では、第2の範囲38および第4の範囲46は、同じ数の位置58a〜58h、66a〜66hを含む。図2の例は、第2の範囲38および第4の範囲46のそれぞれに対して7つの位置を示しているが、他の実施形態は、各範囲に、より多くの位置、またはより少ない位置を含むこともできる。同様に、他の実施形態では、第2の範囲38は、以下でさらに詳細に述べるように、1つの伝達関数に対して増加したレベルの調整を提供するために、第4の範囲46よりも多くの、または少ない位置を含むことができる。
[0035]図2の例は、図1で示す直線経路26および位置インジケータ30を含むユーザ入力アクチュエータ22を含む。経路26は、位置インジケータ30に対する可能な位置をユーザに示す複数のインジケータを含むことができる。代替的に、経路26は、別々の範囲に関する情報を伝達するために、着色もしくは非着色バーまたは同様のインターフェースを含むことができる。他の実施形態では、直線的なユーザ入力アクチュエータ22は、他のコントロールで置き換えられ得る。例えば、図3では、ユーザ入力アクチュエータは、円形のダイヤルアクチュエータの形で提供される。
[0036]円形のダイヤルアクチュエータは、開始位置または終了位置を有しない無限に連続する制御経路を可能にする。その結果、ユーザは、直線コントロール30を前後に移動させるのではなく、単一の円形方向に位置インジケータ30を移動し続けて、伝達関数の間を循環させることができる。図3の円形ダイヤルアクチュエータは、図1の直線アクチュエータと同じ5つの範囲を含む。しかし、第1の範囲34および第5の範囲50は共に、その間に範囲を有しないダイヤルの上部近くにある。第3の範囲42は、ダイヤルの底部に位置するが、第2の範囲48および第4の範囲46は、ダイヤルインターフェースの両側の上部位置と底部位置の間に配置される。いくつかの実施形態では、第1および第5の範囲34、50は、同じパラメータを有する同じ伝達関数を表し、かつダイヤルの上部の同じスペースを占めることができる。しかし、他の構成では、システムは、位置インジケータ30が、範囲50を通過して進むとき、さらに別の伝達関数へと進むように構成され得る。
[0037]図2および図3の例は、グラフィカルユーザインターフェース上で表示される仮想コントロールの形で示されたユーザ入力アクチュエータ22を示しているが、他の実施形態では、ユーザ入力アクチュエータ22は、専用のハードウェアデバイス(すなわち、物理的なスライダバー、または物理的なノブダイアル)として実施することができる。さらに他の実施形態では、ユーザ入力デバイス16bの一部は、ユーザ入力アクチュエータ22として利用することができる。例えば、図4は、内部のスクロールホイール78を有するマウス16bの横断面図を示す。スクロールホイール78は、中心点86の周りの円形の軌道82に沿って、ユーザにより回転される。スクロールホイール78は、(図2および図3の例のように)位置インジケータ30を含んでいないが、スクロールホイールの回転は、やはり図3の円形ダイヤルアクチュエータと同様に、様々な範囲を介して循環させるために使用され得る。位置インジケータ30の特定の位置に焦点を合わせるのではなく、ユーザは、ボリュームレンダリングで生成される変化に焦点を当てることができる。
[0038]図5は、ラップトップまたはデスクトップコンピュータのタッチパッド90がユーザ入力アクチュエータ22として使用される他の例を示す。いくつかの実施形態では、ユーザは、図3を参照して上記で論じた円形の範囲調整を達成するために、自分の指をタッチパッド90に沿って円形に移動させる。他のシステムでは、ユーザは、図2を参照して上記で論じた調整機構を達成するために、自分の指を直線的に移動させる。さらに他のシステムでは、必要な動きは、ユーザのプリファレンスに基づいて調整され得る、または他の形を含むことができる(例えば、4つの単一の点の「範囲」(各4つのコーナで)と、4つの連続する調整の「範囲」(各辺)とを含む長方形など)。
[0039]図6は、視覚化システム10の内部の通信結合および様々な構造的構成要素を示す。処理ユニット20は、ディスプレイ14、およびユーザ入力デバイス16a、16bに結合される。ユーザ入力アクチュエータ22が別個のデバイスである場合、処理ユニット20はまた、ユーザ入力アクチュエータ22に結合される。処理ユニット20は、特に、撮像システムから画像データを受け取り、伝達関数に基づいて画像データのボリュームレンダリングを生成し、かつ得られた画像をディスプレイ14に表示するように動作可能なハードウェアおよびソフトウェアの組合せを含む。示された構成では、処理ユニット20は、コントローラ100(例えば、マイクロコントローラまたはプロセッサ)、記憶ユニット104、入力ユニット108、および出力ユニット112を含む。コントローラ100、記憶ユニット104、および入力/出力ユニット108、112は、1つまたは複数の制御および/またはデータバス(例えば、共通バス116)により接続される。
[0040]制御および/またはデータバス116は、例示のために図6で概略的に示される。本明細書で述べられる本発明を考慮すると、様々なモジュールおよび構成要素間の相互接続および通信のために、1つまたは複数の制御および/またはデータバスを使用することは、当業者に知られているはずである。いくつかの実施形態では、コントローラ100は、半導体(例えば、書替え可能ゲートアレイ(FPGA)半導体)チップ上で、部分的にまたは全体的に実施される。いくつかの構成では、処理ユニット20は、コントローラ100に対して外部のさらなる回路を含む。例えば、処理ユニット20は、外部の電力源から電力を受け取り、かつ処理ユニット20の電気的構成要素の必要に応じて電力を適応させる電力入力モジュールを含むことができる。コントローラ100は、特に、制御ユニット120、論理演算装置(「ALU」)124、および複数のレジスタ128(図6では1群のレジスタとして示されている)を含み、かつ修正ハーバードアーキテクチャ、フォンノイマンアーキテクチャなど、知られたコンピュータアーキテクチャを使用して実施される。
[0041]記憶ユニット104は、例えば、プログラム記憶域132およびデータ記憶域136を含む。プログラム記憶域132およびデータ記憶域136は、読出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)(例えば、ダイナミックRAM、シンクロナスDRAM)、電気的に消去可能書き込み可能な読出し専用メモリ(EEPROM)、フラッシュメモリ、ハードディスク、SDカード、または他の適切な磁気的、光学的、物理的、もしくは電子記憶デバイスなど、様々なタイプのメモリの組合せを含むことができる。コントローラ100は、記憶ユニット104に接続され、かつ記憶ユニット104のRAMに(例えば、実行中に)、記憶ユニット104のROMに(例えば、概して恒久的に)、または他のメモリもしくはディスクなど、他の非一時的なコンピュータ可読媒体に記憶され得るソフトウェア命令を実行する。様々なボリューム画像の視覚化に含まれるソフトウェアは、処理ユニット20の記憶ユニット104に記憶され得る。ソフトウェアは、例えば、ファームウェア、1つまたは複数のアプリケーション、プログラムデータ、フィルタ、ルール、1つまたは複数のプログラムモジュール、および他の実行可能な命令を含む。処理ユニット20は、特に、伝達関数の調整、および画像のボリュームレンダリングの生成に関連する命令を記憶ユニット104から取り出し、かつ実行するように構成される。他の構成では、処理ユニット20は、さらなる、より少ない、または異なる構成要素を含む。
[0042]図7で示すように、プログラムデータは、位置決定モジュール140、伝達関数モジュール144、およびボリュームレンダリング生成モジュール148を含む。コントローラ100は、モジュール140、144、148のそれぞれにある命令を取得し、3D画像データの望ましいボリュームレンダリングを生成する。位置決定モジュール140は、コントローラ100により実行されたとき、ユーザ入力アクチュエータ22の位置を決定する命令を含む。伝達関数モジュール144は、コントローラ100により実行されたとき、ユーザ入力アクチュエータ22の決定された位置に従って、伝達関数を、または2つの伝達関数の望ましいブレンドを生成する命令を含む。ボリュームレンダリング生成モジュール148は、伝達関数モジュール144により生成された1つまたは複数の伝達関数に従って、3D画像データの望ましいボリュームレンダリングを生成する。
[0043]図8は、ユーザ入力アクチュエータ22の位置に基づいて、ボリューム画像が画面上でどのように表示されるかを制御し、かつ調整するための方法を示す。視覚化システム10(例えば、コントローラ100)は、撮像システムから3D画像データを受け取る(ステップ152)。コントローラ100は、次いで、ユーザ制御入力を示すユーザ入力アクチュエータ22からの信号を受け取る(ステップ156)。ユーザ入力は、ユーザ入力アクチュエータ22の望ましい位置もしくは範囲への平行移動を含むことができる。コントローラ100は、次いで、位置決定モジュール140を介して、ユーザ入力アクチュエータ22の位置を決定し、かつユーザ入力アクチュエータ22が、第1の範囲34、第2の範囲38、第3の範囲42、第4の範囲46、または第5の範囲50のいずれに位置しているのかを判定する。
[0044]コントローラ100は、ユーザ入力アクチュエータ22の位置に基づいて、適切な伝達関数、または伝達関数のブレンドを生成する。ユーザ入力アクチュエータ22が第1の範囲34に位置する場合(ステップ160)、コントローラ100は、伝達関数モジュール144を介して、第1の伝達関数を生成する(ステップ164)。ユーザ入力アクチュエータ22が第2の範囲38に位置する場合(ステップ168)、コントローラ100は、第2の範囲38内のユーザ入力アクチュエータ22の特定の位置に基づいて、第1の伝達関数と第2の伝達関数のブレンドを生成する(ステップ172)。ユーザ入力アクチュエータ22が第3の範囲42に位置する場合(ステップ176)、コントローラ100は、第2の伝達関数を生成する(ステップ180)。ユーザ入力アクチュエータ22が第4の範囲46に位置する場合(ステップ184)、コントローラ100は、第4の範囲38内のユーザ入力アクチュエータ22の特定の位置に基づいて、第2と第3の伝達関数のブレンドを生成する(ステップ188)。最後に、ユーザ入力アクチュエータ22が、第5の範囲50に位置する場合(ステップ192)、コントローラ100は、第3の伝達関数を生成する(ステップ196)。
[0045]伝達関数、または伝達関数のブレンドが、伝達関数モジュールにより生成されると(例えば、ステップ164、172、180、188、196の後)、コントローラ100は、生成された伝達関数に従ってボリュームレンダリングを生成し(ステップ200)、かつ生成されたボリュームレンダリングをディスプレイ14に表示する(ステップ204)。生成されたボリュームレンダリングを表示している間、コントローラ100は、ユーザ入力アクチュエータ22の位置の変化を検出するために、受け取ったユーザ入力を監視し続ける。ユーザがユーザ入力アクチュエータ22の位置を変えた場合、ステップ156〜204が反復されて、ユーザ入力アクチュエータ22の新しい位置に基づき、更新されたボリュームレンダリングを生成し、かつ表示する。
[0046]上記で論じたように、コントローラ100は、ユーザ入力アクチュエータ22が、第1の範囲/位置から第3の範囲/位置へと第2の範囲を通って移動したとき、またユーザ入力アクチュエータ22が、第3の範囲/位置から第5の範囲/位置へと第4の範囲を通って移動したとき、2つの伝達関数の間のブレンドを生成する。この「ブレンド」は、ユーザにより指示されるように、またはシステムにより予め定められたように、様々な方法で生成され得る。示された実施形態では、システムは第1と第2の伝達関数のブレンドを生成するための第1の方法(図9)を、かつ第2と第3の伝達関数のブレンドを生成するために第2の方法(図10)を実施する。他の実施形態では、第2の方法は、第1と第2の伝達関数のブレンドを生成するために、また第1の方法は、第2と第3の伝達関数のブレンドを生成するために使用され得る。
[0047]例えば、図9で示すように、第2の範囲内のユーザ入力アクチュエータ22の位置は、2つの伝達関数のブレンドを生成するために、伝達関数の特定のパラメータ、または複数のパラメータを調整するために使用され得る。上記で論じたように、第2の範囲38は、いくつかの位置を含むので、コントローラ100は、第2の範囲内のカーソル(例えば、ユーザ入力インジケータ22の位置インジケータ30)の特定の位置を決定する(ステップ208)。コントローラ100は、伝達関数モジュール144を使用して、カーソルの特定位置に基づき、伝達関数の1つまたは複数のパラメータを調整する(ステップ212)。示された例では、伝達関数モジュール144は、第2の伝達関数を近似するように、第1の伝達関数の1つまたは複数のパラメータ値を調整する。言い換えると、伝達関数モジュール114は、調整された第1の伝達関数に基づいて生成されたボリュームレンダリングが、第2の伝達関数に基づいて生成されたボリュームレンダリングのよい近似になるように、第1の伝達関数のパラメータ値を決定し、かつ調整する。カーソルが、第1の位置54から、第3の位置62へと移動するにつれて、第1の伝達関数を用いた第2の伝達関数の近似が、より一層近くなり、カーソルが第3の位置62に達すると、第1の伝達関数を用いた第2の伝達関数の近似は、第2の伝達関数に最も近い近似となる。言い換えると、カーソルが第1の位置54に最も近いとき、伝達関数モジュール114は、カーソルが第3の位置62に達したときに生成される第2の伝達関数の視覚的な出力の近似を開始するように、1つまたは複数のパラメータ値をわずかに調整する。しかし、カーソルが、第3の位置62に最も近接したとき、伝達関数モジュール114は、カーソルが第3の位置62に達したとき、第2の伝達関数により生成される視覚的出力を最も近づくように近似するために、1つまたは複数のパラメータ値を大幅に調整する。伝達関数のための1つまたは複数のパラメータが変更されると、ボリュームレンダリングは、調整された伝達関数に従って生成され(ステップ216)、新しく更新されたレンダリングが、画面に表示される(ステップ220)。
[0048]図9の方法に従って2つの伝達関数のブレンドを生成したとき、伝達関数および調整されるパラメータは、表示されるボリュームレンダリングが、パラメータ(複数可)が調整されたとき第2の伝達関数により生成されるはずの画像に向けて遷移するように選択される。例えば、色分布パラメータが調整され得る。さらに、第1の伝達関数だけが調整されるものとして述べられているが、伝達関数モジュール144は、さらにまたは代替的に、第2の伝達関数のパラメータを調整することもできる。言い換えると、このような実施形態では、カーソルが第2の範囲38にある間に、ボリュームレンダリングが、調整されたパラメータを有する第2の伝達関数に基づいて表示される。
[0049]さらにいくつかの実施形態では、システムは、2つの別々の伝達関数に従って2つの別々のボリュームレンダリングを生成し、かつユーザ入力アクチュエータが第2の範囲を通って(または第4の範囲を通って)移動するとき、各レンダリングの不透明度を調整することにより2つの伝達関数のブレンドを生成する。図10は、第2の伝達関数により生成されたボリュームレンダリング、および第3の伝達関数により生成されたボリュームレンダリングの相対的な不透明度を調整することにより、伝達関数をブレンドする一方法の例を示す。コントローラ100は、まず、第4の範囲46内のユーザ入力アクチュエータ22の相対的な位置を決定する(ステップ224)。コントローラ100は、次いで、第1の伝達関数に従って第1のボリュームレンダリングを生成し(ステップ228)、また第2の異なる伝達関数に従って第2のボリュームレンダリングを生成する(ステップ232)。コントローラ100は、次いで、第4の範囲46内のユーザ入力アクチュエータ22の相対的な位置に基づき、第1のボリュームレンダリングに対する不透明度レベルを設定し(ステップ236)、また第2のボリュームレンダリングに対する不透明度レベルを設定する(ステップ240)。不透明度が調整されたボリュームレンダリングは、互いに重畳されて(ステップ244)、ユーザに表示される第3のボリュームレンダリングを形成する(ステップ248)。
[0050]ユーザ入力アクチュエータ22が第3の範囲の位置42に近づくにつれて、第1のボリュームレンダリングに対する不透明度値は減少し、かつ第2のボリュームレンダリングに対する不透明度値が増加する。同様に、ユーザ入力アクチュエータ22が、第3の範囲の位置42から遠くなり、第1の範囲の位置34に接近するにつれて、第1のボリュームレンダリングに対する不透明度レベルが増加し、かつ第2のボリュームレンダリングに対する不透明度レベルが減少する。その結果、第2のボリュームレンダリングは、ユーザ入力アクチュエータが第1の範囲の位置34の近くに位置したとき、さらに見えなくなり、また表示される画像は、主として第1の伝達関数により影響される。
[0051]示された例では、第2の伝達関数と第3の伝達関数のブレンドを生成するステップ(例えば、図8のステップ188)は、第4の範囲46内のカーソルの相対的な位置に基づいて、ボリュームレンダリングのそれぞれに対する相対的な不透明度レベルを決定することを述べているに過ぎない。同じステップは、代替的に、第2の伝達関数に従ってボリュームレンダリングを生成し(図10のステップ228)、第3の伝達関数に従ってボリュームレンダリングを生成し(図10のステップ232)、かつボリュームレンダリングのそれぞれに対して相対的な不透明度レベルを決定する(図10のステップ236、240)ことを含むこともできる。このような実施形態では、伝達関数、または生成された伝達関数のブレンドに従ってボリュームレンダリングを生成するステップ(図8のステップ200)は、決定された相対的な不透明度レベルで、2つの生成されたボリュームレンダリング(一方は第2の伝達関数により、他方は第3の伝達関数により生成されたもの)を重畳することに対応することができる。
[0052]図11〜図18は、ユーザが、直線的なユーザ入力アクチュエータ22を左端の位置から右端の位置へと移動させたとき、視覚化システム10のディスプレイ14の表示フィールド250上に示された一連のボリュームレンダリングの例を示す。この例では、視覚化システム10は、ユーザ(例えば、画像化スペシャリスト)が、3つの異なる伝達関数(例えば、第1の伝達関数、第2の伝達関数、および第3の伝達関数)に従ってボリュームレンダリングを生成し、かつ伝達関数をブレンドしてカスタマイズされたボリュームレンダリングを生成できるように構成されている。この例では、第1の伝達関数は、患者の皮膚の細部を示すレンダリングを生成する(すなわち、図11)。第1の伝達関数は、不透明度値を皮膚の範囲のボクセル値に割り当てる「皮膚の不透明度」パラメータを規定する。患者の皮膚の細部を示すために、第1の伝達関数における皮膚の不透明度パラメータは、「1」(例えば、完全な不透明)に設定される。第2の伝達関数は、患者の骨構造を強調表示する(すなわち、図14)。第2の伝達関数はまた、皮膚の範囲のボクセル値に不透明度値を割り当てる。患者の骨構造を強調表示するために、第2の伝達関数における皮膚の不透明度パラメータは、「0」(例えば、不透明ではない)に設定される。第3の伝達関数は、骨と、患者の歯根とを強調表示する(すなわち、図18)。いくつかの実施形態では、第3の伝達関数はまた、皮膚の不透明度パラメータを規定するが、他の実施形態では、第3の伝達関数は、皮膚の不透明度パラメータを特に規定しない。
[0053]図11から開始すると、ユーザ入力アクチュエータの位置インジケータ30は、直線経路26の左端に位置し、したがって、第1の範囲/位置34に位置する。その結果、図11の例では、画面の表示フィールド15で示されたボリュームレンダリングは、完全に第1の伝達関数に基づいて生成される。図11で示されたボリュームレンダリングは、第1の伝達関数だけに基づいて生成されるので、皮膚の不透明度パラメータは、「1」に設定される。
[0054]図12では、位置インジケータ30は、第2の範囲38へと移動しており、また図9の方法に従って、第1の伝達関数の皮膚の不透明度パラメータが、第2の伝達関数を近似するように調整される。図12で示されるボリュームレンダリングを生成するために、皮膚の不透明度パラメータ値は、約0.75に調整され、それにより、皮膚のボクセル値の不透明度を低下させ、その基礎となる骨構造が、少し視認できるようになる。
[0055]図13では、ユーザ入力アクチュエータ22の位置インジケータ30は、第2の範囲38内の第2の位置へと移動し、第3の範囲の位置42により近くなっている。位置インジケータ30が右の方へとさらに移動するにつれて、皮膚の不透明度パラメータ値は、減少し続け、第1の伝達関数は、第2の伝達関数をよく近似する。図13で表示されたボリュームレンダリングでは、皮膚の不透明度パラメータ値は、約0.25である。図12および図13で示すように、位置インジケータ30が第1の位置34に近いとき、皮膚の不透明度パラメータは、第1の伝達関数のものに近い値に設定される。同様に、位置インジケータ30が第3の範囲/位置42に近いとき、皮膚の不透明度パラメータは、第2の伝達関数のものに近い値に設定される。
[0056]図14では、ユーザ入力アクチュエータ22の位置インジケータ30は、第3の範囲の位置42へと移動している。したがって、表示される画像は、第2の伝達関数に完全に基づいて生成され、それは、この例では、皮膚の不透明度パラメータを含まない(例えば、皮膚の不透明度パラメータは「0」に設定される)。第2の伝達関数は、皮膚の不透明度パラメータを含まないので、図14で示されたボリュームレンダリングは、皮膚表面のいずれの細部も含まない患者の骨構造を示す。図12〜図13は、2つの伝達関数をブレンドする図9の方法を用いるものとして述べられているが、図12〜図13(または同様のボリュームレンダリング)は、代替的に、2つの伝達関数をブレンドする図10の方法を用いて生成することもできる。
[0057]図15では、ユーザ入力アクチュエータ22の位置インジケータ30は、第4の範囲46へと移動しており、したがって、表示される画像は、第2の伝達関数(すなわち、骨)と第3の伝達関数(すなわち、歯根)の両方に基づいて生成される。示された例では、図10の方法が使用されて、第2および第3の伝達関数をブレンドし、それにより図15〜図17を生成する。言い換えると、カーソルが第4の範囲46の左端側から第4の範囲46の右端側へと移動するにつれて、第2の伝達関数に従って生成されたボリュームレンダリングの不透明度は低減されるが、第3の伝達関数に従って生成されたボリュームレンダリングの不透明度は増加し、2つのボリュームレンダリングは、次いで互いに重畳されて、図15〜図17で表示されるボリュームレンダリングを生成する。図15は、第3の範囲42に最も近い第4の範囲46の第1の位置にあるユーザ入力アクチュエータ22を示す。第3の伝達関数に従って生成されたボリュームレンダリングの低い不透明度バージョンが重畳され、したがって、患者の歯根構造が画面で視認できる。図15で表示されたボリュームレンダリングでは、第1のボリュームレンダリング(骨構造を強調表示させている)は、約0.75の不透明度に設定されるが、第2のボリュームレンダリング(骨と歯根を共に強調表示させている)は、約0.25の不透明度に設定される。したがって、図15のボリュームレンダリングは、主として第2の伝達関数に基づく。
[0058]図16は、次いで、第5の範囲の位置50により近い第4の範囲46の第2の位置にあるユーザ入力アクチュエータ22を示している。図16で表示されるボリュームレンダリングでは、第1のボリュームレンダリングは、約0.5の不透明度に設定されるが、第2のボリュームレンダリングもまた、約0.5の不透明度に設定される。したがって、図16のボリュームレンダリングは、第2および第3の伝達関数に比較的等しく基づいている。最後に、図17では、ユーザ入力アクチュエータ22が、第5の範囲50に最も近い第4の範囲46の第3の位置にある。図17に表示されたボリュームレンダリングでは、第1のボリュームレンダリングは、約0.25の不透明度に設定されるが、第2のボリュームレンダリングは、約0.75の不透明度に設定される。したがって、図17のボリュームレンダリングは、主として、第3の伝達関数に基づく。
[0059]図18では、ユーザ入力アクチュエータ22の位置インジケータ30が、第5の範囲の位置50へと移動している。したがって、表示された画像は、完全に第3の伝達関数(第3の伝達関数の不透明度値は1.0に設定される)に基づいて生成され、何らかの骨構造のオーバーレイを含まない患者の歯根画像を示す。図15〜図17は、2つの伝達関数をブレンドする図10の方法を使用するものとして述べられてきたが、図15〜図17(または同様のボリュームレンダリング)は、代替的に、2つの伝達関数をブレンドする図9の方法を用いて生成することもできる。
[0060]図11〜図18の例は、ユーザが、3つの異なる伝達関数に基づいて、いくつかの異なるボリュームレンダリングを生成できるようにするが、他の実施形態では、視覚化システム10は、ユーザが、より少ない伝達関数(すなわち、単一の伝達関数のパラメータを調整する、または2つだけのボリュームレンダリングの不透明度を調整する)に従って、あるいはさらに多くの伝達関数(すなわち、4つ以上の伝達関数の様々な組合せ、およびそれらのブレンド)に従って、ボリュームレンダリングを生成できるに過ぎないように構成することができる。例えば、他の構成では、視覚化システム10は、ユーザが、4つ以上の様々な伝達関数に従ってボリュームレンダリングを生成可能にすることができる。同様に、上記で論じた例では、第1の伝達関数は皮膚を強調表示し、第2の伝達関数は骨を強調表示し、かつ第3の伝達関数は、骨と歯根を共に強調表示できるようにする。しかし、他の構成では、様々な解剖学的構造および/または側面を強調する様々な伝達関数が、ユーザ入力アクチュエータ22およびコントローラ100と共に使用される。さらに上記の例では、視覚化システム10は、2つの伝達関数をブレンドするために、2つの異なる方法を使用する。他の構成では、視覚化システム10は、2つの伝達関数をブレンドするために1つの方法だけを使用する、または2つの伝達関数をブレンドする異なる方法を使用することもできる。
[0061]いくつかの実施形態では、画面に表示されるユーザ入力アクチュエータ22は、様々な範囲を識別するラベル、またはユーザ入力アクチュエータ22が範囲内に配置されたとき、特にどのタイプのボリュームレンダリングが表示されるかをユーザに示すラベルを含む。いくつかの実施形態では、ラベルは、ボリュームレンダリングが1つだけの伝達関数に基づく範囲(例えば、範囲34、42、50)に含まれるだけであり、ユーザは、ラベル間の範囲は、2つの隣接する伝達関数のブレンドを含むものと理解する。
[0062]いくつかの構成では、ユーザは、どの伝達関数がユーザ入力アクチュエータ22の経路26に沿った各位置と関連付けられるかを規定することができる。図19は、ユーザ入力アクチュエータ22を構成するための表示フィールド253に示されたグラフィカルユーザインターフェース252を示す。図19で示すように、ユーザ入力アクチュエータ22の各範囲に対して、様々なドロップダウンメニュー254a〜254eが利用可能である。したがって、ユーザは、ユーザ入力アクチュエータ22が、特定の位置(すなわち、第1の範囲24、第2の範囲42、および第5の範囲50)に位置するとき、ボリュームレンダリングを生成するために、どの伝達関数が使用されるかを決定することができる。ユーザはまた、第2および第4の範囲38、46に対して、第1のブレンド法(図9)を使用すべきか、第2のブレンド法(図10)を使用すべきかを決定することもできる。さらにいくつかの実施形態では、第2の範囲38および第4の範囲46に対するドロップダウンメニューを使用して、ユーザ入力アクチュエータ22の位置インジケータが移動したとき、調整されるべき、近傍の範囲/位置に対する伝達関数の特定のパラメータを選択することができる。
[0063]以下の例は、本明細書で述べられた例示的なシステムおよび方法を示す。
例1:ボリュームレンダリングを表示するための視覚化システム、ここで、システムは、ディスプレイと、第1の範囲、第2の範囲、および第3の範囲にわたって移動可能であるユーザ入力アクチュエータであって、第2の範囲が第1の範囲と第3の範囲の間に位置する、ユーザ入力アクチュエータと、ユーザ入力アクチュエータおよびディスプレイに結合されたプロセッサであって、ユーザ入力アクチュエータが第1の範囲に位置するとき、第1の伝達関数に従って第1のボリュームレンダリングを生成し、ユーザ入力アクチュエータが第3の範囲に位置するとき、第1の伝達関数とは異なる第2の伝達関数に従って第1のボリュームレンダリングを生成し、ユーザ入力アクチュエータが第2の範囲に位置するとき、第1の伝達関数と第2の伝達関数をブレンドすることにより第1のボリュームレンダリングを生成し、かつ第1のボリュームレンダリングをディスプレイに表示するように構成されたプロセッサとを備える。
[0064]例2:例1のシステム、ここで、ディスプレイは、グラフィカルユーザインターフェースを含み、ユーザ入力アクチュエータは、グラフィカルユーザインターフェース上に表示される仮想的な直線アクチュエータを含み、またプロセッサは、仮想的な直線アクチュエータの直線的な平行移動を含むユーザ入力を受け取り、直線的な平行移動に基づいて仮想的な直線アクチュエータの位置を決定し、かつ仮想的な直線アクチュエータの決定された位置に基づいて、ユーザ入力アクチュエータが、第1の範囲に、第2の範囲に、それとも第3の範囲に位置するかどうかを判定するようにさらに構成される。
[0065]例3:例1および例2のシステム、ここで、ユーザ入力アクチュエータはユーザ入力デバイスを含み、またプロセッサは、ユーザ入力デバイスとの物理的なユーザ対話を含むユーザ入力を受け取るように構成される。
[0066]例4:例1〜例3のいずれかのシステム、ここで、第2の範囲は第1の位置および第2の位置を含み、またプロセッサは、第2の範囲内におけるユーザ入力アクチュエータの位置を決定し、かつ第2の範囲内におけるユーザ入力アクチュエータの位置に基づいて、第1と第2の伝達関数をブレンドする程度を調整するように構成される。
[0067]例5:例4のシステム、ここで、第1のボリュームレンダリングは、ユーザ入力アクチュエータが、第2の範囲内に含まれない第1の範囲の近くに位置するとき、主として第1の伝達関数に基づいて生成される。
[0068]例6:例1〜例5のいずれかのシステム、ここで、プロセッサは、第1の伝達関数に従って第2のボリュームレンダリングを生成すること、第2の伝達関数に従って第3のボリュームレンダリングを生成すること、第2のボリュームレンダリングの不透明度を第1の値に、かつ第3のボリュームレンダリングの不透明度を第2の値に設定することであって、第2のボリュームレンダリングの不透明度は、ユーザ入力アクチュエータの位置に基づいて、第3のボリュームレンダリングの不透明度に対して設定されること、および第1の不透明度値を有する第2のボリュームレンダリングを、第2の不透明度値を有する第3のボリュームレンダリング上に重畳して、第1のボリュームレンダリングを形成することにより第1の伝達関数と第2の伝達関数をブレンドすることによって第1のボリュームレンダリングを生成するように構成される。
[0069]例7:例1〜例6のいずれかのシステム、ここで、プロセッサは、第1の伝達関数の複数のパラメータを第1の複数のパラメータ値に調整することにより第1の伝達関数と第2の伝達関数をブレンドすることによって第1のボリュームレンダリングを生成するように構成され、各パラメータ値は、第2の伝達関数に従って生成されたボリュームレンダリングをさらによく近似する複数のパラメータの1つに対応し、第1のボリュームレンダリングは、第1の複数のパラメータ値による第1の伝達関数に従って生成される。
[0070]例8:例1〜例7のいずれかのシステム、ここで、プロセッサは、ユーザ入力アクチュエータの動きを示すユーザ入力を受け取り、ユーザ入力アクチュエータが移動した後にユーザ入力アクチュエータの位置を決定し、ユーザ入力アクチュエータの位置に基づいて第2のボリュームレンダリングを生成し、かつ第2のボリュームレンダリングをディスプレイに表示するようにさらに構成される。
[0071]例9:例1〜例8のいずれかのシステム、ここで、プロセッサは、第2の伝達関数の複数のパラメータを第1の複数のパラメータ値に調整することにより第1の伝達関数と第2の伝達関数をブレンドすることによって第1のボリュームレンダリングを生成するように構成され、各パラメータ値は、第1の伝達関数に従って生成されたボリュームレンダリングをさらによく近似する複数のパラメータの1つに対応し、第1のボリュームレンダリングは、第1の複数のパラメータ値による第2の伝達関数に基づく。
[0072]例10:例1〜例9のいずれかのシステム、ここで、ユーザ入力アクチュエータは、第4の範囲にわたってさらに移動可能であり、またプロセッサは、ユーザ入力アクチュエータが第4の範囲に位置するとき、第3の伝達関数に従って第1のボリュームレンダリングを生成するようにさらに構成される。
[0073]例11:例1〜例10のいずれかのシステム、ここで、プロセッサは、第1のボリュームレンダリングを表示しながら、ユーザ入力アクチュエータを介してユーザ入力を受け取るようにさらに構成され、ユーザ入力は、ユーザ入力アクチュエータの動きを含む。
[0074]例12:例1〜例11のいずれかのシステム、ここで、第2の範囲は、第1の範囲および第3の範囲のそれぞれよりも大きい。
[0075]例13:ボリュームレンダリングを表示する方法であって、ユーザ入力アクチュエータを介してユーザ入力を受け取るステップであり、ユーザ入力アクチュエータは、第1の範囲、第2の範囲、および第3の範囲にわたって移動可能であり、第2の範囲は、第1の範囲と第3の範囲の間に位置する、ステップと、ユーザ入力に応じてユーザ入力アクチュエータの位置を決定するステップと、ユーザ入力アクチュエータが第1の範囲に位置するとき、第1の伝達関数に従って、第1のボリュームレンダリングを生成するステップと、ユーザ入力アクチュエータが第3の範囲に位置するとき、第2の伝達関数に従って第1のボリュームレンダリングを生成するステップと、ユーザ入力アクチュエータが第2の範囲に位置するとき、第1の伝達関数と第2の伝達関数のブレンドに従って第1のボリュームレンダリングを生成するステップと、第1のボリュームレンダリングをディスプレイに表示するステップとを含む方法。
[0076]例14:例13の方法、ここで、ユーザ入力アクチュエータの位置を決定するステップは、ユーザ入力アクチュエータが、ユーザ入力アクチュエータの第2の範囲の第1の位置に位置するのか、それとも第2の位置なのかを判定するステップを含む。
[0077]例15:例14の方法、ここで、第1の伝達関数と第2の伝達関数のブレンドに従って第1のボリュームレンダリングを生成するステップが、第2の範囲内におけるユーザ入力アクチュエータの位置を決定し、かつ第2の範囲内のユーザ入力アクチュエータの位置に基づき、ブレンドする程度を調整するステップを含む。
[0078]例16:例15の方法、ここで、ブレンドする程度を調整するステップは、ユーザ入力アクチュエータが、第2の範囲に含まれない第1の範囲の近くに位置するとき、主として第1の伝達関数に基づき第1のボリュームレンダリングを生成するステップを含む。
[0079]例17:例15および例16の方法、ここで、第1の伝達関数と第2の伝達関数のブレンドに従って第1のボリュームレンダリングを生成するステップは、第1の伝達関数に従って第2のボリュームレンダリングを生成するステップと、第2の伝達関数に従って第3のボリュームレンダリングを生成するステップと、第2のボリュームレンダリングの不透明度を第1の値に、かつ第3のボリュームレンダリングの不透明度を第2の値に設定するステップであって、第2のボリュームレンダリングの不透明度は、ユーザ入力アクチュエータの位置に基づいて、第3のボリュームレンダリングの不透明度に対して設定される、ステップと、第1の不透明度値を有する第2のボリュームレンダリングを、第2の不透明度値を有する第3のボリュームレンダリング上に重畳して、第1のボリュームレンダリングを形成するステップとを含む。
[0080]例18:例13〜例17のいずれかの方法、ここで、第1の伝達関数と第2の伝達関数のブレンドに従って第1のボリュームレンダリングを生成するステップは、第1の伝達関数のパラメータを、第2の伝達関数をさらによく近似する第1のパラメータ値に調整し、第1のパラメータ値による第1の伝達関数に基づいて第1のボリュームレンダリングを生成するステップを含む。
[0081]例19:例13〜例18のいずれかの方法、ユーザ入力アクチュエータの動きを示す第2のユーザ入力を受け取るステップと、ユーザ入力アクチュエータが移動した後、ユーザ入力アクチュエータの第2の位置を決定するステップと、ユーザ入力アクチュエータの第2の位置に基づいて第2のボリュームレンダリングを生成するステップと、第2のボリュームレンダリングをディスプレイに表示するステップとをさらに含む。
[0082]例20:例13〜例19のいずれかの方法、ここで、第1の伝達関数と第2の伝達関数のブレンドに従って第1のボリュームレンダリングを生成するステップは、第2の伝達関数のパラメータを、第1の伝達関数をさらによく近似する第1のパラメータ値へと調整し、第1のパラメータ値による第2の伝達関数に基づいて第1のボリュームレンダリングを生成するステップを含む。
[0083]例21:例13〜例20のいずれかの方法、ここで、ユーザ入力アクチュエータはまた第4の範囲にわたって移動可能であり、さらにユーザ入力アクチュエータが第4の範囲に位置するとき、第3の伝達関数に基づいて第1のボリュームレンダリングを生成するステップをさらに含む。
[0084]例22:例13〜例21のいずれかの方法、ここで、ユーザ入力を受け取るステップは、第1のボリュームレンダリングを表示しながら、ユーザ入力アクチュエータを介してユーザ入力を受け取るステップを含む。
[0085]したがって本発明は特に、ユーザが、2つの伝達関数をブレンドすることに基づいて容易にボリュームレンダリングを生成できるようにする視覚化システムを提供する。本発明の様々な特徴および利点は、添付の特許請求の範囲に記載される。
10 視覚化システム
14 ディスプレイ
16a ユーザ入力デバイス、キーボード
16b ユーザ入力デバイス、マウス
20 処理ユニット
22 ユーザ入力アクチュエータ、仮想的な直線アクチュエータ、ユーザ入力インジケータ
26 経路
30 位置インジケータ
34 第1の範囲
38 第2の範囲
42 第3の範囲
46 第4の範囲
50 第5の範囲
54 位置
58a〜g 位置
62 位置
66a〜g 位置
70 位置
78 スクロールホイール
82 円形の軌道
86 中心点
90 タッチパッド
100 コントローラ
104 記憶ユニット
108 入力ユニット
112 出力ユニット
116 共通バス、データバス
120 制御ユニット
124 論理演算装置(「ALU」)
128 レジスタ
132 プログラム記憶域
136 データ記憶域
140 位置決定モジュール
144 伝達関数モジュール
148 ボリュームレンダリング生成モジュール
250 表示フィールド
252 グラフィカルユーザインターフェース
253 表示フィールド
254a〜e ドロップダウンメニュー

Claims (22)

  1. ボリューム(volumetric)レンダリングを表示するための視覚化システムであって、
    ディスプレイと、
    第1の範囲、第2の範囲、および第3の範囲にわたって移動可能であるユーザ入力アクチュエータであって、前記第2の範囲が、前記第1の範囲と前記第3の範囲の間に位置する、ユーザ入力アクチュエータと、
    前記ユーザ入力アクチュエータおよび前記ディスプレイに結合されたプロセッサであって、
    前記ユーザ入力アクチュエータが前記第1の範囲に位置するとき、第1の伝達関数(transfer function)に従って第1のボリュームレンダリングを生成し、
    前記ユーザ入力アクチュエータが前記第3の範囲に位置するとき、前記第1の伝達関数とは異なる第2の伝達関数に従って前記第1のボリュームレンダリングを生成し、
    前記ユーザ入力アクチュエータが前記第2の範囲に位置するとき、前記第1の伝達関数と前記第2の伝達関数をブレンドすることにより前記第1のボリュームレンダリングを生成し、かつ
    前記第1のボリュームレンダリングを前記ディスプレイに表示する
    ように構成されたプロセッサと
    を備える視覚化システム。
  2. 前記ディスプレイは、グラフィカルユーザインターフェースを含み、前記ユーザ入力アクチュエータは、グラフィカルユーザインターフェース上に表示される仮想的な直線(linear)アクチュエータを含み、また前記プロセッサは、
    前記仮想的な直線アクチュエータの直線的な平行移動を含むユーザ入力を受け取り、
    前記直線的な平行移動に基づいて前記仮想的な直線アクチュエータの位置を決定し、かつ
    前記仮想的な直線アクチュエータの前記決定された位置に基づいて、前記ユーザ入力アクチュエータが、前記第1の範囲に、前記第2の範囲に、それとも前記第3の範囲に位置するかどうかを判定するようにさらに構成される、請求項1に記載のシステム。
  3. 前記ユーザ入力アクチュエータはユーザ入力デバイスを含み、また前記プロセッサは、前記ユーザ入力デバイスとの物理的なユーザ対話を含むユーザ入力を受け取るように構成される、請求項1に記載のシステム。
  4. 前記第2の範囲は第1の位置および第2の位置を含み、また前記プロセッサは、
    前記第2の範囲内における前記ユーザ入力アクチュエータの位置を決定し、かつ
    前記第2の範囲内における前記ユーザ入力アクチュエータの前記位置に基づいて、前記第1の伝達関数と前記第2の伝達関数をブレンドする程度を調整する
    ように構成される、請求項1に記載のシステム。
  5. 前記第1のボリュームレンダリングは、前記ユーザ入力アクチュエータが、前記第2の範囲内に含まれない前記第1の範囲の近くに位置するとき、主として前記第1の伝達関数に基づいて生成される、請求項4に記載のシステム。
  6. 前記プロセッサは、
    前記第1の伝達関数に従って第2のボリュームレンダリングを生成すること、
    前記第2の伝達関数に従って第3のボリュームレンダリングを生成すること、
    前記第2のボリュームレンダリングの不透明度(opacity)を第1の値に、かつ前記第3のボリュームレンダリングの不透明度を第2の値に設定することであって、前記第2のボリュームレンダリングの前記不透明度は、前記ユーザ入力アクチュエータの位置に基づいて、前記第3のボリュームレンダリングの前記不透明度に対して設定されること、および
    前記第1の不透明度値を有する前記第2のボリュームレンダリングを、前記第2の不透明度値を有する前記第3のボリュームレンダリング上に重畳して(overlaying)、前記第1のボリュームレンダリングを形成すること
    により前記第1の伝達関数と前記第2の伝達関数をブレンドする(blending)ことによって前記第1のボリュームレンダリングを生成するように構成される、請求項1に記載のシステム。
  7. 前記プロセッサは、前記第1の伝達関数の複数のパラメータを第1の複数のパラメータ値に調整することにより前記第1の伝達関数と前記第2の伝達関数をブレンドすることによって前記第1のボリュームレンダリングを生成するように構成され、各パラメータ値は、前記第2の伝達関数に従って生成されたボリュームレンダリングをさらによく近似する複数のパラメータの1つに対応し、前記第1のボリュームレンダリングは、前記第1の複数のパラメータ値による前記第1の伝達関数に従って生成される、請求項1に記載のシステム。
  8. 前記プロセッサは、
    前記ユーザ入力アクチュエータの動きを示すユーザ入力を受け取り、
    前記ユーザ入力アクチュエータが移動した後に前記ユーザ入力アクチュエータの位置を決定し、
    前記ユーザ入力アクチュエータの前記位置に基づいて第2のボリュームレンダリングを生成し、かつ
    前記第2のボリュームレンダリングを前記ディスプレイに表示する
    ようにさらに構成される、請求項1に記載のシステム。
  9. 前記プロセッサは、前記第2の伝達関数の複数のパラメータを第1の複数のパラメータ値に調整することにより前記第1の伝達関数と前記第2の伝達関数をブレンドすることによって前記第1のボリュームレンダリングを生成するように構成され、各パラメータ値は、前記第1の伝達関数に従って生成されたボリュームレンダリングをさらによく近似する複数のパラメータの1つに対応し、前記第1のボリュームレンダリングは、前記第1の複数のパラメータ値による前記第2の伝達関数に基づく、請求項1に記載のシステム。
  10. 前記ユーザ入力アクチュエータは、第4の範囲にわたってさらに移動可能であり、また前記プロセッサは、前記ユーザ入力アクチュエータが前記第4の範囲に位置するとき、第3の伝達関数に従って前記第1のボリュームレンダリングを生成するようにさらに構成される、請求項1に記載のシステム。
  11. 前記プロセッサは、前記第1のボリュームレンダリングを表示しながら、前記ユーザ入力アクチュエータを介してユーザ入力を受け取るようにさらに構成され、前記ユーザ入力は、前記ユーザ入力アクチュエータの動きを含む、請求項1に記載のシステム。
  12. 前記第2の範囲は、前記第1の範囲および前記第3の範囲のそれぞれよりも大きい、請求項1に記載のシステム。
  13. ボリュームレンダリングを表示する方法であって、
    ユーザ入力アクチュエータを介してユーザ入力を受け取るステップであり、前記ユーザ入力アクチュエータは、第1の範囲、第2の範囲、および第3の範囲にわたって移動可能であり、前記第2の範囲は、前記第1の範囲と前記第3の範囲の間に位置する、ステップと、
    前記ユーザ入力に応じて前記ユーザ入力アクチュエータの位置を決定するステップと、
    前記ユーザ入力アクチュエータが前記第1の範囲に位置するとき、第1の伝達関数に従って第1のボリュームレンダリングを生成するステップと、
    前記ユーザ入力アクチュエータが前記第3の範囲に位置するとき、第2の伝達関数に従って前記第1のボリュームレンダリングを生成するステップと、
    前記ユーザ入力アクチュエータが前記第2の範囲に位置するとき、前記第1の伝達関数と前記第2の伝達関数のブレンドに従って前記第1のボリュームレンダリングを生成するステップと、
    前記第1のボリュームレンダリングをディスプレイに表示するステップと
    を含む方法。
  14. 前記ユーザ入力アクチュエータの位置を決定する前記ステップは、前記ユーザ入力アクチュエータが、前記ユーザ入力アクチュエータの前記第2の範囲の第1の位置に位置するのか、それとも第2の位置なのかを判定するステップを含む、請求項13に記載の方法。
  15. 前記第1の伝達関数と前記第2の伝達関数のブレンドに従って前記第1のボリュームレンダリングを生成する前記ステップが、前記第2の範囲内における前記ユーザ入力アクチュエータの位置を決定し、かつ前記第2の範囲内の前記ユーザ入力アクチュエータの前記位置に基づき、ブレンドする程度を調整するステップを含む、請求項14に記載の方法。
  16. ブレンドする程度を調整する前記ステップは、前記ユーザ入力アクチュエータが、前記第2の範囲に含まれない前記第1の範囲の近くに位置するとき、主として前記第1の伝達関数に基づき前記第1のボリュームレンダリングを生成するステップを含む、請求項15に記載の方法。
  17. 前記第1の伝達関数と前記第2の伝達関数の前記ブレンドに従って前記第1のボリュームレンダリングを生成する前記ステップは、
    前記第1の伝達関数に従って第2のボリュームレンダリングを生成するステップと、
    前記第2の伝達関数に従って第3のボリュームレンダリングを生成するステップと、
    前記第2のボリュームレンダリングの不透明度を第1の値に、かつ前記第3のボリュームレンダリングの不透明度を第2の値に設定するステップであって、前記第2のボリュームレンダリングの前記不透明度は、前記ユーザ入力アクチュエータの位置に基づいて、前記第3のボリュームレンダリングの前記不透明度に対して設定される、ステップと、
    前記第1の不透明度値を有する前記第2のボリュームレンダリングを、前記第2の不透明度値を有する前記第3のボリュームレンダリング上に重畳して、前記第1のボリュームレンダリングを形成するステップと
    を含む、請求項15に記載の方法。
  18. 前記第1の伝達関数と前記第2の伝達関数の前記ブレンドに従って前記第1のボリュームレンダリングを生成する前記ステップは、前記第1の伝達関数のパラメータを、前記第2の伝達関数をさらによく近似する第1のパラメータ値に調整し、かつ前記第1のパラメータ値による前記第1の伝達関数に基づいて前記第1のボリュームレンダリングを生成するステップを含む、請求項13に記載の方法。
  19. 前記ユーザ入力アクチュエータの動きを示す第2のユーザ入力を受け取るステップと、
    前記ユーザ入力アクチュエータが移動した後、前記ユーザ入力アクチュエータの第2の位置を決定するステップと、
    前記ユーザ入力アクチュエータの前記第2の位置に基づいて第2のボリュームレンダリングを生成するステップと、
    前記第2のボリュームレンダリングを前記ディスプレイに表示するステップと
    をさらに含む、請求項13に記載の方法。
  20. 前記第1の伝達関数と前記第2の伝達関数の前記ブレンドに従って前記第1のボリュームレンダリングを生成する前記ステップは、前記第2の伝達関数のパラメータを、前記第1の伝達関数をさらによく近似する第1のパラメータ値へと調整し、かつ前記第1のパラメータ値による前記第2の伝達関数に基づいて前記第1のボリュームレンダリングを生成するステップを含む、請求項13に記載の方法。
  21. 前記ユーザ入力アクチュエータはまた第4の範囲にわたって移動可能であり、さらに前記ユーザ入力アクチュエータが前記第4の範囲に位置するとき、第3の伝達関数に基づいて前記第1のボリュームレンダリングを生成するステップをさらに含む、請求項13に記載の方法。
  22. ユーザ入力を受け取る前記ステップは、前記第1のボリュームレンダリングを表示しながら、前記ユーザ入力アクチュエータを介して前記ユーザ入力を受け取るステップを含む、請求項13に記載の方法。
JP2016062981A 2015-04-03 2016-03-28 ボリューム画像を表示するためのシステムおよび方法 Active JP6745623B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/678,636 2015-04-03
US14/678,636 US10062200B2 (en) 2015-04-03 2015-04-03 System and method for displaying volumetric images

Publications (2)

Publication Number Publication Date
JP2016195759A true JP2016195759A (ja) 2016-11-24
JP6745623B2 JP6745623B2 (ja) 2020-08-26

Family

ID=55637250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016062981A Active JP6745623B2 (ja) 2015-04-03 2016-03-28 ボリューム画像を表示するためのシステムおよび方法

Country Status (5)

Country Link
US (1) US10062200B2 (ja)
EP (1) EP3076371A1 (ja)
JP (1) JP6745623B2 (ja)
KR (1) KR102641848B1 (ja)
CN (1) CN106055188B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020506452A (ja) * 2016-11-25 2020-02-27 リー スチュワート,ピン Hmdsに基づく医学画像形成装置
JP2020528804A (ja) * 2017-08-02 2020-10-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療画像の表示

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6655176B2 (ja) 2015-10-06 2020-02-26 セント・ジュード・メディカル,カーディオロジー・ディヴィジョン,インコーポレイテッド 電気生理学的マップを生成するための方法およびシステム
WO2018214063A1 (zh) * 2017-05-24 2018-11-29 深圳迈瑞生物医疗电子股份有限公司 超声设备及其三维超声图像显示方法
CN110211216B (zh) * 2019-06-14 2020-11-03 北京理工大学 一种基于体绘制不透明度加权的三维图像空域融合方法
JP6765583B1 (ja) * 2020-02-14 2020-10-07 三菱電機株式会社 画像処理装置、画像処理プログラム及び画像処理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096986A (ja) * 1995-06-19 1997-01-10 Hitachi Ltd マルチモダリティに対応した3次元画像合成表示装置
JPH10143652A (ja) * 1996-11-14 1998-05-29 Toshiba Iyou Syst Eng Kk 医用画像合成装置
JP2009247502A (ja) * 2008-04-03 2009-10-29 Fujifilm Corp 中間画像生成方法および装置ならびにプログラム
JP2010201044A (ja) * 2009-03-04 2010-09-16 Japan Health Science Foundation 医用画像作成装置
WO2011086774A1 (ja) * 2010-01-18 2011-07-21 株式会社 日立メディコ 超音波診断装置及び超音波画像表示方法
JP2013027433A (ja) * 2011-07-26 2013-02-07 Canon Inc 画像処理装置、画像処理方法
JP2014518139A (ja) * 2011-07-07 2014-07-28 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー ボリューム測定位相コントラストmriによる総合的心血管解析

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2651787B2 (ja) 1993-09-03 1997-09-10 日本アイ・ビー・エム株式会社 対話的ボリューム・レンダリング方法及び装置
US6269196B1 (en) 1998-01-16 2001-07-31 Adobe Systems Incorporated Image blending with interpolated transfer modes including a normal transfer mode
KR100503789B1 (ko) * 2002-03-11 2005-07-26 삼성전자주식회사 렌더링시스템, 렌더링방법 및 그 기록매체
US7355597B2 (en) * 2002-05-06 2008-04-08 Brown University Research Foundation Method, apparatus and computer program product for the interactive rendering of multivalued volume data with layered complementary values
US7417636B2 (en) 2003-05-08 2008-08-26 Siemens Medical Solutions Usa, Inc. Method and apparatus for automatic setting of rendering parameter for virtual endoscopy
CN101052999A (zh) 2004-11-01 2007-10-10 皇家飞利浦电子股份有限公司 对再现的多维数据集的可视化
JP5020823B2 (ja) 2004-11-01 2012-09-05 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ レンダリングされた多次元データセットの視覚化
DE102005024949A1 (de) 2005-05-31 2006-12-07 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren zur Darstellung von Strukturen innerhalb von Volumendatensätzen
TW200806258A (en) 2006-07-19 2008-02-01 Nat Applied Res Lab Nat Ct For High Performance Computing Volume rendering method for medical diagnosis assistant
CN101496061B (zh) 2006-07-31 2016-05-04 皇家飞利浦电子股份有限公司 用于计算交互尺度以修改图像数据集的可视化属性的方法、装置和计算机可读介质
WO2008065586A2 (en) 2006-11-29 2008-06-05 Koninklijke Philips Electronics N.V. Improved manipulation of a transfer function for volume rending
US8355021B2 (en) * 2007-05-17 2013-01-15 Siemens Aktiengesellschaft Fused volume rendering
EP2206091A2 (en) 2007-09-26 2010-07-14 Koninklijke Philips Electronics N.V. Visualization of anatomical data
EP2206092A1 (en) * 2007-11-02 2010-07-14 Koninklijke Philips Electronics N.V. Enhanced coronary viewing
US10152951B2 (en) * 2011-02-28 2018-12-11 Varian Medical Systems International Ag Method and system for interactive control of window/level parameters of multi-image displays
US20120245465A1 (en) * 2011-03-25 2012-09-27 Joger Hansegard Method and system for displaying intersection information on a volumetric ultrasound image
CN103325134A (zh) * 2012-03-23 2013-09-25 天津生态城动漫园投资开发有限公司 一种实时立体动画(2k)创作平台
US9301733B2 (en) * 2012-12-31 2016-04-05 General Electric Company Systems and methods for ultrasound image rendering
US9147378B2 (en) * 2013-04-01 2015-09-29 Adobe Systems Incorporated Color selection interface
JP6321142B2 (ja) * 2013-05-10 2018-05-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 患者の顔に取り付けられた患者インターフェイスデバイスの3dモデリングされた視覚化

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096986A (ja) * 1995-06-19 1997-01-10 Hitachi Ltd マルチモダリティに対応した3次元画像合成表示装置
US5995108A (en) * 1995-06-19 1999-11-30 Hitachi Medical Corporation 3D image composition/display apparatus and composition method based on front-to-back order of plural 2D projected images
JPH10143652A (ja) * 1996-11-14 1998-05-29 Toshiba Iyou Syst Eng Kk 医用画像合成装置
JP2009247502A (ja) * 2008-04-03 2009-10-29 Fujifilm Corp 中間画像生成方法および装置ならびにプログラム
US20110074781A1 (en) * 2008-04-03 2011-03-31 Fujifilm Corporation Intermediate image generation method, apparatus, and program
JP2010201044A (ja) * 2009-03-04 2010-09-16 Japan Health Science Foundation 医用画像作成装置
WO2011086774A1 (ja) * 2010-01-18 2011-07-21 株式会社 日立メディコ 超音波診断装置及び超音波画像表示方法
CN102711625A (zh) * 2010-01-18 2012-10-03 株式会社日立医疗器械 超声波诊断装置以及超声波图像显示方法
JP2014518139A (ja) * 2011-07-07 2014-07-28 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー ボリューム測定位相コントラストmriによる総合的心血管解析
JP2013027433A (ja) * 2011-07-26 2013-02-07 Canon Inc 画像処理装置、画像処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020506452A (ja) * 2016-11-25 2020-02-27 リー スチュワート,ピン Hmdsに基づく医学画像形成装置
JP2020528804A (ja) * 2017-08-02 2020-10-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医療画像の表示
JP7296941B2 (ja) 2017-08-02 2023-06-23 コーニンクレッカ フィリップス エヌ ヴェ 医療画像の表示

Also Published As

Publication number Publication date
CN106055188B (zh) 2021-11-09
EP3076371A1 (en) 2016-10-05
US20160292912A1 (en) 2016-10-06
US10062200B2 (en) 2018-08-28
KR20160118954A (ko) 2016-10-12
KR102641848B1 (ko) 2024-02-27
JP6745623B2 (ja) 2020-08-26
CN106055188A (zh) 2016-10-26

Similar Documents

Publication Publication Date Title
JP6745623B2 (ja) ボリューム画像を表示するためのシステムおよび方法
US10909168B2 (en) Database systems and interactive user interfaces for dynamic interaction with, and review of, digital medical image data
JP4820680B2 (ja) 医用画像表示装置
US8199168B2 (en) System and method for 3D graphical prescription of a medical imaging volume
JP4130457B2 (ja) 画像処理方法および画像処理プログラム
US20020032375A1 (en) Method and system for visualizing a body volume and computer program product
CN104050711B (zh) 医用图像处理装置以及医用图像处理方法
KR101731593B1 (ko) 깊이 변경에 따라 내부 구조를 디스플레이 하는 영상 디스플레이
JP6886448B2 (ja) アブレーションゾーンのシミュレーションおよび可視化のためのデバイス、システムおよび方法
CN112740285A (zh) 在虚拟环境中对医学图像的叠加和操纵
JP6632248B2 (ja) 医用画像表示装置、医用画像表示システム、医用画像表示方法、およびプログラム
US10324582B2 (en) Medical image display apparatus, method for controlling the same
JP5398791B2 (ja) 医用画像表示装置
JP6426144B2 (ja) 医療システムに対する聴覚に関する機能強化
US10548570B2 (en) Medical image navigation system
KR101925058B1 (ko) 초음파 장치의 버튼의 기능을 버튼에 디스플레이하는 방법 및 장치
KR102138922B1 (ko) 보철물 설계 시 컨택 방향 설정 인터페이스를 이용한 보철물의 주변치와의 컨택 거리 표시방법 및 이를 수행하는 보철 캐드 장치
JP6096473B2 (ja) 医用画像診断装置、および、医用画像処理方法
JP2014050465A (ja) 画像処理装置及び関心領域設定方法
US20240065801A1 (en) Dedicated form for use with corresponding electroanatomical maps
TWM547152U (zh) 醫學影像建模設備
WO2022004898A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020000863A (ja) 医用画像処理システム、医用画像処理方法および医用画像処理プログラム
WO2022248502A2 (en) Method and system for interactively rendering digital dental models
JP2008029703A (ja) 三次元画像表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190124

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200804

R150 Certificate of patent or registration of utility model

Ref document number: 6745623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250