JP2014090807A - Medical image diagnostic apparatus and medical image processing method - Google Patents

Medical image diagnostic apparatus and medical image processing method Download PDF

Info

Publication number
JP2014090807A
JP2014090807A JP2012242076A JP2012242076A JP2014090807A JP 2014090807 A JP2014090807 A JP 2014090807A JP 2012242076 A JP2012242076 A JP 2012242076A JP 2012242076 A JP2012242076 A JP 2012242076A JP 2014090807 A JP2014090807 A JP 2014090807A
Authority
JP
Japan
Prior art keywords
unit
region
area
transparency
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012242076A
Other languages
Japanese (ja)
Other versions
JP6096473B2 (en
Inventor
Tomoya Okazaki
智也 岡崎
Satoyuki Takeguchi
智行 武口
Reiko Noda
玲子 野田
Satoshi Ito
聡 伊藤
Tomohiro Nakai
友弘 中居
Nobuyuki Matsumoto
信幸 松本
Yuki Watanabe
友樹 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2012242076A priority Critical patent/JP6096473B2/en
Publication of JP2014090807A publication Critical patent/JP2014090807A/en
Application granted granted Critical
Publication of JP6096473B2 publication Critical patent/JP6096473B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a medical image diagnostic apparatus capable of reducing a visual axis movement and an operation of a user when setting a degree of transparency of each area included in volume data, and to provide a medical image processing method.SOLUTION: The medical image diagnostic apparatus includes a first designation unit, a setup unit, and a first display control unit. The first designation unit, according to an input by an operation of an input unit, designates a position in a three-dimensional image displayed on a display unit that displays the three-dimensional image as a rendering result of volume data including a first area and a second area covering at least a part of the first area. The setup unit variably sets a degree of transparency of the second area according to movement of the position designated by the first designation unit. The first display control unit executes the rendering of the volume data on the basis of the degree of transparency set by the setup unit and executes a control for displaying the three-dimensional image obtained by the rendering, on a display unit.

Description

本発明の実施形態は、医用画像診断装置、および、医用画像処理方法に関する。   Embodiments described herein relate generally to a medical image diagnostic apparatus and a medical image processing method.

3次元CT画像などのボリュームデータをボリュームレンダリング表示する方法において、関心領域とその周囲の領域との空間的な関係を把握するために、それら領域の透明度を制御する手段を具備するCT画像診断装置が知られている。   In a method for volume rendering display of volume data such as a three-dimensional CT image, a CT image diagnostic apparatus comprising means for controlling transparency of regions of interest in order to grasp a spatial relationship between a region of interest and its surrounding region It has been known.

従来のCT画像診断装置では、重なり合った複数の領域を観察する場合に、それぞれの領域ごとに透明度を設定することができる。例えば複数の領域の空間的な関係の把握を容易にするために、観察したい領域は透明度を下げ、観察したくない領域は透明度を上げるように設定することもできる。   In the conventional CT image diagnostic apparatus, when observing a plurality of overlapping regions, the transparency can be set for each region. For example, in order to easily grasp the spatial relationship between a plurality of regions, the transparency can be set for the region to be observed, and the transparency can be set for the region not to be observed.

特開2000−287964号公報JP 2000-287964 A

しかしながら、従来技術では、それぞれの領域ごとに透明度のパラメータを設定するための設定画面(ウィンドウ)が、レンダリングされた画像とは別に表示され、ユーザは、レンダリングされた画像と設定画面とを交互に見ながら、それぞれの領域ごとに透明度のパラメータを設定する操作を行う必要がある。すなわち、透明度のパラメータを設定する際に、レンダリングされた画像と、設定画面との間で視線の移動が多く発生するという問題がある。   However, in the prior art, a setting screen (window) for setting the transparency parameter for each region is displayed separately from the rendered image, and the user alternately displays the rendered image and the setting screen. While watching, it is necessary to perform an operation for setting a transparency parameter for each region. That is, when setting the transparency parameter, there is a problem that the line of sight often moves between the rendered image and the setting screen.

また、従来技術では、透明度のパラメータを設定する操作に加えて、設定画面を呼び出す操作等も必要になるため、ユーザによる操作が多く必要になるという問題もある。   In addition, in the prior art, in addition to an operation for setting a transparency parameter, an operation for calling a setting screen or the like is also required, so that there is a problem that many operations by a user are required.

本発明が解決しようとする課題は、ボリュームデータに含まれる各領域の透明度を設定する際のユーザの視線移動および操作を少なくすることが可能な医用画像診断装置、および、医用画像処理方法を提供することである。   The problem to be solved by the present invention is to provide a medical image diagnostic apparatus and a medical image processing method that can reduce the movement and operation of the line of sight of the user when setting the transparency of each region included in the volume data It is to be.

実施形態の医用画像診断装置は、第1指定部と設定部と第1表示制御部とを備える。第1指定部は、入力部の操作による入力に応じて、第1領域と、第1領域の少なくとも一部を覆う第2領域とを含むボリュームデータのレンダリング結果である3次元画像を表示する表示部に表示された3次元画像内の位置を指定する。設定部は、第1指定部により指定された位置の移動に応じて、第2領域の透明度を可変に設定する。第1表示制御部は、設定部により設定された透明度に基づいて、ボリュームデータのレンダリングを行い、当該レンダリングにより得られた3次元画像を表示部に表示する制御を行う。   The medical image diagnostic apparatus according to the embodiment includes a first designation unit, a setting unit, and a first display control unit. The first designation unit displays a three-dimensional image that is a rendering result of volume data including a first region and a second region that covers at least a part of the first region in response to an input by an operation of the input unit. The position in the three-dimensional image displayed on the part is designated. The setting unit variably sets the transparency of the second region in accordance with the movement of the position designated by the first designation unit. The first display control unit performs control of rendering volume data based on the transparency set by the setting unit and displaying a three-dimensional image obtained by the rendering on the display unit.

実施形態の医用画像診断装置の構成例を示す図。The figure which shows the structural example of the medical image diagnostic apparatus of embodiment. 実施形態のボリュームデータの一例を説明するための図。The figure for demonstrating an example of the volume data of embodiment. 実施形態の画像表示装置の構成例を示す図。1 is a diagram illustrating a configuration example of an image display device according to an embodiment. 実施形態の画像処理部の機能構成例を示す図。FIG. 3 is a diagram illustrating a functional configuration example of an image processing unit according to the embodiment. 実施形態の設定部の機能の概要を説明するための図。The figure for demonstrating the outline | summary of the function of the setting part of embodiment. 実施形態の画像処理部の機能を説明するための図。The figure for demonstrating the function of the image process part of embodiment. 実施形態の画像処理部の機能を説明するための図。The figure for demonstrating the function of the image process part of embodiment. 実施形態の第2領域決定処理の一例を示すフローチャート。The flowchart which shows an example of the 2nd area | region determination process of embodiment. 実施形態の第2領域の決定方法の一例を説明するための図。The figure for demonstrating an example of the determination method of the 2nd area | region of embodiment. 実施形態の透明度制御処理の一例を示すフローチャート。The flowchart which shows an example of the transparency control processing of embodiment. 変形例の設定部の機能を説明するための図。The figure for demonstrating the function of the setting part of a modification. 変形例の第2領域の決定方法を説明するための図。The figure for demonstrating the determination method of the 2nd area | region of a modification. 変形例の第2領域の決定方法を説明するための図。The figure for demonstrating the determination method of the 2nd area | region of a modification. 変形例の報知画像の一例を示す図。The figure which shows an example of the alerting | reporting image of a modification. 変形例の報知画像の一例を示す図。The figure which shows an example of the alerting | reporting image of a modification. 変形例の設定部の機能を説明するための図。The figure for demonstrating the function of the setting part of a modification. 別の実施形態の画像処理部の機能構成例を示す図。The figure which shows the function structural example of the image process part of another embodiment. 別の実施形態の変形例の画像処理部の機能構成例を示す図。The figure which shows the function structural example of the image process part of the modification of another embodiment.

以下、添付図面を参照しながら、本発明に係る医用画像診断装置、および、医用画像処理方法の実施の形態を詳細に説明する。   Hereinafter, embodiments of a medical image diagnostic apparatus and a medical image processing method according to the present invention will be described in detail with reference to the accompanying drawings.

(第1実施形態)
図1は、本実施形態の医用画像診断装置1の構成例を示すブロック図である。図1に示すように、医用画像診断装置1は、医用画像診断部10と、画像保管部20と、画像表示部30とを備える。図1に例示する各部は、バス2を介して、互いに通信可能な状態となっており、各部は、医用画像等を相互に送受信することが可能である。また、各部の接続態様は任意であり、例えば各部は、病院内に設置されたLAN(Local Area Network)を介して、相互に通信可能な形態であってもよい。また、例えば各部は、インターネット等のネットワークを介して、相互に通信可能な形態であってもよい。
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of a medical image diagnostic apparatus 1 according to the present embodiment. As shown in FIG. 1, the medical image diagnostic apparatus 1 includes a medical image diagnostic unit 10, an image storage unit 20, and an image display unit 30. 1 are communicable with each other via the bus 2 and can transmit and receive medical images and the like to each other. Moreover, the connection mode of each part is arbitrary, For example, each part may be a form which can mutually communicate via LAN (Local Area Network) installed in the hospital. Further, for example, the units may be in a form that can communicate with each other via a network such as the Internet.

医用画像診断装置1は、医用画像診断部10により生成された医用画像のボリュームデータをボリュームレンダリングして得られる画像(以下、「3次元画像」と呼ぶ)をモニタ(表示部)に表示することで、立体的に見える医用画像を、病院内に勤務する医師や患者に提供する。以下、医用画像診断装置1の各部を説明する。   The medical image diagnostic apparatus 1 displays an image (hereinafter referred to as “three-dimensional image”) obtained by volume rendering of volume data of a medical image generated by the medical image diagnostic unit 10 on a monitor (display unit). Thus, medical images that appear stereoscopically are provided to doctors and patients working in the hospital. Hereinafter, each part of the medical image diagnostic apparatus 1 will be described.

医用画像診断部10は、被検体を撮影することによりボリュームデータを生成する。ここでは、図2に示すように、被検体の体軸方向に沿って撮影された複数(例えば300〜500枚)のスライス画像が、ボリュームデータに相当する。図2の例では、被検体の「肺」のボリュームデータが生成されている。また、医用画像診断部10により生成されたボリュームデータの中には、骨・血管・神経・腫瘍などといった、医療現場での観察対象となる物体を示すオブジェクトが含まれる。   The medical image diagnostic unit 10 generates volume data by imaging a subject. Here, as shown in FIG. 2, a plurality of (eg, 300 to 500) slice images taken along the body axis direction of the subject correspond to volume data. In the example of FIG. 2, volume data of “lung” of the subject is generated. Further, the volume data generated by the medical image diagnostic unit 10 includes an object indicating an object to be observed in a medical field, such as a bone, blood vessel, nerve, or tumor.

医用画像診断部10としては、例えば、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置等が挙げられるが、以下の説明では、医用画像診断部10は、X線CT装置で構成される場合を例に挙げて説明する。つまり、各スライス画像は、X線CT画像であり、X線CT画像に含まれる複数の画素の各々は、X線の吸収率を示すCT値を持つ。CT値の単位としては、「空気」を−1000HU、「水」を0HUと定義したHU(Hounsfield Unit)という単位を利用する。   Examples of the medical image diagnostic unit 10 include an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, and an ultrasonic diagnostic apparatus. In the following description, medical image diagnosis is performed. The unit 10 will be described by taking as an example a case where it is configured by an X-ray CT apparatus. That is, each slice image is an X-ray CT image, and each of a plurality of pixels included in the X-ray CT image has a CT value indicating an X-ray absorption rate. As a unit of CT value, a unit called HU (Hounsfield Unit) in which “air” is defined as −1000 HU and “water” is defined as 0 HU is used.

画像保管部20は、医用画像を保管するデータベースである。具体的には、画像保管部20は、医用画像診断部10から送信されたボリュームデータを格納し、これを保管する。   The image storage unit 20 is a database that stores medical images. Specifically, the image storage unit 20 stores the volume data transmitted from the medical image diagnostic unit 10 and stores it.

画像表示部30は、医用画像診断部10により生成されたボリュームデータをボリュームレンダリングして得られる3次元画像を生成して表示する。図3は、画像表示部30の構成例を示すブロック図である。図3に示すように、画像表示部30は、画像処理部40と表示部50とを備える。画像処理部40は、ボリュームデータをボリュームレンダリングして3次元画像を生成し、生成した3次元画像を表示部50に表示する制御を行う。詳細な内容については後述する。表示部50は、画像処理部40により生成された3次元画像を表示するディスプレイ装置である。   The image display unit 30 generates and displays a three-dimensional image obtained by volume rendering the volume data generated by the medical image diagnostic unit 10. FIG. 3 is a block diagram illustrating a configuration example of the image display unit 30. As shown in FIG. 3, the image display unit 30 includes an image processing unit 40 and a display unit 50. The image processing unit 40 performs volume rendering of the volume data to generate a three-dimensional image, and performs control to display the generated three-dimensional image on the display unit 50. Detailed contents will be described later. The display unit 50 is a display device that displays the three-dimensional image generated by the image processing unit 40.

図4は、画像処理部40の機能構成例を示すブロック図である。図4に示すように、画像処理部40は、取得部41と、記憶部42と、領域決定部43と、設定部44と、第1表示制御部45と、受付部46と、第1指定部47と、決定部48とを有する。   FIG. 4 is a block diagram illustrating a functional configuration example of the image processing unit 40. As shown in FIG. 4, the image processing unit 40 includes an acquisition unit 41, a storage unit 42, an area determination unit 43, a setting unit 44, a first display control unit 45, a reception unit 46, and a first designation. A unit 47 and a determination unit 48.

取得部41は、画像保管部20にアクセスして、医用画像診断部10によって生成されたボリュームデータを取得する。なお、例えば画像保管部20が設けられずに、医用画像診断部10内に、生成したボリュームデータを格納するメモリが設けられていてもよい。この場合は、取得部41は、医用画像診断部10にアクセスしてボリュームデータを取得する。要するに、取得部41は、医用画像診断部10により生成されたボリュームデータを取得する機能を有するものであればよい。   The acquisition unit 41 accesses the image storage unit 20 and acquires the volume data generated by the medical image diagnostic unit 10. For example, the medical image diagnostic unit 10 may be provided with a memory for storing the generated volume data without providing the image storage unit 20. In this case, the acquisition unit 41 accesses the medical image diagnostic unit 10 and acquires volume data. In short, the acquisition unit 41 only needs to have a function of acquiring volume data generated by the medical image diagnostic unit 10.

記憶部42は、取得部41により取得されたボリュームデータを記憶する。領域決定部43は、取得部41により取得されたボリュームデータを構成する複数のスライス画像(CT画像)の各々に含まれる画素のCT値に基づいて、ボリュームデータに含まれる複数の領域を決定する。例えばCT値の閾値処理によって、スライス画像の各画素が属する領域を決定することもできる。より具体的には、CT画像では、空気は−1000HU、肺の領域は−900〜−700HU、胸壁、心臓、血管などは0付近のCT値を持つ。また、塊状の病変を示す結節に含まれるソリッド領域は−500〜0HU、GGO領域は−800〜−300HU、空気領域は−1000〜−600HUに分類できる。例えばGGO領域の下限閾値を−800HU、上限閾値を−300HUとすれば、−800〜−300HUの範囲のCT値を持つ画素は、GGO領域に属すると決定することができる。   The storage unit 42 stores the volume data acquired by the acquisition unit 41. The region determination unit 43 determines a plurality of regions included in the volume data based on the CT values of the pixels included in each of the plurality of slice images (CT images) constituting the volume data acquired by the acquisition unit 41. . For example, the region to which each pixel of the slice image belongs can also be determined by CT value threshold processing. More specifically, in the CT image, the air has a CT value of −1000 HU, the lung region has a value of −900 to −700 HU, and the chest wall, heart, blood vessel, and the like have a CT value of around zero. In addition, solid regions included in nodules showing massive lesions can be classified as -500 to 0HU, GGO regions can be classified as -800 to -300HU, and air regions can be classified as -1000 to -600HU. For example, if the lower limit threshold value of the GGO region is −800 HU and the upper limit threshold value is −300 HU, a pixel having a CT value in the range of −800 to −300 HU can be determined to belong to the GGO region.

本実施形態では、領域の種類と、CT値の範囲とが予め対応付けられたテーブルが不図示のメモリに格納されている。そして、領域決定部43は、各スライス画像の画素ごとに、当該画素のCT値に対応する領域をテーブルから読み出し、読み出した領域を、当該画素が属する領域として決定する。このようにして、領域決定部43は、ボリュームデータに含まれる複数の領域を決定する。見方を変えれば、領域決定部43は、各スライス画像に含まれる複数の画素の各々のCT値に基づいて、ボリュームデータを複数の領域に分割していると捉えることもできる。なお、より高度な分割方法として、領域拡張法やLevel Set法などを用いることもできる。   In the present embodiment, a table in which the type of region and the CT value range are associated in advance is stored in a memory (not shown). Then, for each pixel of each slice image, the region determination unit 43 reads a region corresponding to the CT value of the pixel from the table, and determines the read region as a region to which the pixel belongs. In this way, the area determination unit 43 determines a plurality of areas included in the volume data. In other words, the region determination unit 43 can also be regarded as dividing the volume data into a plurality of regions based on the CT values of the plurality of pixels included in each slice image. As a more advanced division method, a region expansion method, a Level Set method, or the like can be used.

設定部44は、領域決定部43により決定されたボリュームデータ内の領域ごとに、色情報および透明度を設定する。この例では、領域の種類と、色情報および透明度の各々を示す設定情報(デフォルトの設定情報)とが予め対応付けられたテーブルが不図示のメモリに格納されている。そして、設定部44は、領域決定部43により決定されたボリュームデータ内の領域ごとに、当該領域に対応する設定情報(デフォルトの設定情報)をテーブルから読み出し、読み出した設定情報が示す色情報および透明度を、当該領域に対して設定する。この設定をデフォルトの設定と呼ぶ。また、後述するように、設定部44は、デフォルトの設定を行った後、ボリュームデータに含まれる特定の領域(第2領域)の透明度を可変に設定する機能を有する。設定部44による設定が行われたボリュームデータは、ボリュームレンダリングの対象データとして記憶部42に格納される。   The setting unit 44 sets color information and transparency for each region in the volume data determined by the region determining unit 43. In this example, a table in which the type of region and setting information (default setting information) indicating each of color information and transparency is associated in advance is stored in a memory (not shown). Then, for each region in the volume data determined by the region determining unit 43, the setting unit 44 reads setting information (default setting information) corresponding to the region from the table, and the color information indicated by the read setting information and Transparency is set for the area. This setting is called the default setting. As will be described later, the setting unit 44 has a function of variably setting the transparency of a specific area (second area) included in the volume data after performing the default setting. The volume data set by the setting unit 44 is stored in the storage unit 42 as target data for volume rendering.

第1表示制御部45は、設定部44による設定が行われたボリュームデータのボリュームレンダリングを行い、当該ボリュームレンダリングにより得られた3次元画像を表示部50に表示する制御を行う。より具体的には以下のとおりである。表示部50は、複数の画素がマトリクス状に配列されたパネルを有しており、第1表示制御部45は、レイキャスティングによってボリュームデータのレンダリングを行い、パネル内の画素ごとに、当該画素の画素値(輝度値)を算出する。レイキャスティングとは、観察側の視点から光線を追跡し、光線とボリュームデータとの各交点における色情報(光線と各ボクセルとの交点における色情報)を、各交点の透明度に基づいて積算することで、その光線の先にあるパネルの画素の画素値を決定するレンダリング法である。   The first display control unit 45 performs volume rendering of the volume data set by the setting unit 44 and performs control to display the three-dimensional image obtained by the volume rendering on the display unit 50. More specifically, it is as follows. The display unit 50 has a panel in which a plurality of pixels are arranged in a matrix, and the first display control unit 45 performs volume data rendering by ray casting, and for each pixel in the panel, A pixel value (luminance value) is calculated. Raycasting is to trace a ray from the viewpoint on the observation side, and to add up the color information at each intersection between the ray and volume data (color information at the intersection between the ray and each voxel) based on the transparency of each intersection. In this rendering method, the pixel value of the pixel of the panel ahead of the ray is determined.

受付部46は、指示入力を行うためのポインティングデバイス(入力部)の操作による入力を受け付ける。例えばユーザは、マウスの操作により、表示部50に表示されるマウスカーソル(ポインタ)を移動させることで、表示部50に表示された3次元画像内の位置を指示する情報を入力することができ、受付部46は、この入力(3次元画像内の位置を指示する情報)を受け付けるという具合である。なお、ここでは、ポインティングデバイスのひとつであるマウスが利用される例を挙げて説明するが、指示入力を行うための入力部の種類はこれに限られるものではない。   The accepting unit 46 accepts an input by operating a pointing device (input unit) for inputting an instruction. For example, the user can input information indicating the position in the three-dimensional image displayed on the display unit 50 by moving the mouse cursor (pointer) displayed on the display unit 50 by operating the mouse. The receiving unit 46 receives this input (information indicating the position in the three-dimensional image). Here, an example in which a mouse, which is one of pointing devices, is used will be described. However, the type of input unit for inputting an instruction is not limited to this.

第1指定部47は、受付部46で受け付けた入力に応じて、表示部50に表示された3次元画像内の位置を指定する。つまり、第1指定部47は、マウス(入力部の一例)の操作による入力に応じて、表示部50に表示された3次元画像内の位置を指定する機能を有する。   The first designation unit 47 designates a position in the three-dimensional image displayed on the display unit 50 in accordance with the input received by the reception unit 46. That is, the first designation unit 47 has a function of designating a position in the three-dimensional image displayed on the display unit 50 in response to an input by operating a mouse (an example of an input unit).

決定部48は、マウスの操作による入力に応じて、設定部44による透明度制御の対象となる領域を示す第2領域を決定する機能を有する。本実施形態では、第2領域が未決定の状態において、ユーザは、表示部50に表示されたデフォルトの3次元画像を見ながら、第2領域として設定したい領域内の任意の位置にマウスカーソルを移動させてマウスをクリックする操作を行う。そして、このクリック操作による入力を受付部47で受け付けた場合、決定部48は、その時点で第1指定部47により指定された位置を含む領域を、第2領域として決定する。   The determination unit 48 has a function of determining a second region indicating a region that is a target of transparency control by the setting unit 44 in accordance with an input by an operation of the mouse. In the present embodiment, in a state where the second area has not been determined, the user can move the mouse cursor to an arbitrary position in the area to be set as the second area while viewing the default three-dimensional image displayed on the display unit 50. Move and click the mouse. When the input by the click operation is received by the receiving unit 47, the determining unit 48 determines the region including the position specified by the first specifying unit 47 at that time as the second region.

なお、決定部48は、未だ第2領域が決定されていない状態においてのみ、上記の決定処理を行い、第2領域が決定された後は、上記の決定処理は行わない。また、例えばユーザが、第2領域として設定したい領域内の任意の位置にマウスカーソルを移動させてマウスをクリックする操作を行ったときに、その時点で第1指定部47により指定された位置を含む領域が複数(例えば2つ)存在する場合は、決定部48は、複数の領域のうち、ある領域の少なくとも一部を覆う上側の領域を、第2領域として決定することができる。   Note that the determination unit 48 performs the determination process only in a state where the second area has not yet been determined, and does not perform the determination process after the second area is determined. Also, for example, when the user performs an operation of moving the mouse cursor to an arbitrary position in the area to be set as the second area and clicking the mouse, the position designated by the first designation unit 47 at that time is selected. When there are a plurality of (for example, two) regions to include, the determination unit 48 can determine, as the second region, an upper region that covers at least a part of a certain region among the plurality of regions.

ここで、前述の設定部44は、決定部48によって第2領域が決定された後、第1指定部47により指定された位置の移動(経時的変化)に応じて、第2領域の透明度を可変に設定する。より具体的には、図5に示すように、設定部44は、ユーザのマウス操作に応じて移動するマウスカーソルが、3次元画像内の第2領域に近づく場合(第1指定部47により指定された位置が第2領域に近づく場合)は、第2領域が透明に近くなるように第2領域の透明度を増加させる一方、マウスカーソルが第2領域から遠ざかる場合(第1指定部47により指定された位置が第2領域から遠ざかる場合)は、第2領域が不透明に近くなるように第2領域の透明度を減少させる。なお、以下の説明では、ボリュームデータに含まれる各領域のうち、第2領域によって少なくとも一部が覆われる領域を第1領域と呼ぶ。図5においては、ボリュームデータ内の肺結節に含まれるソリッド(Solid)領域が第1領域であり、肺結節に含まれるととともにソリッド領域の周囲を覆うGGO(Ground Glass Opacity)領域が第2領域である場合を例示している。   Here, after the second region is determined by the determining unit 48, the setting unit 44 described above sets the transparency of the second region in accordance with the movement of the position specified by the first specifying unit 47 (change over time). Set to variable. More specifically, as illustrated in FIG. 5, the setting unit 44 specifies that the mouse cursor that moves in response to the user's mouse operation approaches the second region in the three-dimensional image (specified by the first specifying unit 47). When the position is closer to the second area), the transparency of the second area is increased so that the second area becomes closer to transparency, while the mouse cursor moves away from the second area (designated by the first designation unit 47). When the position is moved away from the second area), the transparency of the second area is decreased so that the second area becomes almost opaque. In the following description, an area that is at least partially covered by the second area among the areas included in the volume data is referred to as a first area. In FIG. 5, the solid region included in the lung nodule in the volume data is the first region, and the GGO (Ground Glass Opacity) region that is included in the lung nodule and covers the periphery of the solid region is the second region. The case where it is is illustrated.

なお、第1指定部47により指定された位置が第2領域に近づいているか否かの判断方法は任意である。例えば第1指定部47により指定された位置と、第2領域の位置(例えば第2領域の重心位置であってもよいし、第2領域の周縁のうち第1指定部47により指定された位置との最近接点であってもよい)との間の距離の経時的変化が減少方向である場合は、第1指定部47により指定された位置が第2領域に近づいていると判断することもできる。   Note that a method for determining whether or not the position designated by the first designation unit 47 is approaching the second region is arbitrary. For example, the position specified by the first specifying unit 47 and the position of the second area (for example, the position of the center of gravity of the second area, or the position specified by the first specifying part 47 in the periphery of the second area) May be determined that the position designated by the first designation unit 47 is approaching the second region when the change with time in the direction of decrease is in the decreasing direction. it can.

同様に、第1指定部47により指定された位置が第2領域から遠ざかっているか否かの判断方法も任意である。例えば第1指定部47により指定された位置と、第2領域の位置との間の距離の経時的変化が増加方向である場合は、第1指定部47により指定された位置が第2領域から遠ざかっていると判断することもできる。   Similarly, a method for determining whether or not the position designated by the first designation unit 47 is away from the second region is also arbitrary. For example, when the time-dependent change in the distance between the position specified by the first specifying unit 47 and the position of the second region is an increasing direction, the position specified by the first specifying unit 47 is changed from the second region. You can also determine that you are away.

また、例えば設定部44は、第1指定部47により指定された位置と、第2領域を示す位置との距離に応じて、第2領域の透明度を可変に設定することもできる。例えば設定部44は、第1指定部47により指定された位置と、第2領域を示す位置との間の距離が小さいほど、第2領域の透明度をデフォルトの透明度から増加させる一方、第1指定部47により指定された位置と第2領域を示す位置との間の距離が大きいほど、第2領域の透明度をデフォルトの透明度から減少させることもできる。   For example, the setting unit 44 can also variably set the transparency of the second region according to the distance between the position designated by the first designation unit 47 and the position indicating the second region. For example, the setting unit 44 increases the transparency of the second region from the default transparency as the distance between the position specified by the first specifying unit 47 and the position indicating the second region is smaller. As the distance between the position designated by the unit 47 and the position indicating the second area is larger, the transparency of the second area can be decreased from the default transparency.

以上のように、設定部44は、第1指定部47により指定された3次元画像内の位置の移動(経時的変化)に応じて、第2領域の透明度を可変に設定する。そして、第1表示制御部45は、設定部44により設定された第2領域の透明度に基づいて、ボリュームデータのレンダリング(上述のボリュームレンダリング)を行い、当該レンダリングにより得られた3次元画像を表示部50に表示する制御を行う。すなわち、設定部44による第2領域の透明度の変更設定が行われるたびに、第1表示制御部45は、変更設定が行われたボリュームデータのボリュームレンダリングを行い、当該ボリュームレンダリングにより得られた3次元画像を表示部50に表示する制御を行う。   As described above, the setting unit 44 variably sets the transparency of the second region in accordance with the movement (change with time) of the position in the three-dimensional image designated by the first designation unit 47. Then, the first display control unit 45 performs volume data rendering (the volume rendering described above) based on the transparency of the second region set by the setting unit 44, and displays a three-dimensional image obtained by the rendering. Control to be displayed on the unit 50 is performed. In other words, each time the setting change of the transparency of the second region is performed by the setting unit 44, the first display control unit 45 performs volume rendering of the volume data for which the change setting has been performed, and 3 obtained by the volume rendering. Control to display the dimensional image on the display unit 50 is performed.

例えば、上述の第2領域が決定された後、ユーザが、マウスカーソルを第2領域に近づける操作を行う場合を想定する。この例では、上述の第2領域が決定された後、ユーザが、デフォルトの3次元画像内の任意の位置にマウスカーソルを移動させてマウスのボタンを押す操作(クリック操作でもよい)を行うと、設定部44は、その時点で第1指定部47により指定された位置を、透明度制御の始点に設定するが、これに限られるものではない。図6の例では、位置a0が、透明度制御の始点となる。   For example, it is assumed that the user performs an operation of bringing the mouse cursor closer to the second area after the above-described second area is determined. In this example, after the above-described second region is determined, the user performs an operation of moving the mouse cursor to an arbitrary position in the default three-dimensional image and pressing a mouse button (or a click operation). The setting unit 44 sets the position designated by the first designation unit 47 at that time as the starting point of the transparency control, but is not limited thereto. In the example of FIG. 6, the position a0 is the starting point for transparency control.

図6の例では、第1指定部47により指定された位置は、第2領域に近づいていく。前述したように、設定部44は、第1指定部47により指定された位置が3次元画像内の第2領域に近づく場合は、第2領域が透明に近くなるように第2領域の透明度をデフォルトの透明度から増加させるので、図6に示すように、表示部50に表示された3次元画像内の第2領域は透明に近い状態で表示される。図6においては、図5の場合と同様に、ボリュームデータ内の肺結節に含まれるソリッド(Solid)領域が第1領域であり、肺結節に含まれるとともにソリッド領域の周囲を覆うGGO(Ground Glass Opacity)領域が第2領域である場合を例示している。   In the example of FIG. 6, the position designated by the first designation unit 47 approaches the second area. As described above, when the position designated by the first designation unit 47 approaches the second region in the three-dimensional image, the setting unit 44 sets the transparency of the second region so that the second region is close to transparency. Since the default transparency is increased, as shown in FIG. 6, the second region in the three-dimensional image displayed on the display unit 50 is displayed in a state close to transparency. In FIG. 6, as in FIG. 5, the solid region included in the lung nodule in the volume data is the first region, and is included in the lung nodule and covers the periphery of the solid region. The case where the (Opacity) area is the second area is illustrated.

一方、上述の第2領域が決定された後、例えばユーザが、マウスカーソルを第2領域から遠ざける操作を行う場合を想定する。この場合、図7に示すように、第1指定部47により指定された位置は、第2領域から遠ざかる。前述したように、設定部44は、第1指定部47により指定された位置が3次元画像内の第2領域から遠ざかる場合は、第2領域が不透明に近くなるように第2領域の透明度をデフォルトの透明度から減少させるので、図7に示すように、表示部50に表示された3次元画像内の第2領域は不透明に近い状態で表示される。図7においては、図5の場合と同様に、ボリュームデータ内の肺結節に含まれるソリッド(Solid)領域が第1領域であり、肺結節に含まれるとともにソリッド領域の周囲を覆うGGO(Ground Glass Opacity)領域が第2領域である場合を例示している。   On the other hand, it is assumed that, after the above-described second area is determined, for example, the user performs an operation of moving the mouse cursor away from the second area. In this case, as shown in FIG. 7, the position designated by the first designation unit 47 moves away from the second region. As described above, when the position designated by the first designation unit 47 moves away from the second area in the three-dimensional image, the setting unit 44 sets the transparency of the second area so that the second area becomes almost opaque. Since the transparency is decreased from the default transparency, as shown in FIG. 7, the second region in the three-dimensional image displayed on the display unit 50 is displayed in a nearly opaque state. In FIG. 7, as in FIG. 5, the solid region included in the lung nodule in the volume data is the first region, and is included in the lung nodule and covers the periphery of the solid region. The case where the (Opacity) area is the second area is illustrated.

次に、本実施形態の画像処理部40の動作例を説明する。最初に、第2領域を決定する処理(第2領域決定処理)について説明する。図8は、第2領域決定処理の一例を示すフローチャートである。   Next, an operation example of the image processing unit 40 of the present embodiment will be described. First, the process for determining the second area (second area determination process) will be described. FIG. 8 is a flowchart illustrating an example of the second area determination process.

図8に示すように、まず取得部41は、医用画像診断部10により生成されたボリュームデータを取得する(ステップS1)。ここでは、ボリュームデータは、肺結節(腫瘍)を含み、肺結節は、ソリッド(Solid)領域と、ソリッド領域の周囲を覆うGGO(Ground Glass Opacity)領域とを含む場合を例に挙げて説明するが、これに限られるものではない。   As shown in FIG. 8, the acquisition unit 41 first acquires volume data generated by the medical image diagnostic unit 10 (step S1). Here, the volume data includes a pulmonary nodule (tumor), and the pulmonary nodule will be described as an example including a solid region and a GGO (Ground Glass Opacity) region covering the periphery of the solid region. However, it is not limited to this.

次に、領域決定部43は、ステップS1で取得されたボリュームデータを構成する複数のスライス画像に含まれる複数の画素の各々のCT値に基づいて、当該ボリュームデータに含まれる各領域を決定する(ステップS2)。次に、設定部44は、領域決定部43により決定されたボリュームデータ内の領域ごとに、当該領域に対応するデフォルトの設定情報が示す色情報および透明度を設定する(ステップS3)。つまり、各領域の色情報および透明度はデフォルト値に設定される。次に、第1表示制御部45は、デフォルトの設定が行われたボリュームデータのレンダリング(ボリュームレンダリング)を行い、デフォルトの3次元画像を生成する(ステップS4)。次に、第1表示制御部45は、生成したデフォルトの3次元画像を表示部50に表示する制御を行う(ステップS5)。   Next, the region determination unit 43 determines each region included in the volume data based on the CT values of the plurality of pixels included in the plurality of slice images constituting the volume data acquired in step S1. (Step S2). Next, the setting unit 44 sets, for each region in the volume data determined by the region determining unit 43, color information and transparency indicated by default setting information corresponding to the region (step S3). That is, the color information and transparency of each area are set to default values. Next, the first display control unit 45 performs rendering (volume rendering) of the volume data for which default setting has been performed, and generates a default three-dimensional image (step S4). Next, the first display control unit 45 performs control to display the generated default three-dimensional image on the display unit 50 (step S5).

次に、マウスのクリック操作による入力を受付部46で受け付けた場合(ステップS6:YES)、第1指定部47は、デフォルトの3次元画像のうち、その時点で第1指定部により指定された位置を含む領域を第2領域として決定する(ステップS7)。   Next, when the input by the click operation of the mouse is received by the receiving unit 46 (step S6: YES), the first specifying unit 47 is specified by the first specifying unit at that time in the default three-dimensional image. An area including the position is determined as the second area (step S7).

例えばユーザが、デフォルトの3次元画像を見ながらマウスを操作して、デフォルトの3次元画像内のGGO領域内の任意の位置にマウスカーソルを移動させてマウスのクリック操作を行った場合を想定する。この場合、決定部48は、デフォルトの3次元画像のうち、その時点で第1指定部47により指定された位置を含むGGO領域を第2領域として決定する。   For example, it is assumed that the user operates the mouse while viewing the default 3D image, moves the mouse cursor to an arbitrary position in the GGO area in the default 3D image, and performs a mouse click operation. . In this case, the determination unit 48 determines a GGO region including the position designated by the first designation unit 47 at that time in the default three-dimensional image as the second region.

なお、これに限らず、第2領域の決定方法は任意である。例えば設定部44による透明度制御の対象となる第2領域が予め設定されていてもよい。   However, the present invention is not limited to this, and the method for determining the second region is arbitrary. For example, a second region that is subject to transparency control by the setting unit 44 may be set in advance.

また、例えばデフォルトの3次元画像が表示部50に表示される前の段階において、図9に示すように、第2領域の候補となる複数種類の領域ごとに、対応するアイコンが表示部50の画面上に表示されていて、ユーザが、表示部50に表示されたアイコンをマウスやタッチ操作で選択するといった方法が考えられる。図9の例では、「ソリッド領域」に対応するアイコン101、「GGO領域」に対応するアイコン102、「骨」に対応するアイコン103、「血管」に対応するアイコン104、「神経」に対応するアイコン105が表示部50に表示されるが、第2領域の候補となる領域の種類や数は任意に変更可能である。決定部48は、ユーザによって選択されたアイコンに対応する領域を第2領域として決定する。そして、決定部48は、第2領域として決定した領域を示す情報を、領域決定部43へ出力する。これにより、領域決定部43は、ボリュームデータに含まれる各領域を決定する際に、どの領域が第2領域になるのかを把握することができる。   Further, for example, before the default three-dimensional image is displayed on the display unit 50, as shown in FIG. 9, corresponding icons are displayed on the display unit 50 for a plurality of types of regions that are candidates for the second region. A method is conceivable in which the user selects an icon displayed on the screen and displayed on the display unit 50 with a mouse or a touch operation. In the example of FIG. 9, an icon 101 corresponding to “solid region”, an icon 102 corresponding to “GGO region”, an icon 103 corresponding to “bone”, an icon 104 corresponding to “blood vessel”, and “nerve”. The icon 105 is displayed on the display unit 50, but the type and number of regions that are candidates for the second region can be arbitrarily changed. The determination unit 48 determines an area corresponding to the icon selected by the user as the second area. Then, the determination unit 48 outputs information indicating the region determined as the second region to the region determination unit 43. Thereby, the area determining unit 43 can grasp which area is the second area when determining each area included in the volume data.

画像処理部40は、以上の第2領域決定処理の後に、第2領域の透明度を制御する処理(透明度制御処理)を行う。図10は、透明度制御処理の一例を示すフローチャートである。以下、図10を参照しながら、透明度制御処理の具体的な内容を説明する。設定部44は、第1指定部47により指定された3次元画像内の位置の移動(経時的変化)に応じて、決定部48により決定された第2領域の透明度を可変に設定する(ステップS10)。前述したように、例えばユーザが、マウスカーソルを第2領域に近づける操作を行うと、第1指定部47により指定された位置は、第2領域に近づいていく(図6参照)。この場合、設定部44は、第1指定部47により指定された位置が、デフォルトの3次元画像内の第2領域に近づく場合は、第2領域が透明に近くなるように第2領域の透明度をデフォルトの透明度から増加させる。   The image processing unit 40 performs processing (transparency control processing) for controlling the transparency of the second region after the second region determination processing described above. FIG. 10 is a flowchart illustrating an example of the transparency control process. Hereinafter, specific contents of the transparency control process will be described with reference to FIG. The setting unit 44 variably sets the transparency of the second region determined by the determination unit 48 in accordance with the movement (change with time) of the position in the three-dimensional image specified by the first specifying unit 47 (Step S44). S10). As described above, for example, when the user performs an operation of bringing the mouse cursor closer to the second area, the position designated by the first designation unit 47 approaches the second area (see FIG. 6). In this case, when the position designated by the first designation unit 47 approaches the second region in the default three-dimensional image, the setting unit 44 sets the transparency of the second region so that the second region is close to transparency. Increase from the default transparency.

次に、第1表示制御部45は、設定部44により設定された第2領域の透明度に基づいて、ボリュームデータのボリュームレンダリングを行い、3次元画像を生成し直す(ステップS11)。次に、第1表示制御部45は、生成し直した3次元画像を表示部50に表示する制御を行う(ステップS12)。   Next, the first display control unit 45 performs volume rendering of the volume data based on the transparency of the second area set by the setting unit 44, and regenerates a three-dimensional image (step S11). Next, the first display control unit 45 performs control to display the regenerated three-dimensional image on the display unit 50 (step S12).

以上に説明したように、本実施形態では、ユーザのマウス操作による入力に応じて指定された3次元画像内の位置(第1指定部47により指定された位置)の移動に応じて、3次元画像内の第2領域の透明度を変化させるので、従来のように、透明度を設定するための設定画面(ウィンドウ)を3次元画像とは別に表示する必要は無い上、3次元画像と、別の設定画面とを交互に見ながら透明度を設定する従来の構成に比べて、ユーザの視線移動を少なくすることができる。また、別の設定画面を呼び出す操作を行う必要も無いので、少ない操作で透明度を設定できる。すなわち、本実施形態によれば、透明度制御の対象となる第2領域(例えば上述のGGO領域)と、第2領域によって少なくとも一部が覆われた第1領域(例えば上述のソリッド領域)との空間的な関係をユーザが確認しやすい3次元画像を、少ない視線移動・ユーザ操作で提供することが可能になる。   As described above, in the present embodiment, three-dimensionally according to the movement of the position (the position designated by the first designation unit 47) in the three-dimensional image designated according to the input by the user's mouse operation. Since the transparency of the second region in the image is changed, there is no need to display a setting screen (window) for setting the transparency separately from the 3D image as in the prior art. Compared to the conventional configuration in which the transparency is set while alternately viewing the setting screen, the user's line-of-sight movement can be reduced. In addition, since there is no need to call another setting screen, the transparency can be set with a small number of operations. That is, according to the present embodiment, the second region (for example, the above-mentioned GGO region) to be subject to transparency control and the first region (for example, the above-described solid region) at least partially covered by the second region. It is possible to provide a three-dimensional image in which the user can easily confirm the spatial relationship with a small amount of line-of-sight movement and user operation.

(第1実施形態の変形例1)
上述の透明度制御処理において、例えば設定部44は、第2領域の輪郭部分(周縁部分)の透明度を、第2領域のうち輪郭部分以外の部分に比べて不透明に近くなるように設定することもできる。例えば設定部44は、第2領域の輪郭部分の透明度は変化させない(デフォルトの透明度のままとする)形態であってもよい。
(Modification 1 of the first embodiment)
In the above-described transparency control process, for example, the setting unit 44 may set the transparency of the contour portion (peripheral portion) of the second region so that it is more opaque than the portion of the second region other than the contour portion. it can. For example, the setting unit 44 may have a form in which the transparency of the contour portion of the second region is not changed (the default transparency is maintained).

いま、上述の第2領域が決定された後、例えばユーザが、マウスカーソルを第2領域に近づける操作を行う場合を想定する。この場合、図11に示すように、第1指定部47により指定された位置は、第2領域に近づいていく(図11に示す位置a0は透明度制御の始点を指す)。この例では、設定部44は、第1指定部47により指定された位置が3次元画像内の第2領域に近づく場合は、第2領域が透明に近くなるように第2領域の透明度をデフォルトの透明度から増加させる一方、第2領域の輪郭部分の透明度はデフォルトの透明度に設定するので、図11に示すように、表示部50に表示された3次元画像内の第2領域の輪郭部分以外の部分は透明に近い状態で表示され、第2領域の輪郭部分は、第2領域の輪郭部分以外の部分に比べて不透明に近い状態で表示される。これにより、ユーザは、現在、3次元画像内のどの領域が透明度制御の対象であるかを容易に把握することができる。なお、この例では、第2領域の輪郭部分の透明度をデフォルトの透明度に維持する例を挙げて説明したが、これに限られるものではなく、例えば第2領域の輪郭部分の透明度を、デフォルトの透明度から減少させる(さらに不透明に近くする)形態であってもよい。   Now, assume that, after the above-described second area is determined, for example, the user performs an operation of bringing the mouse cursor closer to the second area. In this case, as shown in FIG. 11, the position designated by the first designation unit 47 approaches the second region (position a0 shown in FIG. 11 indicates the starting point of transparency control). In this example, the setting unit 44 defaults the transparency of the second region so that the second region is close to transparency when the position specified by the first specifying unit 47 approaches the second region in the three-dimensional image. Since the transparency of the contour portion of the second region is set to the default transparency, the contour portion of the second region is not the contour portion of the second region in the three-dimensional image displayed on the display unit 50, as shown in FIG. Is displayed in a state close to transparency, and the contour portion of the second region is displayed in a state close to opaque compared to portions other than the contour portion of the second region. As a result, the user can easily grasp which region in the three-dimensional image is currently subject to transparency control. In this example, the example in which the transparency of the contour portion of the second region is maintained at the default transparency has been described. However, the present invention is not limited to this. For example, the transparency of the contour portion of the second region is set to the default transparency. It may be in the form of decreasing from transparency (and making it more opaque).

(第1実施形態の変形例2)
例えば透明度制御の対象である第2領域の透明度が閾値以上になった場合、ユーザは、その第2領域によって少なくとも一部が覆われている領域(第1領域)を明瞭に認識することができる。このとき、ユーザが、第2領域と第1領域とが重なった部分にマウスカーソルを移動させて、マウスをクリックする操作を行うと、決定部48は、その時点で第1指定部47により指定された位置を含む2つの領域(第1領域、第2領域)のうち、第2領域の下側に存在する第1領域を、透明度制御の対象である第2領域として新たに決定することもできる。
(Modification 2 of the first embodiment)
For example, when the transparency of the second area that is the object of transparency control is equal to or greater than the threshold, the user can clearly recognize an area (first area) at least partially covered by the second area. . At this time, when the user moves the mouse cursor to a portion where the second region and the first region overlap and performs an operation of clicking the mouse, the determination unit 48 specifies the first specification unit 47 at that time. Of the two regions (first region and second region) including the determined position, the first region existing below the second region may be newly determined as the second region to be subject to transparency control. it can.

要するに、設定部44により第2領域の透明度が閾値以上に設定された後、第1指定部47により、3次元画像内の第2領域と第1領域とが重なり合う領域内の位置が指定された場合、第2領域の下側に存在する第1領域を、透明度を可変に設定する対象である第2領域として新たに決定する決定部を備える形態であってもよい。   In short, after the setting unit 44 sets the transparency of the second region to be equal to or greater than the threshold, the first specification unit 47 specifies the position in the region where the second region and the first region overlap in the three-dimensional image. In this case, the first region existing below the second region may be provided with a determination unit that newly determines the second region that is a target for variably setting the transparency.

いま、上述の第2領域が決定された後、例えばユーザが、マウスカーソルを第2領域に近づける操作を行う場合を想定する。この場合、図12に示すように、第1指定部47により指定された位置は、第2領域に近づいていく(図12に示す位置a0は透明度制御の始点を指す)。前述したように、設定部44は、第1指定部47により指定された位置が3次元画像内の第2領域に近づく場合は、第2領域が透明に近くなるように第2領域の透明度をデフォルトの透明度から増加させるので、図12に示すように、3次元画像内の第2領域は透明に近い状態で表示される。図12の例では、第1指定部47により指定された3次元画像内の位置が、a0からa1に到達した場合、第2領域の透明度は閾値以上の値に設定される。このとき、図13に示すように、ユーザが、第2領域と第1領域とが重なった部分にマウスカーソルを移動させて、マウスをクリックする操作を行った場合、第2領域の下側に存在する第1領域が、透明度の制御対象である第2領域として新たに決定されるという具合である。   Now, assume that, after the above-described second area is determined, for example, the user performs an operation of bringing the mouse cursor closer to the second area. In this case, as shown in FIG. 12, the position designated by the first designation unit 47 approaches the second region (position a0 shown in FIG. 12 indicates the starting point of transparency control). As described above, when the position designated by the first designation unit 47 approaches the second region in the three-dimensional image, the setting unit 44 sets the transparency of the second region so that the second region is close to transparency. Since the default transparency is increased, the second region in the three-dimensional image is displayed in a state close to transparency as shown in FIG. In the example of FIG. 12, when the position in the three-dimensional image designated by the first designation unit 47 reaches a1 from a0, the transparency of the second region is set to a value equal to or greater than the threshold value. At this time, as shown in FIG. 13, when the user moves the mouse cursor to a portion where the second region and the first region overlap and performs an operation of clicking the mouse, That is, the existing first area is newly determined as the second area that is the object of transparency control.

(第1実施形態の変形例3)
例えば図14に示すように、3次元画像に含まれる各領域の現在の透明度を示す画像(以下、「報知画像」と呼ぶ)を表示部50に表示する形態であってもよい。説明の便宜上、図14の例では、肺結節に含まれるソリッド領域とGGO領域のみを表示しているが、これに限られるものではない。また、各領域の現在の透明度を表示する形態についても任意であり、図14の例のように数値を表示する形態であってもよいし、透明度のレベルを表現可能なゲージや棒グラフなどを用いて各領域の透明度を表示する形態であってもよい。
(Modification 3 of the first embodiment)
For example, as shown in FIG. 14, an image indicating the current transparency of each region included in the three-dimensional image (hereinafter referred to as “notification image”) may be displayed on the display unit 50. For convenience of explanation, in the example of FIG. 14, only the solid area and GGO area included in the lung nodule are displayed, but the present invention is not limited to this. Also, the form of displaying the current transparency of each area is arbitrary, and a form of displaying a numerical value as in the example of FIG. 14 may be used, or a gauge or bar graph that can express the level of transparency is used. The transparency of each area may be displayed.

また、ユーザが、現在、透明度制御の対象である領域(第2領域)を容易に認識できるように、報知画像のうち、透明度制御の対象である領域に対応する部分を明示して表示することもできる。図15の例では、報知画像のうち、透明度制御の対象である領域(図15の例ではGGO領域)に対応する部分を黄色の線で囲んで、透明度を示す数値を赤色で表示しているが、これに限られるものではない。例えば報知画像のうち、透明度制御の対象である領域に対応する部分を点滅させる表示を行ってもよいし、フォント等を変更して当該部分を強調する表示を行ってもよい。   In addition, in order for the user to easily recognize the region (second region) that is currently subject to transparency control, a portion corresponding to the region that is subject to transparency control is clearly displayed in the notification image. You can also. In the example of FIG. 15, a portion corresponding to a region that is a target of transparency control (GGO region in the example of FIG. 15) in the notification image is surrounded by a yellow line, and a numerical value indicating transparency is displayed in red. However, it is not limited to this. For example, in the notification image, a display that blinks a portion corresponding to a region that is a target of transparency control may be performed, or a display that emphasizes the portion by changing a font or the like may be performed.

また、報知画像に限らず、例えば表示部50に表示された3次元画像のうち、透明度制御の対象となる第2領域を明示して表示する形態であってもよい。例えば3次元画像内の第2領域全体を点滅させる表示を行ってもよいし、第2領域の輪郭部分を高階調の色で強調する表示を行ってもよい。   Moreover, not only a notification image but the form which displays explicitly the 2nd area | region used as the object of transparency control among the three-dimensional images displayed on the display part 50, for example may be sufficient. For example, the display of blinking the entire second area in the three-dimensional image may be performed, or the display of emphasizing the outline portion of the second area with a high gradation color may be performed.

(第1実施形態の変形例4)
上述の実施形態では、設定部44は、第1指定部47により指定された位置が3次元画像内の第2領域に近づく場合は、第2領域が透明に近くなるように第2領域の透明度を増加させる一方、第1指定部47により指定された位置が3次元画像内の第2領域から遠ざかる場合は、第2領域が不透明に近くなるように第2領域の透明度を減少させているが、これに限られるものではない。
(Modification 4 of the first embodiment)
In the above-described embodiment, when the position designated by the first designation unit 47 approaches the second region in the three-dimensional image, the setting unit 44 sets the transparency of the second region so that the second region is close to transparency. On the other hand, when the position designated by the first designation unit 47 moves away from the second area in the three-dimensional image, the transparency of the second area is reduced so that the second area becomes almost opaque. However, it is not limited to this.

例えば、上記とは反対に、第1指定部47により指定された位置が3次元画像内の第2領域に近づく場合は、第2領域が不透明に近くなるように第2領域の透明度を減少させる一方、第1指定部47により指定された位置が3次元画像内の第2領域から遠ざかる場合は、第2領域が透明に近くなるように第2領域の透明度を増加させてもよい。   For example, contrary to the above, when the position designated by the first designation unit 47 approaches the second area in the three-dimensional image, the transparency of the second area is decreased so that the second area becomes almost opaque. On the other hand, when the position designated by the first designation unit 47 moves away from the second area in the three-dimensional image, the transparency of the second area may be increased so that the second area becomes close to transparency.

要するに、設定部44は、第1指定部47により指定された位置と第2領域との位置関係の変化(経時的変化)に応じて、第2領域の透明度を可変に設定することができる。   In short, the setting unit 44 can variably set the transparency of the second region in accordance with a change (temporal change) in the positional relationship between the position specified by the first specifying unit 47 and the second region.

また、例えば図16(a)に示すように、第1指定部47により指定された位置が反時計回りの方向に移動する場合は、第2領域が透明に近くなるように第2領域の透明度を増加させる一方、例えば図16(b)に示すように、第1指定部47により指定された位置が時計回りの方向に移動する場合は、第2領域が不透明に近くなるように第2領域の透明度を減少させることもできるし、反対であってもよい。   Also, for example, as shown in FIG. 16A, when the position designated by the first designation unit 47 moves in the counterclockwise direction, the transparency of the second area is set so that the second area becomes nearly transparent. 16B, for example, as shown in FIG. 16B, when the position designated by the first designation unit 47 moves in the clockwise direction, the second area is set so that the second area becomes almost opaque. The transparency of can be reduced or vice versa.

要するに、設定部44は、第1指定部47により指定された位置が第1方向に移動する場合は、第2領域が透明に近くなるように第2領域の透明度を増加させる一方、第1指定部47により指定された位置が第1方向とは異なる第2方向に移動する場合は、第2領域が不透明に近くなるように第2領域の透明度を減少させることもできる。第1方向および第2方向の各々については任意に変更可能である。   In short, when the position designated by the first designation unit 47 moves in the first direction, the setting unit 44 increases the transparency of the second area so that the second area becomes almost transparent, while the first designation When the position specified by the unit 47 moves in a second direction different from the first direction, the transparency of the second area can be reduced so that the second area becomes almost opaque. Each of the first direction and the second direction can be arbitrarily changed.

(第1実施形態の変形例5)
例えばマウスの代わりに、ポインタの並進3自由度(X,Y,Z)とスタイラスの姿勢3自由度(θx,θy,θz)を読み取り、3自由度の並進力Ftrasと3自由度の回転力(Tx,Ty,tz)の計6自由度の力覚が出力可能な力覚デバイスを、入力部として利用することもできる。例えばユーザが、仮想平面の法線方向(奥行き方向)にスタイラスを押すと、その押し込む速度に応じた反力が、ユーザが持つスタイラスに返されるが、スタイラスの先端を、3次元画像内の所定の位置に対応させ、当該所定の位置の奥行き方向の移動に応じて、第2領域の透明度を可変に設定する形態であってもよい。より具体的には、スタイラスを押し込む速度に応じて、スタイラスに返される反力は大きくなるが、例えば反力が大きいほど、つまり、奥行き方向の移動速度が早いほど第2領域の透明度を増加させる一方、反力が小さいほど、つまり、奥行き方向の移動速度が小さいほど第2領域の透明度を減少させることもできるし、反対であってもよい。
(Modification 5 of the first embodiment)
For example, instead of a mouse, it reads three translational degrees of freedom (X, Y, Z) of the pointer and three degrees of freedom (θx, θy, θz) of the stylus, and translates Ftras with 3 degrees of freedom and rotational force with 3 degrees of freedom A force sense device capable of outputting a force sense with a total of six degrees of freedom (Tx, Ty, tz) can also be used as the input unit. For example, when the user presses the stylus in the normal direction (depth direction) of the virtual plane, a reaction force corresponding to the pressing speed is returned to the stylus held by the user. The transparency of the second region may be variably set according to the movement of the predetermined position in the depth direction. More specifically, the reaction force returned to the stylus increases according to the speed at which the stylus is pushed. For example, the greater the reaction force, that is, the faster the moving speed in the depth direction, the greater the transparency of the second region. On the other hand, the smaller the reaction force, that is, the smaller the moving speed in the depth direction, the more the transparency of the second region can be decreased, or vice versa.

要するに、入力部の操作による入力に応じて指定された3次元画像内の位置(指定位置)の移動に応じて、第2領域の透明度が可変に設定される形態であればよい。指定位置の移動に応じて、第2領域の透明度が可変に設定されるという概念には、上述の実施形態のように指定位置と第2領域との位置関係の変化に応じて透明度が変化する態様も含まれるし、上記変形例4のように指定位置の移動方向に応じて透明度の増減方向が決まり、その移動量に比例して透明度が変化する態様も含まれるし、上記変形例5のように指定位置の奥行き方向の移動速度に応じて透明度が変化する態様も含まれる。   In short, what is necessary is just a form in which the transparency of the second region is variably set according to the movement of the position (designated position) in the three-dimensional image designated according to the input by the operation of the input unit. According to the concept that the transparency of the second area is variably set according to the movement of the designated position, the transparency changes according to the change in the positional relationship between the designated position and the second area as in the above-described embodiment. A mode is also included, and a mode of increasing or decreasing the transparency is determined according to the moving direction of the designated position as in the above-described modification 4, and a mode in which the transparency changes in proportion to the movement amount is also included. Thus, a mode in which the transparency changes according to the moving speed of the designated position in the depth direction is also included.

(第2実施形態)
次に、第2実施形態について説明する。第2実施形態では、ユーザのマウス操作による入力に応じて指定されたスライス画像内の位置を含む領域を第2領域として決定する点で上述の第1実施形態と相違する。以下、具体的な内容を説明する。なお、上述の第1実施形態と共通する部分については適宜に説明を省略する。
(Second Embodiment)
Next, a second embodiment will be described. The second embodiment is different from the above-described first embodiment in that an area including a position in a slice image designated in accordance with an input by a user's mouse operation is determined as the second area. Specific contents will be described below. Note that description of portions common to the above-described first embodiment is omitted as appropriate.

図17は、第2実施形態の画像処理部400の機能構成例を示すブロック図である。第2実施形態の画像処理部400は、上述の決定部48が設けられずに、第2表示制御部401と、第2指定部402と、第2決定部403とさらに備える点で上述の第1実施形態と相違する。以下、具体的に説明する。   FIG. 17 is a block diagram illustrating a functional configuration example of the image processing unit 400 according to the second embodiment. The image processing unit 400 according to the second embodiment includes the second display control unit 401, the second designation unit 402, and the second determination unit 403 without the determination unit 48 described above, and the above-described first processing unit 400. This is different from the first embodiment. This will be specifically described below.

第2表示制御部401は、取得部41により取得されたボリュームデータに含まれる少なくとも1つの断面画像を表示する制御を行う。本実施形態では、第2表示制御部401は、デフォルトの3次元画像が表示部50に表示される前に、取得部41により取得されたボシュームデータを構成する複数のスライス画像のうちの何れか1つを表示部50に表示する制御を行うが、これに限られるものではない。例えば第2表示制御部401は、2枚以上のスライス画像を表示部50に表示する制御を行うこともできる。また、例えば第2表示制御部401は、表示部50のうちデフォルトの3次元画像が表示される領域とは別の領域に、少なくとも1つのスライス画像をデフォルトの3次元画像と同時に表示する制御を行うこともできるし、表示部50とは別のモニタに少なくとも1つのスライス画像を表示する制御を行うこともできる。また、例えば第2表示制御部401は、ボリュームデータの任意の断面におけるMPR(Multi Planar Reconstruction)画像を表示する制御を行うこともできる。   The second display control unit 401 performs control to display at least one cross-sectional image included in the volume data acquired by the acquisition unit 41. In the present embodiment, the second display control unit 401 selects any one of a plurality of slice images constituting the bosom data acquired by the acquisition unit 41 before the default three-dimensional image is displayed on the display unit 50. One of them is displayed on the display unit 50, but the present invention is not limited to this. For example, the second display control unit 401 can perform control to display two or more slice images on the display unit 50. Further, for example, the second display control unit 401 performs control to display at least one slice image at the same time as the default three-dimensional image in a region different from the region where the default three-dimensional image is displayed in the display unit 50. It is also possible to perform control, or control to display at least one slice image on a monitor different from the display unit 50 can be performed. In addition, for example, the second display control unit 401 can perform control to display an MPR (Multi Planar Reconstruction) image in an arbitrary cross section of the volume data.

第2指定部402は、ユーザのマウス操作による入力に応じて、第2表示制御部401により表示されたスライス画像内の位置を指定する。そして、第2決定部403は、第2表示制御部401により表示されたスライス画像のうち、第2指定部402により指定された位置を含む領域を、透明度制御の対象となる第2領域によって少なくとも一部が覆われる第1領域として決定する。本実施形態では、第2決定部403により第1領域が決定された場合、第2表示制御部401は、スライス画像を非表示にする制御を行うが(次に、デフォルトの3次元画像の表示が行われるため)、表示部50のうち3次元画像が表示される領域とは別の領域にスライス画像が表示される形態や表示部50とは別のモニタにスライス画像が表示される形態においては、スライス画像を表示し続けてもよい。   The second designation unit 402 designates a position in the slice image displayed by the second display control unit 401 in response to an input by a user's mouse operation. Then, the second determining unit 403 includes at least a region including the position specified by the second specifying unit 402 in the slice image displayed by the second display control unit 401 by the second region to be subject to transparency control. This is determined as the first region that is partially covered. In the present embodiment, when the first region is determined by the second determination unit 403, the second display control unit 401 performs control to hide the slice image (next, display of a default three-dimensional image) In the form in which the slice image is displayed in a different area from the area in which the three-dimensional image is displayed in the display unit 50 or in the form in which the slice image is displayed on a monitor different from the display unit 50 May continue to display slice images.

第2決定部403は、第1領域として決定した領域を示す情報(例えば当該領域のCT値の範囲を示す情報)を、領域決定部43へ出力する。これにより、領域決定部43は、取得部41により取得されたボリュームデータに含まれる各領域を決定する際に、どの領域が第1領域であるかを把握することができる。そして、領域決定部43は、ボリュームデータに含まれる複数の領域のうち、第2決定部403により決定された第1領域の少なくとも一部を覆う領域を第2領域として決定する。つまり、本実施形態では、領域決定部43は、請求項の「第3決定部」に対応していると捉えることができる。   The second determining unit 403 outputs information indicating the region determined as the first region (for example, information indicating the CT value range of the region) to the region determining unit 43. Thereby, the area determination unit 43 can grasp which area is the first area when determining each area included in the volume data acquired by the acquisition unit 41. Then, the region determination unit 43 determines, as a second region, a region that covers at least a part of the first region determined by the second determination unit 403 among the plurality of regions included in the volume data. That is, in the present embodiment, the region determination unit 43 can be regarded as corresponding to the “third determination unit” in the claims.

領域決定部43による第2領域の決定が行われた後、設定部44は、領域決定部43により決定されたボリュームデータ内の領域ごとに、当該領域に対応するデフォルトの設定情報が示す色情報および透明度を、当該領域に対して設定する(デフォルトの設定を行う)。そして、第1表示制御部45は、設定部44によるデフォルトの設定が行われたボリュームデータのボリュームレンダリングを行い、当該ボリュームレンダリングにより得られた3次元画像を表示部50に表示する制御を行う。その後、上述の透明度制御処理が行われるが、透明度制御処理の内容は第1実施形態と同様であるので、詳細な説明は省略する。   After the determination of the second area by the area determination unit 43, the setting unit 44 displays color information indicated by default setting information corresponding to the area for each area in the volume data determined by the area determination unit 43. Then, the transparency is set for the area (default setting is performed). Then, the first display control unit 45 performs volume rendering of the volume data for which default setting has been performed by the setting unit 44, and performs control for displaying the three-dimensional image obtained by the volume rendering on the display unit 50. Thereafter, the above-described transparency control process is performed. The details of the transparency control process are the same as those in the first embodiment, and thus detailed description thereof is omitted.

(第2実施形態の変形例)
図18は、第2実施形態の変形例の画像処理部410の機能構成例を示すブロック図である。図18に示すように、画像処理部410は、上述の第2決定部403の代わりに第4決定部411を備える点で上述の第2実施形態と相違する。なお、領域決定部43は、第2領域を決定する機能を有していない点でも上述の第2実施形態と相違する。
(Modification of the second embodiment)
FIG. 18 is a block diagram illustrating a functional configuration example of an image processing unit 410 according to a modification of the second embodiment. As illustrated in FIG. 18, the image processing unit 410 is different from the above-described second embodiment in that it includes a fourth determining unit 411 instead of the above-described second determining unit 403. Note that the region determining unit 43 is different from the above-described second embodiment in that it does not have a function of determining the second region.

第4決定部411は、第2表示制御部401により表示されたスライス画像のうち、第2指定部402により指定された位置を含む領域を、透明度制御の対象となる第2領域として決定する。そして、第4決定部411は、第2領域として決定した領域を示す情報(例えば当該領域のCT値の範囲を示す情報)を、領域決定部43へ出力する。これにより、領域決定部43は、取得部41により取得されたボリュームデータに含まれる各領域を決定する際に、どの領域が第2領域であるかを把握することができる。その後、デフォルトの3次元画像が表示された後、上述の透明度制御処理が行われる。なお、これに限らず、例えばスライス画像とデフォルトの3次元画像が同時に表示されている場合は、第4決定部411により第2領域が決定された後、上述の透明度制御処理が行われる。   The fourth determining unit 411 determines an area including the position specified by the second specifying unit 402 in the slice image displayed by the second display control unit 401 as the second area to be subject to transparency control. Then, the fourth determination unit 411 outputs information indicating the region determined as the second region (for example, information indicating the CT value range of the region) to the region determination unit 43. Thereby, the area determination unit 43 can grasp which area is the second area when determining each area included in the volume data acquired by the acquisition unit 41. Thereafter, after the default three-dimensional image is displayed, the above-described transparency control process is performed. For example, when a slice image and a default three-dimensional image are displayed at the same time, after the second area is determined by the fourth determination unit 411, the above-described transparency control process is performed.

以上、本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, this embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

上述の各実施形態および変形例の画像処理部(40,400,410)は、CPU(Central Processing Unit)、ROM、RAM、および、通信I/F装置などを含んだハードウェア構成となっている。上述した各部(取得部41、領域決定部43、設定部44、第1表示制御部45、受付部46、第1指定部47、決定部48、第2表示制御部401、第2指定部402、第2決定部403、第4決定部411)の機能は、CPUがROMに格納されたプログラムをRAM上で展開して実行することにより実現される。また、これに限らず、上述した各部の機能のうちの少なくとも一部を個別の回路(ハードウェア)で実現することもできる。なお、上述の記憶部42は、ROMやRAMなどの記憶装置により実現される。上述の各実施形態および変形例の画像処理部(40,400,410)は、請求項の「画像処理装置」に対応する。   The image processing units (40, 400, 410) of the above-described embodiments and modifications have a hardware configuration including a CPU (Central Processing Unit), a ROM, a RAM, a communication I / F device, and the like. . The above-described units (acquisition unit 41, region determination unit 43, setting unit 44, first display control unit 45, reception unit 46, first designation unit 47, determination unit 48, second display control unit 401, second designation unit 402) The functions of the second determination unit 403 and the fourth determination unit 411) are realized by the CPU developing and executing a program stored in the ROM on the RAM. In addition, the present invention is not limited to this, and at least a part of the functions of each unit described above can be realized by an individual circuit (hardware). The storage unit 42 described above is realized by a storage device such as a ROM or a RAM. The image processing units (40, 400, 410) of the above-described embodiments and modifications correspond to “image processing device” in the claims.

また、上述の各実施形態および変形例の画像処理部(40,400,410)で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するようにしてもよい。また、上述の各実施形態および変形例の画像処理部(40,400,410)で実行されるプログラムを、インターネット等のネットワーク経由で提供または配布するようにしてもよい。また、上述の各実施形態および変形例の画像処理部(40,400,410)で実行されるプログラムを、ROM等の不揮発性の記録媒体に予め組み込んで提供するようにしてもよい。   Also, the program executed by the image processing units (40, 400, 410) of the above-described embodiments and modifications is stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. You may make it do. Further, the programs executed by the image processing units (40, 400, 410) of the above-described embodiments and modifications may be provided or distributed via a network such as the Internet. The programs executed by the image processing units (40, 400, 410) of the above-described embodiments and modifications may be provided by being incorporated in advance in a nonvolatile recording medium such as a ROM.

さらに、上述の各実施形態および各変形例は、任意に組み合わせることも可能である。   Furthermore, the above-described embodiments and modifications can be arbitrarily combined.

1 医用画像診断装置
10 医用画像診断部
20 画像保管部
30 画像表示部
40 画像処理部
41 取得部
42 記憶部
43 領域決定部
44 設定部
45 第1表示制御部
46 受付部
47 第1指定部
48 決定部
50 表示部
400 画像処理部
401 第2表示制御部
402 第2指定部
403 第2決定部
410 画像処理部
411 第4決定部
DESCRIPTION OF SYMBOLS 1 Medical image diagnostic apparatus 10 Medical image diagnostic part 20 Image storage part 30 Image display part 40 Image processing part 41 Acquisition part 42 Storage part 43 Area determination part 44 Setting part 45 First display control part 46 Reception part 47 First designation part 48 Determination unit 50 Display unit 400 Image processing unit 401 Second display control unit 402 Second designation unit 403 Second determination unit 410 Image processing unit 411 Fourth determination unit

Claims (11)

入力部の操作による入力に応じて、第1領域と、前記第1領域の少なくとも一部を覆う第2領域とを含むボリュームデータのレンダリング結果である3次元画像を表示する表示部に表示された前記3次元画像内の位置を指定する第1指定部と、
前記第1指定部により指定された位置の移動に応じて、前記第2領域の透明度を可変に設定する設定部と、
前記設定部により設定された前記透明度に基づいて、前記ボリュームデータのレンダリングを行い、当該レンダリングにより得られた前記3次元画像を前記表示部に表示する制御を行う第1表示制御部と、を備える、
医用画像診断装置。
Displayed on a display unit that displays a three-dimensional image that is a rendering result of volume data including a first region and a second region that covers at least a part of the first region in response to an input by an operation of the input unit A first designation unit for designating a position in the three-dimensional image;
A setting unit that variably sets the transparency of the second region in accordance with the movement of the position specified by the first specifying unit;
A first display control unit configured to perform rendering of the volume data based on the transparency set by the setting unit and to display the three-dimensional image obtained by the rendering on the display unit. ,
Medical diagnostic imaging device.
前記設定部は、前記第1指定部により指定された位置と前記第2領域との位置関係の変化に応じて、前記第2領域の透明度を可変に設定する、
請求項1に記載の医用画像診断装置。
The setting unit variably sets the transparency of the second region in accordance with a change in the positional relationship between the position specified by the first specifying unit and the second region;
The medical image diagnostic apparatus according to claim 1.
前記設定部は、前記第1指定部により指定された位置が前記3次元画像内の前記第2領域に近づく場合は、前記第2領域が透明に近くなるように前記第2領域の透明度を増加させる一方、前記第1指定部により指定された位置が前記3次元画像内の前記第2領域から遠ざかる場合は、前記第2領域が不透明に近くなるように前記第2領域の透明度を減少させる、
請求項2に記載の医用画像診断装置。
The setting unit increases the transparency of the second region so that the second region becomes transparent when the position specified by the first specifying unit approaches the second region in the three-dimensional image. On the other hand, when the position designated by the first designation unit moves away from the second area in the three-dimensional image, the transparency of the second area is reduced so that the second area becomes almost opaque.
The medical image diagnostic apparatus according to claim 2.
前記設定部は、前記第1指定部により指定された位置が第1方向に移動する場合は、前記第2領域が透明に近くなるように前記第2領域の透明度を増加させる一方、前記第1指定部により指定される位置が前記第1方向とは異なる第2方向に移動する場合は、前記第2領域が不透明に近くなるように前記第2領域の透明度を減少させる、
請求項1に記載の医用画像診断装置。
When the position designated by the first designation unit moves in the first direction, the setting unit increases the transparency of the second region so that the second region is almost transparent, while the first unit When the position designated by the designation unit moves in a second direction different from the first direction, the transparency of the second area is reduced so that the second area becomes almost opaque.
The medical image diagnostic apparatus according to claim 1.
前記設定部は、前記第2領域の輪郭部分の透明度を、前記第2領域のうち前記輪郭部分以外の部分に比べて不透明に近くなるように設定する、
請求項1に記載の医用画像診断装置。
The setting unit sets the transparency of the contour portion of the second region so that it is more opaque than the portion of the second region other than the contour portion.
The medical image diagnostic apparatus according to claim 1.
前記入力部の操作による入力に応じて、前記3次元画像に含まれる1つの領域を前記第2領域として決定する決定部を備える、
請求項1に記載の医用画像診断装置。
A determination unit configured to determine one region included in the three-dimensional image as the second region in response to an input by an operation of the input unit;
The medical image diagnostic apparatus according to claim 1.
前記設定部により前記第2領域の透明度が閾値以上に設定された後、前記第1指定部により、前記3次元画像のうち前記第2領域と前記第1領域とが重なり合う領域内の位置が指定された場合、前記第2領域の下側に存在する前記第1領域を、透明度を可変に設定する対象である前記第2領域として新たに決定する決定部を備える、
請求項1に記載の医用画像診断装置。
After the transparency of the second area is set to be equal to or greater than a threshold by the setting unit, the first designation unit designates a position in an area where the second area and the first area overlap in the three-dimensional image. A determination unit that newly determines the first area existing below the second area as the second area that is a target for variably setting the transparency;
The medical image diagnostic apparatus according to claim 1.
前記ボリュームデータに含まれる少なくとも1つの断面画像を表示する制御を行う第2表示制御部と、
前記入力部の操作による入力に応じて、前記第2表示制御部により表示された前記断面画像内の位置を指定する第2指定部と、
前記断面画像のうち、前記第2指定部により指定された位置を含む領域を前記第1領域として決定する第2決定部と、
前記ボリュームデータに含まれる複数の領域のうち、前記第1領域の少なくとも一部を覆う領域を、前記第2領域として決定する第3決定部と、を備える、
請求項1に記載の医用画像診断装置。
A second display control unit that performs control to display at least one cross-sectional image included in the volume data;
A second designation unit that designates a position in the cross-sectional image displayed by the second display control unit in response to an input by an operation of the input unit;
A second determining unit that determines, as the first region, an area including a position specified by the second specifying unit among the cross-sectional images;
A third determination unit that determines, as the second area, an area that covers at least a part of the first area among a plurality of areas included in the volume data;
The medical image diagnostic apparatus according to claim 1.
前記ボリュームデータに含まれる少なくとも1つの断面画像を表示する制御を行う第2表示制御部と、
前記入力部の操作による入力に応じて、前記第2表示制御部により表示された前記断面画像内の位置を指定する第2指定部と、
前記断面画像のうち、前記第2指定部により指定された位置を含む領域を前記第2領域として決定する第4決定部と、を備える、
請求項1に記載の医用画像診断装置。
A second display control unit that performs control to display at least one cross-sectional image included in the volume data;
A second designation unit that designates a position in the cross-sectional image displayed by the second display control unit in response to an input by an operation of the input unit;
A fourth determining unit that determines, as the second region, a region including the position specified by the second specifying unit among the cross-sectional images;
The medical image diagnostic apparatus according to claim 1.
前記第1領域は、前記ボリュームデータに含まれる結節内のソリッド領域であり、
前記第2領域は、前記結節内のGGO領域である、
請求項1に記載の医用画像診断装置。
The first area is a solid area in a nodule included in the volume data;
The second region is a GGO region in the nodule;
The medical image diagnostic apparatus according to claim 1.
入力部の操作による入力に応じて、第1領域と、前記第1領域の少なくとも一部を覆う第2領域とを含むボリュームデータのレンダリング結果である3次元画像を表示する表示部に表示された前記3次元画像内の位置を指定する指定ステップと、
前記指定ステップにより指定された位置の移動に応じて、前記第2領域の透明度を可変に設定する設定ステップと、
前記設定ステップにより設定された前記透明度に基づいて、前記ボリュームデータのレンダリングを行い、当該レンダリングにより得られた前記3次元画像を前記表示部に表示する制御を行う表示制御ステップと、を含む、
医用画像処理方法。
Displayed on a display unit that displays a three-dimensional image that is a rendering result of volume data including a first region and a second region that covers at least a part of the first region in response to an input by an operation of the input unit A designation step for designating a position in the three-dimensional image;
A setting step for variably setting the transparency of the second region in accordance with the movement of the position specified in the specifying step;
A display control step for performing control of rendering the volume data based on the transparency set in the setting step and displaying the three-dimensional image obtained by the rendering on the display unit,
Medical image processing method.
JP2012242076A 2012-11-01 2012-11-01 Medical image diagnostic apparatus and medical image processing method Active JP6096473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012242076A JP6096473B2 (en) 2012-11-01 2012-11-01 Medical image diagnostic apparatus and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012242076A JP6096473B2 (en) 2012-11-01 2012-11-01 Medical image diagnostic apparatus and medical image processing method

Publications (2)

Publication Number Publication Date
JP2014090807A true JP2014090807A (en) 2014-05-19
JP6096473B2 JP6096473B2 (en) 2017-03-15

Family

ID=50935348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012242076A Active JP6096473B2 (en) 2012-11-01 2012-11-01 Medical image diagnostic apparatus and medical image processing method

Country Status (1)

Country Link
JP (1) JP6096473B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170076026A (en) * 2015-12-24 2017-07-04 지멘스 메디컬 솔루션즈 유에스에이, 인크. Method and ultrasound system for providing windows
JP2019195445A (en) * 2018-05-09 2019-11-14 キヤノンメディカルシステムズ株式会社 Ultrasound diagnostic apparatus, image processing apparatus, and image processing program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000287964A (en) * 1999-04-02 2000-10-17 Terarikon Inc Three-dimensional image display device
JP2002182890A (en) * 2000-12-15 2002-06-28 Mitsubishi Electric Corp Output data controller and output data control method
US20020172409A1 (en) * 2001-05-18 2002-11-21 Motoaki Saito Displaying three-dimensional medical images
WO2006033377A1 (en) * 2004-09-24 2006-03-30 Hitachi Medical Corporation Medical image display device, method, and program
JP2008200524A (en) * 2008-05-12 2008-09-04 Ziosoft Inc Image processing method
US20080225007A1 (en) * 2004-10-12 2008-09-18 Nippon Telegraph And Teleplhone Corp. 3D Pointing Method, 3D Display Control Method, 3D Pointing Device, 3D Display Control Device, 3D Pointing Program, and 3D Display Control Program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000287964A (en) * 1999-04-02 2000-10-17 Terarikon Inc Three-dimensional image display device
JP2002182890A (en) * 2000-12-15 2002-06-28 Mitsubishi Electric Corp Output data controller and output data control method
US20020172409A1 (en) * 2001-05-18 2002-11-21 Motoaki Saito Displaying three-dimensional medical images
US20070293755A1 (en) * 2004-09-22 2007-12-20 Takashi Shirahata Medical Image Display Device, Method, and Program
WO2006033377A1 (en) * 2004-09-24 2006-03-30 Hitachi Medical Corporation Medical image display device, method, and program
US20080225007A1 (en) * 2004-10-12 2008-09-18 Nippon Telegraph And Teleplhone Corp. 3D Pointing Method, 3D Display Control Method, 3D Pointing Device, 3D Display Control Device, 3D Pointing Program, and 3D Display Control Program
JP2010055627A (en) * 2004-10-12 2010-03-11 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional pointing method, three-dimensional display control method, three-dimensional pointing device, three-dimensional display control device, three-dimensional pointing program and three-dimensional display control program
JP2008200524A (en) * 2008-05-12 2008-09-04 Ziosoft Inc Image processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170076026A (en) * 2015-12-24 2017-07-04 지멘스 메디컬 솔루션즈 유에스에이, 인크. Method and ultrasound system for providing windows
KR102128412B1 (en) 2015-12-24 2020-06-30 지멘스 메디컬 솔루션즈 유에스에이, 인크. Method and ultrasound system for providing windows
JP2019195445A (en) * 2018-05-09 2019-11-14 キヤノンメディカルシステムズ株式会社 Ultrasound diagnostic apparatus, image processing apparatus, and image processing program
JP7144184B2 (en) 2018-05-09 2022-09-29 キヤノンメディカルシステムズ株式会社 Ultrasound diagnostic device, image processing device and image processing program

Also Published As

Publication number Publication date
JP6096473B2 (en) 2017-03-15

Similar Documents

Publication Publication Date Title
US10545582B2 (en) Dynamic customizable human-computer interaction behavior
US9019301B2 (en) Medical image display apparatus in which specification of a medical image enables execution of image processing
KR20020041290A (en) 3 dimensional slab rendering system and method
US7420575B2 (en) Image processing apparatus, image processing method and image processing program
JP6353827B2 (en) Image processing device
JP5871705B2 (en) Image display apparatus, method and program
US9582936B2 (en) Method and apparatus for combining plurality of 2D images with 3D model
JP5980776B2 (en) Medical image display apparatus and medical image display method
WO2013014868A1 (en) Cutting simulation device and cutting simulation program
US9931083B2 (en) Image display apparatus and program
US20180020992A1 (en) Systems and methods for medical visualization
US20140047378A1 (en) Image processing device, image display apparatus, image processing method, and computer program medium
JP2012045256A (en) Region dividing result correcting device, method and program
JP5802767B2 (en) Image processing apparatus, stereoscopic image display apparatus, and image processing method
JP6096473B2 (en) Medical image diagnostic apparatus and medical image processing method
US20130257870A1 (en) Image processing apparatus, stereoscopic image display apparatus, image processing method and computer program product
JP5595207B2 (en) Medical image display device
JP2012085833A (en) Image processing system for three-dimensional medical image data, image processing method for the same, and program
JP4422161B2 (en) Image processing apparatus and image processing program
US10796433B2 (en) Interpretation support apparatus, operation method thereof, and non-transitory computer readable medium
JP2019188031A (en) Computer program, recording medium, display device, and display method
EP4177844A1 (en) Image processing device, image processing method, and program
JP2006055402A (en) Device, method, and program for image processing
US12131479B2 (en) Medical image processing apparatus, system, and method
US20220044408A1 (en) Medical image processing apparatus, system, and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161006

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170216

R150 Certificate of patent or registration of utility model

Ref document number: 6096473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350