JP2013038467A - Image processing system, image processor, medical image diagnostic apparatus, image processing method, and image processing program - Google Patents

Image processing system, image processor, medical image diagnostic apparatus, image processing method, and image processing program Download PDF

Info

Publication number
JP2013038467A
JP2013038467A JP2011170441A JP2011170441A JP2013038467A JP 2013038467 A JP2013038467 A JP 2013038467A JP 2011170441 A JP2011170441 A JP 2011170441A JP 2011170441 A JP2011170441 A JP 2011170441A JP 2013038467 A JP2013038467 A JP 2013038467A
Authority
JP
Japan
Prior art keywords
image
parallax
information
images
volume data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011170441A
Other languages
Japanese (ja)
Other versions
JP6017124B2 (en
Inventor
Shinsuke Tsukagoshi
伸介 塚越
Masachika Yamahana
将央 山鼻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2011170441A priority Critical patent/JP6017124B2/en
Publication of JP2013038467A publication Critical patent/JP2013038467A/en
Application granted granted Critical
Publication of JP6017124B2 publication Critical patent/JP6017124B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To change an image group to be displayed on a stereoscopic monitor.SOLUTION: An image processing system includes a storage part 134 and a control part 135 in a work station 130. The storage part 134 stores multiple kinds of image information for assigning images based on volume data being three-dimensional medical image data as a predetermined number of images on the basis of correspondence between the viewpoint positions of an observer with respect to a stereoscopic display device for simultaneously displaying a predetermined number of images and images to be visually recognized by the observer at the viewpoint positions. The control part 135 performs control to allow the stereoscopic display device to display a predetermined number of images that coincide with image information selected among the multiple kinds of image information.

Description

本発明の実施形態は、画像処理システム、画像処理装置、医用画像診断装置、画像処理方法及び画像処理プログラムに関する。   Embodiments described herein relate generally to an image processing system, an image processing apparatus, a medical image diagnostic apparatus, an image processing method, and an image processing program.

従来、立体視用メガネ等の専用機器を用いて、2つの視点から撮影された2視差画像を立体視可能なモニタが実用化されている。また、近年、レンチキュラーレンズ等の光線制御子を用いて、複数の視点から撮影された多視差画像(例えば、9視差画像)を裸眼にて立体視可能なモニタが実用化されている。なお、立体視可能なモニタにて表示される2視差画像や9視差画像は、1視点から撮影された画像の奥行き情報を推定し、推定した情報を用いた画像処理により生成される場合もある。   Conventionally, a monitor capable of stereoscopically viewing a two-parallax image taken from two viewpoints using a dedicated device such as stereoscopic glasses has been put into practical use. In recent years, monitors that can stereoscopically view multi-parallax images (for example, 9 parallax images) taken from a plurality of viewpoints using a light beam controller such as a lenticular lens have been put into practical use. Note that a 2-parallax image or a 9-parallax image displayed on a stereoscopically viewable monitor may be generated by estimating the depth information of an image taken from one viewpoint and performing image processing using the estimated information. .

一方、X線CT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置、超音波診断装置等の医用画像診断装置では、3次元の医用画像データ(以下、ボリュームデータ)を生成可能な装置が実用化されている。従来、かかる医用画像診断装置により生成されたボリュームデータは、種々の画像処理により2次元画像とされ、汎用モニタ上にて2次元表示される。例えば、医用画像診断装置により生成されたボリュームデータは、ボリュームレンダリング処理により3次元の情報を反映した2次元画像とされ、汎用モニタ上にて2次元表示される。   On the other hand, a medical image diagnostic apparatus such as an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or an ultrasonic diagnostic apparatus is practically capable of generating three-dimensional medical image data (hereinafter referred to as volume data). It has become. Conventionally, volume data generated by such a medical image diagnostic apparatus is converted into a two-dimensional image by various image processing and displayed two-dimensionally on a general-purpose monitor. For example, volume data generated by a medical image diagnostic apparatus is converted into a two-dimensional image reflecting three-dimensional information by volume rendering processing, and is displayed two-dimensionally on a general-purpose monitor.

また、ボリュームデータから生成された2次元画像を、近年実用化された立体視可能なモニタにて立体的に表示されることが検討されている。しかし、立体視可能なモニタにて表示される画像群は、例えば、視差角が2度の2視差画像や、視差角が1度間隔の9視差画像等であった。   In addition, it has been studied that a two-dimensional image generated from volume data is displayed three-dimensionally on a stereoscopically visible monitor that has recently been put into practical use. However, the image group displayed on the stereoscopic monitor is, for example, a 2 parallax image with a parallax angle of 2 degrees, a 9 parallax image with a parallax angle of 1 degree interval, or the like.

特開2005−86414号公報JP 2005-84414 A

本発明が解決しようとする課題は、立体視可能なモニタにて表示される画像群を変更することができる画像処理システム、画像処理装置、医用画像診断装置、画像処理方法及び画像処理プログラムを提供することである。   The problem to be solved by the present invention is to provide an image processing system, an image processing apparatus, a medical image diagnostic apparatus, an image processing method, and an image processing program capable of changing an image group displayed on a stereoscopically viewable monitor. It is to be.

実施形態の画像処理システムは、記憶部と、制御部とを備える。記憶部は、所定数の画像を同時に表示する立体表示装置に対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像との対応関係に基づいて、前記所定数の画像として3次元の医用画像データであるボリュームデータに基づく画像を割り当てるための画像情報を、複数種類記憶する。制御部は、前記複数種類の画像情報から選択された画像情報に合致する所定数の画像が前記立体表示装置に表示されるように制御する。   The image processing system according to the embodiment includes a storage unit and a control unit. The storage unit 3 as the predetermined number of images based on a correspondence relationship between the viewpoint position of the observer with respect to the stereoscopic display device that simultaneously displays the predetermined number of images and the image viewed by the observer at the viewpoint position. A plurality of types of image information for allocating images based on volume data that is three-dimensional medical image data are stored. The control unit performs control so that a predetermined number of images that match image information selected from the plurality of types of image information are displayed on the stereoscopic display device.

図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment. 図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. 図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images. 図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. 図5は、図4に示すレンダリング処理部の構成例を説明するための図である。FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. 図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. 図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。FIG. 7 is a diagram for explaining a configuration example of the terminal device according to the first embodiment. 図8は、従来の9視差モニタにて表示される視差画像群の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of a parallax image group displayed on a conventional nine-parallax monitor. 図9は、視点位置と当該視点位置にて観察者により視認される画像との対応関係の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of a correspondence relationship between a viewpoint position and an image visually recognized by an observer at the viewpoint position. 図10は、画像情報を説明するための図である。FIG. 10 is a diagram for explaining the image information. 図11は、視差角情報を用いた処理の具体例を説明するための図(1)である。FIG. 11 is a diagram (1) for explaining a specific example of processing using parallax angle information. 図12は、視差角情報を用いた処理の具体例を説明するための図(2)である。FIG. 12 is a diagram (2) for explaining a specific example of the process using the parallax angle information. 図13は、視差角情報を用いた処理の具体例を説明するための図(3)である。FIG. 13 is a diagram (3) for explaining a specific example of the process using the parallax angle information. 図14は、種別情報を用いた処理の具体例を説明するための図(1)である。FIG. 14 is a diagram (1) for explaining a specific example of the process using the type information. 図15は、種別情報を用いた処理の具体例を説明するための図(2)である。FIG. 15 is a diagram (2) for explaining a specific example of the process using the type information. 図16は、不透明度情報を用いた処理の具体例を説明するための図である。FIG. 16 is a diagram for explaining a specific example of processing using opacity information. 図17は、第1の実施形態に係るワークステーションの処理を説明するためのフローチャートである。FIG. 17 is a flowchart for explaining processing of the workstation according to the first embodiment. 図18は、第1の実施形態に係る端末装置の処理を説明するためのフローチャートである。FIG. 18 is a flowchart for explaining processing of the terminal device according to the first embodiment. 図19は、第2の実施形態に係るレンダリング処理部が予め生成する画像群を説明するための図である。FIG. 19 is a diagram for explaining an image group generated in advance by the rendering processing unit according to the second embodiment. 図20は、第2の実施形態に係るレンダリング処理部が予め生成する画像群を説明するための図である。FIG. 20 is a diagram for explaining an image group generated in advance by the rendering processing unit according to the second embodiment. 図21は、第2の実施形態に係る端末装置の処理を説明するためのフローチャートである。FIG. 21 is a flowchart for explaining processing of the terminal device according to the second embodiment. 図22は、第2の実施形態に係る端末装置の処理を説明するためのフローチャートである。FIG. 22 is a flowchart for explaining processing of the terminal device according to the second embodiment. 図23は、変形例を説明するための図である。FIG. 23 is a diagram for explaining a modification.

以下、添付図面を参照して、画像処理システム及び画像処理装置の実施形態を詳細に説明する。なお、以下では、画像処理装置としての機能を有するワークステーションを含む画像処理システムを実施形態として説明する。ここで、以下の実施形態で用いる用語について説明すると、「視差画像群」とは、ボリュームデータに対して、所定の視差角ずつ視点位置を移動させてボリュームレンダリング処理を行なうことで生成された画像群のことである。すなわち、「視差画像群」は、「視点位置」が異なる複数の「視差画像」から構成される。また、「視差角」とは、「視差画像群」を生成するために設定された各視点位置のうち隣接する視点位置と、ボリュームデータによって表される空間内の所定位置(例えば、空間の中心)とにより定まる角度のことである。また、「視差数」とは、立体表示モニタにて立体視されるために必要となる「視差画像」の数のことである。また、以下で記載する「9視差画像」とは、9つの「視差画像」から構成される「視差画像群」のことである。また、以下で記載する「2視差画像」とは、2つの「視差画像」から構成される「視差画像群」のことである。   Hereinafter, embodiments of an image processing system and an image processing apparatus will be described in detail with reference to the accompanying drawings. In the following, an image processing system including a workstation having a function as an image processing apparatus will be described as an embodiment. Here, the terms used in the following embodiments will be described. The “parallax image group” is an image generated by performing volume rendering processing by moving the viewpoint position by a predetermined parallax angle with respect to volume data. It is a group. That is, the “parallax image group” includes a plurality of “parallax images” having different “viewpoint positions”. The “parallax angle” is an adjacent viewpoint position among the viewpoint positions set for generating the “parallax image group” and a predetermined position in the space represented by the volume data (for example, the center of the space). ). The “parallax number” is the number of “parallax images” necessary for stereoscopic viewing on the stereoscopic display monitor. The “9 parallax images” described below is a “parallax image group” composed of nine “parallax images”. The “two-parallax image” described below is a “parallax image group” composed of two “parallax images”.

(第1の実施形態)
まず、第1の実施形態に係る画像処理システムの構成例について説明する。図1は、第1の実施形態に係る画像処理システムの構成例を説明するための図である。
(First embodiment)
First, a configuration example of the image processing system according to the first embodiment will be described. FIG. 1 is a diagram for explaining a configuration example of an image processing system according to the first embodiment.

図1に示すように、第1の実施形態に係る画像処理システム1は、医用画像診断装置110と、画像保管装置120と、ワークステーション130と、端末装置140とを有する。図1に例示する各装置は、例えば、病院内に設置された院内LAN(Local Area Network)2により、直接的、又は間接的に相互に通信可能な状態となっている。例えば、画像処理システム1にPACS(Picture Archiving and Communication System)が導入されている場合、各装置は、DICOM(Digital Imaging and Communications in Medicine)規格に則って、医用画像等を相互に送受信する。   As shown in FIG. 1, the image processing system 1 according to the first embodiment includes a medical image diagnostic apparatus 110, an image storage apparatus 120, a workstation 130, and a terminal apparatus 140. Each apparatus illustrated in FIG. 1 is in a state where it can communicate with each other directly or indirectly by, for example, an in-hospital LAN (Local Area Network) 2 installed in a hospital. For example, when a PACS (Picture Archiving and Communication System) is introduced into the image processing system 1, each apparatus transmits and receives medical images and the like according to DICOM (Digital Imaging and Communications in Medicine) standards.

かかる画像処理システム1は、医用画像診断装置110により生成された3次元の医用画像データであるボリュームデータから視差画像群を生成し、この視差画像群を立体視可能なモニタに表示することで、病院内に勤務する医師や検査技師に立体視可能な医用画像を提供する。具体的には、第1の実施形態においては、ワークステーション130が、ボリュームデータに対して種々の画像処理を行ない、視差画像群を生成する。また、ワークステーション130及び端末装置140が、立体視可能なモニタを有し、ワークステーション130にて生成された視差画像群をこのモニタに表示する。また、画像保管装置120は、医用画像診断装置110にて生成されたボリュームデータや、ワークステーション130にて生成された視差画像群を保管する。すなわち、ワークステーション130や端末装置140は、この画像保管装置120からボリュームデータや視差画像群を取得し、これを処理したり、モニタに表示したりする。以下、各装置を順に説明する。   The image processing system 1 generates a parallax image group from volume data that is three-dimensional medical image data generated by the medical image diagnostic apparatus 110, and displays the parallax image group on a stereoscopically viewable monitor. Provide medical images that can be viewed stereoscopically to doctors and laboratory technicians working in hospitals. Specifically, in the first embodiment, the workstation 130 performs various image processing on the volume data to generate a parallax image group. In addition, the workstation 130 and the terminal device 140 have a monitor that can be viewed stereoscopically, and displays a parallax image group generated by the workstation 130 on the monitor. Further, the image storage device 120 stores the volume data generated by the medical image diagnostic device 110 and the parallax image group generated by the workstation 130. That is, the workstation 130 and the terminal device 140 acquire volume data and a parallax image group from the image storage device 120, process them, and display them on a monitor. Hereinafter, each device will be described in order.

医用画像診断装置110は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Photon Emission Computed Tomography)装置、PET(Positron Emission computed Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置110は、3次元の医用画像データ(ボリュームデータ)を生成可能である。   The medical image diagnostic apparatus 110 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, an ultrasonic diagnostic apparatus, a SPECT (Single Photon Emission Computed Tomography) apparatus, and a PET (Positron Emission computed Tomography). ) Apparatus, a SPECT-CT apparatus in which a SPECT apparatus and an X-ray CT apparatus are integrated, a PET-CT apparatus in which a PET apparatus and an X-ray CT apparatus are integrated, or a group of these apparatuses. Further, the medical image diagnostic apparatus 110 according to the first embodiment can generate three-dimensional medical image data (volume data).

具体的には、第1の実施形態に係る医用画像診断装置110は、被検体を撮影することによりボリュームデータを生成する。例えば、医用画像診断装置110は、被検体を撮影することにより投影データやMR信号等のデータを収集し、収集したデータから、被検体の体軸方向に沿った複数のアキシャル面の医用画像データを再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置110は、500枚のアキシャル面の医用画像データを再構成する。この500枚のアキシャル面の医用画像データ群が、ボリュームデータである。なお、医用画像診断装置110により撮影された被検体の投影データやMR信号等自体をボリュームデータとしても良い。   Specifically, the medical image diagnostic apparatus 110 according to the first embodiment generates volume data by imaging a subject. For example, the medical image diagnostic apparatus 110 collects data such as projection data and MR signals by imaging the subject, and medical image data of a plurality of axial surfaces along the body axis direction of the subject from the collected data. By reconfiguring, volume data is generated. For example, the medical image diagnostic apparatus 110 reconstructs 500 pieces of medical image data on the axial plane. The 500 axial medical image data groups are volume data. In addition, the projection data of the subject imaged by the medical image diagnostic apparatus 110, the MR signal, or the like may be used as the volume data.

また、第1の実施形態に係る医用画像診断装置110は、生成したボリュームデータを画像保管装置120に送信する。なお、医用画像診断装置110は、ボリュームデータを画像保管装置120に送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査ID、医用画像診断装置110を識別する装置ID、医用画像診断装置110による1回の撮影を識別するシリーズID等を送信する。   Further, the medical image diagnostic apparatus 110 according to the first embodiment transmits the generated volume data to the image storage apparatus 120. The medical image diagnostic apparatus 110 identifies, for example, a patient ID for identifying a patient, an examination ID for identifying an examination, and the medical image diagnostic apparatus 110 as supplementary information when transmitting volume data to the image storage apparatus 120. A device ID, a series ID for identifying one shot by the medical image diagnostic device 110, and the like are transmitted.

画像保管装置120は、医用画像を保管するデータベースである。具体的には、第1の実施形態に係る画像保管装置120は、医用画像診断装置110から送信されたボリュームデータを記憶部に格納し、これを保管する。また、第1の実施形態に係る画像保管装置120は、ワークステーション130がボリュームデータから生成した視差画像群を記憶部に格納し、これを保管することも可能である。かかる場合、ワークステーション130は、生成した視差画像群を画像保管装置120に送信し、画像保管装置120は、ワークステーション130から送信された視差画像群を記憶部に格納し、これを保管する。なお、本実施形態は、大容量の画像を保管可能なワークステーション130を用いることで、図1に例示するワークステーション130と画像保管装置120とが統合される場合であっても良い。すなわち、本実施形態は、ワークステーション130そのものにボリュームデータもしくは視差画像群を記憶させる場合であっても良い。   The image storage device 120 is a database that stores medical images. Specifically, the image storage device 120 according to the first embodiment stores the volume data transmitted from the medical image diagnostic device 110 in a storage unit and stores it. Further, the image storage device 120 according to the first embodiment can store a parallax image group generated from the volume data by the workstation 130 in a storage unit and store the parallax image group. In such a case, the workstation 130 transmits the generated parallax image group to the image storage device 120, and the image storage device 120 stores the parallax image group transmitted from the workstation 130 in the storage unit and stores it. In the present embodiment, the workstation 130 illustrated in FIG. 1 and the image storage device 120 may be integrated by using the workstation 130 that can store a large-capacity image. That is, this embodiment may be a case where volume data or a parallax image group is stored in the workstation 130 itself.

なお、第1の実施形態において、画像保管装置120に保管されたボリュームデータや視差画像群は、患者ID、検査ID、装置ID、シリーズID等と対応付けて保管される。このため、ワークステーション130や端末装置140は、患者ID、検査ID、装置ID、シリーズID等を用いた検索を行なうことで、必要なボリュームデータや視差画像群を画像保管装置120から取得する。   In the first embodiment, the volume data and the parallax image group stored in the image storage device 120 are stored in association with the patient ID, examination ID, device ID, series ID, and the like. Therefore, the workstation 130 and the terminal device 140 acquire necessary volume data and a parallax image group from the image storage device 120 by performing a search using a patient ID, an examination ID, a device ID, a series ID, and the like.

ワークステーション130は、医用画像に対して画像処理を行なう画像処理装置である。具体的には、第1の実施形態に係るワークステーション130は、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。視差画像群とは、複数の視点から撮影された複数の視差画像のことであり、例えば、9視差画像を裸眼にて立体視可能なモニタにて表示される視差画像群とは、視点位置が異なる9つの視差画像のことである。   The workstation 130 is an image processing apparatus that performs image processing on medical images. Specifically, the workstation 130 according to the first embodiment performs various rendering processes on the volume data acquired from the image storage device 120 to generate a parallax image group. A parallax image group is a plurality of parallax images taken from a plurality of viewpoints. For example, a parallax image group displayed on a monitor capable of stereoscopically viewing nine parallax images with the naked eye has a viewpoint position. It is nine different parallax images.

また、第1の実施形態に係るワークステーション130は、表示部として、立体視可能なモニタ(以下、立体表示モニタ)を有する。ワークステーション130は、視差画像群を生成し、生成した視差画像群を立体表示モニタに表示する。この結果、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。   In addition, the workstation 130 according to the first embodiment includes a stereoscopically visible monitor (hereinafter, stereoscopic display monitor) as a display unit. The workstation 130 generates a parallax image group and displays the generated parallax image group on the stereoscopic display monitor. As a result, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically visible medical image displayed on the stereoscopic display monitor.

また、ワークステーション130は、生成した視差画像群を画像保管装置120に送信する。なお、ワークステーション130は、視差画像群を画像保管装置120に送信する際に、付帯情報として、例えば、患者ID、検査ID、装置ID、シリーズID等を送信する。また、視差画像群を画像保管装置120に送信する際に送信される付帯情報としては、視差画像群に関する付帯情報も挙げられる。視差画像群に関する付帯情報としては、視差画像の枚数(例えば、「9」)や、視差画像の解像度(例えば、「466画素×350画素」)等がある。また、ワークステーション130は、端末装置140からの表示要求に応じて、生成した視差画像群を端末装置140に送信することもできる。   Further, the workstation 130 transmits the generated parallax image group to the image storage device 120. In addition, when transmitting the parallax image group to the image storage device 120, the workstation 130 transmits, for example, a patient ID, an examination ID, a device ID, a series ID, and the like as incidental information. Further, the incidental information transmitted when transmitting the parallax image group to the image storage device 120 includes incidental information regarding the parallax image group. The incidental information regarding the parallax image group includes the number of parallax images (for example, “9”), the resolution of the parallax images (for example, “466 pixels × 350 pixels”), and the like. The workstation 130 can also transmit the generated parallax image group to the terminal device 140 in response to a display request from the terminal device 140.

ここで、第1の実施形態に係るワークステーション130は、立体表示モニタにて表示される画像群として、立体視用の画像群である視差画像群だけでなく、種々のレンダリング処理に関する条件(以下、レンダリング条件)に基づく画像群を生成する。具体的には、第1の実施形態に係るワークステーション130は、立体表示モニタにて立体視用に出力される視差数の画像から構成される画像群を様々なレンダリング条件に基づいて生成する。この点については、後に詳述する。   Here, the workstation 130 according to the first embodiment has not only a parallax image group that is a stereoscopic image group as an image group displayed on the stereoscopic display monitor, but also conditions relating to various rendering processes (hereinafter, referred to as a stereoscopic image group). Image group based on rendering conditions). Specifically, the workstation 130 according to the first embodiment generates an image group composed of images with the number of parallaxes output for stereoscopic viewing on the stereoscopic display monitor based on various rendering conditions. This will be described in detail later.

端末装置140は、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置である。例えば、端末装置140は、病院内に勤務する医師や検査技師により操作されるPC(Personal Computer)やタブレット式PC、PDA(Personal Digital Assistant)、携帯電話等である。具体的には、第1の実施形態に係る端末装置140は、表示部として立体表示モニタを有する。また、端末装置140は、ワークステーション130又は画像保管装置120から視差画像群を取得し、取得した視差画像群を立体表示モニタに表示する。この結果、観察者である医師や検査技師は、立体視可能な医用画像を閲覧することができる。   The terminal device 140 is a device that allows a doctor or laboratory technician working in a hospital to view a medical image. For example, the terminal device 140 is a PC (Personal Computer), a tablet PC, a PDA (Personal Digital Assistant), a mobile phone, or the like operated by a doctor or laboratory technician working in a hospital. Specifically, the terminal device 140 according to the first embodiment includes a stereoscopic display monitor as a display unit. Further, the terminal device 140 acquires a parallax image group from the workstation 130 or the image storage device 120, and displays the acquired parallax image group on the stereoscopic display monitor. As a result, a doctor or laboratory technician who is an observer can view a medical image that can be viewed stereoscopically.

ここで、ワークステーション130や端末装置140が有する立体表示モニタについて説明する。現在最も普及している一般的な汎用モニタは、2次元画像を2次元で表示するものであり、2次元画像を立体表示することができない。仮に、観察者が汎用モニタにて立体視を要望する場合、汎用モニタに対して画像を出力する装置は、平行法や交差法により観察者が立体視可能な2視差画像を並列表示させる必要がある。又は、汎用モニタに対して画像を出力する装置は、例えば、左目用の部分に赤色のセロハンが取り付けられ、右目用の部分に青色のセロハンが取り付けられたメガネを用いて余色法により観察者が立体視可能な画像を表示する必要がある。   Here, the stereoscopic display monitor included in the workstation 130 and the terminal device 140 will be described. A general-purpose monitor that is most popular at present displays a two-dimensional image in two dimensions, and cannot display a two-dimensional image in three dimensions. If an observer requests stereoscopic viewing on a general-purpose monitor, an apparatus that outputs an image to the general-purpose monitor needs to display two parallax images that can be viewed stereoscopically by the observer in parallel by the parallel method or the intersection method. is there. Alternatively, an apparatus that outputs an image to a general-purpose monitor, for example, uses an after-color method with an eyeglass that has a red cellophane attached to the left eye portion and a blue cellophane attached to the right eye portion. It is necessary to display a stereoscopically viewable image.

一方、立体表示モニタとしては、立体視用メガネ等の専用機器を用いることで、2視差画像(両眼視差画像とも称する)を立体視可能とするものがある。   On the other hand, as a stereoscopic display monitor, there is a stereoscopic display monitor that enables a stereoscopic view of a two-parallax image (also referred to as a binocular parallax image) by using dedicated equipment such as stereoscopic glasses.

図2は、2視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図2に示す一例は、シャッター方式により立体表示を行なう立体表示モニタであり、モニタを観察する観察者が装着する立体視用メガネとしてシャッターメガネが用いられる。かかる立体表示モニタは、モニタにて2視差画像を交互に出射する。例えば、図2の(A)に示すモニタは、左目用の画像と右目用の画像を、120Hzにて交互に出射する。ここで、モニタには、図2の(A)に示すように、赤外線出射部が設置され、赤外線出射部は、画像が切り替わるタイミングに合わせて赤外線の出射を制御する。   FIG. 2 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using two parallax images. An example shown in FIG. 2 is a stereoscopic display monitor that performs stereoscopic display by a shutter method, and shutter glasses are used as stereoscopic glasses worn by an observer who observes the monitor. Such a stereoscopic display monitor emits two parallax images alternately on the monitor. For example, the monitor shown in FIG. 2A alternately emits a left-eye image and a right-eye image at 120 Hz. Here, as shown in FIG. 2A, the monitor is provided with an infrared emitting unit, and the infrared emitting unit controls the emission of infrared rays in accordance with the timing at which the image is switched.

また、赤外線出射部から出射された赤外線は、図2の(A)に示すシャッターメガネの赤外線受光部により受光される。シャッターメガネの左右それぞれの枠には、シャッターが取り付けられており、シャッターメガネは、赤外線受光部が赤外線を受光したタイミングに合わせて左右のシャッターそれぞれの透過状態及び遮光状態を交互に切り替える。以下、シャッターにおける透過状態及び遮光状態の切り替え処理について説明する。   Moreover, the infrared rays emitted from the infrared ray emitting portion are received by the infrared ray receiving portion of the shutter glasses shown in FIG. A shutter is attached to each of the left and right frames of the shutter glasses, and the shutter glasses alternately switch the transmission state and the light shielding state of the left and right shutters according to the timing when the infrared light receiving unit receives the infrared rays. Hereinafter, the switching process between the transmission state and the light shielding state in the shutter will be described.

各シャッターは、図2の(B)に示すように、入射側の偏光板と出射側の偏光板とを有し、更に、入射側の偏光板と出射側の偏光板との間に液晶層を有する。また、入射側の偏光板と出射側の偏光板とは、図2の(B)に示すように、互いに直交している。ここで、図2の(B)に示すように、電圧が印加されていない「OFF」の状態では、入射側の偏光板を通った光は、液晶層の作用により90度回転し、出射側の偏光板を透過する。すなわち、電圧が印加されていないシャッターは、透過状態となる。   As shown in FIG. 2B, each shutter has an incident-side polarizing plate and an output-side polarizing plate, and a liquid crystal layer between the incident-side polarizing plate and the output-side polarizing plate. Have Further, as shown in FIG. 2B, the incident-side polarizing plate and the outgoing-side polarizing plate are orthogonal to each other. Here, as shown in FIG. 2B, in the “OFF” state where no voltage is applied, the light that has passed through the polarizing plate on the incident side is rotated by 90 ° by the action of the liquid crystal layer, and is emitted on the outgoing side. Is transmitted through the polarizing plate. That is, a shutter to which no voltage is applied is in a transmissive state.

一方、図2の(B)に示すように、電圧が印加された「ON」の状態では、液晶層の液晶分子による偏光回転作用が消失するため、入射側の偏光板を通った光は、出射側の偏光板で遮られてしまう。すなわち、電圧が印加されたシャッターは、遮光状態となる。   On the other hand, as shown in FIG. 2B, in the “ON” state where a voltage is applied, the polarization rotation action caused by the liquid crystal molecules in the liquid crystal layer disappears. It will be blocked by the polarizing plate on the exit side. That is, the shutter to which the voltage is applied is in a light shielding state.

そこで、例えば、赤外線出射部は、モニタ上に左目用の画像が表示されている期間、赤外線を出射する。そして、赤外線受光部は、赤外線を受光している期間、左目のシャッターに電圧を印加せず、右目のシャッターに電圧を印加させる。これにより、図2の(A)に示すように、右目のシャッターが遮光状態となり、左目のシャッターが透過状態となるため、観察者の左目に左目用の画像が入射する。一方、赤外線出射部は、モニタ上に右目用の画像が表示されている期間、赤外線の出射を停止する。そして、赤外線受光部は、赤外線が受光されない期間、右目のシャッターに電圧を印加せず、左目のシャッターに電圧を印加させる。これにより、左目のシャッターが遮光状態となり、右目のシャッターが透過状態であるため、観察者の右目に右目用の画像が入射する。このように、図2に示す立体表示モニタは、モニタに表示される画像とシャッターの状態を連動させて切り替えることで、観察者が立体視可能な画像を表示させる。なお、2視差画像を立体視可能な立体表示モニタとしては、上記のシャッター方式以外にも、偏光メガネ方式を採用したモニタも知られている。   Therefore, for example, the infrared emitting unit emits infrared rays during a period in which an image for the left eye is displayed on the monitor. The infrared light receiving unit applies a voltage to the right-eye shutter without applying a voltage to the left-eye shutter during a period of receiving the infrared light. Accordingly, as shown in FIG. 2A, the right-eye shutter is in a light-shielding state and the left-eye shutter is in a transmissive state, so that an image for the left eye is incident on the left eye of the observer. On the other hand, the infrared ray emitting unit stops emitting infrared rays while the right-eye image is displayed on the monitor. The infrared light receiving unit applies a voltage to the left-eye shutter without applying a voltage to the right-eye shutter during a period in which no infrared light is received. Accordingly, the left-eye shutter is in a light-shielding state and the right-eye shutter is in a transmissive state, so that an image for the right eye is incident on the right eye of the observer. As described above, the stereoscopic display monitor illustrated in FIG. 2 displays an image that can be viewed stereoscopically by the observer by switching the image displayed on the monitor and the state of the shutter in conjunction with each other. As a stereoscopic display monitor capable of stereoscopically viewing a two-parallax image, a monitor adopting a polarized glasses method is also known in addition to the shutter method described above.

更に、近年実用化された立体表示モニタとしては、レンチキュラーレンズ等の光線制御子を用いることで、例えば、9視差画像等の多視差画像を観察者が裸眼にて立体視可能とするものがある。かかる立体表示モニタは、両眼視差による立体視を可能とし、更に、観察者の視点移動に合わせて観察される映像も変化する運動視差による立体視も可能とする。   Furthermore, as a stereoscopic display monitor that has been put into practical use in recent years, there is a stereoscopic display monitor that allows a viewer to stereoscopically view a multi-parallax image such as a 9-parallax image with the naked eye by using a light controller such as a lenticular lens. . Such a stereoscopic display monitor enables stereoscopic viewing based on binocular parallax, and also enables stereoscopic viewing based on motion parallax that also changes the image observed in accordance with the viewpoint movement of the observer.

図3は、9視差画像により立体表示を行なう立体表示モニタの一例を説明するための図である。図3に示す立体表示モニタには、液晶パネル等の平面状の表示面200の前面に、光線制御子が配置される。例えば、図3に示す立体表示モニタには、光線制御子として、光学開口が垂直方向に延びる垂直レンチキュラーシート201が表示面200の前面に貼り付けられている。なお、図3に示す一例では、垂直レンチキュラーシート201の凸部が前面となるように貼り付けられているが、垂直レンチキュラーシート201の凸部が表示面200に対向するように貼り付けられる場合であっても良い。   FIG. 3 is a diagram for explaining an example of a stereoscopic display monitor that performs stereoscopic display using nine parallax images. In the stereoscopic display monitor shown in FIG. 3, a light beam controller is arranged on the front surface of a flat display surface 200 such as a liquid crystal panel. For example, in the stereoscopic display monitor shown in FIG. 3, a vertical lenticular sheet 201 whose optical aperture extends in the vertical direction is attached to the front surface of the display surface 200 as a light beam controller. In the example shown in FIG. 3, the vertical lenticular sheet 201 is pasted so that the convex portion of the vertical lenticular sheet 201 becomes the front surface, but the convex portion of the vertical lenticular sheet 201 is pasted so as to face the display surface 200. There may be.

表示面200には、図3に示すように、縦横比が3:1であり、縦方向にサブ画素である赤(R)、緑(G)、青(B)の3つが配置された画素202がマトリクス状に配置される。図3に示す立体表示モニタは、9つの画像により構成される9視差画像を、所定フォーマット(例えば格子状)に配置した中間画像に変換したうえで、表示面200に出力する。例えば、9視差画像は、9つの画像が「3行3列」に配置された格子状のフォーマットの中間画像に変換されて、表示面200に出力される。すなわち、図3に示す立体表示モニタは、9視差画像にて同一位置にある9つの画素それぞれを、9列の画素202に割り振って出力させる。9列の画素202は、視点位置の異なる9つの画像を同時に表示する単位画素群203となる。   As shown in FIG. 3, the display surface 200 has an aspect ratio of 3: 1 and pixels in which three sub-pixels, red (R), green (G), and blue (B), are arranged in the vertical direction. 202 are arranged in a matrix. The stereoscopic display monitor shown in FIG. 3 converts a nine-parallax image composed of nine images into an intermediate image arranged in a predetermined format (for example, a lattice shape), and then outputs it to the display surface 200. For example, a nine-parallax image is converted into an intermediate image in a grid-like format in which nine images are arranged in “3 rows and 3 columns” and output to the display surface 200. That is, the stereoscopic display monitor shown in FIG. 3 assigns and outputs nine pixels at the same position in nine parallax images to nine columns of pixels 202. The nine columns of pixels 202 constitute a unit pixel group 203 that simultaneously displays nine images with different viewpoint positions.

表示面200において単位画素群203として同時に出力された9視差画像は、例えば、LED(Light Emitting Diode)バックライトにより平行光として放射され、更に、垂直レンチキュラーシート201により、多方向に放射される。9視差画像の各画素の光が多方向に放射されることにより、観察者の右目及び左目に入射する光は、観察者の位置(視点の位置)に連動して変化する。すなわち、観察者の見る角度により、右目に入射する視差画像と左目に入射する視差画像とは、視差角が異なる。これにより、観察者は、例えば、図3に示す9つの位置それぞれにおいて、撮影対象を立体的に視認できる。また、観察者は、例えば、図3に示す「5」の位置において、撮影対象に対して正対した状態で立体的に視認できるとともに、図3に示す「5」以外それぞれの位置において、撮影対象の向きを変化させた状態で立体的に視認できる。なお、図3に示す立体表示モニタは、あくまでも一例である。9視差画像を表示する立体表示モニタは、図3に示すように、「RRR・・・、GGG・・・、BBB・・・」の横ストライプ液晶である場合であっても良いし、「RGBRGB・・・」の縦ストライプ液晶である場合であっても良い。また、図3に示す立体表示モニタは、図3に示すように、レンチキュラーシートが垂直となる縦レンズ方式である場合であっても良いし、レンチキュラーシートが斜めとなる斜めレンズ方式である場合であっても良い。また、中間画像のフォーマットは、「3行3列」の格子状に限定されるものではない。例えば、中間画像のフォーマットは、「1行9列」や「9行1列」等、モニタの仕様に応じた任意のフォーマットである場合であっても良い。   The nine parallax images simultaneously output as the unit pixel group 203 on the display surface 200 are emitted as parallel light by, for example, an LED (Light Emitting Diode) backlight, and further emitted in multiple directions by the vertical lenticular sheet 201. As the light of each pixel of the nine-parallax image is emitted in multiple directions, the light incident on the right eye and the left eye of the observer changes in conjunction with the position of the observer (viewpoint position). That is, the parallax angle between the parallax image incident on the right eye and the parallax image incident on the left eye differs depending on the viewing angle of the observer. Thereby, the observer can visually recognize the photographing object in three dimensions at each of the nine positions shown in FIG. 3, for example. In addition, for example, the observer can view the image three-dimensionally in a state of facing the object to be imaged at the position “5” shown in FIG. 3, and at each position other than “5” shown in FIG. It can be visually recognized in a three-dimensional manner with the direction of the object changed. Note that the stereoscopic display monitor shown in FIG. 3 is merely an example. As shown in FIG. 3, the stereoscopic display monitor that displays a nine-parallax image may be a horizontal stripe liquid crystal of “RRR..., GGG..., BBB. .. ”” May be used. The stereoscopic display monitor shown in FIG. 3 may be a vertical lens system in which the lenticular sheet is vertical as shown in FIG. 3 or a diagonal lens system in which the lenticular sheet is diagonal. There may be. Further, the format of the intermediate image is not limited to the “3 rows × 3 columns” grid. For example, the format of the intermediate image may be an arbitrary format according to the monitor specification, such as “1 row 9 column” or “9 row 1 column”.

以下、図2を用いて説明した立体表示モニタを2視差モニタと記載する。また、以下、図3を用いて説明した立体表示モニタを9視差モニタと記載する。すなわち、2視差モニタは、両眼視差による立体視を可能とする立体表示装置である。また、9視差モニタは、両眼視差による立体視を可能とし、更に、9つの画像(9視差画像)を同時に表示することで「観察者の視点移動(運動視差)」に応じて観察者が観察する画像を変更可能な立体表示装置である。   Hereinafter, the stereoscopic display monitor described with reference to FIG. 2 is referred to as a two-parallax monitor. Hereinafter, the stereoscopic display monitor described with reference to FIG. 3 is referred to as a 9-parallax monitor. That is, the two-parallax monitor is a stereoscopic display device that enables stereoscopic viewing with binocular parallax. In addition, the 9-parallax monitor enables stereoscopic viewing by binocular parallax, and further displays the 9 images (9-parallax images) at the same time so that the observer can respond according to the “observer's viewpoint movement (motion parallax)”. This is a stereoscopic display device capable of changing an image to be observed.

ここまで、第1の実施形態に係る画像処理システム1の構成例について簡単に説明した。なお、上述した画像処理システム1は、PACSが導入されている場合にその適用が限られるものではない。例えば、画像処理システム1は、医用画像が添付された電子カルテを管理する電子カルテシステムが導入されている場合にも、同様に適用される。この場合、画像保管装置120は、電子カルテを保管するデータベースである。また、例えば、画像処理システム1は、HIS(Hospital Information System)、RIS(Radiology Information System)が導入されている場合にも、同様に適用される。また、画像処理システム1は、上述した構成例に限られるものではない。各装置が有する機能やその分担は、運用の形態に応じて適宜変更されてよい。   So far, the configuration example of the image processing system 1 according to the first embodiment has been briefly described. Note that the application of the image processing system 1 described above is not limited when PACS is introduced. For example, the image processing system 1 is similarly applied when an electronic medical chart system that manages an electronic medical chart to which a medical image is attached is introduced. In this case, the image storage device 120 is a database that stores electronic medical records. Further, for example, the image processing system 1 is similarly applied when a HIS (Hospital Information System) and a RIS (Radiology Information System) are introduced. The image processing system 1 is not limited to the configuration example described above. The functions and sharing of each device may be appropriately changed according to the operation mode.

次に、第1の実施形態に係るワークステーションの構成例について図4を用いて説明する。図4は、第1の実施形態に係るワークステーションの構成例を説明するための図である。なお、以下において、「視差画像群」とは、ボリュームデータに対してボリュームレンダリング処理を行なうことで生成された立体視用の画像群(ボリュームレンダリング画像群)のことである。また、「視差画像」とは、「視差画像群」を構成する個々の画像のことである。すなわち、「視差画像群」は、視点位置が異なる複数の「視差画像」から構成される。   Next, a configuration example of the workstation according to the first embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining a configuration example of the workstation according to the first embodiment. In the following, the “parallax image group” is a group of stereoscopic images (volume rendering image group) generated by performing volume rendering processing on volume data. Further, the “parallax image” is an individual image constituting the “parallax image group”. That is, the “parallax image group” includes a plurality of “parallax images” having different viewpoint positions.

第1の実施形態に係るワークステーション130は、画像処理等に適した高性能なコンピュータであり、図4に示すように、入力部131と、表示部132と、通信部133と、記憶部134と、制御部135と、レンダリング処理部136とを有する。なお、以下では、ワークステーション130が画像処理等に適した高性能なコンピュータである場合を用いて説明するが、これに限定されるものではなく、任意の情報処理装置であって良い。例えば、任意のパーソナルコンピュータであっても良い。   The workstation 130 according to the first embodiment is a high-performance computer suitable for image processing and the like, and as illustrated in FIG. 4, an input unit 131, a display unit 132, a communication unit 133, and a storage unit 134. And a control unit 135 and a rendering processing unit 136. In the following, a case where the workstation 130 is a high-performance computer suitable for image processing or the like will be described. However, the present invention is not limited to this, and may be any information processing apparatus. For example, any personal computer may be used.

入力部131は、マウス、キーボード、トラックボール等であり、ワークステーション130に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部131は、レンダリング処理の対象となるボリュームデータを画像保管装置120から取得するための情報の入力を受け付ける。例えば、入力部131は、患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。また、第1の実施形態に係る入力部131は、レンダリング処理に関する条件(レンダリング条件)の入力を受け付ける。   The input unit 131 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the workstation 130 from an operator. Specifically, the input unit 131 according to the first embodiment receives input of information for acquiring volume data to be subjected to rendering processing from the image storage device 120. For example, the input unit 131 receives input of a patient ID, an examination ID, a device ID, a series ID, and the like. Further, the input unit 131 according to the first embodiment receives an input of a condition (rendering condition) related to rendering processing.

表示部132は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部132は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、視差画像群等を表示する。例えば、表示部132は、2視差モニタや、9視差モニタである。以下では、表示部132が9視差モニタである場合について説明する。通信部133は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。   The display unit 132 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various information. Specifically, the display unit 132 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a parallax image group, and the like. For example, the display unit 132 is a 2-parallax monitor or a 9-parallax monitor. Below, the case where the display part 132 is a 9 parallax monitor is demonstrated. The communication unit 133 is a NIC (Network Interface Card) or the like, and performs communication with other devices.

記憶部134は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部134は、通信部133を介して画像保管装置120から取得したボリュームデータを記憶する。また、第1の実施形態に係る記憶部134は、レンダリング処理中のボリュームデータや、レンダリング処理により生成された視差画像群等を記憶する。   The storage unit 134 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 134 according to the first embodiment stores volume data acquired from the image storage device 120 via the communication unit 133. In addition, the storage unit 134 according to the first embodiment stores volume data during rendering processing, a group of parallax images generated by the rendering processing, and the like.

制御部135は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、ワークステーション130の全体制御を行なう。   The control unit 135 is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array), and the entire workstation 130. Take control.

例えば、第1の実施形態に係る制御部135は、表示部132に対するGUIの表示や視差画像群の表示を制御する。また、例えば、制御部135は、画像保管装置120との間で通信部133を介して行なわれるボリュームデータや視差画像群の送受信を制御する。また、例えば、制御部135は、レンダリング処理部136によるレンダリング処理を制御する。また、例えば、制御部135は、ボリュームデータの記憶部134からの読み込みや、視差画像群の記憶部134への格納を制御する。   For example, the control unit 135 according to the first embodiment controls the display of the GUI and the display of the parallax image group on the display unit 132. For example, the control unit 135 controls transmission / reception of volume data and a parallax image group performed with the image storage device 120 via the communication unit 133. For example, the control unit 135 controls the rendering process performed by the rendering processing unit 136. For example, the control unit 135 controls reading of volume data from the storage unit 134 and storage of the parallax image group in the storage unit 134.

レンダリング処理部136は、制御部135による制御の下、画像保管装置120から取得したボリュームデータに対して種々のレンダリング処理を行ない、視差画像群を生成する。具体的には、第1の実施形態に係るレンダリング処理部136は、記憶部134からボリュームデータを読み込み、このボリュームデータに対して、まず前処理を行なう。次に、レンダリング処理部136は、前処理後のボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。続いて、レンダリング処理部136は、各種情報(目盛り、患者名、検査項目等)が描出された2次元画像を生成し、これを視差画像群それぞれに対して重畳することで、出力用の2次元画像を生成する。そして、レンダリング処理部136は、生成した視差画像群や出力用の2次元画像を記憶部134に格納する。なお、第1の実施形態において、レンダリング処理とは、ボリュームデータに対して行なう画像処理全体のことであり、ボリュームレンダリング処理とは、レンダリング処理の内、3次元の情報を反映した2次元画像を生成する処理のことである。レンダリング処理により生成される医用画像とは、例えば、視差画像が該当する。   The rendering processing unit 136 performs various rendering processes on the volume data acquired from the image storage device 120 under the control of the control unit 135 to generate a parallax image group. Specifically, the rendering processing unit 136 according to the first embodiment reads volume data from the storage unit 134 and first performs preprocessing on the volume data. Next, the rendering processing unit 136 performs volume rendering processing on the pre-processed volume data to generate a parallax image group. Subsequently, the rendering processing unit 136 generates a two-dimensional image in which various kinds of information (scale, patient name, examination item, etc.) are drawn, and superimposes it on each of the parallax image groups, thereby outputting 2 for output. Generate a dimensional image. Then, the rendering processing unit 136 stores the generated parallax image group and the output two-dimensional image in the storage unit 134. In the first embodiment, the rendering process is the entire image process performed on the volume data. The volume rendering process is a two-dimensional image reflecting three-dimensional information in the rendering process. It is a process to generate. For example, a parallax image corresponds to the medical image generated by the rendering process.

図5は、図4に示すレンダリング処理部の構成例を説明するための図である。図5に示すように、レンダリング処理部136は、前処理部1361と、3次元画像処理部1362と、2次元画像処理部1363とを有する。前処理部1361が、ボリュームデータに対する前処理を行い、3次元画像処理部1362が、前処理後のボリュームデータから視差画像群を生成し、2次元画像処理部1363が、視差画像群に各種情報が重畳された出力用の2次元画像を生成する。以下、各部を順に説明する。   FIG. 5 is a diagram for explaining a configuration example of the rendering processing unit shown in FIG. As illustrated in FIG. 5, the rendering processing unit 136 includes a preprocessing unit 1361, a 3D image processing unit 1362, and a 2D image processing unit 1363. The preprocessing unit 1361 performs preprocessing on the volume data, the 3D image processing unit 1362 generates a parallax image group from the preprocessed volume data, and the 2D image processing unit 1363 stores various information on the parallax image group. A two-dimensional image for output on which is superimposed is generated. Hereinafter, each part is demonstrated in order.

前処理部1361は、ボリュームデータに対してレンダリング処理を行なう際に、種々の前処理を行なう処理部であり、画像補正処理部1361aと、3次元物体フュージョン部1361eと、3次元物体表示領域設定部1361fとを有する。   The preprocessing unit 1361 is a processing unit that performs various types of preprocessing when rendering processing is performed on volume data, and includes an image correction processing unit 1361a, a three-dimensional object fusion unit 1361e, and a three-dimensional object display area setting. Part 1361f.

画像補正処理部1361aは、2種類のボリュームデータを1つのボリュームデータとして処理する際に画像補正処理を行なう処理部であり、図5に示すように、歪み補正処理部1361b、体動補正処理部1361c及び画像間位置合わせ処理部1361dを有する。例えば、画像補正処理部1361aは、PET−CT装置により生成されたPET画像のボリュームデータとX線CT画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。或いは、画像補正処理部1361aは、MRI装置により生成されたT1強調画像のボリュームデータとT2強調画像のボリュームデータとを1つのボリュームデータとして処理する際に画像補正処理を行なう。   The image correction processing unit 1361a is a processing unit that performs image correction processing when processing two types of volume data as one volume data, and as shown in FIG. 5, a distortion correction processing unit 1361b, a body motion correction processing unit, 1361c and an inter-image registration processing unit 1361d. For example, the image correction processing unit 1361a performs image correction processing when processing volume data of a PET image generated by a PET-CT apparatus and volume data of an X-ray CT image as one volume data. Alternatively, the image correction processing unit 1361a performs image correction processing when processing the volume data of the T1-weighted image and the volume data of the T2-weighted image generated by the MRI apparatus as one volume data.

また、歪み補正処理部1361bは、個々のボリュームデータにおいて、医用画像診断装置110によるデータ収集時の収集条件に起因するデータの歪みを補正する。また、体動補正処理部1361cは、個々のボリュームデータを生成するために用いられたデータの収集時期における被検体の体動に起因する移動を補正する。また、画像間位置合わせ処理部1361dは、歪み補正処理部1361b及び体動補正処理部1361cによる補正処理が行なわれた2つのボリュームデータ間で、例えば、相互相関法等を用いた位置合わせ(Registration)を行なう。   In addition, the distortion correction processing unit 1361b corrects the data distortion caused by the collection conditions at the time of data collection by the medical image diagnostic apparatus 110 in each volume data. Further, the body motion correction processing unit 1361c corrects the movement caused by the body motion of the subject at the time of collecting the data used for generating the individual volume data. Further, the inter-image registration processing unit 1361d performs registration (Registration) using, for example, a cross-correlation method between the two volume data subjected to the correction processing by the distortion correction processing unit 1361b and the body motion correction processing unit 1361c. ).

3次元物体フュージョン部1363eは、画像間位置合わせ処理部1361dにより位置合わせが行なわれた複数のボリュームデータをフュージョンさせる。なお、画像補正処理部1361a及び3次元物体フュージョン部1361eの処理は、単一のボリュームデータに対してレンダリング処理を行なう場合、省略される。   The three-dimensional object fusion unit 1363e fuses a plurality of volume data that has been aligned by the inter-image registration processing unit 1361d. Note that the processing of the image correction processing unit 1361a and the three-dimensional object fusion unit 1361e is omitted when rendering processing is performed on single volume data.

3次元物体表示領域設定部1361fは、操作者により指定された表示対象臓器に対応する表示領域を設定する処理部であり、セグメンテーション処理部1361gを有する。セグメンテーション処理部1361gは、操作者により指定された心臓、肺、血管等の臓器を、例えば、ボリュームデータの画素値(ボクセル値)に基づく領域拡張法により抽出する処理部である。   The three-dimensional object display region setting unit 1361f is a processing unit that sets a display region corresponding to the display target organ designated by the operator, and includes a segmentation processing unit 1361g. The segmentation processing unit 1361g is a processing unit that extracts organs such as the heart, lungs, and blood vessels designated by the operator by, for example, a region expansion method based on pixel values (voxel values) of volume data.

なお、セグメンテーション処理部1361gは、操作者により表示対象臓器が指定されなかった場合、セグメンテーション処理を行なわない。また、セグメンテーション処理部1361gは、操作者により表示対象臓器が複数指定された場合、該当する複数の臓器を抽出する。また、セグメンテーション処理部1361gの処理は、レンダリング画像を参照した操作者の微調整要求により再度実行される場合もある。   Note that the segmentation processing unit 1361g does not perform the segmentation process when the display target organ is not designated by the operator. The segmentation processing unit 1361g extracts a plurality of corresponding organs when a plurality of display target organs are designated by the operator. Further, the processing of the segmentation processing unit 1361g may be executed again in response to an operator fine adjustment request referring to the rendered image.

3次元画像処理部1362は、前処理部1361が処理を行なった前処理後のボリュームデータに対してボリュームレンダリング処理を行なう。ボリュームレンダリング処理を行なう処理部として、3次元画像処理部1362は、投影方法設定部1362aと、3次元幾何変換処理部1362bと、3次元物体アピアランス処理部1362fと、3次元仮想空間レンダリング部1362kとを有する。   The 3D image processing unit 1362 performs volume rendering processing on the pre-processed volume data processed by the preprocessing unit 1361. As a processing unit that performs volume rendering processing, a three-dimensional image processing unit 1362 includes a projection method setting unit 1362a, a three-dimensional geometric transformation processing unit 1362b, a three-dimensional object appearance processing unit 1362f, and a three-dimensional virtual space rendering unit 1362k. Have

投影方法設定部1362aは、視差画像群を生成するための投影方法を決定する。例えば、投影方法設定部1362aは、ボリュームレンダリング処理を平行投影法により実行するか、透視投影法により実行するかを決定する。   The projection method setting unit 1362a determines a projection method for generating a parallax image group. For example, the projection method setting unit 1362a determines whether to execute the volume rendering process by the parallel projection method or the perspective projection method.

3次元幾何変換処理部1362bは、ボリュームレンダリング処理が実行されるボリュームデータを3次元幾何学的に変換するための情報を決定する処理部であり、平行移動処理部1362c、回転処理部1362d及び拡大縮小処理部1362eを有する。平行移動処理部1362cは、ボリュームレンダリング処理を行なう際の視点位置が平行移動された場合に、ボリュームデータを平行移動させる移動量を決定する処理部であり、回転処理部1362dは、ボリュームレンダリング処理を行なう際の視点位置が回転移動された場合に、ボリュームデータを回転移動させる移動量を決定する処理部である。また、拡大縮小処理部1362eは、視差画像群の拡大や縮小が要求された場合に、ボリュームデータの拡大率や縮小率を決定する処理部である。   The three-dimensional geometric transformation processing unit 1362b is a processing unit that determines information for transforming volume data on which volume rendering processing is performed into a three-dimensional geometrical structure. The three-dimensional geometric transformation processing unit 1362b includes a parallel movement processing unit 1362c, a rotation processing unit 1362d, and an enlargement unit. A reduction processing unit 1362e is included. The parallel movement processing unit 1362c is a processing unit that determines the amount of movement to translate the volume data when the viewpoint position when performing the volume rendering processing is translated, and the rotation processing unit 1362d performs the volume rendering processing. This is a processing unit that determines the amount of movement by which the volume data is rotationally moved when the viewpoint position during the rotation is rotationally moved. The enlargement / reduction processing unit 1362e is a processing unit that determines the enlargement rate or reduction rate of the volume data when enlargement or reduction of the parallax image group is requested.

3次元物体アピアランス処理部1362fは、3次元物体色彩処理部1362g、3次元物体不透明度処理部1362h、3次元物体材質処理部1362i及び3次元仮想空間光源処理部1362jを有する。3次元物体アピアランス処理部1362fは、これらの処理部により、例えば、操作者の要求に応じて、表示される視差画像群の表示状態を決定する処理を行なう。   The three-dimensional object appearance processing unit 1362f includes a three-dimensional object color processing unit 1362g, a three-dimensional object opacity processing unit 1362h, a three-dimensional object material processing unit 1362i, and a three-dimensional virtual space light source processing unit 1362j. The three-dimensional object appearance processing unit 1362f performs a process of determining the display state of the displayed parallax image group in response to an operator's request, for example.

3次元物体色彩処理部1362gは、ボリュームデータにてセグメンテーションされた各領域に対して着色される色彩を決定する処理部である。3次元物体不透明度処理部1362hは、ボリュームデータにてセグメンテーションされた各領域を構成する各ボクセルの不透過度(Opacity)を決定する処理部である。なお、ボリュームデータにおいて不透過度が「100%」とされた領域の後方の領域は、視差画像群において描出されないこととなる。また、ボリュームデータにおいて不透過度が「0%」とされた領域は、視差画像群において描出されないこととなる。   The three-dimensional object color processing unit 1362g is a processing unit that determines a color to be colored for each region segmented by the volume data. The three-dimensional object opacity processing unit 1362h is a processing unit that determines the opacity (Opacity) of each voxel constituting each region segmented by volume data. It should be noted that the area behind the area having the opacity of “100%” in the volume data is not drawn in the parallax image group. In addition, an area in which the opacity is “0%” in the volume data is not drawn in the parallax image group.

3次元物体材質処理部1362iは、ボリュームデータにてセグメンテーションされた各領域の材質を決定することで、この領域が描出される際の質感を調整する処理部である。3次元仮想空間光源処理部1362jは、ボリュームデータに対してボリュームレンダリング処理を行なう際に、3次元仮想空間に設置する仮想光源の位置や、仮想光源の種類を決定する処理部である。仮想光源の種類としては、無限遠から平行な光線を照射する光源や、視点から放射状の光線を照射する光源等が挙げられる。   The three-dimensional object material processing unit 1362i is a processing unit that determines the material of each region segmented by volume data and adjusts the texture when the region is rendered. The three-dimensional virtual space light source processing unit 1362j is a processing unit that determines the position of the virtual light source installed in the three-dimensional virtual space and the type of the virtual light source when performing volume rendering processing on the volume data. Examples of the virtual light source include a light source that emits parallel light rays from infinity and a light source that emits radial light rays from the viewpoint.

3次元仮想空間レンダリング部1362kは、ボリュームデータに対してボリュームレンダリング処理を行ない、視差画像群を生成する。また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリング処理を行なう際、必要に応じて、投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fにより決定された各種情報を用いる。   The three-dimensional virtual space rendering unit 1362k performs volume rendering processing on the volume data to generate a parallax image group. The three-dimensional virtual space rendering unit 1362k performs various types of information determined by the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f as necessary when performing the volume rendering process. Is used.

ここで、3次元仮想空間レンダリング部1362kによるボリュームレンダリング処理は、レンダリング条件に従って行なわれることになる。例えば、レンダリング条件は、「平行投影法」又は「透視投影法」である。また、例えば、レンダリング条件は、「基準の視点位置及び視差角」である。また、例えば、レンダリング条件は、「視点位置の平行移動」、「視点位置の回転移動」、「視差画像群の拡大」、「視差画像群の縮小」である。また、例えば、レンダリング条件は、「着色される色彩」、「透過度」、「質感」、「仮想光源の位置」、「仮想光源の種類」である。このようなレンダリング条件は、入力部131を介して操作者から受け付ける場合や、初期設定される場合が考えられる。いずれの場合も、3次元仮想空間レンダリング部1362kは、制御部135からレンダリング条件を受け付け、このレンダリング条件に従って、ボリュームデータに対するボリュームレンダリング処理を行なう。また、このとき、上述した投影方法設定部1362a、3次元幾何変換処理部1362b、3次元物体アピアランス処理部1362fが、このレンダリング条件に従って必要な各種情報を決定するので、3次元仮想空間レンダリング部1362kは、決定されたこれらの各種情報を用いて視差画像群を生成する。   Here, the volume rendering process by the three-dimensional virtual space rendering unit 1362k is performed according to the rendering conditions. For example, the rendering condition is “parallel projection method” or “perspective projection method”. For example, the rendering condition is “reference viewpoint position and parallax angle”. Further, for example, the rendering conditions are “translation of viewpoint position”, “rotational movement of viewpoint position”, “enlargement of parallax image group”, and “reduction of parallax image group”. Further, for example, the rendering conditions are “color to be colored”, “transparency”, “texture”, “position of virtual light source”, and “type of virtual light source”. Such a rendering condition may be accepted from the operator via the input unit 131 or may be initially set. In any case, the three-dimensional virtual space rendering unit 1362k receives a rendering condition from the control unit 135, and performs volume rendering processing on the volume data according to the rendering condition. At this time, the projection method setting unit 1362a, the three-dimensional geometric transformation processing unit 1362b, and the three-dimensional object appearance processing unit 1362f determine various pieces of necessary information according to the rendering conditions, so the three-dimensional virtual space rendering unit 1362k. Generates a parallax image group using the determined various pieces of information.

図6は、第1の実施形態に係るボリュームレンダリング処理の一例を説明するための図である。例えば、3次元仮想空間レンダリング部1362kが、図6の(A)に示すように、レンダリング条件として、平行投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6の(A)に示すように、視線方向に沿って無限遠から平行な光線を照射する光源を設定する。そして、3次元仮想空間レンダリング部1362kは、視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に平行移動して、平行投影法により視差角(視線方向間の角度)が1度ずつ異なる9つの視差画像を生成する。   FIG. 6 is a diagram for explaining an example of volume rendering processing according to the first embodiment. For example, as shown in FIG. 6A, the three-dimensional virtual space rendering unit 1362k accepts the parallel projection method as a rendering condition, and further sets the reference viewpoint position (5) and the parallax angle “1 degree”. Suppose you accept. In such a case, the three-dimensional virtual space rendering unit 1362k sets a light source that emits parallel light rays from infinity along the line-of-sight direction, as shown in FIG. Then, the three-dimensional virtual space rendering unit 1362k translates the position of the viewpoint from (1) to (9) so that the parallax angle is every “1 degree”, and the parallax angle (gaze direction) by the parallel projection method. Nine parallax images with different angles are generated by 1 degree.

或いは、3次元仮想空間レンダリング部1362kが、図6の(B)に示すように、レンダリング条件として、透視投影法を受け付け、更に、基準の視点位置(5)と視差角「1度」とを受け付けたとする。かかる場合、3次元仮想空間レンダリング部1362kは、図6の(B)に示すように、視線方向を中心に光を3次元的に放射状に照射する点光源や面光源を各視点にて設定する。そして、3次元仮想空間レンダリング部1362kは、例えば、ボリュームデータの切断面の中心(重心)を中心に視差角が「1度」おきとなるように、視点の位置を(1)〜(9)に回転移動して、透視投影法により視差角が1度ずつ異なる9つの視差画像を生成する。なお、透視投影法を行なう場合、レンダリング条件によっては、視点(1)〜(9)は、平行移動される場合であってもよい。なお、視線方向は、図6の(A)及び(B)に示すように、視点からボリュームデータの切断面の中心(重心)に向かう方向となる。   Alternatively, as shown in FIG. 6B, the three-dimensional virtual space rendering unit 1362k accepts a perspective projection method as a rendering condition, and further sets the reference viewpoint position (5) and the parallax angle “1 degree”. Suppose you accept. In such a case, as shown in FIG. 6B, the three-dimensional virtual space rendering unit 1362k sets a point light source and a surface light source that irradiates light three-dimensionally radially around the line-of-sight direction at each viewpoint. . For example, the three-dimensional virtual space rendering unit 1362k sets the position of the viewpoint (1) to (9) so that the parallax angle is every “one degree” around the center (center of gravity) of the cut surface of the volume data. Nine parallax images having different parallax angles by 1 degree are generated by the perspective projection method. When performing the perspective projection method, the viewpoints (1) to (9) may be translated depending on the rendering conditions. As shown in FIGS. 6A and 6B, the line-of-sight direction is a direction from the viewpoint toward the center (center of gravity) of the cut surface of the volume data.

或いは、3次元仮想空間レンダリング部1362kは、図6の(C)に示すように、表示されるボリュームレンダリング画像の縦方向に対しては、視線方向を中心に光を2次元的に放射状に照射し、表示されるボリュームレンダリング画像の横方向に対しては、視線方向に沿って無限遠から平行な光線を照射する光源を設定することで、平行投影法と透視投影法とを併用したボリュームレンダリング処理を行なってもよい。   Alternatively, as shown in FIG. 6C, the three-dimensional virtual space rendering unit 1362k radiates light in a two-dimensional manner centering on the line-of-sight direction with respect to the vertical direction of the displayed volume rendering image. For the horizontal direction of the volume rendering image to be displayed, a volume rendering process that uses both the parallel projection method and the perspective projection method by setting a light source that emits parallel light rays from infinity along the viewing direction. May be performed.

このようにして生成された9つの視差画像が、視差画像群である。第1の実施形態において、9つの視差画像は、例えば制御部135により所定フォーマット(例えば格子状)に配置した中間画像に変換され、立体表示モニタとしての表示部132に出力される。すると、ワークステーション130の操作者は、立体表示モニタに表示された立体視可能な医用画像を確認しながら、視差画像群生成のための操作を行なうことができる。   The nine parallax images generated in this way are a parallax image group. In the first embodiment, the nine parallax images are converted into intermediate images arranged in a predetermined format (for example, a lattice shape) by the control unit 135, for example, and are output to the display unit 132 as a stereoscopic display monitor. Then, the operator of the workstation 130 can perform an operation for generating a parallax image group while confirming a stereoscopically viewable medical image displayed on the stereoscopic display monitor.

なお、図6の例では、レンダリング条件として、投影方法、基準の視点位置及び視差角を受け付けた場合を説明したが、レンダリング条件として、他の条件を受け付けた場合も同様に、3次元仮想空間レンダリング部1362kは、それぞれのレンダリング条件を反映しつつ、視差画像群を生成する。   In the example of FIG. 6, the case where the projection method, the reference viewpoint position, and the parallax angle are received as the rendering conditions has been described. However, the three-dimensional virtual space is similarly applied when other conditions are received as the rendering conditions. The rendering unit 1362k generates a parallax image group while reflecting each rendering condition.

また、3次元仮想空間レンダリング部1362kは、ボリュームレンダリングだけでなく、断面再構成法(MPR:Multi Planer Reconstruction)を行なってボリュームデータからMPR画像を再構成する機能も有する。なお、3次元仮想空間レンダリング部1362kは、「Curved MPR」を行なう機能や、「Intensity Projection」を行なう機能も有する。   The three-dimensional virtual space rendering unit 1362k has a function of reconstructing an MPR image from volume data by performing not only volume rendering but also a cross-section reconstruction method (MPR: Multi Planer Reconstruction). The three-dimensional virtual space rendering unit 1362k also has a function of performing “Curved MPR” and a function of performing “Intensity Projection”.

続いて、3次元画像処理部1362がボリュームデータから生成した視差画像群は、アンダーレイ(Underlay)とされる。そして、各種情報(目盛り、患者名、検査項目等)が描出されたオーバーレイ(Overlay)がアンダーレイに対して重畳されることで、出力用の2次元画像とされる。2次元画像処理部1363は、オーバーレイ及びアンダーレイに対して画像処理を行なうことで、出力用の2次元画像を生成する処理部であり、図5に示すように、2次元物体描画部1363a、2次元幾何変換処理部1363b及び輝度調整部1363cを有する。例えば、2次元画像処理部1363は、出力用の2次元画像の生成処理に要する負荷を軽減するために、9枚の視差画像(アンダーレイ)のそれぞれに対して1枚のオーバーレイを重畳することで、出力用の2次元画像を9枚、生成する。   Subsequently, the parallax image group generated from the volume data by the three-dimensional image processing unit 1362 is set as an underlay. Then, an overlay (Overlay) on which various types of information (scale, patient name, examination item, etc.) are drawn is superimposed on the underlay, thereby obtaining a two-dimensional image for output. The two-dimensional image processing unit 1363 is a processing unit that generates an output two-dimensional image by performing image processing on the overlay and the underlay. As illustrated in FIG. 5, the two-dimensional object drawing unit 1363a, A two-dimensional geometric transformation processing unit 1363b and a luminance adjustment unit 1363c are included. For example, the two-dimensional image processing unit 1363 superimposes one overlay on each of nine parallax images (underlays) in order to reduce the load required to generate a two-dimensional image for output. Thus, nine output two-dimensional images are generated.

2次元物体描画部1363aは、オーバーレイに描出される各種情報を描画する処理部であり、2次元幾何変換処理部1363bは、オーバーレイに描出される各種情報の位置を平行移動処理又は回転移動処理したり、オーバーレイに描出される各種情報の拡大処理又は縮小処理したりする処理部である。   The two-dimensional object drawing unit 1363a is a processing unit that draws various information drawn on the overlay, and the two-dimensional geometric transformation processing unit 1363b performs parallel movement processing or rotational movement processing on the position of the various information drawn on the overlay. Or a processing unit that performs an enlargement process or a reduction process of various types of information drawn on the overlay.

また、輝度調整部1363cは、輝度変換処理を行なう処理部であり、例えば、出力先の立体表示モニタの諧調や、ウィンドウ幅(WW:Window Width)、ウィンドウレベル(WL:Window Level)等の画像処理用のパラメータに応じて、オーバーレイ及びアンダーレイの輝度を調整する処理部である。   The luminance adjustment unit 1363c is a processing unit that performs luminance conversion processing. For example, the gradation of an output destination stereoscopic display monitor, an image such as a window width (WW: Window Width), a window level (WL: Window Level), or the like. This is a processing unit that adjusts the brightness of the overlay and the underlay according to the processing parameters.

このようにして生成された出力用の2次元画像は、例えば制御部135により一旦記憶部134に格納され、その後、通信部133を介して画像保管装置120に送信される。例えば、端末装置140が、画像保管装置120からこの出力用の2次元画像を取得し、所定フォーマット(例えば格子状)に配置した中間画像に変換した上で立体表示モニタに表示すると、観察者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。或いは、出力用の2次元画像は、例えば制御部135により通信部133を介して、直接、端末装置140に送信される。   The output two-dimensional image generated in this way is temporarily stored in the storage unit 134 by the control unit 135, for example, and then transmitted to the image storage device 120 via the communication unit 133. For example, when the terminal device 140 acquires the two-dimensional image for output from the image storage device 120, converts it to an intermediate image arranged in a predetermined format (for example, a lattice shape), and displays it on a stereoscopic display monitor, A doctor or a laboratory technician can view a stereoscopically viewable medical image in a state where various types of information (scale, patient name, examination item, etc.) are drawn. Alternatively, the output two-dimensional image is directly transmitted to the terminal device 140 by the control unit 135 via the communication unit 133, for example.

そして、第1の実施形態に係る端末装置140は、上述したように、病院内に勤務する医師や検査技師に医用画像を閲覧させるための装置であり、画像保管装置120又はワークステーション130からレンダリング処理部136が生成した視差画像群(出力用の2次元画像)を取得する。図7は、第1の実施形態に係る端末装置の構成例を説明するための図である。   As described above, the terminal device 140 according to the first embodiment is a device that allows a doctor or laboratory technician working in a hospital to view a medical image, and is rendered from the image storage device 120 or the workstation 130. The parallax image group (two-dimensional image for output) generated by the processing unit 136 is acquired. FIG. 7 is a diagram for explaining a configuration example of the terminal device according to the first embodiment.

第1の実施形態に係る端末装置140は、図7に示すように、入力部141と、表示部142と、通信部143と、記憶部144と、制御部145とを有する。   As illustrated in FIG. 7, the terminal device 140 according to the first embodiment includes an input unit 141, a display unit 142, a communication unit 143, a storage unit 144, and a control unit 145.

入力部141は、マウス、キーボード、トラックボール等であり、端末装置140に対する各種操作の入力を操作者から受け付ける。具体的には、第1の実施形態に係る入力部141は、操作者から立体視要求等の表示要求を受け付ける。例えば、入力部141は、表示要求として、操作者が読影用の表示を要望するボリュームデータを指定するための患者ID、検査ID、装置ID、シリーズID等の入力を受け付ける。入力部141は、表示要求として、操作者からボリュームデータに対するレンダリング条件を受け付ける。   The input unit 141 is a mouse, a keyboard, a trackball, or the like, and receives input of various operations on the terminal device 140 from an operator. Specifically, the input unit 141 according to the first embodiment receives a display request such as a stereoscopic request from the operator. For example, the input unit 141 accepts an input such as a patient ID, an examination ID, a device ID, and a series ID for designating volume data that the operator desires to display for interpretation as a display request. The input unit 141 receives a rendering condition for the volume data from the operator as a display request.

表示部142は、立体表示モニタとしての液晶パネル等であり、各種情報を表示する。具体的には、第1の実施形態に係る表示部142は、操作者から各種操作を受け付けるためのGUI(Graphical User Interface)や、立体視画像等を表示する。例えば、表示部142は、2視差モニタや、9視差モニタである。以下では、表示部142が9視差モニタである場合について説明する。   The display unit 142 is a liquid crystal panel or the like as a stereoscopic display monitor, and displays various types of information. Specifically, the display unit 142 according to the first embodiment displays a GUI (Graphical User Interface) for receiving various operations from the operator, a stereoscopic image, and the like. For example, the display unit 142 is a 2-parallax monitor or a 9-parallax monitor. Below, the case where the display part 142 is a 9 parallax monitor is demonstrated.

通信部143は、NIC(Network Interface Card)等であり、他の装置との間で通信を行う。例えば、第1の実施形態に係る通信部143は、入力部141が受け付けた表示要求を画像保管装置120又はワークステーション130に送信する。また、第1の実施形態に係る通信部133は、表示要求に応じて、画像保管装置120又はワークステーション130が送信した視差画像群等を受信する。   The communication unit 143 is a NIC (Network Interface Card) or the like, and performs communication with other devices. For example, the communication unit 143 according to the first embodiment transmits a display request received by the input unit 141 to the image storage device 120 or the workstation 130. Further, the communication unit 133 according to the first embodiment receives a parallax image group or the like transmitted by the image storage device 120 or the workstation 130 in response to a display request.

記憶部144は、ハードディスク、半導体メモリ素子等であり、各種情報を記憶する。具体的には、第1の実施形態に係る記憶部144は、通信部143を介して画像保管装置120又はワークステーション130から取得した視差画像群等を記憶する。また、記憶部144は、通信部143を介して画像保管装置120又はワークステーション130から取得した視差画像群の付帯情報(視差数や解像度等)も記憶する。   The storage unit 144 is a hard disk, a semiconductor memory element, or the like, and stores various types of information. Specifically, the storage unit 144 according to the first embodiment stores a parallax image group acquired from the image storage device 120 or the workstation 130 via the communication unit 143. The storage unit 144 also stores incidental information (the number of parallaxes, resolution, and the like) of the parallax image group acquired from the image storage device 120 or the workstation 130 via the communication unit 143.

制御部145は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路であり、端末装置140の全体制御を行なう。   The control unit 145 is an electronic circuit such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit), or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). Take control.

例えば、制御部145は、画像保管装置120又はワークステーション130との間で通信部143を介して行なわれる表示要求の情報や、画像保管装置120又はワークステーション130との間で通信部143を介して行なわれる視差画像群等の送受信を制御する。また、例えば、制御部145は、視差画像群等の記憶部144への格納や、視差画像群等の記憶部144からの読み込みを制御する。   For example, the control unit 145 uses the communication unit 143 to communicate with the image storage device 120 or the workstation 130 via the communication unit 143 or information about a display request made to the image storage device 120 or the workstation 130. The transmission / reception of the parallax image group and the like performed in this manner is controlled. For example, the control unit 145 controls storage of the parallax image group or the like in the storage unit 144 and reading of the parallax image group or the like from the storage unit 144.

また、第1の実施形態に係る制御部145は、表示部142に対するGUIの表示や視差画像群の表示を制御する。第1の実施形態に係る制御部145は、視差画像群を所定フォーマット(例えば格子状)に配置した中間画像に変換した上で9視差モニタである表示部142に表示する。   In addition, the control unit 145 according to the first embodiment controls the display of the GUI and the display of the parallax image group on the display unit 142. The control unit 145 according to the first embodiment converts the parallax image group into an intermediate image arranged in a predetermined format (for example, a lattice shape), and displays the intermediate image on the display unit 142 which is a 9-parallax monitor.

さて、上述したように、レンダリング処理部136は、制御部135による制御の下、ボリュームデータから視差画像群を生成する。また、端末装置140は、視差画像群を取得して表示部142に表示する。これにより、端末装置140の操作者である医師や検査技師は、各種情報(目盛り、患者名、検査項目等)が描出された状態で、立体視可能な医用画像を閲覧することができる。   As described above, the rendering processing unit 136 generates a parallax image group from the volume data under the control of the control unit 135. In addition, the terminal device 140 acquires a parallax image group and displays it on the display unit 142. As a result, a doctor or laboratory technician who is an operator of the terminal device 140 can browse a stereoscopically viewable medical image in a state where various information (scale, patient name, examination item, etc.) is drawn.

ここで、現状、立体視モニタにて表示される視差画像群は、立体視モニタの仕様に応じて予め設定された条件により生成された画像群である。例えば、2視差モニタにて表示される視差画像群は、例えば、視差角が6度の2視差画像である。これにより、2視差モニタの観察者は、視野が画面正面からずれても、常に同じ2視差画像を立体視することができる。しかし、2視差モニタの観察者がボリュームデータの側面を観察したい場合、レンダリング処理部136は、視点の位置を変更したボリュームレンダリング処理により2視差画像を生成する必要がある。   Here, at present, the parallax image group displayed on the stereoscopic monitor is an image group generated under conditions set in advance according to the specifications of the stereoscopic monitor. For example, the group of parallax images displayed on the two-parallax monitor is, for example, a two-parallax image having a parallax angle of 6 degrees. As a result, the observer of the 2-parallax monitor can always stereoscopically view the same 2-parallax image even if the field of view deviates from the front of the screen. However, when the observer of the 2-parallax monitor wants to observe the side surface of the volume data, the rendering processing unit 136 needs to generate a 2-parallax image by volume rendering processing in which the viewpoint position is changed.

また、9視差モニタにて表示される視差画像群は、例えば、視差角が1度間隔の9視差画像である。図8は、従来の9視差モニタにて表示される視差画像群の一例を説明するための図である。   The group of parallax images displayed on the 9-parallax monitor is, for example, 9-parallax images with a parallax angle of 1 degree interval. FIG. 8 is a diagram for explaining an example of a parallax image group displayed on a conventional nine-parallax monitor.

例えば、制御部135の制御の下、レンダリング処理部136(セグメンテーション処理部1361g)は、ボリュームデータのレンダリング対象となる領域である被写体部分を抽出する。そして、制御部135の制御の下、レンダリング処理部136は、図8の(A)に示すように、例えば、被写体部分の重心を通る切断面にて設定された正円の周囲に沿って、視差角が1度となるように9個の視点を設定する。図8の(A)に示す一例では、制御部135は、「被写体部分に正対する位置」に基準となる「0度」の視点を設定する。そして、図8の(A)に示す一例では、制御部135は、視点「0度」から時計回りに「−1度、−2度、−3度、−4度」の視点を設定し、更に、視点「0度」から反時計回りに「+1度、+2度、+3度、+4度」の視点を設定する。   For example, under the control of the control unit 135, the rendering processing unit 136 (segmentation processing unit 1361g) extracts a subject portion that is a region to be rendered of volume data. Then, under the control of the control unit 135, the rendering processing unit 136, for example, along the circumference of a perfect circle set on a cut surface passing through the center of gravity of the subject portion, as shown in FIG. Nine viewpoints are set so that the parallax angle is 1 degree. In the example illustrated in FIG. 8A, the control unit 135 sets a “0 degree” viewpoint that serves as a reference to the “position facing the subject portion”. In the example illustrated in FIG. 8A, the control unit 135 sets the viewpoints “−1 degree, −2 degrees, −3 degrees, −4 degrees” clockwise from the viewpoint “0 degrees”. Further, the viewpoints “+1 degree, +2 degrees, +3 degrees, +4 degrees” are set counterclockwise from the viewpoint “0 degrees”.

ここで、「被写体部分に正対する位置」は、例えば、画像保管装置120にDICOMデータとして保管されたボリュームデータの付帯情報に基づいて設定される。DICOM規格では、撮影時にどの方向から撮影し観察するかを設定した内容が、撮影されたボリュームデータの付帯情報として記録されている。例えば、X線CT装置の操作者は、読影に際して最初に表示される基準画像を、患者の腹側から背側に向かう方向で、ボリュームデータを観察した画像とする付帯情報を、撮像したボリュームデータの付帯情報として設定する。また、ボリュームデータには、撮像時の患者体位に関する付帯情報や、撮像を行なった医用画像診断装置における座標系に関する付帯情報が付与される。   Here, the “position facing the subject portion” is set based on the incidental information of the volume data stored as DICOM data in the image storage device 120, for example. In the DICOM standard, the contents set from which direction to observe and observe at the time of photographing are recorded as incidental information of the photographed volume data. For example, the operator of the X-ray CT apparatus captures the volume data obtained by capturing the auxiliary information, which is an image obtained by observing the volume data in the direction from the ventral side to the back side of the patient as the reference image that is initially displayed during interpretation. Set as incidental information. Further, the volume data is provided with supplementary information related to the patient's posture at the time of imaging and supplementary information related to the coordinate system in the medical image diagnostic apparatus that has performed imaging.

制御部135は、これらの付帯情報を参照して、処理対象となるボリュームデータにおける「被写体部分に正対する位置」を特定し、基準となる「0度」の視点を設定することができる。すなわち、「被写体部分に正対する位置」は、撮像を行なった操作者や、観察者(例えば、読影医)が指定した患者の向きによって、任意に変更することでできる。   The control unit 135 can refer to the supplementary information to identify “a position directly facing the subject portion” in the volume data to be processed, and set a reference “0 degree” viewpoint. That is, the “position facing the subject portion” can be arbitrarily changed according to the orientation of the patient who is designated by the operator who has performed the imaging or the observer (for example, an interpreting doctor).

レンダリング処理部136は、かかる処理により設定された9つの視点それぞれを用いて、例えば透視投影法により被写体部分をボリュームレンダリング処理することで9視差画像を生成する。生成された9視差画像は、例えば、図8の(B)に示すように、3行3列の中間画像に変換され、9視差モニタにて表示される。   The rendering processing unit 136 generates a nine-parallax image by performing volume rendering processing on the subject portion by using, for example, the perspective projection method, using each of the nine viewpoints set by such processing. The generated 9-parallax image is converted into an intermediate image of 3 rows and 3 columns and displayed on the 9-parallax monitor, for example, as shown in FIG.

すなわち、制御部135は、9視差画像を、『「−4度」の視差画像、「−3度」の視差画像、「−2度」の視差画像』、『「−1度」の視差画像、「0度」の視差画像、「+1度」の視差画像』及び『「+2度」の視差画像、「+3」の視差画像、「+4度」の視差画像』の3行3列に配置した中間画像に変換する。これにより、「−4度」の視差画像は、図3に示す単位画素群203の1列目に出力され、「−3度」の視差画像は、図3に示す単位画素群203の2列目に出力され、「−2度」の視差画像は、図3に示す単位画素群203の3列目に出力される。また、「−1度」の視差画像は、図3に示す単位画素群203の4列目に出力され、「0度」の視差画像は、図3に示す単位画素群203の5列目に出力され、「+1度」の視差画像は、図3に示す単位画素群203の6列目に出力される。また、「+2度」の視差画像は、図3に示す単位画素群203の7列目に出力され、「+3度」の視差画像は、図3に示す単位画素群203の8列目に出力され、「+4度」の視差画像は、図3に示す単位画素群203の9列目に出力される。   That is, the control unit 135 converts the nine parallax images into a “−4 degree” parallax image, a “−3 degree” parallax image, a “−2 degree” parallax image, and a “−1 degree” parallax image. , “0 degree” parallax image, “+1 degree parallax image” and “+2 degree” parallax image, “+3” parallax image, “+4 degree” parallax image ”are arranged in 3 rows and 3 columns. Convert to an intermediate image. As a result, the “−4 degrees” parallax image is output to the first column of the unit pixel group 203 shown in FIG. 3, and the “−3 degrees” parallax image is the two columns of the unit pixel group 203 shown in FIG. 3. The parallax image of “−2 degrees” is output to the third column of the unit pixel group 203 shown in FIG. Further, the “−1 degree” parallax image is output to the fourth column of the unit pixel group 203 illustrated in FIG. 3, and the “0 degree” parallax image is output to the fifth column of the unit pixel group 203 illustrated in FIG. 3. The output “+1 degree” parallax image is output in the sixth column of the unit pixel group 203 shown in FIG. 3. Also, the “+2 degree” parallax image is output to the seventh column of the unit pixel group 203 shown in FIG. 3, and the “+3 degree” parallax image is output to the eighth column of the unit pixel group 203 shown in FIG. Then, the “+4 degree” parallax image is output in the ninth column of the unit pixel group 203 shown in FIG. 3.

これにより、観察者は、運動視差に応じて、ボリュームデータを様々な角度から立体的に観察することができる。例えば、観察者は、図8の(B)に示すように、9視差モニタに正対する位置(図中の「5」を参照)近傍では、「−1度、0度」又は「0度、+1度」の視差画像を同時に視認することで、視点「0度」からボリュームデータを立体的に観察したかのような画像を参照することができる。   Thereby, the observer can observe volume data three-dimensionally from various angles according to motion parallax. For example, as shown in (B) of FIG. 8, the observer can select “−1 degree, 0 degree” or “0 degree” in the vicinity of the position facing the 9 parallax monitor (see “5” in the figure). By simultaneously viewing the +1 degree parallax image, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “0 degree”.

また、例えば、観察者は、図8の(B)に示すように、9視差モニタに正対する位置から左側に15度移動した位置(図中の「7」を参照)近傍では、「−2度、−1度」の視差画像を同時に視認することで、視点「−2度」からボリュームデータを立体的に観察したかのような画像を参照することができる。また、例えば、観察者は、図8の(B)に示すように、9視差モニタに正対する位置から左側に30度移動した位置(図中の「9」を参照)近傍では、「−4度、−3度」の視差画像を同時に視認することで、視点「−4度」からボリュームデータを立体的に観察したかのような画像を参照することができる。   Further, for example, as shown in FIG. 8B, the observer has “−2” in the vicinity of a position (see “7” in the figure) that has moved 15 degrees to the left from the position facing the 9-parallax monitor. By simultaneously viewing a parallax image of “degree, −1 degree”, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “−2 degrees”. Further, for example, as shown in FIG. 8B, the observer is “−4” in the vicinity of a position (see “9” in the figure) that is moved 30 degrees to the left from the position facing the 9-parallax monitor. By simultaneously viewing the parallax image of “degree, −3 degrees”, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “−4 degrees”.

また、例えば、観察者は、図8の(B)に示すように、9視差モニタに正対する位置から右側に15度移動した位置(図中の「3」を参照)近傍では、「+2度、+1度」の視差画像を同時に視認することで、視点「+2度」からボリュームデータを立体的に観察したかのような画像を参照することができる。また、例えば、観察者は、図8の(B)に示すように、9視差モニタに正対する位置から右側に30度移動した位置(図中の「1」を参照)近傍では、「+4度、+3度」の視差画像を同時に視認することで、視点「+4度」からボリュームデータを立体的に観察したかのような画像を参照することができる。或いは、9視差モニタは、例えば、視点「0」の視差画像を9つ同時に表示することで、運動視差に関わらず同一の2次元画像が視認される汎用モニタとして用いることができる。   In addition, for example, as shown in FIG. 8B, the observer is “+2 degrees near a position moved 15 degrees to the right from the position facing the 9-parallax monitor (see“ 3 ”in the figure). , +1 degree ”parallax images can be viewed at the same time, thereby making it possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint“ +2 degrees ”. In addition, for example, as shown in FIG. 8B, the observer is “+4 degrees” in the vicinity of a position (see “1” in the figure) that is moved 30 degrees to the right from the position facing the 9-parallax monitor. , +3 degrees "parallax images can be viewed at the same time, so that it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint" +4 degrees ". Alternatively, the nine-parallax monitor can be used as a general-purpose monitor that displays the same two-dimensional image regardless of motion parallax, for example, by simultaneously displaying nine parallax images of the viewpoint “0”.

以下では、『9視差モニタ(表示部132や表示部142)に正対する位置から左側に「X度」移動した位置』のことを、簡潔に『「−X度」移動した位置』と記載する。また、以下では、『9視差モニタ(表示部132や表示部142)に正対する位置から右側に「X度」移動した位置』のことを、簡潔に『「+X度」移動した位置』と記載する。   Hereinafter, “the position moved“ X degrees ”to the left from the position facing the 9-parallax monitor (display unit 132 or display unit 142)” is simply referred to as “position moved“ −X degrees ””. . In the following, “the position moved“ X degrees ”to the right from the position facing the 9-parallax monitor (display unit 132 or display unit 142)” is simply described as “position moved“ + X degrees ””. To do.

しかし、9視差モニタにおけるボリュームデータの表示可能範囲には、制限がある。すなわち、9視差モニタに正対する位置から「90度」の位置からは、観察者は、2つの画像を視認することができず、視差画像を用いた立体視をすることができない。また、一般的には、9視差画像は、隣接した視点位置の画像対を用いて立体視が可能となるように、視差角が例えば「0.1度」〜「1度」間隔となるように固定された条件により生成されている。このため、視差数及び視差角の制限から、観察者がボリュームデータを立体的に観察できる角度にも制限がある。   However, there is a limit to the displayable range of volume data on the 9-parallax monitor. That is, from the position “90 degrees” from the position facing the 9-parallax monitor, the observer cannot view the two images and cannot perform stereoscopic viewing using the parallax image. Also, in general, the 9 parallax images have a parallax angle of, for example, an interval of “0.1 degree” to “1 degree” so that stereoscopic viewing is possible using image pairs at adjacent viewpoint positions. It is generated by the condition fixed to. For this reason, the angle at which the observer can observe volume data in three dimensions is also limited due to limitations on the number of parallaxes and the parallax angle.

そこで、第1の実施形態では、立体表示モニタの特性を利用した処理が行なわれる。すなわち、立体表示モニタは、所定数の画像を同時に表示することで「観察者の視点位置移動(運動視差)」に応じて観察者が観察する画像を変更可能な装置である。また、図8を用いて説明したように、立体表示モニタに対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像とは、対応付けられる関係となる。   Therefore, in the first embodiment, processing using the characteristics of the stereoscopic display monitor is performed. That is, the stereoscopic display monitor is a device that can change the image observed by the observer according to “observer position movement (motion parallax)” by simultaneously displaying a predetermined number of images. In addition, as described with reference to FIG. 8, the viewpoint position of the observer with respect to the stereoscopic display monitor and the image that is visually recognized by the observer at the viewpoint position are associated with each other.

上記で説明した記載を用いると、「立体表示モニタに対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像との対応関係」は、図8に示す一例では、図9に示すようにまとめることができる。図9は、視点位置と当該視点位置にて観察者により視認される画像との対応関係の一例を説明するための図である。   Using the description described above, the “correspondence between the observer's viewpoint position with respect to the stereoscopic display monitor and the image visually recognized by the observer at the viewpoint position” is shown in FIG. Can be summarized as shown. FIG. 9 is a diagram for explaining an example of a correspondence relationship between a viewpoint position and an image visually recognized by an observer at the viewpoint position.

すなわち、図8に示す一例では、9視差モニタに正対する位置(図8の(B)の「5」を参照)である「0度」の位置で観察者が視認する画像は、図9に示すように、単位画素群203の4〜6列目にそれぞれ出力される画像である。また、図8の(B)に示す一例では、「−15度」の位置(図8の(B)の「7」を参照)で観察者が視認する画像は、図9に示すように、単位画素群203の3列目と4列目にそれぞれ出力される画像である。   That is, in the example shown in FIG. 8, an image visually recognized by the observer at a position of “0 degree” which is a position directly facing the 9 parallax monitor (see “5” in FIG. 8B) is shown in FIG. 9. As shown, the images are output in the fourth to sixth columns of the unit pixel group 203, respectively. Further, in the example shown in FIG. 8B, the image visually recognized by the observer at the position “−15 degrees” (see “7” in FIG. 8B) is as shown in FIG. These are images output in the third and fourth columns of the unit pixel group 203, respectively.

また、図8の(B)に示す一例では、「−30度」の位置(図8の(B)の「9」を参照)で観察者が視認する画像は、図9に示すように、単位画素群203の1列目と2列目にそれぞれ出力される画像である。また、図8の(B)に示す一例では、「+15度」の位置で(図8の(B)の「3」を参照)で観察者が視認する画像は、図9に示すように、単位画素群203の6列目と7列目にそれぞれ出力される画像である。また、図8の(B)に示す一例では、「+30度」の位置(図8の(B)の「1」を参照)で観察者が視認する画像は、図9に示すように、単位画素群203の8列目と9列目にそれぞれ出力される画像である。   In the example shown in FIG. 8B, an image visually recognized by the observer at the position “−30 degrees” (see “9” in FIG. 8B) is as shown in FIG. These are images output to the first and second columns of the unit pixel group 203, respectively. In the example shown in FIG. 8B, an image visually recognized by the observer at the position “+15 degrees” (see “3” in FIG. 8B) is as shown in FIG. These are images output in the sixth and seventh columns of the unit pixel group 203, respectively. Further, in the example shown in FIG. 8B, the image visually recognized by the observer at the position “+30 degrees” (see “1” in FIG. 8B) is a unit as shown in FIG. The images are output in the eighth and ninth columns of the pixel group 203, respectively.

なお、上記では説明を省略したが、「−7.5度」の位置(図8の(B)の「6」を参照)で観察者が視認する画像は、図9に示すように、単位画素群203の4列目と5列目にそれぞれ出力される画像である。また、上記では説明を省略したが、「−22.5度」の位置(図8の(B)の「8」を参照)で観察者が視認する画像は、図9に示すように、単位画素群203の2列目と3列目にそれぞれ出力される画像である。   Although not described above, an image visually recognized by an observer at a position of “−7.5 degrees” (see “6” in FIG. 8B) is a unit as shown in FIG. The images are output in the fourth and fifth columns of the pixel group 203, respectively. Although not described above, an image visually recognized by an observer at a position of “−22.5 degrees” (see “8” in FIG. 8B) is a unit as shown in FIG. The images are output to the second and third columns of the pixel group 203, respectively.

また、上記では説明を省略したが、「+7.5度」の位置で(図8の(B)の「4」を参照)で観察者が視認する画像は、図9に示すように、単位画素群203の5列目と6列目にそれぞれ出力される画像である。また、上記では説明を省略したが、「+22.5度」の位置で(図8の(B)の「2」を参照)で観察者が視認する画像は、図9に示すように、単位画素群203の7列目と8列目にそれぞれ出力される画像である。   Although not described above, the image visually recognized by the observer at the position of “+7.5 degrees” (see “4” in FIG. 8B) is a unit as shown in FIG. The images are output to the fifth and sixth columns of the pixel group 203, respectively. Although not described above, the image visually recognized by the observer at the position of “+22.5 degrees” (see “2” in FIG. 8B) is a unit as shown in FIG. The images are output in the seventh and eighth columns of the pixel group 203, respectively.

図9に示す対応関係は、立体表示モニタの仕様により、特定可能な情報である。例えば、図9に示す対応関係は、9視差モニタである表示部132や表示部142の仕様により特定される情報である。   The correspondence shown in FIG. 9 is information that can be specified by the specifications of the stereoscopic display monitor. For example, the correspondence shown in FIG. 9 is information specified by the specifications of the display unit 132 and the display unit 142 that are nine-parallax monitors.

第1の実施形態では、表示部132の対応関係に基づく情報や、表示部142の対応関係に基づく情報が、例えば、ワークステーション130の記憶部134に予め格納される。すなわち、第1の実施形態に係るワークステーション130の記憶部134は、所定数(所定視差数)の画像を同時に表示する立体表示装置(立体表示モニタ)に対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像との対応関係に基づいて、所定数の画像として3次元の医用画像データであるボリュームデータに基づく画像を割り当てるための画像情報を、複数種類記憶する。   In the first embodiment, information based on the correspondence relationship of the display unit 132 and information based on the correspondence relationship of the display unit 142 are stored in advance in the storage unit 134 of the workstation 130, for example. That is, the storage unit 134 of the workstation 130 according to the first embodiment stores the viewpoint position of the observer and the viewpoint position with respect to the stereoscopic display device (stereoscopic display monitor) that simultaneously displays a predetermined number (predetermined number of parallaxes) of images. A plurality of types of image information for allocating an image based on volume data, which is three-dimensional medical image data, is stored as a predetermined number of images based on the correspondence relationship with the image visually recognized by the observer.

本実施形態では、記憶部134は、自装置の表示部132や、ワークステーション130に接続される装置が有する立体表示モニタの対応関係に基づく複数種類の画像情報を記憶する。例えば、記憶部134は、表示部132と表示部142との対応関係が同一であることから、表示部132及び表示部142の対応関係に基づく複数種類の画像情報を記憶する。   In the present embodiment, the storage unit 134 stores a plurality of types of image information based on the correspondence between the display unit 132 of the own device and the stereoscopic display monitor included in the device connected to the workstation 130. For example, since the correspondence relationship between the display unit 132 and the display unit 142 is the same, the storage unit 134 stores a plurality of types of image information based on the correspondence relationship between the display unit 132 and the display unit 142.

図10は、画像情報を説明するための図である。例えば、画像情報は、図10に示すように、単位画素群203の1〜9列目にそれぞれ割り当てる画像を「画像1〜9」と指定した情報である。例えば、記憶部134は、表示部132及び表示部142の画像情報として、「画像1〜9」の各画像をボリュームデータから生成するためのレンダリング条件を指定した情報を画像情報として、複数セット記憶する。   FIG. 10 is a diagram for explaining the image information. For example, as shown in FIG. 10, the image information is information specifying “images 1 to 9” as images to be assigned to the first to ninth columns of the unit pixel group 203. For example, the storage unit 134 stores multiple sets of information specifying rendering conditions for generating each image of “images 1 to 9” from volume data as image information of the display unit 132 and the display unit 142. To do.

そして、第1の実施形態に係るワークステーション130の制御部135は、複数種類の画像情報から選択された画像情報に合致する所定数の画像が立体表示モニタに表示されるように制御する。具体的には、ワークステーション130の制御部135は、ボリュームデータに対してレンダリング処理を実行するレンダリング処理部136に対して、画像情報に合致する画像群を生成するように制御する。そして、制御部135は、レンダリング処理部136が生成した画像群が立体表示モニタに表示されるように制御する。   Then, the control unit 135 of the workstation 130 according to the first embodiment performs control so that a predetermined number of images that match image information selected from a plurality of types of image information are displayed on the stereoscopic display monitor. Specifically, the control unit 135 of the workstation 130 controls the rendering processing unit 136 that performs rendering processing on the volume data so as to generate an image group that matches the image information. Then, the control unit 135 performs control so that the image group generated by the rendering processing unit 136 is displayed on the stereoscopic display monitor.

以下では、表示部142として9視差モニタを有する端末装置140の操作者が表示部142に表示される画像群の画像情報を選択する場合について説明する。かかる場合、端末装置140の操作者は、入力部141を介してボリュームデータの付帯情報を入力する。また、端末装置140の操作者は、入力部141を介して、画像情報の選択要求を入力する。入力部141が受け付けた情報は、制御部145の制御により、通信部143を介して、通信部133に送信され、通信部133は、受信した情報を制御部135に通知する。   Below, the case where the operator of the terminal device 140 which has a 9 parallax monitor as the display part 142 selects the image information of the image group displayed on the display part 142 is demonstrated. In such a case, the operator of the terminal device 140 inputs the accompanying information of the volume data via the input unit 141. In addition, the operator of the terminal device 140 inputs a selection request for image information via the input unit 141. Information received by the input unit 141 is transmitted to the communication unit 133 via the communication unit 143 under the control of the control unit 145, and the communication unit 133 notifies the control unit 135 of the received information.

そして、制御部135は、通知された付帯情報に対応付けられたボリュームデータを画像保管装置120から取得する。また、画像情報の選択要求を受信した制御部135は、記憶部134が記憶する表示部142の対応関係に基づく複数種類の画像情報のリストを、通信部133を介して、通信部143に送信する。通信部143は、受信した画像情報のリストを制御部145に通知する。制御部145は、通知されたリストを表示部142に表示させる。端末装置140の操作者は、表示されたリストから自身が指定したボリュームデータを読影する際に最適な表示パターンであると判定した画像情報を、入力部141を用いて選択する。なお、画像情報のリストは、予め、端末装置140の記憶部144に格納されている場合であっても良い。   Then, the control unit 135 acquires volume data associated with the notified supplementary information from the image storage device 120. The control unit 135 that has received the image information selection request transmits a list of a plurality of types of image information based on the correspondence relationship of the display unit 142 stored in the storage unit 134 to the communication unit 143 via the communication unit 133. To do. The communication unit 143 notifies the control unit 145 of the received list of image information. The control unit 145 causes the display unit 142 to display the notified list. The operator of the terminal device 140 uses the input unit 141 to select image information that has been determined to be the optimal display pattern when interpreting the volume data specified by the user from the displayed list. Note that the list of image information may be stored in advance in the storage unit 144 of the terminal device 140.

制御部145は、選択された画像情報を、通信部143を介して通信部133に送信し、通信部133は、受信した画像情報を制御部135に通知する。制御部135は、取得したボリュームデータに対して、通知された画像情報に合致する画像群を生成するようにレンダリング処理部136を制御する。そして、制御部135は、レンダリング処理部136が生成した画像群を、通信部135を介して、端末装置140の通信部143に送信し、制御部145は、通信部143が受信した画像群を中間画像に変換して、表示部142に出力する。   The control unit 145 transmits the selected image information to the communication unit 133 via the communication unit 143, and the communication unit 133 notifies the control unit 135 of the received image information. The control unit 135 controls the rendering processing unit 136 to generate an image group that matches the notified image information with respect to the acquired volume data. Then, the control unit 135 transmits the image group generated by the rendering processing unit 136 to the communication unit 143 of the terminal device 140 via the communication unit 135, and the control unit 145 transmits the image group received by the communication unit 143. The image is converted into an intermediate image and output to the display unit 142.

これにより、第1の実施形態では、立体視可能なモニタ、すなわち、運動視差に応じて観察される画像を変更可能なモニタにて表示される画像群を、操作者の種々の要求に応じて変更することができる。   Accordingly, in the first embodiment, an image group displayed on a monitor capable of stereoscopic viewing, that is, a monitor capable of changing an image observed in accordance with motion parallax, according to various requests of an operator. Can be changed.

以下、記憶部134が記憶する複数種類の画像情報の具体例について説明する。例えば、画像情報は、ボリュームデータからボリュームレンダリング処理により生成される視差画像群を所定数の画像として割り当てた情報であって、視差画像間の視差角を指定した情報である視差角情報である。図11〜図13は、視差角情報を用いた処理の具体例を説明するための図である。   Hereinafter, specific examples of a plurality of types of image information stored in the storage unit 134 will be described. For example, the image information is parallax angle information that is information in which a parallax image group generated by volume rendering processing from volume data is assigned as a predetermined number of images and that specifies parallax angles between parallax images. 11 to 13 are diagrams for explaining specific examples of processing using the parallax angle information.

図11の処理に用いられる視差角情報は、立体表示モニタに対する観察者の相対的移動角度に近接した角度にてボリュームデータが観察される視差画像群を生成するための視差角を指定した情報である。例えば、視差角情報は、「画像1」が『「−30度」の視差画像』であり、「画像2」が『「−29度」の視差画像』であり、「画像3」が『「−15度」の視差画像』であると指定した情報である。また、例えば、視差角情報は、「画像4」が『「−14度」の視差画像』であり、「画像5」が『「0度」の視差画像』であり、「画像6」が『「+14度」の視差画像』であると指定した情報である。また、例えば、視差角情報は、「画像7」が『「+15度」の視差画像』であり、「画像8」が『「+29度」の視差画像』であり、「画像9」が『「+30度」の視差画像』である。   The parallax angle information used in the processing of FIG. 11 is information specifying a parallax angle for generating a parallax image group in which volume data is observed at an angle close to the relative movement angle of the observer with respect to the stereoscopic display monitor. is there. For example, in the parallax angle information, “Image 1” is “−30 degrees” parallax image, “Image 2” is “−29 degrees” parallax image, and “Image 3” is “ The information is designated as “−15 degree parallax image”. Further, for example, in the parallax angle information, “Image 4” is “−14 degrees” parallax image, “Image 5” is “0 degree” parallax image, and “Image 6” is “ This is information specified as “+14 degree parallax image”. Further, for example, in the parallax angle information, “Image 7” is “+15 degree parallax image”, “Image 8” is “+29 degree parallax image”, and “Image 9” is ““ +30 degree parallax image ”.

まず、図11の処理に用いられる視差角情報は、以下の読影を要望する端末装置140の操作者(観察者に対応する)により選択される画像情報である。すなわち、端末装置140の操作者(観察者に対応する)は、「−30度」移動した位置近傍では、ボリュームデータを視点「−30度」から立体的に観察し、「−15度」移動した位置近傍では、ボリュームデータを視点「−15度」から立体的に観察することを要望する。また、端末装置140の操作者は、「+30度」移動した位置近傍では、ボリュームデータを視点「+30度」から立体的に観察し、「+15度」移動した位置近傍では、ボリュームデータを視点「+15度」から立体的に観察することを要望する。   First, the parallax angle information used in the processing of FIG. 11 is image information selected by an operator (corresponding to an observer) of the terminal device 140 who desires the following interpretation. That is, the operator of the terminal device 140 (corresponding to the observer) observes the volume data three-dimensionally from the viewpoint “−30 degrees” and moves “−15 degrees” in the vicinity of the position moved “−30 degrees”. In the vicinity of the position, the volume data is requested to be stereoscopically observed from the viewpoint “−15 degrees”. Further, the operator of the terminal device 140 observes the volume data stereoscopically from the viewpoint “+30 degrees” in the vicinity of the position moved “+30 degrees”, and the volume data is viewed from the viewpoint “ It is requested to observe stereoscopically from “+15 degrees”.

かかる画像情報の選択を通知された制御部135は、例えば、図11の(A)に示すように、被写体部分の正面に正対する位置に基準となる「0度」の視点を設定する。そして、図11の(A)に示す一例では、制御部135は、視点「0度」から時計回りに「−14度、−15度、−29度、−30度」の視点を設定し、更に、視点「0度」から反時計回りに「+14度、+15度、+29度、+30度」の視点を設定する。   For example, as shown in FIG. 11A, the control unit 135 notified of the selection of the image information sets a reference “0 degree” viewpoint at a position facing the front of the subject portion. In the example shown in FIG. 11A, the control unit 135 sets the viewpoints “−14 degrees, −15 degrees, −29 degrees, −30 degrees” clockwise from the viewpoint “0 degrees”, Further, the viewpoints “+14 degrees, +15 degrees, +29 degrees, +30 degrees” are set counterclockwise from the viewpoint “0 degrees”.

そして、レンダリング処理部136は、制御部135が設定した9つの視点それぞれを用いて、例えば透視投影法により被写体部分をボリュームレンダリング処理することで、図11の(A)に示すように、9視差画像を生成する。生成された9視差画像は、例えば、3行3列の中間画像に変換され、9視差モニタにて表示される。   Then, the rendering processing unit 136 performs volume rendering processing on the subject portion by using, for example, the perspective projection method using each of the nine viewpoints set by the control unit 135, thereby generating nine parallaxes as illustrated in FIG. Generate an image. The generated 9-parallax image is converted into, for example, an intermediate image with 3 rows and 3 columns and displayed on the 9-parallax monitor.

これにより、例えば、観察者は、図11の(B)に示すように、「−15度」移動した位置(図中の「7」を参照)近傍では、「−14度、−15度」の視差画像を同時に視認することで、視点「−15度」からボリュームデータを立体的に観察したかのような画像を参照することができる。また、観察者は、図11の(B)に示すように、「−30度」移動した位置(図中の「9」を参照)近傍では、「−29度、−30度」の視差画像を同時に視認することで、視点「−30度」からボリュームデータを立体的に観察したかのような画像を参照することができる。   Thereby, for example, as shown in FIG. 11B, the observer has “−14 degrees, −15 degrees” in the vicinity of the position moved by “−15 degrees” (see “7” in the figure). By simultaneously viewing the parallax images, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “−15 degrees”. In addition, as shown in FIG. 11B, the observer has a parallax image of “−29 degrees, −30 degrees” in the vicinity of the position moved by “−30 degrees” (see “9” in the figure). Are simultaneously viewed, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “−30 degrees”.

また、例えば、観察者は、図11の(B)に示すように、「+15度」移動した位置(図中の「3」を参照)近傍では、「+14度、+15度」の視差画像を同時に視認することで、視点「+15度」からボリュームデータを立体的に観察したかのような画像を参照することができる。また、例えば、観察者は、図11の(B)に示すように、「+30度」移動した位置(図中の「1」を参照)近傍では、「+29度、+30度」の視差画像を同時に視認することで、視点「+30度」からボリュームデータを立体的に観察したかのような画像を参照することができる。   Further, for example, as shown in FIG. 11B, the observer displays a parallax image of “+14 degrees, +15 degrees” in the vicinity of the position moved by “+15 degrees” (see “3” in the figure). By viewing at the same time, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “+15 degrees”. Further, for example, as shown in FIG. 11B, the observer displays a parallax image of “+29 degrees, +30 degrees” in the vicinity of the position moved by “+30 degrees” (see “1” in the figure). By viewing at the same time, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “+30 degrees”.

ただし、観察者は、図11の(B)に示すように、表示部142に正対する位置(図中の「5」を参照)近傍では、「0度」の視差画像のみを2次元画像として視認する。また、図11の(B)に示す「2」及び「8」の位置では、両眼に入射する画像対の視差角が大きいため、観察者による立体視は不可となる。   However, as shown in FIG. 11B, the observer, as the two-dimensional image, only the parallax image of “0 degree” is near the position facing the display unit 142 (see “5” in the figure). Visually check. In addition, at the positions “2” and “8” shown in FIG. 11B, the parallax angle of the image pair incident on both eyes is large, and stereoscopic viewing by the observer is impossible.

次に、図12の処理に用いられる視差角情報は、立体表示モニタに対する観察者の相対的移動角度に近接した角度より大きい角度にてボリュームデータが観察される視差画像群を生成するための視差角を指定した情報である。例えば、視差角情報は、「画像1」が『「−60度」の視差画像』であり、「画像2」が『「−59度」の視差画像』であり、「画像3」が『「−30度」の視差画像』であると指定した情報である。また、例えば、視差角情報は、「画像4」が『「−29度」の視差画像』であり、「画像5」が『「0度」の視差画像』であり、「画像6」が『「+44度」の視差画像』であると指定した情報である。また、例えば、視差角情報は、「画像7」が『「+45度」の視差画像』であり、「画像8」が『「+89度」の視差画像』であり、「画像9」が『「+90度」の視差画像』である。   Next, the parallax angle information used in the processing of FIG. 12 is a parallax for generating a parallax image group in which volume data is observed at an angle larger than an angle close to the relative movement angle of the observer with respect to the stereoscopic display monitor. Information specifying a corner. For example, in the parallax angle information, “Image 1” is “−60 degrees” parallax image, “Image 2” is “−59 degrees” parallax image, and “Image 3” is ““ The information is designated as “−30 degree parallax image”. Further, for example, in the parallax angle information, “Image 4” is “−29 degrees” parallax image, “Image 5” is “0 degree” parallax image, and “Image 6” is “ This is information specified as “+44 degree parallax image”. Further, for example, in the parallax angle information, “Image 7” is “+45 degree parallax image”, “Image 8” is “+89 degree parallax image”, and “Image 9” is ““ +90 degree parallax image ”.

図12の処理に用いられる視差角情報は、以下の読影を要望する端末装置140の操作者(観察者に対応する)により選択される画像情報である。すなわち、端末装置140の操作者は、「−15度」移動した位置近傍では、ボリュームデータを視点「−30度」から立体的に観察し、「−30度」移動した位置近傍では、ボリュームデータを視点「−60度」から立体的に観察することを要望する。すなわち、操作者は、立体視モニタに正対する位置から左側においては、相対的移動角度の2倍の角度を、観察用角度とすることを要望する。   The disparity angle information used in the processing of FIG. 12 is image information selected by an operator (corresponding to an observer) of the terminal device 140 who desires the following interpretation. That is, the operator of the terminal device 140 observes the volume data stereoscopically from the viewpoint “−30 degrees” near the position moved “−15 degrees”, and the volume data near the positions moved “−30 degrees”. Is desired to be observed three-dimensionally from the viewpoint “−60 degrees”. That is, the operator desires that the angle for observation should be an angle twice the relative movement angle on the left side from the position facing the stereoscopic monitor.

また、例えば、端末装置140の操作者は、「+15度」移動した位置近傍では、ボリュームデータを視点「+45度」から立体的に観察し、「+30度」移動した位置近傍では、ボリュームデータを視点「+90度」から立体的に観察することを要望する。すなわち、操作者は、立体視モニタに正対する位置から右側においては、相対的移動角度の3倍の角度を、観察用角度とすることを要望する。   Further, for example, the operator of the terminal device 140 observes the volume data stereoscopically from the viewpoint “+45 degrees” near the position moved “+15 degrees”, and the volume data near the positions moved “+30 degrees”. It is desired to observe stereoscopically from the viewpoint “+90 degrees”. That is, the operator desires that the angle for observation is an angle three times the relative movement angle on the right side from the position facing the stereoscopic monitor.

かかる画像情報の選択を通知された制御部135は、例えば、図12の(A)に示すように、レンダリング領域の正面に正対する位置に基準となる「0度」の視点を設定する。そして、図12の(A)に示す一例では、制御部135は、視点「0度」から時計回りに「−29度、−30度、−59度、−60度」の視点を設定し、更に、視点「0度」から反時計回りに「+44度、+45度、+89度、+90度」の視点を設定する。   For example, as illustrated in FIG. 12A, the control unit 135 notified of the selection of the image information sets a reference “0 degree” viewpoint at a position facing the front of the rendering area. In the example illustrated in FIG. 12A, the control unit 135 sets the viewpoints “−29 degrees, −30 degrees, −59 degrees, −60 degrees” clockwise from the viewpoint “0 degrees”. Further, the viewpoints “+44 degrees, +45 degrees, +89 degrees, +90 degrees” are set counterclockwise from the viewpoint “0 degrees”.

そして、レンダリング処理部136は、制御部135が設定した9つの視点それぞれを用いて、例えば透視投影法によりレンダリング領域をボリュームレンダリング処理することで、図12の(A)に示すように、9視差画像を生成する。生成された9視差画像は、例えば、3行3列の中間画像に変換され、9視差モニタにて表示される。   Then, the rendering processing unit 136 performs the volume rendering process on the rendering area by using, for example, the perspective projection method using each of the nine viewpoints set by the control unit 135, as illustrated in FIG. Generate an image. The generated 9-parallax image is converted into, for example, an intermediate image with 3 rows and 3 columns and displayed on the 9-parallax monitor.

これにより、例えば、観察者は、図12の(B)に示すように、「−15度」移動した位置(図中の「7」を参照)近傍では、「−29度、−30度」の視差画像を同時に視認することで、視点「−30度」からボリュームデータを立体的に観察したかのような画像を参照することができる。また、観察者は、図12の(B)に示すように、「−30度」移動した位置(図中の「9」を参照)近傍では、「−59度、−60度」の視差画像を同時に視認することで、視点「−60度」からボリュームデータを立体的に観察したかのような画像を参照することができる。   Thereby, for example, as shown in FIG. 12B, the observer has “−29 degrees, −30 degrees” in the vicinity of the position moved by “−15 degrees” (see “7” in the figure). By simultaneously viewing the parallax images, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “−30 degrees”. In addition, as shown in FIG. 12B, the observer has a parallax image of “−59 degrees and −60 degrees” in the vicinity of the position moved by “−30 degrees” (see “9” in the figure). Are simultaneously viewed, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “−60 degrees”.

また、例えば、観察者は、図12の(B)に示すように、「+15度」移動した位置(図中の「3」を参照)近傍では、「+44度、+45度」の視差画像を同時に視認することで、視点「+45度」からボリュームデータを立体的に観察したかのような画像を参照することができる。また、例えば、観察者は、図12の(B)に示すように、「+30度」移動した位置(図中の「1」を参照)近傍では、「+89度、+90度」の視差画像を同時に視認することで、視点「+90度」からボリュームデータを立体的に観察したかのような画像を参照することができる。   In addition, for example, as shown in FIG. 12B, the observer displays a parallax image of “+44 degrees, +45 degrees” in the vicinity of the position moved by “+15 degrees” (see “3” in the figure). By viewing at the same time, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “+45 degrees”. Further, for example, as shown in FIG. 12B, the observer displays a parallax image of “+89 degrees, +90 degrees” in the vicinity of the position moved by “+30 degrees” (see “1” in the figure). By viewing at the same time, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “+90 degrees”.

ただし、観察者は、図12の(B)に示すように、表示部142に正対する位置(図中の「5」を参照)近傍では、「0度」の視差画像のみを2次元画像として視認する。また、図12の(B)に示す「2」及び「8」の位置では、両眼に入射する画像対の視差角が大きいため、観察者による立体視は不可となる。   However, as shown in FIG. 12B, the observer, as the two-dimensional image, only the parallax image of “0 degree” is located near the position facing the display unit 142 (see “5” in the figure). Visually check. In addition, at the positions “2” and “8” shown in FIG. 12B, the parallax angle of the image pair incident on both eyes is large, and stereoscopic viewing by the observer is impossible.

なお、操作者は、予め格納された複数種類の画像情報を選択するだけでなく、選択した画像情報を更に変更することができる。すなわち、本実施形態では、入力部141は、画像情報の変更を受け付ける。そして、制御部135は、入力部141が受け付けた変更後の画像情報に合致する所定数の画像が表示部142に表示されるように制御する。例えば、図12で説明した視差角情報は、「画像8」が『「+59度」の視差画像』であり、「画像9」が『「+60度」の視差画像』であるように変更される場合であっても良い。   The operator can not only select a plurality of types of image information stored in advance, but can further change the selected image information. That is, in the present embodiment, the input unit 141 receives a change in image information. Then, the control unit 135 controls the display unit 142 to display a predetermined number of images that match the changed image information received by the input unit 141. For example, the parallax angle information described in FIG. 12 is changed so that “image 8” is a “+59 degree parallax image” and “image 9” is a “+60 degree parallax image”. It may be the case.

或いは、例えば、上記した視差角情報は、大腸を撮影した3次元X線CT画像の表示法(CTC:CT Colonography)として広く用いられている仮想内視鏡(VE:Virtual Endoscopy)表示法が実行される場合に、操作者により変更することができる。ただし、以下に説明する視差角情報は、大腸における仮想内視鏡表示の他にも、例えば、血管、気管支、咽頭、膵管等、様々な臓器における仮想内視鏡表示にも適応できる。   Alternatively, for example, the above-described parallax angle information is executed by a virtual endoscopy (VE) display method widely used as a display method (CTC: CT Colonography) of a three-dimensional X-ray CT image obtained by imaging the large intestine. Can be changed by the operator. However, the parallax angle information described below can be applied not only to the virtual endoscope display in the large intestine but also to the virtual endoscope display in various organs such as blood vessels, bronchi, pharynx and pancreatic duct.

例えば、セグメンテーション処理部1361gは、大腸の管腔領域を抽出する。更に、セグメンテーション処理部1361gは、管腔領域の芯線を抽出する。そして、セグメンテーション処理部1361gは、更に、抽出した芯線に基準点を設定する。ここで、例えば、端末装置140の操作者は、表示部142に正対する位置近傍では、管腔内壁を芯線の進行方向で立体的に観察できる視差画像群が生成されるように、選択した視差角情報の変更を行なう。また、例えば、端末装置140の操作者は、「+30度」移動した位置近傍では、管腔内壁を芯線の進行方向に対して「+30度」となる方向で立体的に観察できる視差画像群が生成されるように、選択した視差角情報の変更を行なう。   For example, the segmentation processing unit 1361 g extracts a lumen region of the large intestine. Further, the segmentation processing unit 1361 g extracts the core line of the lumen region. Then, the segmentation processing unit 1361g further sets a reference point for the extracted core line. Here, for example, the operator of the terminal device 140 selects the selected parallax so that a parallax image group capable of stereoscopically observing the inner wall of the lumen in the traveling direction of the core line is generated in the vicinity of the position facing the display unit 142. Change the corner information. Further, for example, in the vicinity of the position moved by “+30 degrees”, the operator of the terminal device 140 has a parallax image group that can stereoscopically observe the inner wall of the lumen in the direction of “+30 degrees” with respect to the traveling direction of the core wire. The selected parallax angle information is changed so as to be generated.

かかる変更後の視差角情報を受け付けた制御部135は、基準点及び基準点に隣接する2点を視点とし、視線方向を芯線の進行方向とする「視差角が1度間隔となる3つの視差画像(視差画像a,b,c)」を生成するように、レンダリング処理部136を制御する。また、制御部135は、基準点及び基準点に隣接する1点を視点とし視線方向を芯線の進行方向に対して「+30度」となる方向とする「視差角が1度間隔となる2つの視差画像(視差画像d,e)」を生成するように、レンダリング処理部136を制御する。   The control unit 135 that has received the changed parallax angle information has the reference point and two points adjacent to the reference point as viewpoints, and the line-of-sight direction is the traveling direction of the core line. The rendering processing unit 136 is controlled to generate “images (parallax images a, b, c)”. Further, the control unit 135 sets the reference point and one point adjacent to the reference point as the viewpoint, and sets the line-of-sight direction to “+30 degrees” with respect to the traveling direction of the core line. The rendering processing unit 136 is controlled to generate a “parallax image (parallax images d, e)”.

これにより、例えば、観察者は、図13に示すように、表示部142に正対する位置(図中の「0」を参照)近傍では、「視差画像a,b」又は「視差画像b,c」を同時に視認することで、管腔内壁を芯線の進行方向にて立体的に観察したかのような画像を参照することができる。また、観察者は、図13に示すように、「+30度」移動した位置(図中の「1」を参照)近傍では、「視差画像d,e」を同時に視認することで、管腔内壁を芯線の進行方向に対して「+30度」となる方向にて立体的に観察したかのような画像を参照することができる。すなわち、図10に示す画像情報を用いて説明すると、操作者は、「画像4,5,6」を「視差画像a,b,c」を生成するためのレンダリング条件に変更し、「画像8,9」を「視差画像d,e」を生成するためのレンダリング条件に変更する。また、操作者は、「画像1〜3,7」については、例えば、画像を出力しないと変更する。かかる表示を行なうことで、観察者は、壁の裏側等、病変を見逃しやすい場所においても同時に観察することが可能となる。なお、変更後の画像情報は、記憶部134において、追加して格納される場合であっても良い。かかる処理が行なわれることで、読影者が選択できる画像情報のバリエーションを増大させることができる。   Thereby, for example, as shown in FIG. 13, the observer can select “parallax images a and b” or “parallax images b and c” in the vicinity of the position facing the display unit 142 (see “0” in the figure). ”At the same time, it is possible to refer to an image as if the inner wall of the lumen was observed three-dimensionally in the traveling direction of the core wire. Further, as shown in FIG. 13, the observer can simultaneously view the “parallax images d and e” near the position moved by “+30 degrees” (see “1” in the figure) to thereby obtain the inner wall of the lumen. Can be referred to as a three-dimensional observation in a direction of “+30 degrees” with respect to the traveling direction of the core wire. That is, to explain using the image information shown in FIG. 10, the operator changes “images 4, 5, and 6” to rendering conditions for generating “parallax images a, b, and c” and “image 8”. , 9 ”is changed to a rendering condition for generating“ parallax images d, e ”. The operator changes “images 1 to 3, 7”, for example, without outputting an image. By performing such display, the observer can simultaneously observe a place such as the back side of a wall where a lesion is easily overlooked. The changed image information may be additionally stored in the storage unit 134. By performing such processing, variations in image information that can be selected by the radiogram interpreter can be increased.

視差角情報以外に、操作者により選択される画像情報は、ボリュームデータに基づく所定数の画像を構成する各画像の種別を指定した種別情報である。図14及び図15は、種別情報を用いた処理の具体例を説明するための図である。   In addition to the parallax angle information, the image information selected by the operator is type information specifying the type of each image constituting a predetermined number of images based on the volume data. 14 and 15 are diagrams for explaining a specific example of processing using type information.

図14の処理に用いられる種別情報は、立体表示モニタにて立体視用に表示される視差画像及び当該視差画像の生成に用いられる基準面によりボリュームデータを切断した平面画像を所定数の画像に割り当てた情報である。例えば、種別情報は、「画像2」が『「−60度」の視差画像』であり、「画像3」が『「−59度」の視差画像』である。また、例えば、種別情報は、「画像4」が『「−1度」の視差画像』であり、「画像5」が『「0度」の視差画像』であり、「画像6」が『「+1度」の視差画像』である。また、例えば、種別情報は、「画像7」が『「+89度」の視差画像』であり、「画像8」が『「+90度」の視差画像』である。また、種別情報は、例えば、「画像1」が『「−60度」の視差画像の基準面のMPR画像』であり、「画像9」が『「+90度」の視差画像の基準面のMPR画像』である。   The type information used in the processing of FIG. 14 includes a parallax image displayed for stereoscopic viewing on a stereoscopic display monitor and a plane image obtained by cutting volume data with a reference plane used for generating the parallax image as a predetermined number of images. It is the assigned information. For example, in the type information, “Image 2” is a “−60 degree” parallax image, and “Image 3” is a “−59 degree” parallax image. Further, for example, the type information includes “image 4” being “−1 degree parallax image”, “image 5” being “0 degree parallax image”, and “image 6” being ““ +1 degree “parallax image”. Further, for example, in the type information, “Image 7” is a “+89 degree parallax image”, and “Image 8” is a “+90 degree parallax image”. The type information includes, for example, “Image 1” is “MPR image of reference plane of parallax image of“ −60 degrees ””, and “Image 9” is MPR of reference plane of parallax image of “+90 degrees”. Image ".

図14の処理に用いられる種別情報は、以下の読影を要望する端末装置140の操作者(観察者に対応する)により選択される画像情報である。すなわち、端末装置140の操作者は、「−15度」移動した位置近傍では、ボリュームデータを視点「−60度」から立体的に観察し、表示部142に正対する位置から右側に「+15度」移動した位置近傍では、ボリュームデータを視点「+90度」から立体的に観察することを要望する。   The type information used in the processing of FIG. 14 is image information selected by an operator (corresponding to an observer) of the terminal device 140 who desires the following interpretation. That is, the operator of the terminal device 140 observes volume data three-dimensionally from the viewpoint “−60 degrees” in the vicinity of the position moved “−15 degrees”, and “+15 degrees to the right from the position facing the display unit 142. In the vicinity of the moved position, it is desired to observe the volume data stereoscopically from the viewpoint “+90 degrees”.

更に、例えば、端末装置140の操作者は、「−30度」移動した位置近傍では、「−15度」移動した位置近傍で立体的に観察し、「+30度」移動した位置近傍では、「+15度」移動した位置近傍で立体的に観察することを要望する。   Further, for example, the operator of the terminal device 140 observes three-dimensionally in the vicinity of the position moved “−15 degrees” in the vicinity of the position moved “−30 degrees”, and in the vicinity of the position moved “+30 degrees”, “ It is desired to observe three-dimensionally in the vicinity of the position moved by “+15 degrees”.

かかる画像情報の選択を通知された制御部135は、例えば、図14の(A)に示すように、レンダリング領域の正面に正対する位置に基準となる「0度」の視点を設定する。そして、図14の(A)に示す一例では、制御部135は、視点「0度」から時計回りに「−1度、−59度、−60度」の視点を設定し、更に、視点「0度」から反時計回りに「+1度、+89度、+90度」の視点を設定する。レンダリング処理部136は、制御部135が設定した7つの視点それぞれを用いて、例えば透視投影法によりレンダリング領域をボリュームレンダリング処理することで、7つの視差画像を生成する。   For example, as shown in FIG. 14A, the control unit 135 notified of the selection of the image information sets a reference “0 degree” viewpoint at a position facing the front of the rendering area. In the example illustrated in FIG. 14A, the control unit 135 sets the viewpoints “−1 degree, −59 degrees, −60 degrees” clockwise from the viewpoint “0 degrees”, and further the viewpoint “ A viewpoint of “+1 degree, +89 degree, +90 degree” is set counterclockwise from “0 degree”. The rendering processing unit 136 generates seven parallax images by performing volume rendering processing on the rendering area by using, for example, a perspective projection method, using each of the seven viewpoints set by the control unit 135.

更に、制御部135は、例えば、図14の(A)に示すように、視点「−60度」の視差画像及び視点「+90度」の視差画像それぞれを生成するために用いる基準面(投影面)の位置情報を取得する。すなわち、制御部135は、図14の(A)に示すように、視点「−60度」からレンダリング領域の重心へ向かう直線に対して垂直となる垂直面を基準面とし、当該基準面でレンダリング領域を切断した「MPR画像(−60度)」をレンダリング処理部136に生成させる。同様に、制御部135は、図14の(A)に示すように、視点「+90度」からレンダリング領域の重心へ向かう直線に対して垂直となる垂直面を基準面とし、当該基準面でレンダリング領域を切断した「MPR画像(+90度)」をレンダリング処理部136に生成させる。   Further, for example, as illustrated in FIG. 14A, the control unit 135 generates a reference plane (projection plane) used to generate a parallax image with a viewpoint “−60 degrees” and a parallax image with a viewpoint “+90 degrees”. ) Location information. That is, as shown in FIG. 14A, the control unit 135 uses a vertical plane perpendicular to a straight line from the viewpoint “−60 degrees” to the center of gravity of the rendering area as a reference plane, and renders the reference plane with the vertical plane. The rendering processing unit 136 generates the “MPR image (−60 degrees)” obtained by cutting the region. Similarly, as shown in FIG. 14A, the control unit 135 uses a vertical plane that is perpendicular to a straight line from the viewpoint “+90 degrees” to the center of gravity of the rendering area as a reference plane, and renders the reference plane. The rendering processing unit 136 generates the “MPR image (+90 degrees)” obtained by cutting the region.

そして、レンダリング処理部136が生成した9つの画像は、制御部145の制御により、中間画像に変換される。すなわち、制御部145は、9つの画像を、「MPR画像(−60度)、視差画像(−60度)、視差画像(−59度)」、「視差画像(−1度)、視差画像(0度)、視差画像(1度)」及び「視差画像(+89度)、視差画像(+90度)、MPR画像(+90度)」の3行3列に配置した中間画像に変換する。そして、制御部145は、中間画像を表示部142に表示させる。   The nine images generated by the rendering processing unit 136 are converted into intermediate images under the control of the control unit 145. That is, the control unit 145 converts the nine images into “MPR image (−60 degrees), parallax image (−60 degrees), parallax image (−59 degrees)”, “parallax image (−1 degree), and parallax image ( 0 degree), parallax image (1 degree) "and" parallax image (+89 degree), parallax image (+90 degree), MPR image (+90 degree) "are converted into intermediate images arranged in 3 rows and 3 columns. Then, the control unit 145 causes the display unit 142 to display the intermediate image.

これにより、例えば、観察者は、図14の(B)に示すように、表示部142に正対する位置(図中の「5」を参照)近傍では、「−1、0度」又は「0度、+1度」の視差画像を同時に視認することで、視点「0度」からボリュームデータを立体的に観察したかのような画像を参照することができる。   Thereby, for example, as shown in FIG. 14B, the observer can select “−1, 0 degree” or “0” in the vicinity of the position facing the display unit 142 (see “5” in the figure). By simultaneously viewing the parallax image of “degree, +1 degree”, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “0 degree”.

また、観察者は、図14の(B)に示すように、「−15度」移動した位置(図中の「7」を参照)近傍では、「−59度、−60度」の視差画像を同時に視認することで、視点「−60度」からボリュームデータを立体的に観察したかのような画像を参照することができる。更に、観察者は、図14の(B)に示すように、「−30度」移動した位置(図中の「9」を参照)近傍では、視差画像「−60度」に対応するMPR画像(−60度)を観察することができる。   In addition, as shown in FIG. 14B, the observer has a parallax image of “−59 degrees and −60 degrees” in the vicinity of the position moved by “−15 degrees” (see “7” in the figure). Are simultaneously viewed, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “−60 degrees”. Further, as shown in FIG. 14B, the observer has an MPR image corresponding to the parallax image “−60 degrees” in the vicinity of the position moved “−30 degrees” (see “9” in the figure). (-60 degrees) can be observed.

また、観察者は、図14の(B)に示すように、「+15度」移動した位置(図中の「3」を参照)近傍では、「+89度、+90度」の視差画像を同時に視認することで、視点「+90度」からボリュームデータを立体的に観察したかのような画像を参照することができる。更に、観察者は、図14の(B)に示すように、「+30度」移動した位置(図中の「1」を参照)近傍では、視差画像「+90度」に対応するMPR画像(+90度)を観察することができる。なお、上記の種別情報も、操作者により変更することができる。例えば、操作者は、「画像4,5,6」を『「0度」の視差画像の基準面のMPR画像』に変更することができる。また、上述したように、変更後の種別情報は、記憶部134において、追加して格納される場合であっても良い。   Further, as shown in FIG. 14B, the observer visually recognizes the parallax images of “+89 degrees and +90 degrees” at the same time in the vicinity of the position moved by “+15 degrees” (see “3” in the figure). By doing this, it is possible to refer to an image as if the volume data was stereoscopically observed from the viewpoint “+90 degrees”. Further, as shown in FIG. 14B, the observer has an MPR image (+90) corresponding to the parallax image “+90 degrees” in the vicinity of the position moved by “+30 degrees” (see “1” in the figure). Degree) can be observed. The type information can also be changed by the operator. For example, the operator can change “images 4, 5, 6” to “MPR image of the reference plane of the parallax image of“ 0 degree ””. Further, as described above, the changed type information may be additionally stored in the storage unit 134.

また、図15の処理に用いられる種別情報は、ボリュームデータを異なる平面で切断した平面画像群を所定数の画像に割り当てた情報である。   The type information used in the processing of FIG. 15 is information in which a group of plane images obtained by cutting volume data along different planes is assigned to a predetermined number of images.

図15の処理に用いられる種別情報は、一例を挙げると、ボリュームデータを10mm間隔で切断した5つのMPR画像を「画像2,4,5,6,8」にそれぞれ割り当てた画像情報である。そして、図15の処理に用いられる種別情報は、一例を挙げると、「画像2」と同じ画像を「画像1」に割り当て、「画像4」と同じ画像を「画像3」に割り当て、「画像6」と同じ画像を「画像7」に割り当て、「画像8」と同じ画像を「画像9」に割り当てた画像情報である。   The type information used in the processing of FIG. 15 is, for example, image information in which five MPR images obtained by cutting volume data at intervals of 10 mm are assigned to “images 2, 4, 5, 6, 8”. The type information used in the process of FIG. 15 is, for example, the same image as “Image 2” is assigned to “Image 1”, the same image as “Image 4” is assigned to “Image 3”, and “Image This is image information in which the same image as “6” is assigned to “image 7” and the same image as “image 8” is assigned to “image 9”.

図15の処理に用いられる種別情報は、例えば、以下の読影を要望する端末装置140の操作者(観察者に対応する)により選択される画像情報である。すなわち、端末装置140の操作者は、図13を用いて説明した大腸の管腔領域を5つの平面で切断した5つのMPR画像の観察を要望する。具体的には、端末装置140の操作者は、基準点を中心に、芯線の進行方向及び進行方向の逆方向それぞれに沿って「10mm」間隔で、管腔領域を切断した5つのMPR画像の観察を要望する。なお、基準点の指定は、上記種別情報の選択とともに、操作者により設定される。   The type information used in the processing of FIG. 15 is image information selected by an operator (corresponding to an observer) of the terminal device 140 who requests the following interpretation, for example. That is, the operator of the terminal device 140 requests observation of five MPR images obtained by cutting the lumen region of the large intestine described with reference to FIG. 13 along five planes. Specifically, the operator of the terminal device 140 has five MPR images obtained by cutting the lumen region at intervals of “10 mm” around the reference point along each of the traveling direction of the core wire and the opposite direction of the traveling direction. Request observation. The designation of the reference point is set by the operator along with the selection of the type information.

かかる種別情報を受け付けた制御部135は、図15に示すように、芯線上の基準点(0mm)を通り、芯線に直行する平面を設定する。更に、制御部135は、図15に示すように、基準点から進行方向の逆方向に沿って「−10mm」及び「−20mm」移動した点それぞれにて、芯線に直行する平面を設定する。更に、制御部135は、図15に示すように、基準点から進行方向に沿って「+10mm」及び「+20mm」移動した点それぞれにて、芯線に直行する平面を設定する。そして、制御部135は、図15に示すように、「−20mm」、「−10mm」、「0mm」、「+10mm」及び「+20mm」のMPR画像をレンダリング処理部136に生成させる。ただし、制御部135は、例えば、「−20mm」のMPR画像、「−10mm」のMPR画像、「+10mm」のMPR画像及び「+20mm」のMPR画像を2枚ずつ生成するように、レンダリング処理部136を制御する。   The control unit 135 that has received the type information sets a plane that passes through the reference point (0 mm) on the core line and goes straight to the core line, as shown in FIG. Further, as shown in FIG. 15, the control unit 135 sets a plane perpendicular to the core wire at each point moved “−10 mm” and “−20 mm” along the opposite direction of the traveling direction from the reference point. Further, as shown in FIG. 15, the control unit 135 sets a plane perpendicular to the core wire at each point moved by “+10 mm” and “+20 mm” along the traveling direction from the reference point. Then, as illustrated in FIG. 15, the control unit 135 causes the rendering processing unit 136 to generate MPR images of “−20 mm”, “−10 mm”, “0 mm”, “+10 mm”, and “+20 mm”. However, the control unit 135 may, for example, render processing units so as to generate two “−20 mm” MPR images, “−10 mm” MPR images, “+10 mm” MPR images, and “+20 mm” MPR images. 136 is controlled.

そして、レンダリング処理部136が生成した9つの画像は、制御部145の制御により、中間画像に変換される。すなわち、制御部145は、9つの画像を、「MPR画像(−20mm)、MPR画像(−20mm)、MPR画像(−10mm)」、「MPR画像(−10mm)、MPR画像(0mm)、MPR画像(+10mm)」及び「MPR画像(+10mm)、MPR画像(+20mm)、MPR画像(+20mm)」の3行3列に配置した中間画像に変換する。そして、制御部145は、中間画像を表示部142に表示させる。   The nine images generated by the rendering processing unit 136 are converted into intermediate images under the control of the control unit 145. That is, the control unit 145 displays nine images as “MPR image (−20 mm), MPR image (−20 mm), MPR image (−10 mm)”, “MPR image (−10 mm), MPR image (0 mm), and MPR. "Image (+10 mm)" and "MPR image (+10 mm), MPR image (+20 mm), MPR image (+20 mm)" are converted into intermediate images arranged in three rows and three columns. Then, the control unit 145 causes the display unit 142 to display the intermediate image.

これにより、例えば、観察者は、「−30度」移動した位置近傍では「−20mmのMPR画像」を、「−15度」移動した位置近傍では「−10mmのMPR画像」を、表示部142に正対する位置近傍では「0mmのMPR画像」を、「+15度」移動した位置近傍では「+10mmのMPR画像」を、「+30度」移動した位置近傍では「+20mmのMPR画像」を、それぞれ観察することができる。   Thereby, for example, the observer displays the “−20 mm MPR image” near the position moved “−30 degrees”, and the “−10 mm MPR image” near the position moved “−15 degrees”. Observe the “0 mm MPR image” in the vicinity of the position directly opposite to “+15 mm”, the “+10 mm MPR image” in the vicinity of the position moved “+15 degrees”, and the “+20 mm MPR image” in the vicinity of the position moved “+30 degrees”. can do.

なお、MRP画像を表示させるための種別情報も、操作者により変更することができる。例えば、操作者は、ボリュームデータを10mm間隔で切断した9つのMPR画像を「画像1〜9」にそれぞれ割り当てた種別情報に変更することができる。また、上述したように、変更後の種別情報は、記憶部134において、追加して格納される場合であっても良い。   The type information for displaying the MRP image can also be changed by the operator. For example, the operator can change the nine MPR images obtained by cutting the volume data at intervals of 10 mm to the type information respectively assigned to “images 1 to 9”. Further, as described above, the changed type information may be additionally stored in the storage unit 134.

ここで、図15の処理に用いられる種別情報は、ボリュームデータを異なる平面で切断した平面画像群(MPR画像群)を表示させるための画像情報である。しかし、記憶部134は、更に、種別情報として、ボリュームデータを再構成するために用いられたスライス画像群を所定数の画像に割り当てた情報である種別情報を記憶する。かかる種別情報は、具体的には、マルチスライスX線CT装置や、MRI装置のスキャン再構成により得られた平面画像群(スライス画像群)の読影に用いられる。   Here, the type information used in the processing of FIG. 15 is image information for displaying a plane image group (MPR image group) obtained by cutting the volume data along different planes. However, the storage unit 134 further stores, as type information, type information that is information obtained by allocating slice image groups used to reconstruct volume data to a predetermined number of images. Specifically, the type information is used for interpretation of a plane image group (slice image group) obtained by scan reconstruction of a multi-slice X-ray CT apparatus or an MRI apparatus.

すなわち、上記の種別情報は、一例を挙げると、ボリュームデータを再構成するために用いられたスライス画像群の中で、5つのスライス位置を「画像2,4,5,6,8」にそれぞれ割り当てた画像情報である。そして、上記の種別情報は、一例を挙げると、「画像2」と同じ画像を「画像1」に割り当て、「画像4」と同じ画像を「画像3」に割り当て、「画像6」と同じ画像を「画像7」に割り当て、「画像8」と同じ画像を「画像9」に割り当てた画像情報である。   In other words, the above type information includes, for example, five slice positions in “slices 2, 4, 5, 6, 8” in the slice image group used to reconstruct the volume data. The assigned image information. For example, the type information described above assigns the same image as “Image 2” to “Image 1”, assigns the same image as “Image 4” to “Image 3”, and the same image as “Image 6”. Is assigned to “image 7” and the same image as “image 8” is assigned to “image 9”.

より具体的には、上記の種別情報は、「画像5」に「スキャン中心位置のスライス」を割り当て、「画像2」及び「画像4」それぞれに、「スキャン中心位置のスライスより2スライス前及び1スライス前の2つのスライス」を割り当てた情報である。また、上記の種別情報は、「画像6」及び「画像8」それぞれに、「スキャン中心位置のスライスより1スライス後及び1スライス後の2つのスライス」を割り当てた情報である。   More specifically, in the above type information, “slice at the scan center position” is assigned to “image 5”, and “slice 2 before the slice at the scan center position and“ image 4 ”are assigned to“ image 2 ”and“ image 4 ”, respectively. This is information to which “two slices one slice before” is assigned. The type information is information in which “two slices after one slice and one slice after the slice at the scan center position” are assigned to “image 6” and “image 8”, respectively.

かかる種別情報を受け付けたレンダリング処理部136又は制御部135は、5つのスライス位置の平面画像(スライス画像)を選択する。   Receiving such type information, the rendering processing unit 136 or the control unit 135 selects planar images (slice images) at five slice positions.

そして、制御部135は、「平面画像(スキャン中心より2スライス前)、平面画像(スキャン中心より2スライス前)、平面画像(スキャン中心より1スライス前)」、「平面画像(スキャン中心より1スライス前)、平面画像(スキャン中心スライス)、平面画像(スキャン中心より1スライス後)」、「平面画像(スキャン中心より1スライス後)、平面画像(スキャン中心より2スライス後)、平面画像(スキャン中心より2スライス後)」の3行3列に配置した中間画像に変換する。そして、中間画像を表示部142に表示させる。   Then, the control unit 135 determines that “a flat image (2 slices before the scan center), a flat image (2 slices before the scan center), a flat image (1 slice before the scan center)”, “a flat image (1 from the scan center). Pre-slice), plane image (scan center slice), plane image (after 1 slice from scan center), “plane image (after 1 slice from scan center), plane image (after 2 slices from scan center), plane image ( The image is converted into an intermediate image arranged in 3 rows and 3 columns "after 2 slices from the scan center)". Then, the intermediate image is displayed on the display unit 142.

これにより、例えば、観察者は、「−30度」移動した位置近傍では「スキャン中心より2スライス前の平面画像」を、「−15度」移動した位置近傍では「スキャン中心より1スライス前の平面画像」を、表示部142に正対する位置近傍では「スキャン中心の平面画像」を、「+15度」移動した位置近傍では「スキャン中心より1スライス後の平面画像」を、「+30度」移動した位置近傍では「スキャン中心より2スライス後の平面画像」を、それぞれ観察することができる。   Thus, for example, the observer can display “a plane image two slices before the scan center” in the vicinity of the position moved “−30 degrees”, and “one slice before the scan center” in the vicinity of the position moved “-15 degrees”. Move the “planar image” by “+30 degrees” in the vicinity of the position facing the display unit 142, “planar image at the scan center” and “planar image one slice after the scan center” in the vicinity of the position moved by “+15 degrees”. In the vicinity of the position, the “planar image after two slices from the scan center” can be observed.

なお、スライス画像を表示させるための種別情報も、操作者により変更することができる。例えば、操作者は、9つのスライス画像を「画像1〜9」にそれぞれ割り当てた種別情報に変更することができる。また、上述したように、変更後の種別情報は、記憶部134において、追加して格納される場合であっても良い。   The type information for displaying the slice image can also be changed by the operator. For example, the operator can change nine slice images to type information assigned to “images 1 to 9”. Further, as described above, the changed type information may be additionally stored in the storage unit 134.

視差角情報及び種別情報以外に、操作者により選択される画像情報は、2つのボリュームデータを重畳する際の不透明度を指定した不透明度情報である。一例を挙げると、不透明度情報は、異なる医用画像診断装置により生成された2つのボリュームデータを重畳する際の不透明度が指定された情報である。図16は、不透明度情報を用いた処理の具体例を説明するための図である。   In addition to the parallax angle information and the type information, the image information selected by the operator is opacity information that specifies opacity when two volume data are superimposed. For example, the opacity information is information in which opacity when two volume data generated by different medical image diagnostic apparatuses are superimposed is designated. FIG. 16 is a diagram for explaining a specific example of processing using opacity information.

一例を挙げると、端末装置140の操作者は、PET−CT装置により生成されたX線CTボリュームデータのアキシャル面の画像(X線CT画像)及びPETボリュームデータの当該アキシャル面の画像(PET画像)を重畳表示した画像を読影する際に、不透明度情報を選択する。かかる不透明度情報では、「画像1」及び「画像2」に『「X線CT画像の不透明度:PET画像の不透明度」=「100:0」』が指定される。また、かかる不透明度情報では、「画像3」及び「画像4」に『「X線CT画像の不透明度:PET画像の不透明度」=「75:25」』が指定される。また、かかる不透明度情報では、「画像5」に『「X線CT画像の不透明度:PET画像の不透明度」=「50:50」』が指定される。また、かかる不透明度情報では、「画像6」及び「画像7」に『「X線CT画像の不透明度:PET画像の不透明度」=「25:75」』が指定される。また、かかる不透明度情報では、「画像8」及び「画像9」に『「X線CT画像の不透明度:PET画像の不透明度」=「0:100」』が指定される。   For example, the operator of the terminal device 140 may display an image of the axial surface (X-ray CT image) of the X-ray CT volume data generated by the PET-CT apparatus and an image of the axial surface (PET image) of the PET volume data. ) Is selected when the image with the superimposed display is interpreted. In the opacity information, ““ X-ray CT image opacity: PET image opacity ”=“ 100: 0 ”” is designated for “Image 1” and “Image 2”. In the opacity information, ““ X-ray CT image opacity: PET image opacity ”=“ 75:25 ”” is designated for “Image 3” and “Image 4”. Further, in the opacity information, ““ X-ray CT image opacity: PET image opacity ”=“ 50:50 ”” is designated in “Image 5”. In the opacity information, “image 6” and “image 7” are designated as ““ X-ray CT image opacity: PET image opacity ”=“ 25:75 ””. In this opacity information, ““ X-ray CT image opacity: PET image opacity ”=“ 0: 100 ”” is designated for “Image 8” and “Image 9”.

かかる情報を受け付けた制御部135は、レンダリング処理部136に対して、受け付けた比率の重畳画像を生成するように指示を行なう。レンダリング処理部136は、図16に示すように、「100:0」の重畳画像、「75:25」の重畳画像、「50:50」の重畳画像、「25:75」の重畳画像及び「0:100」の重畳画像を生成する。ただし、制御部135は、例えば、「100:0」の重畳画像、「75:25」の重畳画像、「25:75」の重畳画像及び「0:100」の重畳画像を2枚ずつ生成するように、レンダリング処理部136を制御する。   The control unit 135 that has received such information instructs the rendering processing unit 136 to generate a superimposed image with the received ratio. As illustrated in FIG. 16, the rendering processing unit 136 performs a superimposed image of “100: 0”, a superimposed image of “75:25”, a superimposed image of “50:50”, a superimposed image of “25:75”, and “ A superimposed image of “0: 100” is generated. However, the control unit 135 generates, for example, two images each of “100: 0” superimposed image, “75:25” superimposed image, “25:75” superimposed image, and “0: 100” superimposed image. Thus, the rendering processing unit 136 is controlled.

そして、レンダリング処理部136が生成した9つの画像は、制御部145の制御により、中間画像に変換される。すなわち、制御部145は、9つの画像を、『「100:0」の重畳画像、「100:0」の重畳画像、「75:25」の重畳画像』、『「75:25」の重畳画像、「50:50」の重畳画像、「25:75」の重畳画像』及び『「25:75」の重畳画像、「0:100」の重畳画像、「0:100」の重畳画像』の3行3列に配置した中間画像に変換する。そして、制御部145は、中間画像を表示部142に表示させる。   The nine images generated by the rendering processing unit 136 are converted into intermediate images under the control of the control unit 145. That is, the control unit 145 converts the nine images into a “100: 0” superimposed image, a “100: 0” superimposed image, a “75:25” superimposed image, and a “75:25” superimposed image. , “50:50” superimposed image, “25:75” superimposed image ”,“ 25:75 ”superimposed image,“ 0: 100 ”superimposed image,“ 0: 100 ”superimposed image” Convert to an intermediate image arranged in three rows. Then, the control unit 145 causes the display unit 142 to display the intermediate image.

これにより、例えば、観察者は、「−30度」移動した位置近傍では「100:0」の重畳画像を、「−15度」移動した位置近傍では「75:25」の重畳画像を、表示部142に正対する位置近傍では「50:50」の重畳画像を、「+15度」移動した位置近傍では「25:75」の重畳画像を、「+30度」移動した位置近傍では「0:100」の重畳画像を、それぞれ観察することができる。すなわち、観察者は、PET画像に描出されるRIの集積部位とX線CT画像に描出される組織構造とを、モニタに対する視点を横方向に移動するだけで、様々な比率で参照することができる。   Thereby, for example, the observer displays a superimposed image of “100: 0” near the position moved “−30 degrees” and a superimposed image of “75:25” near the position moved “-15 degrees”. The superimposed image of “50:50” is near the position facing the portion 142, the superimposed image of “25:75” is near the position moved “+15 degrees”, and “0: 100” is near the position moved “+30 degrees”. Can be observed respectively. That is, the observer can refer to the RI accumulation portion depicted in the PET image and the tissue structure depicted in the X-ray CT image at various ratios by simply moving the viewpoint with respect to the monitor in the lateral direction. it can.

ここで、上記では、異なる医用画像診断装置により生成された2つのボリュームデータを重畳する際に、不透明度情報が選択される場合について説明した。しかし、記憶部134が記憶する不透明度情報は、同一種別の医用画像診断装置により異なる時期に生成された2つのボリュームデータを重畳する際の不透明度を指定するために選択される場合であっても良い。   Here, the case where opacity information is selected when two volume data generated by different medical image diagnostic apparatuses are superimposed has been described above. However, the opacity information stored in the storage unit 134 is a case where the opacity information stored in the storage unit 134 is selected to specify opacity when two volume data generated at different times by the same type of medical image diagnostic apparatus are superimposed. Also good.

一例を挙げると、端末装置140の操作者は、X線CT装置により生成された治療前後のX線CTボリュームデータにて治療対象部位が描出された2つのX線CT画像を重畳した画像を用いた比較読影を行なう場合、不透明度情報を選択する。比較読影用の不透明度情報では、「画像1」及び「画像2」に『「X線CT画像(治療前)の不透明度:X線CT画像(治療後)の不透明度」=「100:0」』が指定される。また、かかる不透明度情報では、「画像3」及び「画像4」に『「X線CT画像(治療前)の不透明度:X線CT画像(治療後)の不透明度」=「75:25」』が指定される。また、かかる不透明度情報では、「画像5」に『「X線CT画像(治療前)の不透明度:X線CT画像(治療後)の不透明度」=「50:50」』が指定される。また、かかる不透明度情報では、「画像6」及び「画像7」に『「X線CT画像(治療前)の不透明度:X線CT画像(治療後)の不透明度」=「25:75」』が指定される。また、かかる不透明度情報では、「画像8」及び「画像9」に『「X線CT画像(治療前)の不透明度:X線CT画像(治療後)の不透明度」=「0:100」』が指定される。   For example, the operator of the terminal device 140 uses an image obtained by superimposing two X-ray CT images in which a site to be treated is depicted by X-ray CT volume data before and after treatment generated by the X-ray CT apparatus. When performing comparative interpretation, the opacity information is selected. In the opacity information for comparative interpretation, “Image 1” and “Image 2” include ““ Opacity of X-ray CT image (before treatment): Opacity of X-ray CT image (after treatment) ”=“ 100: 0. "" Is specified. Further, in the opacity information, “Image 3” and “Image 4” include ““ Opacity of X-ray CT image (before treatment): Opacity of X-ray CT image (after treatment) ”=“ 75:25 ”. Is specified. In the opacity information, ““ X-ray CT image (before treatment) opacity: X-ray CT image (after treatment) opacity ”=“ 50:50 ”” is designated in “image 5”. . Further, in the opacity information, “Image 6” and “Image 7” include ““ Opacity of X-ray CT image (before treatment): Opacity of X-ray CT image (after treatment) ”=“ 25:75 ”. Is specified. Further, in the opacity information, “image 8” and “image 9” include ““ Opacity of X-ray CT image (before treatment): Opacity of X-ray CT image (after treatment) ”=“ 0: 100 ”. Is specified.

かかる比較読影用の不透明度情報の選択を受け付けた制御部135の制御により、レンダリング処理部136は、治療前のX線CTボリュームデータと治療後のX線CTボリュームデータとの位置合わせを行なった後、治療対象部位のアキシャル面のX線CT画像を生成する。例えば、レンダリング処理部136は、図16に示す一例で説明した同様の処理を実行する。これにより、例えば、観察者は、「−30度」移動した位置近傍では「100:0」の重畳画像を、「−15度」移動した位置近傍では「75:25」の重畳画像を、表示部142に正対する位置近傍では「50:50」の重畳画像を、「+15度」移動した位置近傍では「25:75」の重畳画像を、「+30度」移動した位置近傍では「0:100」の重畳画像を、それぞれ観察することができる。すなわち、観察者は、治療前のX線CTに描出される治療対象部位の様相と、治療後のX線CTに描出される治療対象部位の様相とを、モニタに対する視点を横方向に移動するだけで、様々な比率で参照することができる。   Under the control of the control unit 135 that has received the selection of opacity information for comparative interpretation, the rendering processing unit 136 performs alignment between the X-ray CT volume data before treatment and the X-ray CT volume data after treatment. Thereafter, an X-ray CT image of the axial surface of the treatment target site is generated. For example, the rendering processing unit 136 performs the same processing described in the example illustrated in FIG. Thereby, for example, the observer displays a superimposed image of “100: 0” near the position moved “−30 degrees” and a superimposed image of “75:25” near the position moved “-15 degrees”. The superimposed image of “50:50” is near the position facing the portion 142, the superimposed image of “25:75” is near the position moved “+15 degrees”, and “0: 100” is near the position moved “+30 degrees”. Can be observed respectively. That is, the observer moves the viewpoint with respect to the monitor in the horizontal direction between the appearance of the treatment target region depicted on the X-ray CT before the treatment and the appearance of the treatment target portion depicted on the X-ray CT after the treatment. Just refer to various ratios.

次に、図17及び図18を用いて第1の実施形態に係る画像処理システム1の処理について説明する。図17は、第1の実施形態に係るワークステーションの処理を説明するためのフローチャートである。また、図18は、第1の実施形態に係る端末装置の処理を説明するためのフローチャートである。   Next, processing of the image processing system 1 according to the first embodiment will be described with reference to FIGS. 17 and 18. FIG. 17 is a flowchart for explaining processing of the workstation according to the first embodiment. FIG. 18 is a flowchart for explaining processing of the terminal device according to the first embodiment.

図17に示すように、第1の実施形態に係る画像処理システム1のワークステーション130は、端末装置140の操作者により、処理対象となるボリュームデータが指定されたか否かを判定する(ステップS101)。ここで、ボリュームデータが指定されない場合(ステップS101否定)、ワークステーション130は、ボリュームデータが指定されるまで待機する。   As illustrated in FIG. 17, the workstation 130 of the image processing system 1 according to the first embodiment determines whether volume data to be processed is specified by the operator of the terminal device 140 (Step S <b> 101). ). Here, when the volume data is not designated (No at Step S101), the workstation 130 waits until the volume data is designated.

一方、ボリュームデータが指定された場合(ステップS101肯定)、制御部135は、指定されたボリュームデータを画像保管装置120から取得する(ステップS102)。そして、制御部135は、端末装置140の操作者から、画像情報の選択を受け付けたか否かを判定する(ステップS103)。ここで画像情報は、上述したように、視差角情報や、種別情報、不透明度情報等である。   On the other hand, when the volume data is designated (Yes at Step S101), the control unit 135 acquires the designated volume data from the image storage device 120 (Step S102). And the control part 135 determines whether selection of image information was received from the operator of the terminal device 140 (step S103). Here, as described above, the image information is parallax angle information, type information, opacity information, and the like.

画像情報の選択を受け付けない場合(ステップS103否定)、制御部135は、画像情報の選択を受け付けるまで待機する。一方、画像情報の選択を受け付けた場合(ステップS103肯定)、制御部135の制御により、レンダリング処理部136は、選択された画像情報に基づいて、ボリュームデータから視差数分の画像群を生成する(ステップS104)。   When the selection of image information is not accepted (No at Step S103), the control unit 135 waits until the selection of image information is accepted. On the other hand, when selection of image information is accepted (Yes at Step S103), the rendering processing unit 136 generates an image group corresponding to the number of parallaxes from the volume data based on the selected image information under the control of the control unit 135. (Step S104).

そして、通信部133は、制御部135の制御により、端末装置140に視差数分の画像群を送信し(ステップS105)、処理を終了する。   And the communication part 133 transmits the image group for the number of parallaxes to the terminal device 140 by control of the control part 135 (step S105), and complete | finishes a process.

その後、図17に示すように、第1の実施形態に係る画像処理システム1の端末装置140は、通信部143が、ワークステーション130から画像群を受信したか否かを判定する(ステップS201)。ここで、画像群を受信していない場合(ステップS201否定)、端末装置140は、画像群を受信するまで待機する。   Thereafter, as illustrated in FIG. 17, the terminal device 140 of the image processing system 1 according to the first embodiment determines whether the communication unit 143 has received an image group from the workstation 130 (step S201). . Here, when the image group is not received (No at Step S201), the terminal device 140 stands by until the image group is received.

一方、画像群を受信した場合(ステップS201肯定)、制御部145は、受信した画像群を中間画像に変換し(ステップS202)、表示部142にて表示させ(ステップS203)、処理を終了する。なお、ステップS103で制御部135が受け付ける画像情報は、上述したように、端末装置140の操作者により、変更された画像情報である場合であっても良い。   On the other hand, when the image group is received (Yes at Step S201), the control unit 145 converts the received image group into an intermediate image (Step S202), displays the image group on the display unit 142 (Step S203), and ends the process. . Note that the image information received by the control unit 135 in step S103 may be image information changed by an operator of the terminal device 140 as described above.

上述してきたように、第1の実施形態では、観察者により選択された画像情報に応じて、立体視可能なモニタにて表示される画像群を変更することができる。すなわち、図11に示す一例では、観察者は、立体視モニタに対する移動量に合わせて、位置が移動された視点からボリュームデータを立体的に観察したかのような画像を参照することができる。また、図12に示す一例では、観察者は、立体視モニタに対する移動量より多く位置が移動された視点からボリュームデータを立体的に観察したかのような画像を参照することができる。すなわち、図12に示す一例では、ボリュームデータのコロナル面を立体的に観察したかのような画像を参照していた観察者は、モニタに対する視点を横方向に移動するだけで、ボリュームデータのサジタル面を立体的に観察したかのような画像を参照することができる。   As described above, in the first embodiment, the image group displayed on the stereoscopically visible monitor can be changed according to the image information selected by the observer. That is, in the example shown in FIG. 11, the observer can refer to an image as if the volume data was stereoscopically observed from the viewpoint whose position was moved in accordance with the movement amount with respect to the stereoscopic monitor. In the example shown in FIG. 12, the observer can refer to an image as if the volume data was stereoscopically observed from a viewpoint whose position was moved more than the movement amount relative to the stereoscopic monitor. That is, in the example shown in FIG. 12, an observer who has referred to an image as if the coronal plane of volume data was observed stereoscopically only moves the viewpoint with respect to the monitor in the horizontal direction, and sagittal of the volume data. An image as if the surface was observed stereoscopically can be referred to.

また、図13に示す一例では、観察者は、モニタに対する視点を横方向に移動するだけで、仮想内視鏡画像を同一視点から様々な方向で立体視することができる。また、図14に示す一例では、観察者は、立体視していた視差画像群に対応するMPR画像を、モニタに対する視点を横方向に移動するだけで観察することができる。   In the example shown in FIG. 13, the observer can stereoscopically view the virtual endoscopic image from the same viewpoint in various directions only by moving the viewpoint with respect to the monitor in the horizontal direction. In the example illustrated in FIG. 14, the observer can observe the MPR image corresponding to the parallax image group that has been stereoscopically viewed by simply moving the viewpoint with respect to the monitor in the horizontal direction.

また、図15に示す一例では、観察者は、芯線方向に沿ったMPR画像群を、モニタに対する視点を横方向に移動するだけで、連続して参照することができる。また、図15に示す一例は、例えば、X線CT装置により撮影された被検体の対軸方向に沿ったアキシャル画像に適用することもできる。かかる場合、観察者は、対軸方向に沿ったアキシャル面のX線CT画像群を、モニタに対する視点を横方向に移動するだけで連続して参照することができる。   In the example illustrated in FIG. 15, the observer can continuously refer to the MPR image group along the core line direction simply by moving the viewpoint with respect to the monitor in the horizontal direction. Further, the example shown in FIG. 15 can also be applied to, for example, an axial image along the opposite axis direction of a subject imaged by an X-ray CT apparatus. In such a case, the observer can continuously refer to the X-ray CT image group on the axial plane along the opposite axis direction by simply moving the viewpoint with respect to the monitor in the horizontal direction.

また、図16に示す一例では、PET画像に描出されるRIの集積部位とX線CT画像に描出される組織構造とを、モニタに対する視点を横方向に移動するだけで、様々な比率で参照することができる。例えば、図16に示す一例では、観察者は、モニタに正対する位置では、集積部位及び組織構造を大まかに観察することができる。また、観察者は、左方向に視点を移動するにともない徐々に組織構造が鮮明となり、右方向に視点を移動するにともない徐々に集積部位が鮮明となることから、集積部位が位置する組織構造や、集積部位の形状や大きさ等を、視点を移動するという簡易な動作のみで把握することができる。   Further, in the example shown in FIG. 16, the RI accumulation portion depicted in the PET image and the tissue structure depicted in the X-ray CT image are referred to at various ratios by simply moving the viewpoint relative to the monitor in the horizontal direction. can do. For example, in the example shown in FIG. 16, the observer can roughly observe the accumulation site and the tissue structure at a position facing the monitor. In addition, as the observer moves the viewpoint in the left direction, the tissue structure gradually becomes clear, and as the viewpoint moves in the right direction, the accumulation site gradually becomes clear. In addition, the shape, size, and the like of the accumulation site can be grasped only by a simple operation of moving the viewpoint.

更に、図16に示す不透明度情報を用いた処理、すなわち、異なる医用画像診断装置により同一被検体の同一部位を連続して撮影することで生成された2つのボリュームデータを用いて実行される処理を、同一種別の医用画像診断装置により同一被検体の同一部位を異なる時期に撮影することで生成された2つのボリュームデータに適用する場合であっても良い。かかる処理により、以下の効果を奏することできる。すなわち、観察者は、治療前のX線CTに描出される治療対象部位の様相と、治療後のX線CTに描出される治療対象部位の様相とを、モニタに対する視点を横方向に移動するだけで、様々な比率で参照することができる。例えば、観察者は、モニタに正対する位置では、治療対象部位の治療前後での形状変化等を同時に比較観察することができる。また、観察者は、左方向に視点を移動するにともない徐々に治療前の治療対象部位の様相が鮮明となり、右方向に視点を移動するにともない徐々に治療後の治療対象部位の様相が鮮明となることから、治療の効果や病変の経過観察を、視点を移動するという簡易な動作のみで把握することができる。   Further, processing using the opacity information shown in FIG. 16, that is, processing executed using two volume data generated by continuously imaging the same part of the same subject by different medical image diagnostic apparatuses. May be applied to two volume data generated by imaging the same part of the same subject at different times by the same type of medical image diagnostic apparatus. By such processing, the following effects can be obtained. That is, the observer moves the viewpoint with respect to the monitor in the horizontal direction between the appearance of the treatment target region depicted on the X-ray CT before the treatment and the appearance of the treatment target portion depicted on the X-ray CT after the treatment. Just refer to various ratios. For example, the observer can simultaneously perform comparative observation of the shape change and the like of the treatment target site before and after treatment at a position facing the monitor. In addition, as the observer moves the viewpoint in the left direction, the aspect of the treatment target part before treatment gradually becomes clear, and as the viewpoint moves in the right direction, the aspect of the treatment target part gradually becomes clear. Therefore, it is possible to grasp the effect of treatment and the follow-up of the lesion only by a simple operation of moving the viewpoint.

更に、複数種類の画像情報は、立体表示モニタを参照する観察者が複数であり、かかる複数の観察者の立体表示モニタに対する位置に応じた画像情報であっても良い。例えば、複数の観察者が狭い範囲(例えば、−7.5度から+7.5度の範囲)で立体表示モニタを観察する場合と、複数の観察者が広い範囲(例えば、−30度から+30度の範囲)で立体表示モニタを観察する場合とにそれぞれ適応した画像情報が記憶部134に格納されている場合であっても良い。例えば、狭い範囲である場合は、画像3〜画像7に、「0度」の視差画像、「+1度」の視差画像を交互に割り当てた画像情報が選択され、広い範囲である場合は、画像1〜画像9に、「0度」の視差画像、「+1度」の視差画像を交互に割り当てた画像情報が選択される場合であっても良い。   Further, the plurality of types of image information may be image information in which there are a plurality of observers referring to the stereoscopic display monitor, and the plurality of observers are in positions corresponding to the stereoscopic display monitor. For example, when a plurality of observers observe a stereoscopic display monitor in a narrow range (for example, a range of −7.5 degrees to +7.5 degrees), and a plurality of observers have a wide range (for example, −30 degrees to +30). It may be a case where image information adapted to the case of observing the stereoscopic display monitor in the range of degrees is stored in the storage unit 134. For example, in the case of a narrow range, image information in which a parallax image of “0 degree” and a parallax image of “+1 degree” are alternately assigned to the images 3 to 7 is selected. The image information in which “0 degree” parallax images and “+1 degree” parallax images are alternately assigned to the images 1 to 9 may be selected.

なお、本実施形態は、表示部132として9視差モニタを有するワークステーション130の操作者が、表示部132や表示部142に表示される画像群の画像情報を選択設定する場合であっても適用可能である。   This embodiment is applicable even when an operator of a workstation 130 having a nine-parallax monitor as the display unit 132 selects and sets image information of an image group displayed on the display unit 132 or the display unit 142. Is possible.

また、上記の実施形態では、1つのボリュームデータに対する画像情報の選択を受け付けて、受け付けた画像情報に合致する画像群が立体表示モニタに表示されるように制御する場合について説明した。しかし、上記の実施形態は、複数のボリュームデータそれぞれに対する画像情報の選択を受け付ける場合であっても良い。すなわち、上記の実施形態は、画像情報として、複数のボリュームデータそれぞれに対する画像情報を受け付け、制御部135が、受け付けられた複数のボリュームデータそれぞれに対する画像情報に合致する画像群が立体表示モニタに表示されるように制御する場合であっても良い。   In the above-described embodiment, a case has been described in which selection of image information for one volume data is received and control is performed so that an image group that matches the received image information is displayed on the stereoscopic display monitor. However, the above embodiment may be a case where selection of image information for each of a plurality of volume data is accepted. That is, in the above embodiment, image information for each of a plurality of volume data is received as image information, and the control unit 135 displays an image group that matches the received image information for each of the plurality of volume data on the stereoscopic display monitor. It may be a case where control is performed as described above.

以下では、一例として、同一種別の医用画像診断装置により同一被検体の同一部位を異なる時期に撮影することで生成された3つのボリュームデータ(治療前、一回目の治療後、2回目の治療後)を用いる場合について説明する。以下では、治療前のボリュームデータを「第1データ」と記載し、一回目の治療後のボリュームデータを「第2データ」と記載し、2回目の治療後のボリュームデータを「第3データ」と記載する。   In the following, as an example, three volume data generated by imaging the same part of the same subject at different times by the same type of medical image diagnostic apparatus (before treatment, after the first treatment, after the second treatment) ) Will be described. Hereinafter, volume data before treatment is described as “first data”, volume data after the first treatment is described as “second data”, and volume data after the second treatment is referred to as “third data”. It describes.

例えば、操作者は、第1データ〜第3データそれぞれを視点「0度」から立体的に観察できる視差画像群を表示するための視差角情報を選択する。かかる視差角情報は、「画像1」、「画像2」及び「画像3」それぞれに、『第1データの「−1度」の視差画像』、『第1データの「0度」の視差画像』及び『第1データの「+1度」の視差画像』が割り当てられた画像情報である。また、かかる視差角情報は、「画像4」、「画像5」及び「画像6」それぞれに、『第2データの「−1度」の視差画像』、『第2データの「0度」の視差画像』及び『第2データの「+1度」の視差画像』が割り当てられた画像情報である。また、かかる視差角情報は、「画像7」、「画像8」及び「画像9」それぞれに、『第3データの「−1度」の視差画像』、『第3データの「0度」の視差画像』及び『第3データの「+1度」の視差画像』が割り当てられた画像情報である。   For example, the operator selects parallax angle information for displaying a parallax image group in which each of the first data to the third data can be stereoscopically observed from the viewpoint “0 degree”. The parallax angle information includes “parallax image of“ −1 degree ”of the first data” and “parallax image of“ 0 degree ”of the first data for each of“ image 1 ”,“ image 2 ”, and“ image 3 ”. ”And“ + 1-degree parallax image of the first data ”. In addition, the parallax angle information includes “the parallax image of“ −1 degree ”of the second data” and “0 degree of the second data” for “image 4”, “image 5”, and “image 6”, respectively. The parallax image ”and the“ +1 degree parallax image of the second data ”are assigned to the image information. In addition, the parallax angle information includes “-1 degree parallax image of the third data” and “0 degree” of the third data for each of “image 7”, “image 8”, and “image 9”. This is the image information to which the “parallax image” and “the“ +1 degree parallax image of the third data ”” are assigned.

かかる視差角情報の選択及び3つのボリュームデータの指定を受け付けた制御部135は、例えば、第1データ〜第3データそれぞれのレンダリング領域に正対する位置に基準となる「0度」の視点を設定する。そして、制御部135は、第1データ〜第3データそれぞれにおいて、視点「0度」を中心として、「−1度、+1度」の視点を設定する。   The control unit 135 that has received the selection of the parallax angle information and the specification of the three volume data sets, for example, a reference “0 degree” viewpoint at a position facing the rendering area of each of the first data to the third data. To do. Then, the control unit 135 sets viewpoints of “−1 degree, +1 degree” around the viewpoint “0 degree” in each of the first data to the third data.

そして、レンダリング処理部136は、制御部135が設定した3つの視点それぞれを用いて、第1データ〜第3データのレンダリング領域それぞれをボリュームレンダリング処理することで、3つの視差画像を3組生成する。生成された9視差画像は、例えば、3行3列の中間画像に変換され、表示部142にて表示される。   Then, the rendering processing unit 136 generates three sets of three parallax images by performing volume rendering processing on each of the rendering regions of the first data to the third data using each of the three viewpoints set by the control unit 135. . The generated nine parallax images are converted into, for example, an intermediate image of 3 rows and 3 columns and displayed on the display unit 142.

これにより、例えば、観察者は、表示部142を左から右に向かって移動するだけで、第1データから順に第2データ、第3データそれぞれを視点「0度」から立体的に観察できることとなる。   Thereby, for example, the observer can stereoscopically observe each of the second data and the third data from the viewpoint “0 degree” in order from the first data by simply moving the display unit 142 from left to right. Become.

或いは、例えば、操作者は、第1データ〜第3データそれぞれを視点「0度」から立体的に観察できる視差画像群と、視点「0度」で観察される第1データ〜第3データそれぞれに対応するMPR画像とを同時に表示するための種別情報を選択する。かかる種別情報は、「画像1」、「画像2」及び「画像3」それぞれに、『第1データにおける「0度」の視差画像の基準面のMPR画像』、『第1データの「0度」の視差画像』及び『第1データの「+1度」の視差画像』が割り当てられた画像情報である。また、かかる種別情報は、「画像4」、「画像5」及び「画像6」それぞれに、『第2データにおける「0度」の視差画像の基準面のMPR画像』、『第2データの「0度」の視差画像』及び『第2データの「+1度」の視差画像』が割り当てられた画像情報である。また、かかる種別情報は、「画像7」、「画像8」及び「画像9」それぞれに、『第3データにおける「0度」の視差画像の基準面のMPR画像』、『第3データの「0度」の視差画像』及び『第3データの「+1度」の視差画像』が割り当てられた画像情報である。   Alternatively, for example, the operator can view each of the first data to the third data stereoscopically from the viewpoint “0 degree” and the first data to the third data observed at the viewpoint “0 degree”. The type information for simultaneously displaying the MPR image corresponding to is selected. Such type information includes “MPR image of the reference plane of the parallax image of“ 0 degree ”in the first data” and “0 degree of the first data” for each of “image 1”, “image 2”, and “image 3”. “Parallax image” and “+1 degree parallax image of the first data” are assigned to the image information. The type information includes “MPR image of the reference plane of the parallax image of“ 0 degree ”in the second data” and ““ of the second data ”for“ image 4 ”,“ image 5 ”, and“ image 6 ”, respectively. This is image information to which “0 degree” parallax image ”and“ second degree “+1 degree parallax image” ”are assigned. Further, the type information includes “image 7”, “image 8”, and “image 9”, “MPR image of the reference plane of the parallax image of“ 0 degree ”in the third data”, “ This is image information to which “0 degree” parallax image ”and“ third data “+1 degree” parallax image ”are assigned.

かかる種別情報の選択及び3つのボリュームデータの指定を受け付けた制御部135は、例えば、第1データ〜第3データそれぞれにおいて、視点「0度、+1度」の視点を設定する。更に、制御部135は、第1データ〜第3データそれぞれにおいて、視点「0度」の視差画像それぞれを生成するために用いる基準面(投影面)の位置情報を取得する。   The control unit 135 that has received the selection of the type information and the designation of the three volume data sets, for example, the viewpoints “0 degree, +1 degree” in each of the first data to the third data. Further, the control unit 135 acquires position information of a reference plane (projection plane) used to generate each parallax image of the viewpoint “0 degree” in each of the first data to the third data.

そして、レンダリング処理部136は、制御部135が設定したデータごとに設定した2つの視点それぞれを用いて、第1データ〜第3データのレンダリング領域それぞれをボリュームレンダリング処理することで、2つの視差画像を3組生成する。更に、レンダリング処理部135は、制御部135が設定したデータごとに設定した基準面それぞれを用いて、第1データのMPR画像(0度)、第2データのMPR画像(0度)及び第3データのMPR画像(0度)を生成する。生成された9視差画像は、例えば、3行3列の中間画像に変換され、表示部142にて表示される。   Then, the rendering processing unit 136 performs volume rendering processing on each of the rendering areas of the first data to the third data using each of the two viewpoints set for each data set by the control unit 135, thereby providing two parallax images. 3 sets are generated. Furthermore, the rendering processing unit 135 uses the reference planes set for each data set by the control unit 135 to use the MPR image (0 degree) of the first data, the MPR image (0 degree) of the second data, and the third data. An MPR image (0 degree) of data is generated. The generated nine parallax images are converted into, for example, an intermediate image of 3 rows and 3 columns and displayed on the display unit 142.

これにより、例えば、観察者は、表示部142を左から右に向かって移動するだけで、順に、第1データのMPR画像(0度)、視点「0度」から第1データが立体的に観察される画像、第2データのMPR画像(0度)、視点「0度」から第2データが立体的に観察される画像、第3データのMPR画像(0度)、視点「0度」から第3データが立体的に観察される画像を参照することができる。   Thereby, for example, the observer simply moves the display unit 142 from left to right, and sequentially, the MPR image (0 degree) of the first data and the first data from the viewpoint “0 degree” are three-dimensionally sequentially. Observed image, MPR image of second data (0 degree), image in which second data is stereoscopically observed from viewpoint “0 degree”, MPR image of third data (0 degree), viewpoint “0 degree” Thus, an image in which the third data is observed stereoscopically can be referred to.

或いは、例えば、操作者は、第1データ〜第3データそれぞれの3つのスライス位置における平面画像群を同時に表示するための種別情報を選択する。かかる種別情報は、「画像1」、「画像2」及び「画像3」それぞれに、『第1データにおける「スキャン中心位置のスライスより1スライス前の平面画像」』、『第1データにおける「スキャン中心位置の平面画像」』及び『第1データにおける「スキャン中心位置のスライスより1スライス後の平面画像」』が割り当てられた画像情報である。また、かかる種別情報は、「画像4」、「画像5」及び「画像6」それぞれに、『第2データにおける「スキャン中心位置のスライスより1スライス前の平面画像」』、『第2データにおける「スキャン中心位置の平面画像」』及び『第2データにおける「スキャン中心位置のスライスより1スライス後の平面画像」』が割り当てられた画像情報である。また、かかる種別情報は、「画像7」、「画像8」及び「画像9」それぞれに、『第3データにおける「スキャン中心位置のスライスより1スライス前の平面画像」』、『第3データにおける「スキャン中心位置の平面画像」』及び『第3データにおける「スキャン中心位置のスライスより1スライス後の平面画像」』が割り当てられた画像情報である。   Alternatively, for example, the operator selects type information for simultaneously displaying a planar image group at each of the three slice positions of the first data to the third data. Such type information includes “image 1”, “image 2”, and “image 3”, respectively, “a planar image one slice before the slice at the scan center position” in the first data, and “scan in the first data”. This is image information to which “planar image at the center position” and “planar image after one slice from the slice at the scan center position” in the first data are assigned. Further, the type information includes “image 4”, “image 5”, and “image 6”, “the planar image one slice before the slice at the scan center position” in the second data, This is image information to which “planar image at the scan center position” and “planar image after one slice from the slice at the scan center position” in the second data are assigned. Further, the type information includes “image 7”, “image 8”, and “image 9”, “a planar image one slice before the slice at the scan center position” in the third data, This is image information to which “planar image at the scan center position” and “planar image after one slice from the slice at the scan center position” in the third data are assigned.

かかる視差角情報の選択及び3つのボリュームデータの指定を受け付けた制御部135の出力制御により、例えば、観察者は、表示部142を左から右に向かって移動するだけで、順に、第1データにおける「スキャン中心位置のスライスより1スライス前の平面画像」、第1データにおける「スキャン中心位置のスライスの平面画像」、第1データにおける「スキャン中心位置のスライスより1スライス後の平面画像」を観察できる。また、観察者は、更に、表示部142を左から右に向かって移動するだけで、順に、第2データにおける「スキャン中心位置のスライスより1スライス前の平面画像」、第2データにおける「スキャン中心位置のスライスの平面画像」、第2データにおける「スキャン中心位置のスライスより1スライス後の平面画像」を観察することができる。また、観察者は、更に、表示部142を左から右に向かって移動するだけで、順に、第3データにおける「スキャン中心位置のスライスより1スライス前の平面画像」、第3データにおける「スキャン中心位置のスライスの平面画像」、第3データにおける「スキャン中心位置のスライスより1スライス後の平面画像」を観察することができる。   By the output control of the control unit 135 that has received the selection of the parallax angle information and the designation of the three volume data, for example, the observer simply moves the display unit 142 from the left to the right, in order, the first data “Plane image one slice before the slice at the scan center position”, “Plane image of the slice at the scan center position” in the first data, and “Plane image one slice after the slice at the scan center position” in the first data. Observe. In addition, the observer further moves the display unit 142 from left to right, in order, “planar image one slice before the slice at the scan center position” in the second data, and “scan” in the second data. The “planar image of the slice at the center position” and the “planar image after one slice from the slice at the scan center position” in the second data can be observed. Further, the observer further moves the display unit 142 from left to right, in order, “planar image one slice before the slice at the scan center position” in the third data, and “scan” in the third data in order. The “planar image of the slice at the center position” and the “planar image after one slice from the slice at the scan center position” in the third data can be observed.

なお、上記の説明において、画像情報に予め設定されるボリュームデータの数は、2つである場合であっても良いし、4つ以上である場合であっても良い。例えば、画像情報に設定されているボリュームデータが2つ設定されている画像情報であって、画像1〜4に一方のボリュームデータに対するレンダリング条件が指定されており、画像5〜9に他方のボリュームデータに対するレンダリング条件が指定されている画像情報が選択された場合、制御部135は、一方のボリュームデータから生成された画像群が表示部142の左側で観察され、他方のボリュームデータから生成された画像群が表示部142の右側で観察されるように出力制御を行なう。   In the above description, the number of volume data preset in the image information may be two, or may be four or more. For example, two pieces of volume data set in the image information are set, and rendering conditions for one volume data are specified for the images 1 to 4, and the other volume is set for the images 5 to 9. When image information in which rendering conditions for data are specified is selected, the control unit 135 causes the image group generated from one volume data to be observed on the left side of the display unit 142 and generated from the other volume data. Output control is performed so that the image group is observed on the right side of the display unit 142.

上記のように、制御部135が複数のボリュームデータそれぞれに対する画像情報に合致した画像群を表示させることで、観察者は、特に、病変部の経過観察を1つのモニタで簡易に行なうことができる。なお、複数のボリュームデータそれぞれに対する画像情報は、操作者により選択後、変更することが可能である。   As described above, the control unit 135 displays an image group that matches the image information for each of the plurality of volume data, so that the observer can easily perform the progress observation of the lesioned part particularly with one monitor. . The image information for each of the plurality of volume data can be changed after being selected by the operator.

(第2の実施形態)
第2の実施形態では、画像情報に合致する画像群が選択される場合について説明する。
(Second Embodiment)
In the second embodiment, a case where an image group that matches image information is selected will be described.

第2の実施形態では、例えば、端末装置140の制御部145が、ボリュームデータに対してレンダリング処理を実行するレンダリング処理部136が生成した画像群から、受け付けた画像情報に合致する画像群を選択し、当該選択した画像群が立体表示モニタに表示されるように制御する。   In the second embodiment, for example, the control unit 145 of the terminal device 140 selects an image group that matches the received image information from the image group generated by the rendering processing unit 136 that performs the rendering process on the volume data. Then, control is performed so that the selected image group is displayed on the stereoscopic display monitor.

かかる制御処理が実行可能とするために、まず、第2の実施形態に係る制御部135は、ボリュームデータから様々なレンダリング条件により視差画像群やMPR画像群を予め生成しておくように、レンダリング処理部136を指示する。図19及び図20は、第2の実施形態に係るレンダリング処理部が予め生成する画像群を説明するための図である。   In order to execute such control processing, first, the control unit 135 according to the second embodiment performs rendering so that a parallax image group and an MPR image group are generated in advance from volume data according to various rendering conditions. The processing unit 136 is instructed. 19 and 20 are diagrams for explaining an image group generated in advance by the rendering processing unit according to the second embodiment.

例えば、制御部135は、視差画像間の視差角を観察者の要望に合わせて任意に変更可能とするために、図19の(A)に示すように、被写体部分の重心を通る切断面上に正円を設定し、更に、正円の全周囲に沿って、視差角が1度間隔となるように360個の視点を設定する。なお、図19の(A)では、作図の都合上、42個しか視点が描出されていないが、実際には、360個の視点が設定されている。そして、レンダリング処理部136は、設定された360個の視点を用いて、360個の視差画像から構成される視差画像群を生成する。以下、図19の(A)に示すように、レンダリング対象に対して生成された全周囲の視差画像のことを全周囲データと記載する。なお、制御部135は、正円の半径を複数設定することで、同一平面内で複数の正円を設定しても良い。また、制御部135は、例えば、「視差角:0.5度」を設定することで、720個の視差画像から構成される全周囲データを生成させても良い。   For example, in order to allow the parallax angle between parallax images to be arbitrarily changed according to the desires of the observer, the control unit 135 is arranged on a cut surface passing through the center of gravity of the subject portion as shown in FIG. Is set to 360, and 360 viewpoints are set along the entire circumference of the circle so that the parallax angles are 1 degree apart. In FIG. 19A, only 42 viewpoints are drawn for convenience of drawing, but 360 viewpoints are actually set. Then, the rendering processing unit 136 generates a parallax image group composed of 360 parallax images using the set 360 viewpoints. Hereinafter, as shown in FIG. 19A, the all-around parallax image generated for the rendering target is referred to as all-around data. The control unit 135 may set a plurality of perfect circles within the same plane by setting a plurality of true circle radii. Further, the control unit 135 may generate all-around data composed of 720 parallax images by setting “parallax angle: 0.5 degree”, for example.

或いは、制御部135は、視差画像間の視差角を観察者の要望に合わせて任意に変更可能とするために、図19の(B)に示すように、正円に複数個の基準点を設定し(図中の斜線付きの丸を参照)、設定した複数の基準点を通る接線それぞれに沿って、視差角が1度間隔となるように9個の視点を設定する。そして、レンダリング処理部136は、各接線において設定された9個の視点を用いて、図6の(A)で説明した平行投影法により9視差画像を基準点ごとに生成する。なお、基準点は、1度間隔や、0.5度間隔で設定される。また、制御部135は、上記と同様に、正円の半径を複数設定することで、同一平面内で複数の正円を設定しても良い。   Alternatively, the control unit 135 sets a plurality of reference points on a perfect circle as shown in FIG. 19B in order to arbitrarily change the parallax angle between the parallax images according to the request of the observer. Nine viewpoints are set so that the parallax angle is 1 degree apart along each of the tangent lines passing through the plurality of set reference points. Then, the rendering processing unit 136 generates nine parallax images for each reference point by the parallel projection method described with reference to FIG. 6A using the nine viewpoints set for each tangent. The reference points are set at 1 degree intervals or 0.5 degree intervals. Further, similarly to the above, the control unit 135 may set a plurality of perfect circles in the same plane by setting a plurality of true circle radii.

また、制御部135は、例えば、図19の(C)に示すように、被写体部分の重心を通る回転軸を複数設定することで、複数の正円を設定し、各正円において視差画像群(全周囲データ)が生成されるように制御する。   Further, for example, as shown in FIG. 19C, the control unit 135 sets a plurality of rotation axes that pass through the center of gravity of the subject portion, thereby setting a plurality of perfect circles, and a parallax image group in each perfect circle. Control is performed so that (all surrounding data) is generated.

更に、制御部135は、図20に示すように、回転軸ごとの全周囲データの生成に用いられた視点の基準面に対応するMPR画像を生成するようにレンダリング処理部136を制御する。かかる制御により、レンダリング処理部136は、図18に示すように、回転軸(1)の全周囲データに対応するMPR画像群として「MPR画像(−179度)、・・・・、MPR画像(−1度)、MPR画像(0度)、MPR画像(+1度)、・・・・、MPR画像(+179度)、MPR画像(+180度)」を生成する。同様に、レンダリング処理部136は、図18に示すように、回転軸(2)の全周囲データに対応するMPR画像群や、回転軸(3)の全周囲データに対応するMPR画像群を生成する。   Furthermore, as shown in FIG. 20, the control unit 135 controls the rendering processing unit 136 so as to generate an MPR image corresponding to the reference plane of the viewpoint used for generating all-around data for each rotation axis. By such control, the rendering processing unit 136, as shown in FIG. 18, displays “MPR image (−179 degrees),..., MPR image (MPR image (−179 °),..., MPR image ( −1 degree), MPR image (0 degree), MPR image (+1 degree),..., MPR image (+179 degree), MPR image (+180 degree) ”. Similarly, as shown in FIG. 18, the rendering processing unit 136 generates an MPR image group corresponding to all-around data of the rotation axis (2) and an MPR image group corresponding to all-around data of the rotation axis (3). To do.

そして、制御部135は、レンダリング処理部136が生成した視差画像群やMPR画像群を、生成元のボリュームデータに対応付けて、記憶部134又は画像保管装置120に格納する。以下では、視差画像群やMPR画像群が画像保管装置120に通信部133を介して格納される場合について説明する。   Then, the control unit 135 stores the parallax image group and the MPR image group generated by the rendering processing unit 136 in the storage unit 134 or the image storage device 120 in association with the generation source volume data. Hereinafter, a case where a parallax image group and an MPR image group are stored in the image storage device 120 via the communication unit 133 will be described.

端末装置140の操作者は、第1の実施形態と同様に、ボリュームデータの指定及び画像情報の選択を、入力部141を介して入力する。そして、制御部145は、入力部141が受け付けたボリュームデータに対応付けられた画像群を画像保管装置120から取得する。具体的には、通信部143は、制御部145の制御により、操作者が入力したボリュームデータの付帯情報を画像保管装置120に送信する。画像保管装置120は、受信した付帯情報に対応付けられたボリュームデータを検索し、検索したボリュームデータに対応付けられた画像群を端末装置140に送信する。   The operator of the terminal device 140 inputs volume data designation and image information selection via the input unit 141 as in the first embodiment. Then, the control unit 145 acquires an image group associated with the volume data received by the input unit 141 from the image storage device 120. Specifically, the communication unit 143 transmits the auxiliary information of the volume data input by the operator to the image storage device 120 under the control of the control unit 145. The image storage device 120 searches for volume data associated with the received supplementary information, and transmits an image group associated with the retrieved volume data to the terminal device 140.

制御部145は、通信部143が受信した画像群から選択された画像情報に合致する画像群(視差数分の画像)を選択し、選択した画像群を中間画像に変換したうえで、表示部142に表示させる。   The control unit 145 selects an image group (images corresponding to the number of parallaxes) that matches the selected image information from the image group received by the communication unit 143, converts the selected image group into an intermediate image, and then displays the display unit. 142 is displayed.

次に、図21及び図22を用いて第2の実施形態に係る画像処理システム1の処理について説明する。図21は、第2の実施形態に係るワークステーションの処理を説明するためのフローチャートである。また、図22は、第2の実施形態に係る端末装置の処理を説明するためのフローチャートである。   Next, processing of the image processing system 1 according to the second embodiment will be described with reference to FIGS. 21 and 22. FIG. 21 is a flowchart for explaining processing of the workstation according to the second embodiment. FIG. 22 is a flowchart for explaining processing of the terminal device according to the second embodiment.

図21に示すように、第2の実施形態に係る画像処理システム1のワークステーション130は、ワークステーション130の操作者により、処理対象となるボリュームデータが指定されたか否かを判定する(ステップS301)。ここで、ボリュームデータが指定されない場合(ステップS301否定)、ワークステーション130は、ボリュームデータが指定されるまで待機する。   As shown in FIG. 21, the workstation 130 of the image processing system 1 according to the second embodiment determines whether or not volume data to be processed has been designated by the operator of the workstation 130 (step S301). ). Here, when the volume data is not designated (No at Step S301), the workstation 130 waits until the volume data is designated.

一方、ボリュームデータが指定された場合(ステップS301肯定)、制御部135は、指定されたボリュームデータを画像保管装置120から取得する(ステップS302)。そして、制御部135は、ワークステーション130の操作者から、ボリュームデータに対するレンダリング条件を受け付けたか否かを判定する(ステップS303)。ステップS303におけるレンダリング条件は、図19及び図20で説明したように、視差数以上の画像群を生成するための条件であり、記憶部134に格納されている複数種類の画像情報に合致する画像群を全て生成するためのレンダリング条件である。更に、ステップS303におけるレンダリング条件は、複数種類の画像情報が変更される場合に生成すべき画像群が網羅されるように受け付けるレンダリング条件であっても良い。   On the other hand, when the volume data is designated (Yes at Step S301), the control unit 135 acquires the designated volume data from the image storage device 120 (Step S302). Then, the control unit 135 determines whether a rendering condition for volume data has been received from the operator of the workstation 130 (step S303). As described with reference to FIGS. 19 and 20, the rendering condition in step S <b> 303 is a condition for generating an image group equal to or greater than the number of parallaxes, and an image that matches a plurality of types of image information stored in the storage unit 134. This is a rendering condition for generating all groups. Furthermore, the rendering condition in step S303 may be a rendering condition that is accepted so as to cover an image group to be generated when a plurality of types of image information are changed.

レンダリング条件を受け付けない場合(ステップS303否定)、制御部135は、レンダリング条件を受け付けるまで待機する。一方、レンダリング条件を受け付けた場合(ステップS303肯定)、制御部135の制御により、レンダリング処理部136は、レンダリング条件に基づいて、ボリュームデータから視差画像群やMPR画像群等の画像群を生成する(ステップS304)。   When the rendering condition is not accepted (No at Step S303), the control unit 135 waits until the rendering condition is accepted. On the other hand, when the rendering condition is received (Yes at step S303), the rendering processing unit 136 generates an image group such as a parallax image group or an MPR image group from the volume data based on the rendering condition under the control of the control unit 135. (Step S304).

そして、通信部133は、制御部135の制御により、画像群を画像保管装置120に送信することで、画像群を格納し(ステップS305)、処理を終了する。ワークステーション130は、図21を用いて説明した処理を、例えば、画像保管装置120に新規にボリュームデータが格納されるごとに繰り返して実行する。   Then, the communication unit 133 stores the image group by transmitting the image group to the image storage device 120 under the control of the control unit 135 (step S305), and ends the process. The workstation 130 repeatedly executes the processing described with reference to FIG. 21 every time volume data is newly stored in the image storage device 120, for example.

その後、図22に示すように、第2の実施形態に係る画像処理システム1の端末装置140は、端末装置140の操作者により、処理対象となるボリュームデータの指定とともに画像情報の選択を受け付けた否かを判定する(ステップS401)。ここで、ボリュームデータの指定及び画像情報の選択を受け付けない場合(ステップS401否定)、端末装置140は、ボリュームデータの指定及び画像情報の選択を受け付けるまで待機する。   Thereafter, as illustrated in FIG. 22, the terminal device 140 of the image processing system 1 according to the second embodiment receives selection of image information together with designation of volume data to be processed by the operator of the terminal device 140. It is determined whether or not (step S401). Here, when the designation of volume data and the selection of image information are not accepted (No in step S401), the terminal device 140 waits until the designation of volume data and the selection of image information are accepted.

一方、ボリュームデータの指定及び画像情報の選択を受け付けた場合(ステップS401肯定)、制御部145は、通信部143を介して、画像保管装置120から指定されたボリュームデータに対応付けられた画像群を取得する(ステップS402)。そして、制御部145は、取得した画像群から選択された画像情報に合致する視差数分の画像群を選択する(ステップS403)。   On the other hand, when the designation of volume data and the selection of image information are received (Yes at step S401), the control unit 145 transmits an image group associated with the volume data designated from the image storage device 120 via the communication unit 143. Is acquired (step S402). Then, the control unit 145 selects an image group corresponding to the number of parallaxes that matches the image information selected from the acquired image group (step S403).

そして、制御部145は、選択した画像群を中間画像に変換し(ステップS404)、表示部142にて表示させ(ステップS405)、処理を終了する。   Then, the control unit 145 converts the selected image group into an intermediate image (step S404), causes the display unit 142 to display the image group (step S405), and ends the process.

上述してきたように、第2の実施形態では、観察者に要求されることが推定される画像情報に合致する画像群を予め生成しておくことで、立体視可能なモニタにて表示される画像群を簡易に変更することができる。また、新規のボリュームデータに対して画像情報に合致する視差画像群やMPR画像群を順次生成しておくことで、同一被検体の同一部位を異なる時期に撮影することで生成された複数のボリュームデータに対する画像情報の選択を受け付けた場合でも、立体視可能なモニタにて表示される画像群を簡易に変更することができる。   As described above, in the second embodiment, an image group that matches the image information estimated to be required by the observer is generated in advance, and displayed on a stereoscopically viewable monitor. The image group can be changed easily. In addition, a plurality of volumes generated by photographing the same part of the same subject at different times by sequentially generating a parallax image group and an MPR image group matching the image information for new volume data Even when selection of image information for data is accepted, the group of images displayed on a stereoscopically visible monitor can be easily changed.

なお、上記では、画像保管装置120から画像群を取得する場合について説明した。しかし、画像群の取得先は、ワークステーション130であっても良い。また、上記では、選択された画像情報に合致する画像群の選択処理が制御部145により実行される場合について説明した。しかし、選択された画像情報に合致する画像群の選択処理は、端末装置140の操作者が入力した画像情報を受信した制御部135により実行される場合であっても良い。かかる場合、制御部145は、受信した選択済みの画像群を中間画像に変換して表示部142に出力する。   In the above description, the case where an image group is acquired from the image storage device 120 has been described. However, the acquisition destination of the image group may be the workstation 130. In the above description, a case has been described in which the control unit 145 performs the process of selecting an image group that matches the selected image information. However, the process of selecting an image group that matches the selected image information may be executed by the control unit 135 that has received the image information input by the operator of the terminal device 140. In such a case, the control unit 145 converts the received selected image group into an intermediate image and outputs the intermediate image to the display unit 142.

また、本実施形態は、表示部132として9視差モニタを有するワークステーション130の操作者が、表示部132や表示部142に表示される画像群の画像情報を選択設定する場合であっても適用可能である。   Further, the present embodiment is applicable even when an operator of a workstation 130 having a nine-parallax monitor as the display unit 132 selects and sets image information of an image group displayed on the display unit 132 or the display unit 142. Is possible.

なお、上記の実施形態では、運動視差に応じて観察者により観察される画像が変更可能なモニタが9視差モニタである場合について説明した。しかし、上記の実施形態は、運動視差に応じて観察者により観察される画像が切り替わるデュアルディスプレイにおいても適用することができる。図23は、変形例を説明するための図である。   In the above embodiment, the case where the monitor that can change the image observed by the observer according to the motion parallax is the 9-parallax monitor has been described. However, the above embodiment can also be applied to a dual display in which images observed by an observer are switched according to motion parallax. FIG. 23 is a diagram for explaining a modification.

デュアルディスプレイは、例えば、図23の(A)に示すように、右方向で観察される画像と、左方向で観察される画像とが異なるように構成された表示装置である。かかる表示装置が端末装置140に接続される場合、例えば、端末装置140の操作者は、右側にて「+90度」のボリュームレンダリング画像を表示し、左側にて「−60度」のボリュームレンダリング画像を表示するための画像情報を選択する。かかる画像情報の選択を受け付けた制御部135は、視差画像としても使用可能な「+90度」のボリュームレンダリング画像及び「−60度」のボリュームレンダリング画像をレンダリング処理部136に生成させる。或いは、制御部145は、視差画像群として格納されている「+90度」のボリュームレンダリング画像及び「−60度」のボリュームレンダリング画像を選択する。そして、制御部145は、図21の(B)に示すように、「+90度」のボリュームレンダリング画像及び「−60度」のボリュームレンダリング画像をデュアルディスプレイに出力する。   For example, as shown in FIG. 23A, the dual display is a display device configured such that an image observed in the right direction is different from an image observed in the left direction. When such a display device is connected to the terminal device 140, for example, the operator of the terminal device 140 displays a volume rendering image of “+90 degrees” on the right side and a volume rendering image of “−60 degrees” on the left side. Select image information to display. Upon receiving the selection of the image information, the control unit 135 causes the rendering processing unit 136 to generate a “+90 degree” volume rendering image and a “−60 degree” volume rendering image that can also be used as a parallax image. Alternatively, the control unit 145 selects a “+90 degree” volume rendering image and a “−60 degree” volume rendering image stored as a parallax image group. Then, as illustrated in FIG. 21B, the control unit 145 outputs the volume rendering image of “+90 degrees” and the volume rendering image of “−60 degrees” to the dual display.

上記の変形例によっても、モニタにて表示される画像群を、観察者の要求に応じて、変更することができる。   Also according to the above modification, the image group displayed on the monitor can be changed according to the request of the observer.

また、上記では平面画像としてMPR画像が用いられる場合について説明したが、平面画像としては、「Cueved MPR画像」や、MIP画像、厚み付きMIP画像等が用いられる場合であっても良い。   In the above description, an MPR image is used as a planar image. However, a “Cuved MPR image”, a MIP image, a thick MIP image, or the like may be used as the planar image.

なお、上記の第1の実施形態で説明した制御部135による画像群の生成制御は、画像情報選択の受け付け元である端末装置140の制御部145により実行される場合であっても良い。かかる場合、制御部145の制御指示がレンダリング処理部136に送出される。また、観察者の画像情報選択に応じた画像群の生成処理は、レンダリング処理部136の機能を有する医用画像診断装置110において実行される場合であっても良い。かかる場合において、画像情報選択の受け付け元は、医用画像診断装置110、ワークステーション130及び端末装置140のいずれであっても良い。また、観察者が選択した画像情報に合致した画像群の生成制御は、画像情報選択の受け付け元の装置によって行なわれる場合であっても良いし、画像群の生成処理を行なう装置によって行なわれる場合であっても良いし、これらの装置以外の装置によって行なわれる場合であっても良い。   Note that the image group generation control by the control unit 135 described in the first embodiment may be executed by the control unit 145 of the terminal device 140 that is the reception source of the image information selection. In such a case, a control instruction from the control unit 145 is sent to the rendering processing unit 136. Further, the image group generation processing according to the image information selection of the observer may be executed by the medical image diagnostic apparatus 110 having the function of the rendering processing unit 136. In such a case, the reception source of the image information selection may be any of the medical image diagnostic apparatus 110, the workstation 130, and the terminal device 140. In addition, the generation control of the image group that matches the image information selected by the observer may be performed by the apparatus that receives the image information selection, or may be performed by the apparatus that performs the image group generation process. It is also possible to use a device other than these devices.

また、上記の第2の実施形態で説明した制御部135により予め行なわれる画像群の生成制御は、画像情報選択の受け付け元である端末装置140の制御部145により実行される場合であっても良い。かかる場合、制御部145の制御指示がレンダリング処理部136に送出される。また、予め行なわれる画像群の生成処理は、レンダリング処理部136の機能を有する医用画像診断装置110において実行される場合であっても良い。かかる場合において、画像情報選択の受け付け元は、医用画像診断装置110、ワークステーション130及び端末装置140のいずれであっても良い。また、観察者の要求に合致した画像群の選択制御は、画像情報選択の受け付け元の装置によって行なわれる場合であっても良いし、画像群の生成処理を行なう装置によって行なわれる場合であっても良いし、これらの装置以外の装置によって行なわれる場合であっても良い。   Moreover, even when the image group generation control performed in advance by the control unit 135 described in the second embodiment is executed by the control unit 145 of the terminal device 140 that is the reception source of the image information selection. good. In such a case, a control instruction from the control unit 145 is sent to the rendering processing unit 136. The image group generation processing performed in advance may be executed by the medical image diagnostic apparatus 110 having the function of the rendering processing unit 136. In such a case, the reception source of the image information selection may be any of the medical image diagnostic apparatus 110, the workstation 130, and the terminal device 140. Further, the selection control of the image group that matches the request of the observer may be performed by a device that receives an image information selection, or may be performed by a device that performs an image group generation process. Alternatively, it may be performed by a device other than these devices.

すなわち、上記の実施形態で説明したレンダリング処理部136、制御部135及び制御部145等の処理は、画像処理システム1に含まれる各装置の各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、上記の実施形態で説明したレンダリング処理部136、制御部135及び制御部145等の処理は、医用画像診断装置110が単独で行なう場合であっても良い。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。   That is, the processing of the rendering processing unit 136, the control unit 135, the control unit 145, and the like described in the above embodiment is performed in an arbitrary unit according to various loads and usage conditions of each device included in the image processing system 1. Can be configured functionally or physically distributed and integrated. For example, the processing of the rendering processing unit 136, the control unit 135, the control unit 145, and the like described in the above embodiment may be performed by the medical image diagnostic apparatus 110 alone. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.

なお、上記の実施形態で説明した画像処理方法は、あらかじめ用意された画像処理プログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。この画像処理プログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO、DVD、Blu-ray Disc(登録商標)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することもできる。   The image processing method described in the above embodiment can be realized by executing an image processing program prepared in advance on a computer such as a personal computer or a workstation. This image processing program can be distributed via a network such as the Internet. The program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, a DVD, or a Blu-ray Disc (registered trademark), and is read from the recording medium by the computer. Can also be implemented.

以上、説明したとおり、第1の実施形態、第2の実施形態及び変形例によれば、立体視可能なモニタにて表示される画像群を変更することができる。   As described above, according to the first embodiment, the second embodiment, and the modification, it is possible to change the image group displayed on the stereoscopically visible monitor.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

1 画像処理システム
2 院内LAN(Local Area Network)
110 医用画像診断装置
120 画像保管装置
130 ワークステーション
131 入力部
132 表示部
133 通信部
134 記憶部
135 制御部
136 レンダリング処理部
140 端末装置
141 入力部
142 表示部
143 通信部
144 記憶部
145 制御部
1 Image processing system 2 Hospital LAN (Local Area Network)
DESCRIPTION OF SYMBOLS 110 Medical diagnostic imaging apparatus 120 Image storage apparatus 130 Workstation 131 Input part 132 Display part 133 Communication part 134 Storage part 135 Control part 136 Rendering process part 140 Terminal apparatus 141 Input part 142 Display part 143 Communication part 144 Storage part 145 Control part

Claims (16)

所定数の画像を同時に表示する立体表示装置に対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像との対応関係に基づいて、前記所定数の画像として3次元の医用画像データであるボリュームデータに基づく画像を割り当てるための画像情報を、複数種類記憶する記憶部と、
前記複数種類の画像情報から選択された画像情報に合致する所定数の画像が前記立体表示装置に表示されるように制御する制御部と、
を備えたことを特徴とする画像処理システム。
A three-dimensional medical image as the predetermined number of images based on the correspondence between the observer's viewpoint position with respect to the stereoscopic display device that simultaneously displays the predetermined number of images and the image viewed by the observer at the viewpoint position. A storage unit for storing a plurality of types of image information for assigning images based on volume data that is data;
A control unit that controls a predetermined number of images that match image information selected from the plurality of types of image information to be displayed on the stereoscopic display device;
An image processing system comprising:
前記画像情報の変更を受け付ける入力部、
を更に備え、
前記制御部は、前記入力部が受け付けた変更後の画像情報に合致する所定数の画像が前記立体表示装置に表示されるように制御することを特徴とする請求項1に記載の画像処理システム。
An input unit for receiving a change in the image information;
Further comprising
The image processing system according to claim 1, wherein the control unit performs control so that a predetermined number of images that match the changed image information received by the input unit are displayed on the stereoscopic display device. .
前記画像情報は、前記ボリュームデータからボリュームレンダリング処理により生成される視差画像群を前記所定数の画像として割り当てた情報であって、視差画像間の視差角を指定した情報である視差角情報であることを特徴とする請求項1又は2に記載の画像処理システム。   The image information is information in which a parallax image group generated by volume rendering processing from the volume data is assigned as the predetermined number of images, and is parallax angle information that is information specifying a parallax angle between parallax images. The image processing system according to claim 1, wherein the image processing system is an image processing system. 前記視差角情報は、前記立体表示装置に対する観察者の相対的移動角度に近接した角度にてボリュームデータが観察される視差画像群を生成するための視差角を指定した情報であることを特徴とする請求項3に記載の画像処理システム。   The parallax angle information is information specifying a parallax angle for generating a parallax image group in which volume data is observed at an angle close to a relative movement angle of an observer with respect to the stereoscopic display device. The image processing system according to claim 3. 前記視差角情報は、前記立体表示装置に対する観察者の相対的移動角度に近接した角度より大きい角度にてボリュームデータが観察される視差画像群を生成するための視差角を指定した情報であることを特徴とする請求項3に記載の画像処理システム。   The parallax angle information is information specifying a parallax angle for generating a parallax image group in which volume data is observed at an angle larger than an angle close to a relative movement angle of an observer with respect to the stereoscopic display device. The image processing system according to claim 3. 前記画像情報は、前記ボリュームデータに基づく所定数の画像を構成する各画像の種別を指定した種別情報であることを特徴とする請求項1又は2に記載の画像処理システム。   The image processing system according to claim 1, wherein the image information is type information specifying a type of each image constituting a predetermined number of images based on the volume data. 前記種別情報は、前記立体表示装置にて立体視用に表示される視差画像及び当該視差画像の生成に用いられる基準面により前記ボリュームデータを切断した平面画像を前記所定数の画像に割り当てた情報であることを特徴とする請求項6に記載の画像処理システム。   The type information is information in which a parallax image displayed for stereoscopic vision on the stereoscopic display device and a plane image obtained by cutting the volume data with a reference plane used for generating the parallax image are allocated to the predetermined number of images. The image processing system according to claim 6, wherein: 前記種別情報は、前記ボリュームデータを異なる平面で切断した平面画像群を前記所定数の画像に割り当てた情報であることを特徴とする請求項6に記載の画像処理システム。   The image processing system according to claim 6, wherein the type information is information in which a group of plane images obtained by cutting the volume data along different planes is assigned to the predetermined number of images. 前記種別情報は、前記ボリュームデータを再構成するために用いられたスライス画像群を前記所定数の画像に割り当てた情報であることを特徴とする請求項6に記載の画像処理システム。   The image processing system according to claim 6, wherein the type information is information in which a slice image group used to reconstruct the volume data is assigned to the predetermined number of images. 前記画像情報は、2つのボリュームデータを重畳する際の不透明度を指定した不透明度情報であることを特徴とする請求項1又は2に記載の画像処理システム。   The image processing system according to claim 1, wherein the image information is opacity information that specifies an opacity when two volume data are superimposed. 前記制御部は、前記ボリュームデータに対してレンダリング処理を実行するレンダリング処理部に対して、前記画像情報に合致する画像群を生成するように制御し、前記レンダリング処理部が生成した画像群が前記立体表示装置に表示されるように制御することを特徴とする請求項1〜10のいずれか1つに記載の画像処理システム。   The control unit controls a rendering processing unit that performs a rendering process on the volume data so as to generate an image group that matches the image information, and the image group generated by the rendering processing unit The image processing system according to claim 1, wherein the image processing system is controlled so as to be displayed on a stereoscopic display device. 前記制御部は、前記ボリュームデータに対してレンダリング処理を実行するレンダリング処理部が生成した画像群から、前記画像情報に合致する画像群を選択し、当該選択した画像群が前記立体表示装置に表示されるように制御することを特徴とする請求項1〜10のいずれか1つに記載の画像処理システム。   The control unit selects an image group that matches the image information from an image group generated by a rendering processing unit that performs a rendering process on the volume data, and the selected image group is displayed on the stereoscopic display device. The image processing system according to claim 1, wherein the image processing system is controlled so as to be performed. 所定数の画像を同時に表示する立体表示装置に対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像との対応関係に基づいて、前記所定数の画像として3次元の医用画像データであるボリュームデータに基づく画像を割り当てるための画像情報を、複数種類記憶する記憶部と、
前記複数種類の画像情報から選択された画像情報に合致する所定数の画像が前記立体表示装置に表示されるように制御する制御部と、
を備えたことを特徴とする画像処理装置。
A three-dimensional medical image as the predetermined number of images based on the correspondence between the observer's viewpoint position with respect to the stereoscopic display device that simultaneously displays the predetermined number of images and the image viewed by the observer at the viewpoint position. A storage unit for storing a plurality of types of image information for assigning images based on volume data that is data;
A control unit that controls a predetermined number of images that match image information selected from the plurality of types of image information to be displayed on the stereoscopic display device;
An image processing apparatus comprising:
所定数の画像を同時に表示する立体表示装置に対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像との対応関係に基づいて、前記所定数の画像として3次元の医用画像データであるボリュームデータに基づく画像を割り当てるための画像情報を、複数種類記憶する記憶部と、
前記複数種類の画像情報から選択された画像情報に合致する所定数の画像が前記立体表示装置に表示されるように制御する制御部と、
を備えたことを特徴とする医用画像診断装置。
A three-dimensional medical image as the predetermined number of images based on the correspondence between the observer's viewpoint position with respect to the stereoscopic display device that simultaneously displays the predetermined number of images and the image viewed by the observer at the viewpoint position. A storage unit for storing a plurality of types of image information for assigning images based on volume data that is data;
A control unit that controls a predetermined number of images that match image information selected from the plurality of types of image information to be displayed on the stereoscopic display device;
A medical image diagnostic apparatus comprising:
所定数の画像を同時に表示する立体表示装置に対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像との対応関係に基づいて、前記所定数の画像として3次元の医用画像データであるボリュームデータに基づく画像を割り当てるための複数種類の画像情報から選択された画像情報に合致する所定数の画像が前記立体表示装置に表示されるように制御する制御ステップ、
を含んだことを特徴とする画像処理方法。
A three-dimensional medical image as the predetermined number of images based on the correspondence between the observer's viewpoint position with respect to the stereoscopic display device that simultaneously displays the predetermined number of images and the image viewed by the observer at the viewpoint position. A control step for controlling a predetermined number of images that match image information selected from a plurality of types of image information for allocating images based on volume data as data to be displayed on the stereoscopic display device;
An image processing method comprising:
所定数の画像を同時に表示する立体表示装置に対する観察者の視点位置と当該視点位置にて当該観察者により視認される画像との対応関係に基づいて、前記所定数の画像として3次元の医用画像データであるボリュームデータに基づく画像を割り当てるための複数種類の画像情報から選択された画像情報に合致する所定数の画像が前記立体表示装置に表示されるように制御する制御手順、
をコンピュータに実行させることを特徴とする画像処理プログラム。
A three-dimensional medical image as the predetermined number of images based on the correspondence between the observer's viewpoint position with respect to the stereoscopic display device that simultaneously displays the predetermined number of images and the image viewed by the observer at the viewpoint position. A control procedure for controlling so that a predetermined number of images matching image information selected from a plurality of types of image information for allocating images based on volume data that is data are displayed on the stereoscopic display device;
An image processing program for causing a computer to execute.
JP2011170441A 2011-08-03 2011-08-03 Image processing system, image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program Expired - Fee Related JP6017124B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011170441A JP6017124B2 (en) 2011-08-03 2011-08-03 Image processing system, image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011170441A JP6017124B2 (en) 2011-08-03 2011-08-03 Image processing system, image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2013038467A true JP2013038467A (en) 2013-02-21
JP6017124B2 JP6017124B2 (en) 2016-10-26

Family

ID=47887692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011170441A Expired - Fee Related JP6017124B2 (en) 2011-08-03 2011-08-03 Image processing system, image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6017124B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016214332A (en) * 2015-05-15 2016-12-22 コニカミノルタ株式会社 Effect determination system and medical image displaying method
JP2018033687A (en) * 2016-08-31 2018-03-08 Psp株式会社 Medical image stereoscopic display processing device and program
JP2020515127A (en) * 2017-03-24 2020-05-21 ミスアプライド サイエンシーズ, インコーポレイテッドMisapplied Sciences, Inc. Display system and method for delivering multi-view content

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022921A (en) * 1999-06-25 2001-01-26 Terarikon Inc Three-dimensional image display device
JP2006101329A (en) * 2004-09-30 2006-04-13 Kddi Corp Stereoscopic image observation device and its shared server, client terminal and peer to peer terminal, rendering image creation method and stereoscopic image display method and program therefor, and storage medium
JP2010154052A (en) * 2008-12-24 2010-07-08 Hitachi Ltd System for controlling a plurality of cameras
JP2010250457A (en) * 2009-04-14 2010-11-04 Fujifilm Corp Medical image management device and method
JP2011130922A (en) * 2009-12-24 2011-07-07 Toshiba Corp X-ray computer tomographic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001022921A (en) * 1999-06-25 2001-01-26 Terarikon Inc Three-dimensional image display device
JP2006101329A (en) * 2004-09-30 2006-04-13 Kddi Corp Stereoscopic image observation device and its shared server, client terminal and peer to peer terminal, rendering image creation method and stereoscopic image display method and program therefor, and storage medium
JP2010154052A (en) * 2008-12-24 2010-07-08 Hitachi Ltd System for controlling a plurality of cameras
JP2010250457A (en) * 2009-04-14 2010-11-04 Fujifilm Corp Medical image management device and method
JP2011130922A (en) * 2009-12-24 2011-07-07 Toshiba Corp X-ray computer tomographic device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016214332A (en) * 2015-05-15 2016-12-22 コニカミノルタ株式会社 Effect determination system and medical image displaying method
JP2018033687A (en) * 2016-08-31 2018-03-08 Psp株式会社 Medical image stereoscopic display processing device and program
JP2020515127A (en) * 2017-03-24 2020-05-21 ミスアプライド サイエンシーズ, インコーポレイテッドMisapplied Sciences, Inc. Display system and method for delivering multi-view content

Also Published As

Publication number Publication date
JP6017124B2 (en) 2016-10-26

Similar Documents

Publication Publication Date Title
JP5909055B2 (en) Image processing system, apparatus, method and program
JP6058290B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP6211764B2 (en) Image processing system and method
JP5808146B2 (en) Image processing system, apparatus and method
JP6005905B2 (en) Image processing system, image processing apparatus, and image processing method
JP5818531B2 (en) Image processing system, apparatus and method
JP5972533B2 (en) Image processing system and method
JP6430149B2 (en) Medical image processing device
US9445082B2 (en) System, apparatus, and method for image processing
JP5797485B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP5921102B2 (en) Image processing system, apparatus, method and program
JP5784379B2 (en) Image processing system, apparatus and method
JP5804760B2 (en) Image processing system and method
JP6017124B2 (en) Image processing system, image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program
JP6005913B2 (en) Notification device, notification method, and medical image diagnostic device
JP6104982B2 (en) Image processing apparatus, image processing method, and medical image diagnostic apparatus
JP5813986B2 (en) Image processing system, apparatus, method and program
JP5974235B2 (en) Image processing apparatus, image processing method, image processing system, and medical image diagnostic apparatus
JP2013017056A (en) Image processing system, image processing method, and medical image diagnostic device
JP5835975B2 (en) Image processing system, apparatus, method, and medical image diagnostic apparatus
JP6087618B2 (en) Image processing system and image processing method
JP5868051B2 (en) Image processing apparatus, image processing method, image processing system, and medical image diagnostic apparatus
JP2013013552A (en) Medical image diagnostic apparatus, and medical image processing device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150721

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160322

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160928

R150 Certificate of patent or registration of utility model

Ref document number: 6017124

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees